Pobież książkę - Ko-oper - Politechnika Wrocławska

Transkrypt

Pobież książkę - Ko-oper - Politechnika Wrocławska
Interdyscyplinarność
badań naukowych
Praca zbiorowa pod redakcją Jarosława Szreka
Oficyna Wydawnicza Politechniki Wrocławskiej
Wrocław 2009
Redakcja
Jarosław Szrek
Współpraca
Sławomir Wudarczyk, Maciej Paszkowski,
Przemysław Sperzyński, Jacek Sipa.
Grupa „Ko-oper”
Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn
ul. Łukasiewicza 7/9, 50-371 Wrocław
http://ko-oper.pwr.wroc.pl, e-mail: [email protected]
Projekt okładki i nadruku na płytę
Karolina Wójtowicz
Patronat
Rada Doktorantów Politechniki Wrocławskiej,
http://rada-doktoranci.pwr.wroc.pl
Wsparcie
Prof. dr hab. inż. Andrzej Kasprzak, Prorektor ds. Nauczania,
Prof. dr hab. inż. Dionizy Dudek, Dyrektor Instytutu Konstrukcji i Eksploatacji Maszyn.
Wydano na podstawie dostarczonych materiałów
Wszelkie prawa zastrzeżone - żadna część niniejszej książki zarówno w całości,
jak i we fragmentach, nie może być reprodukowana w sposób elektroniczny,
fotograficzny i inny bez zgody wydawcy.
© Copyright by Politechnika Wrocławska, Grupa „Ko-oper”, Wrocław 2009
OFICYNA WYDAWNICZA POLITECHNIKI WROCŁAWSKIEJ
Wybrzeże Wyspiańskiego 27, 50-370 Wrocław
http://www.oficyna.pwr.wroc.pl
e-mail: [email protected]
ISBN 978-83-7493-472-5
Spis treści
Spis treści
4
Słowo wst˛epne
7
I Architektura
8
Różnorodność rozwiazań
˛
ekologicznych we współczesnej architekturze mieszkaniowej. Analiza na wybranych przykładach
- Anna Krajewska . . . . . . . . . . . . . . . . . . . . . . . .
9
Architektura w dobie globalizacji. Analiza na wybranych
przykładach
- Joanna Krajewska . . . . . . . . . . . . . . . . . . . . . . . 13
Wpływ trudnego klimatu i ukształtowania terenu Islandii na budow˛e domów darniowych
- Paweł Orłowski . . . . . . . . . . . . . . . . . . . . . . . . 19
Projektowanie wn˛etrz współczesnych sal koncertowych. Układ centralny tarasowy.
- Joanna Jabłońska . . . . . . . . . . . . . . . . . . . . . . . 25
II Nauki chemiczne
31
Inhibitowanie wzrostu cyjanobakterii przez allelochemiczne
zwiazki
˛ wydzielane przez makrolity
- Barbara Macioszek . . . . . . . . . . . . . . . . . . . . . . 32
4
Optymalizacja procesu grawitacyjnego odwadniania osadów organicznych z użyciem polielektrolitów
- Grzegorz Maliga, Jerzy Składzień, Janusz Szymków . . . . . 38
Usuwanie toksyn sinicowych w procesie uzdatniania wody
- Dominik Szczukocki . . . . . . . . . . . . . . . . . . . . . . 44
Stabilizacja czy destabilizacja czasteczki
˛
DNA-fotochemiczne działanie promieniowania z zakresu bliskiej podczerwieni
- Katarzyna Szymborska . . . . . . . . . . . . . . . . . . . . . 52
III Nauki techniczne
60
System wspomagania wyprzedzania pojazdów - wprowadzenie
- Magdalena Barańska . . . . . . . . . . . . . . . . . . . . . 61
Badanie możliwości wykorzystania metod analizy dynamiki
tworzenia wypowiedzi do celów rozpoznawania mówcy
- Łukasz Bronakowski . . . . . . . . . . . . . . . . . . . . . . 67
Realizacja pami˛eci w sekwencyjnych algorytmach sterowania
- Łukasz Dworzak, Tadeusz Mikulczyński . . . . . . . . . . . . 71
Zastosowanie rezystancyjnych czujników gazów do pomiarów lotnych zwiazków
˛
organicznych
- Barbara Flisowska-Wiercik . . . . . . . . . . . . . . . . . . 77
Rozwój
układów
bezpieczeństwa
czynnego
w
pojazdach
użytkowych.
- Arkadiusz Gierczak . . . . . . . . . . . . . . . . . . . . . . 83
Modyfikacja geometrii i analiza zm˛eczeniowa tłumika pulsacji
spr˛eżarki śrubowej schładzacza cieczy
- Piotr Harnatkiewicz . . . . . . . . . . . . . . . . . . . . . . 89
Metoda energooszcz˛ednego procesu ładowania ośrodka rozdrobnionego
- Radosław Ilnicki . . . . . . . . . . . . . . . . . . . . . . . . 97
5
Wymiana ciepła w wymienniku krzyżowym w systemach wentylacji i klimatyzacji
- Andrzej Jedlikowski, Maciej Skrzycki . . . . . . . . . . . . . 101
Wymiana ciepła w regeneracyjnych obrotowych wymiennikach
ciepła w systemach wentylacji i klimatyzacji
- Andrzej Jedlikowski, Maciej Skrzycki . . . . . . . . . . . . . 109
Kryterium doboru własności wytrzymałościowych połaczeń
˛
profili
cienkościennych obcia˛żonych udarowo
- Paweł Kaczyński . . . . . . . . . . . . . . . . . . . . . . . . 117
Możliwość zastosowania ultrafiltracji do separacji barwników organicznych z roztworów wodnych
- Joanna Kawiecka-Skowron, Katarzyna Majewska-Nowak . . 121
Usuwanie jonów bromianowych za pomoca˛ dializy Donnana
- Sylwia Kliber, Jacek Wiśniewski . . . . . . . . . . . . . . . . 127
Problemy przenoszenia energii w układach mikrohydrauliki
- Grzegorz Łomotowski . . . . . . . . . . . . . . . . . . . . . 135
Oszacowanie stałej Lipschitza dla Jakobianu robota mobilnego typu
monocykl
- Łukasz Małek . . . . . . . . . . . . . . . . . . . . . . . . . 143
Badania pośredniej chłodnicy wyparnej
- Joanna Paduchowska . . . . . . . . . . . . . . . . . . . . . 149
Zastosowanie symulacji numerycznych w analizie bezpieczeństwa
biernego pieszego
- Mariusz Ptak . . . . . . . . . . . . . . . . . . . . . . . . . . 155
Idea budowy robota inspekcyjnego do badania kanałów wentylacyjnych i klimatyzacyjnych
- Przemysław Sperzyński . . . . . . . . . . . . . . . . . . . . 159
Układy robotyczne - mobilny robot kołowo-kroczacy
˛
- Jarosław Szrek, Przemysław Sperzyński . . . . . . . . . . . . 165
Systemy wentylacji pomieszczeń, a koszty uzdatniania powietrza
- Agnieszka Zajac,
˛ Maria Kostka . . . . . . . . . . . . . . . . 171
6
Drogi Czytelniku,
oddaję w Twoje ręce niniejszą publikację prezentującą wyniki badań
prowadzonych przez młodych naukowców.
Celem jaki temu przyświeca jest zachęcenie do podejmowania
wspólnych inicjatyw oraz tworzenie interdyscyplinarnych zespołów
badawczych.
Pozwolę sobie przytoczyć słowa Wieszcza, które to w młodości
właśnie kładą nadzieję. Traktując jako przenośnię, niech słowa te
dadzą zapał i porwą do działania.
Jarosław Szrek
(…) Hej! ramię do ramienia! spólnymi łańcuchy
Opaszmy ziemskie kolisko!
Zestrzelmy myśli w jedno ognisko
I w jedno ognisko duchy!...
Dalej, bryło, z posad świata!
Nowymi cię pchniemy tory…
(…) Razem, młodzi przyjaciele! ...
Adam Mickiewicz „Oda do młodości” - fragmenty
Cz˛eść I
Architektura
Różnorodność rozwiązań ekologicznych we
współczesnej architekturze mieszkaniowej.
Analiza na wybranych przykładach.
Anna Krajewska1
Streszczenie: W artykule przedstawiono różnorodność mieszkaniowej
architektury ekologicznej. Na potrzeby opracowania współczesna
mieszkaniowa architektura ekologiczna została podzielona na pięć
podstawowych grup. Obiekty zostały przyporządkowane poszczególnym
grupom w zależności od głównych założeń i celów projektantów.
Słowa kluczowe: architektura mieszkaniowa, ekologiczna, solarna
1. Wprowadzenie
Dynamiczny rozwój cywilizacyjny pociągnął za sobą ogromne
zapotrzebowanie na energię. Czerpano ją głównie ze źródeł kopalnych co
doprowadziło do ogromnej degradacji środowiska naturalnego. Na ten
moment około połowa światowego zużycia energii jest związana z
procesem realizacji i późniejszą eksploatacją budynków, czyli ich
ogrzewaniem i chłodzeniem [5]. Zrodziła się konieczność przeciwdziałania
naruszaniu równowagi w przyrodzie w skutek budowlanej działalności
człowieka [1]. Odpowiedzią na to stała się architektura ekologiczna, której
podstawowym celem jest zminimalizowanie wpływu budynku na
środowisko przyrody. Na potrzeby niniejszego opracowania, na podstawie
analizy przykładów realizacji, wyszczególniłam kilka grup obiektów wśród
ekologicznej architektury mieszkaniowej. Są to: budynki energooszczędne,
architektura solarna, domu niezależne, ekowioski oraz grupa, którą
nazwałam „forma i krajobraz”.
2. Budynki energooszczędne
Budynki energooszczędne to jedne z najbardziej kojarzonych z
architekturą ekologiczną obiektów [3]. Tu priorytetem jest
zminimalizowanie zużycia energii elektrycznej oraz energii potrzebnej na
ogrzanie i chłodzenie budynku. Duży nacisk kładzie się na pozyskiwanie
1
Wydział Architektury PWr, ul. B. Prusa 53/55, 50-317 Wrocław
[email protected]
9
energii ze źródeł odnawialnych, ale liczą się każde zyski energii, jak na
przykład pasywne zyski ciepła ze słońca czy ciepło oddawane przez
mieszkańców. Oprócz pozyskiwania energii ważne jest również
niedopuszczenie do zbędnej ucieczki ciepła z domu, co jest osiągnięte po
przez bardzo dobrą izolację i szczelność przegród - praktyczne brak
mostków cieplnych. Charakterystyczne dla budynków energooszczędnych
są instalacje wspomagające gospodarkę energią: kolektory słoneczne,
ogniwa fotowoltaiczne, pompy ciepła, rekuperatory, gruntowe wymienniki
ciepła, wentylacja mechaniczne i szereg innych. Bryła domu, a także jego
usytuowanie względem stron świata jest również bardzo dokładnie
przemyślane i przeanalizowane pod względem zysków i strat ciepła.
3. Architektura solarna
Architektura solarna skupia się przede wszystkim na czerpaniu
maksymalnych zysków energii ze słońca. Charakterystyczną cechą
obiektów należących do tej grupy jest nadanie elementom budynku, oprócz
ich tradycyjnej funkcji, także nowej, dodatkowej związanej z
pozyskiwaniem, gromadzeniem, rozprowadzeniem, produkcją energii czy
ochroną przed przegrzaniem [1].
Wykorzystanie energii słonecznej pociąga za sobą bardzo przemyślane
usytuowanie budynku względem stron świata, oraz odpowiednie
ukształtowanie jego formy i rozmieszczenie przeszkleń. Charakterystyczną
cechą jest tu duża dysproporcja transparentności pomiędzy fasadą północną,
a południową. Od południa znajdują się duże połacie przeszkleń, oraz takie
nieodłączne elementy architektury solarnej jak kolektory słoneczne, ogniwa
fotowoltaiczne, czy osłony przeciwsłoneczne. Oprócz popularnie
stosowanych technologii spotyka się wręcz całe „inteligentne elewacje”
reagujące na światło, jak w przypadku domu spokojnej starości w Ems, w
Szwajcarii (projekt: Architektbüro Schwarz), gdzie na południowej fasadzie
budynku zamocowano Panele Glass-X. To elementy, które w zależności od
pory roku bądź przepuszczają ciepło do wnętrza, bądź nie pozwalają na jego
przeniknięcie by zapobiec przegrzaniu. Dodatkowo akumulują ciepło, a
następnie powoli oddają je do wnętrza domu.
4. Domy niezależne
Podstawowym celem projektantów domów niezależnych jest
całkowite uniezależnienie obiektu od wszelkich mediów [4]. Ma być to
rodzaj mobilnego modułu mieszkalnego łatwo składanego i rozkładanego z
możliwością ustawienia go w dowolnym miejscu. Możemy oglądać w
Polsce, w Piasecznie modelowy niezależny ”DOM DODO” (projekt: artin
10
Zespół Koordynacji Inwestycji), o lekkiej konstrukcji z prefabrykatów z
możliwością łatwego złożenia, przewiezienia i montażu w innym miejscu.
Domy tego typu są wyposażone w szereg najnowszych technologii
służących do produkcji energii ze słońca czy wiatru, tak by same mogły
wytworzyć energię elektryczną, energię potrzebną do ogrzania powietrza i
wody użytkowej. O ile jest to możliwe posiadają nawet własny system
oczyszczania zużytej wody, a także możliwość czerpania wody z własnego
ujęcia [4].
5. Ekowioski
Ludzie zmęczeni życiem w dużych, głośnych, zatłoczonych miastach
zaczęli z nich uciekać, szukać spokoju i wyciszenia. Ekowioski powstały w
wyniku poszukiwania przez nich utopii. Są to zespoły działające na zasadzie
wspólnot, gdzie promowany jest zdrowy styl życia pod każdym względem.
Podstawą procesu projektowania, realizacji i eksploatacji budynków jest
zminimalizowanie ich obciążenia na środowisko naturalne [2]. Do ich
budowy wykorzystuje się lokalne, tradycyjne materiały, dlatego w
ekologicznej wiosce Findhorn w Szkocji są domy z bali słomianych, gliny,
lokalnego kamienia, ocieplone wełną owczą, a niektóre nawet mieszczą się
w starych, wielkich beczkach po whisky. Do produkcji energii wykorzystuje
się źródła odnawialne: słońce, ziemię, wiatr, biomasę. Ważna jest także
oszczędność wody pitnej, dlatego powtórnie wykorzystuje się wodę szarą
do celów gospodarczych, a wodę czarną neutralizuje w roślinnych
oczyszczalniach ścieków. Zazwyczaj ekowioski są wolne od ruchu
samochodowego, mieszkańcy poruszają się pieszo lub na rowerze przez co
są to ciche, bardziej bezpieczne i czystsze miejsca.
6. Forma i krajobraz
Projektanci obiektów z grupy „forma i krajobraz” kładą największy
nacisk na powiązanie budynku z otoczeniem. Ich celem jest
zminimalizowanie ingerencji obiektu w krajobraz. Są to domy tradycyjne,
wykonane z lokalnych materiałów, domy zagłębione w ziemi, czy też
wyniesione z powierzchni terenu w korony drzew.
Domy zagłębione w ziemi wyłaniają się z niej w naturalny sposób. Od
północy są w zasadzie niezauważalne, widoczny jest tylko porośnięty
roślinnością pagórek. Architektura ukazuję się nam dopiero od strony
południowej zazwyczaj jako mocno przeszklona fasada. Przykładem takiego
obiektu jest zespół pięciu szeregowo połączonych domów w Hockerton, w
Wielkiej Brytanii. Do tej grupy można zaliczyć także dom jednorodzinny w
San Paulo w Brazyli projektu Una Arquitetos. W naturalny sposób wypełnia
11
zbocze, na którym stoi, a elewacja pokryta lokalnym kamieniem powoduje,
że z daleka sam dom wygląda jak leżący na łące głaz.
Niemieckie biuro Baumraum wyspecjalizowało się w projektowaniu
domów na drzewach. Ich funkcje mieszkalne są często zredukowane i raczej
stają się miejscami relaksu w otoczeniu przyrody. Jednak efekt wizualny
jest bardzo ciekawy, a wpływ na otaczające miejsce znikomy, powierzchnia
terenu pozostaje właściwie w stanie nienaruszonym.
6. Podsumowanie
W Polsce, choć coraz więcej, wciąż mało jest obiektów
ekologicznych. Moda na takie realizacje dopiero do nas nadchodzi. Istotne
jest by uświadomić sobie, że to, w jaki sposób będziemy gospodarować
energią związaną z budownictwem, jakie materiały, technologie, źródła i
sposoby pozyskiwania energii będziemy stosować, ma rzeczywiste
znaczenie dla środowiska. Dlatego też, ważne jest propagowanie
budownictwa zrównoważonego, obiektów mających na celu przybliżenie i
zachęcenie do stosowania rozwiązań energooszczędnych i ekologicznych.
Literatura
[1] S. Wehle-Strzelecka: Współczesne technologie pozyskiwania energii
słonecznej i ich wpływ na estetykę rozwiązań architektonicznych.
Wydawnictwo Politechniki Krakowskiej. Kraków 2007. s. 314.
[2] J. Gąsiorek: Wioski ekologiczne w Wielkiej Brytanii. Oficyna
Wydawnicza Politechniki Wrocławskiej. Wrocław 2005.
[3] D.E. Ryńska: Architekt w Procesie Tworzenia Harmonijnego
Środowiska. Oficyna Wydawnicza Politechniki Warszawskiej.
Warszawa 2004.
[4] http://www.bryla.pl/bryla/1,85298,4735453.html
[5] A.Bać, K. Cebrat: Innowacyjne technologie energooszczędne w
budownictwie i ich możliwe zastosowanie na Dolnym Śląsku.
Opracowanie dla Dolnośląskiego Centrum Zaawansowanych
Technologii. Wrocław 2006. s. 3.
12
Architektura w dobie globalizacji.
Analiza na wybranych przykładach
Joanna Krajewska1
Streszczenie:
W artykule został zarysowany problem globalizacji
architektury na przykładzie przemian stolicy mocarstwa, światowej sławy
architekta oraz typu budynku i materiału elewacyjnego spotykanych
w róŜnych częściach globu.
Słowa kluczowe: globalizacja, kontekst architektoniczny, przemiana
1. Wprowadzenie
Istnieje wiele definicji globalizacji. Rozumiana jako uniwersalizm, jest
rozprzestrzenianiem się zjawisk i rzeczy na cały świat [1, s. 19]; jako
modernizacja (westernizacja) – oznacza dynamiczny proces przenoszenia
nowoczesnych form Ŝycia społecznego i gospodarczego na nowe tereny,
przy jednoczesnym niszczeniu istniejących tam wcześniej lokalnych kultur,
gospodarki i toŜsamości [1, s. 19]. W ciągu ostatnich dziesięcioleci stała się
zjawiskiem szczególnie zauwaŜalnym.
Wbrew pozorom, jak pisze Małgorzata Solska, nie jest to zjawisko nieznane
czy nowe w architekturze [2], jednak nigdy dotąd nie występowało na tak
szeroką skalę.
Rys. 1. Ewolucja zjawiska globalizacji (opracowanie własne)
Od czasów podbojów i kontaktów handlowych istniała dyfuzja idei między
kulturami. Zasięg wpływów ograniczał się jednak do państw, które miały ze
sobą bezpośrednią styczność, czyli sąsiadowały ze sobą (Rys. 1.). Budowle
1
Politechnika Wrocławska, Wydział Architektury, B. Prusa 53/55, 50-317 Wrocław,
[email protected]
13
i osady stawiane przez hegemona miały ten sam charakter w róŜnych
częściach imperium (np. Imperium Rzymskie), a kultury podbite mogły
konfrontować napływającą wiedzę ze swoim doświadczeniem. PodróŜujący
przynosili wraz ze swym przybyciem nową myśl. Zjawiska takie miały
miejsce w Europie i Azji, w okresie kształtowania się cywilizacji.
Kolejnym etapem na drodze do architektonicznej unifikacji było
rozprzestrzenianie się europejskiego stylu budowania w krajach
kolonizowanych. ChociaŜ miał on juŜ zasięg globalny, wciąŜ pozostawał
w odrębności w stosunku do budownictwa lokalnego, często ponadto, jak to
miało miejsce w Australii, Afryce i obu Amerykach, był jedynym
kierunkiem świadczącym o postępie i pozwalającym na rozwój na danym
terenie.
W latach 30. XX wieku zaczął upowszechniać się tzw. styl
międzynarodowy nazywany „nowe budownictwo” lub „funkcjonalizm
i nowa rzeczywistość” [2]. Dał on początek globalnemu ujednoliceniu
architektury w dzisiejszym rozumieniu. Architektura przestała być
elementem kultury, a stała się odzwierciedleniem nowoczesnej myśli
i świadectwem postępu. Do tego czasu pozostawały jednak jeszcze obszary
na Ziemi o wysoko rozwiniętej cywilizacji, które nie przejmowały
Zachodnich wzorców i nie korzystały ze współczesnej wiedzy budowlanej.
Chiny dopiero po upadku systemu feudalnego i Rewolucji Kulturalnej
otworzyły się na nowoczesność i wprowadziły Politykę Otwartych Drzwi.
Wraz z partnerskimi kontaktami międzynarodowymi w skali światowej,
przepływ wiedzy i informacji osiągnął zasięg globalny, pozwalając rozwijać
nowoczesne budownictwo w róŜnych rejonach na Ziemi.
2. Przejawy globalizacji w architekturze
Globalizację w architekturze moŜna rozpatrywać w róŜnych
aspektach. Analiza miasta, które zerwało z lokalną tradycją budowlaną
i gdzie realizowane są projekty światowych biur, sylwetka architekta
tworzącego na kilku kontynentach, idea budynku, która rozprzestrzeniła się
na cały świat, czy powszechnie stosowany materiał elewacyjny ukazują
zmiany zachodzące w architekturze.
1.1. Miasto, które uległo globalizacji – Pekin
Dobrym przykładem miasta, które w sposób nieunikniony musiało
ulec procesom globalizacyjnym, jest Pekin. W kraju, przez stulecia
zamkniętym na wpływy z zewnątrz, po przemianach społecznych
i politycznych, w momencie otwarcia się na świat, niezbędna okazała się
modernizacja stolicy.
14
Rys. 2. Dzielnica hutongów – tradycyjna architektura Pekinu – i architektura współczesna
(fot.: autorka)
Nie licząc rezydencji cesarskiej – Zakazanego Miasta, oraz barwnych
zespołów świątynnych, Pekin był miastem hutongów – wąskich alejek
oddzielających od siebie parterowe zespoły zabudowy jednorodzinnej
– siheyuany. Sztywne reguły budowania ustalone w dawnych wiekach oraz
zasady feng-shui doprowadziły do powstania jednorodnej przestrzeni
miejskiej, która zaczęła ulegać gwałtownej, drastycznej przemianie dopiero
w połowie XX wieku (Rys. 2.). Upadek systemu feudalnego i Rewolucja
Kulturalna (lata 1966-76) spowodowały zniszczenie tradycyjnego modelu
Ŝycia, obracając Ŝywą kulturę w relikt przeszłości.
Historyczna tkanka miejska Pekinu, tworzona z niewielkich
jednopiętrowych budynków krytych szarą dachówką, zaczęła kurczyć się za
sprawą wdroŜenia systemu Weigai [4] – wyburzania obszarów hutongów
nie objętych programem ochrony i stawiania w ich miejsce architektury
współczesnej oraz przeprowadzania nowych dróg. Dawne zasady
– gabaryty, forma i kolorystyka budynków czy lokalizacja wejścia od strony
południowej, przestały obowiązywać. Pekin, tworząc swój nowy wizerunek,
w znacznym stopniu równieŜ za sprawą organizacji Igrzysk Olimpijskich
w 2008 roku, stał się placem budowy, na którym swoje projekty zaczęli
realizować architekci z całego świata.
Współczesną architekturę Pekinu moŜna podzielić ponadto na kilka
kategorii – tę pozbawioną toŜsamości, która mogłaby znaleźć się w kaŜdym
innym mieście, architekturę stylizowaną – głównie za sprawą
historyzujących form dachów lub kolumn w elewacji, bądź architekturę
wywodzącą się stylistycznie z innych rejonów kontynentu eurazjatyckiego
oraz tzw. ikony architektury – spektakularne budowle projektowane przez
światowe sławy – do których, prócz najwaŜniejszych obiektów
olimpijskich, moŜna zaliczyć gmach telewizji CCTV autorstwa Holendra
Rema Koolhaasa czy Teatr Narodowy Francuza Paula Andreu.
15
1.2. Architekt „globalny” – Zaha Hadid
W epoce szybkiego przepływu informacji i łatwości w przemieszczaniu
się powstały międzynarodowe biura architektoniczne, projektujące dla
inwestorów z całego świata. Budynki – ikony są zamawiane u gwiazd
światowej architektury, a kaŜda z nich firmuje inny, charakterystyczny styl.
śycie i praca Zahy Hadid – urodzonej w Bagdadzie, studiującej w Bejrucie
i Londynie, której projekty są realizowane w Europie, Azji i Stanach
Zjednoczonych (Rys. 3.), składają się na jeden z wielu przykładów
architekta „globalnego”.
Rys. 3. Lokalizacja projektów Zahy Hadid
(opracowanie własne według: [5])
Budynki Zahy Hadid są niezwykle rozpoznawalne. Miękkie formy
wymykające się wszelkim definicjom, opływowe kształty brył, stanowią jej
znak firmowy. Najsłynniejsza kobieta wśród architektów tworząc swoje
wizjonerskie projekty, lekcewaŜy kontekst architektoniczny miejsca i
lokalną tradycję. Większość jej realizacji mogłaby stać wszędzie, poniewaŜ
nie wchodzi z otoczeniem w Ŝadne przestrzenne relacje (np. Abu Dhabi
Performing Arts Centre, wileńskie Guggenheim Hermitage Museum, czy
stacja kolejowa w Innsbrucku). Unaocznia to, jak bardzo zmieniło się
podejście do roli architektury w kształtowaniu przestrzeni miejskiej.
1.3. Globalna idea – wieŜowiec
Pierwsze wieŜowce – budynki biurowe – zaczęły powstawać w Stanach
Zjednoczonych (Chicago, Nowy Jork) pod koniec XIX wieku, dając wyraz
moŜliwości konstrukcji stalowych. Idea, w której realizowało się typowe dla
człowieka pragnienie przekraczania granic w postaci osiągania
maksymalnych wysokości, sprawdzania wytrzymałości materiału, szybko
rozprzestrzeniła się na cały świat Zachodni, a później na inne rejony globu.
Sylwety wysokich budynków zaznaczających się w krajobrazie miasta
16
podkreślały jego prestiŜ, a takŜe świadczyły o potędze inwestora. Wysokość
pozwalała ponadto na oszczędność miejsca – tak cennego w centrach
zatłoczonych metropolii. Rozpoczął się swoisty światowy wyścig
w projektowaniu drapaczy chmur. I tak najwyŜszy obecnie Taipei 101
(Taipei World Finantial Center) na Tajwanie projektu C.Y.Lee&Partners
sięgający 509,2m [3] ma być przewyŜszony o ponad 308m przez Dubajską
[3] WieŜę w Emiratach Arabskich projektowaną przez amerykańskie biuro
Skidmore, Owings, Merrill, w którym powstały teŜ m. in. charakterystyczny
wieŜowiec usługowo – mieszkalny The John Hancock w Chicago jak
równieŜ warszawski biurowiec Rondo 1 [3].
Rewolucja społeczna i kulturowa, mające swoje odbicie na całym świecie
oraz modernizm odzwierciedlający nowy sposób myślenia – pragmatyzm
i egalitaryzm, w połączeniu z ideą budynku wysokościowego, pozwoliły
stworzyć wieŜowiec mieszkalny. Właściwie jedynym plusem tego
rozwiązania jest redukcja powierzchni zabudowy, stało się to jednak na tyle
istotne, Ŝe, w połączeniu z szybkością oraz kosztem wykonania, dało efekt
w postaci wypełnienia przestrzeni miejskich tzw. blokowiskami. Ten typ
zabudowy stał się zwłaszcza popularny w dawnych krajach
komunistycznych, jednak osiedla wysokościowców mieszkaniowych buduje
się do dziś. Nie noszą one śladów kulturowych, a nadrzędność funkcji oraz
determinant w postaci konstrukcji Ŝelbetowej (najczęściej) i elementów
prefabrykowanych zredukowały formę do prostopadłościanu. Styl Ŝycia
uległ ujednoliceniu na tyle, Ŝe moŜliwe było postawienie niemal
identycznych wieŜowców mieszkalnych w róŜnych częściach świata.
Niektóre budynki z Chin, Stanów Zjednoczonych, czy Niemiec mogłyby
znajdować się w jednym miejscu wzajemnie korespondując, tak są do siebie
podobne.
1.4. Globalny materiał – szkło
WieŜowce – budynki biurowe, hotele mają często jeszcze inną cechę
wspólną, dzięki której, w oderwaniu od kontekstu miejsca, mogłyby stać
obok siebie. Jest to materiał elewacyjny, który stał się bardzo popularny w
II połowie XX wieku i jest wciąŜ powszechnie stosowany – szkło (Rys. 4.).
„Szklane domy” zapełniają centra miast i dzielnice biznesu na całym
świecie. UŜycie szkła nie zawsze jest uzasadnione, niekiedy nie sprzyja
temu klimat panujący w danym rejonie, jednak przyjęło się, Ŝe świadczy
ono o prestiŜu budynku i projektanci chętnie je wykorzystują.
Istnienie róŜnych odmian tego materiału (np. szkło płaskie barwione
w masie – nazywane przeciwsłonecznym, szkło refleksyjne
– przepuszczające światło, ale posiadające duŜy współczynnik odbicia
promieniowania podczerwonego czy szkło nieprzeźroczyste [3]), oraz
17
Rys. 4. Szkło elewacyjne – materiał powszechnie stosowany na całym świecie, zdjęcia
przedstawiają biurowce w Pekinie i Londynie (fot.: autorka)
rosnące moŜliwości jego wykorzystywania (zwiększanie wytrzymałości,
wiele metod zdobienia) sprawiają, Ŝe metropolie na całym świecie
wypełniają budynki pokryte taflami szkła, mniej lub bardziej odcinające się
na tle nieba, ulotne, niedopowiedziane, nowoczesne.
3. Podsumowanie
Istnieje zagroŜenie, Ŝe w związku z postępującym zjawiskiem
ujednolicania światowej architektury, zniknie jeden z aspektów
świadczących o toŜsamości kulturowej, jakim jest lokalne budownictwo.
Architekt projektujący dla miast na całym świecie, globalnie występująca
idea czy ten sam wszędzie stosowany materiał, prowadzą do zanikania
waŜności kontekstu architektonicznego oraz historycznego.
Architektura w dobie globalizacji zdaje się być tworzona od nowa, zarówno
na poziomie formy, jak teŜ roli, jaką odgrywa w kreowaniu przestrzeni.
Literatura
[1] M. Czerny: Globalizacja a rozwój. Wybrane zagadnienia geografii
społeczno – gospodarczej świata, Wydawnictwo Naukowe PWN,
Warszawa 2005.
[2] M. Solska: Aksjologiczny aspekt architektury, Teka Kom. Arch. Urb.
Stud. Krajobr., OL PAN 2006, s. 164-169.
[3] pl.wikipedia.org
[4] www.tibetheritagefund.org
[5] www.zaha-hadid.com
18
Wpływ trudnego klimatu i ukształtowania
terenu Islandii na budowę domów darniowych
Paweł Orłowski1
Streszczenie: W artykule przedstawiono problem wpływu surowego klimatu
oraz trudnego ukształtowania terenu na architekturę na przykładzie
islandzkiego domu darniowego. Opracowanie zawiera zarówno opis
sposobów kształtowania takiej zabudowy, jak również charakterystykę
warunków środowiskowych, materiałów stosowanych w tego typu
budownictwie oraz ewolucję rozwiązań budowlanych na przestrzeni wieków.
Słowa kluczowe: architektura, klimat, darń, Islandia
1. Wprowadzenie
Architektura od zawsze dyktowana była czynnikami funkcjonalnymi.
W pierwotnych lokacjach ulegała nie tylko wymaganiom ich przyszłych
użytkowników, w aspekcie łatwości życia i dostępności podstawowych
wygód, ale również zewnętrznym czynnikom niezależnych od człowieka.
W wielu lokalizacjach ich dysproporcja działa na korzyść budowniczego,
jednakże niekiedy to natura decyduje o umiejscowieniu czy kształcie
obiektu.
Mowa o terenach narażonych na ekstremalne działania klimatyczne
i geologiczne. W tym przypadku północnych krańcach Europy,
Skandynawii, krajach pierwotnie zasiedlonych przez Wikingów, na
potrzeby niniejszego artykułu Islandii.
2. Charakterystyka warunków środowiskowych
Islandia to druga, co do wielkości wyspa w Europie, pochodzenia
wulkanicznego, leżąca w północnej części Oceanu Atlantyckiego,
o powierzchni 103tys. km2. Jej specyfika polega na usytuowaniu dokładnie
na Grzbiecie Śródatlantyckim biegnącym wzdłuż granicy płyt
Euroazjatyckiej i Amerykańskiej2. Teoria procesów tworzących
i rozwijających Ziemię zakłada ciągły dryf płyt tektonicznych, które
1
Politechnika Wrocławska, Wydział Architektury, B. Prusa 53/55, 50-317 Wrocław,
[email protected]
2
B. Rudnicki. Podróże Marzeń-Islandia. Biblioteka Gazety Wyborczej,
Warszawa 2007
19
wpychane jedna pod drugą tworzą wypiętrzenia lub oddalają się uwalniając
magmę i czyniąc teren wulkanicznie aktywnym. Ten drugi proces zachodzi
na Islandii – płyty odsuwają się od siebie w tempie 2 cm rocznie. Wyspa
pokryta jest również największym europejskim lodowcem Vatnajokull oraz
paroma innymi, które topniejąc formują kształt wyspy.
Dodatkową uciążliwością w osadnictwie jest surowy klimat. Pomimo,
że jedynie skrawek Islandii dociera do granicy koła polarnego (wyspa
Grimsey), na północnej części wyspy panuje klimat subpolarny,
w południowej umiarkowanie chłodny, przede wszystkim dzięki wpływowi
ciepłego prądu zatokowego Golfsztromu.
Rys.1 a) i b). Prądy oceaniczne wokół Islandii. Źródło: [6],
Średnia temperatura dla Reykjaviku(skala Fahrenheita). Źródło: [7]
Wpływ klimatu kontynentalnego na północy jest większy
w porównaniu do południa kraju. Skutkuje to bardziej suchymi
i słonecznymi latami, ale dużo bardziej srogimi i śnieżnymi zimami. Opady
deszczu są słabsze, ale wiatry bardzo porywiste i chłodne. Klimat ten jest
bardzo zmienny – w ciągu dnia następować mogą po sobie różne zjawiska
atmosferyczne, od gwałtownych opadów deszczu i śniegu, poprzez
nawałnicowe porywy wiatru, po okresy słoneczne.
Ekosystemem większej części interioru Islandii jest tundra3. Jest to
wynik długich, srogich okresów zimowych, krótkich okresów
wegetacyjnych oraz opadów atmosferycznych, które jeśli są to głównie
śniegu. Powszechne jest zjawisko zmarzliny, która latem częściowo topnieje
czyniąc teren bagnistym.
3
R. Mead, Iceland, Globetrotter, 2001
20
3. Materiały budowlane
Geograficzne uwarunkowania bezpośrednio wpłynęły na sposoby
kształtowania zabudowy. Geologiczna młodość wyspy oznacza brak
odpowiedniej warstwy gruntu uprawnego, co w połączeniu ze srogim
klimatem powoduje brak wysokiej roślinności, czyli najwygodniejszego
budulca, drewna. Wszystkie drewno używane w konstrukcjach jest
dryftowym. W takiej sytuacji podstawowym materiałem wykorzystywanym
do budowy domostw jest darń, oraz skała lawowa. Ta druga jednak rzadziej
stosowana, z nie do końca wyjaśnionych przyczyn.
Rys. 2 a) i b). Drewno dryftowe. Źródło: [8],
Ściana o konstrukcji darniowej farmy w Þjórsárdalur. Autor: Thomas Ormston
Darń, jako najstarszy z materiałów budowlanych jedynie na Islandii
zachowała się do dzisiaj. Powszechnie używana była do ok. 1900 r., później
również, jednak konstrukcje takie ulegały już wielu modyfikacjom.
Popularność zdobyła ze względu na dużą odporność na trudne warunki
klimatyczne. Trawa na Islandii rośnie bardzo gęsto, więc darń jest silną
kombinacją korzeni i gleby, dzięki czemu mogła wytrwać nawet do stulecia,
jako materiał budowlany. Większość ścian farm, złożona była z cienkich
„skór” z desek drewnianych z wypełnieniem z grubej warstwy darniowej,
co stanowiło dobrą wielostrukturową warstwę izolacyjną.
Dachy darniowe musiały być nachylone pod właściwym kątem, aby
właściwie odprowadzać wodę. Jeśli dach był zbyt płaski, woda mogła
przesiąkać do wnętrza. Jeśli zbyt stromy, darń mogła pękać przy niskiej
wilgotności powietrza, co powodowało dalsze uszkodzenia.
W XVI wieku najbardziej popularna stała się, według stylu
norweskiego, budowa o konstrukcji drewnianej z desek znajdywanych na
nabrzeżu. Współcześnie obiekty te kryte są blachą falistą, chroniącą je przed
niedogodnościami atmosferycznymi.
W wieku XX, dzięki większym możliwościom obróbki,
wykorzystuje się powszechnie skałę wulkaniczną oraz inne współczesne
materiały importowane z kontynentalnej części Europy.
21
4. Sposoby kształtowania i lokalizowania zabudowy
Pierwotnie usytuowanie farm, a później osad, dyktowane było
wikińskim zwyczajem wyrzucania ze statku nadpływających osadników
drewnianego słupa, który wskazywał miejsce osadnicze, tam gdzie morze
wyrzuciło go na brzeg. Tak według podań, Norweg Ingólfur Arnarsson4
ulokował Reykjavik. Praktycznie sytuowano budowle tam gdzie była
najlepsza dostępność komunikacyjna oraz żywioły miały najmniejszą siłę
działania – u podnóża gór, pod skałami czy w specyficznie ukształtowanych
formacjach skalnych, gdzie co najmniej dwie strony osłonięte były przed
wiatrem czy opadami.
Najwygodniejszym i najbardziej powszechnym sposobem było
budowanie domów darniowych. Nierzadko bywały zakopywane częściowo
w ziemi, przez co lokowane mogły być na otwartym terenie. Ogradzano je
płotem lub parkanem, niekiedy z towarzyszącymi budynkami
gospodarczymi lub kaplicą.
Rys. 3 a) i b). Schemat konstrukcji domu darniowego. Źródło: [9]
Mieszkania średniowiecznych Islandczyków to przeważnie jedna
sala, w której ludzie spali, pracowali i jedli. Typ ten jest powszechnie
stosowanym w całym regionie Północnoatlantyckim za czasów Wikingów.
Pomimo różnych rozmiarów, od 10 do 36 metrów długości, budynki zawsze
posiadały podobny i łatwo rozpoznawalny kształt. Wnętrza domostw były
ciemne, źródłem światła było palenisko usytuowane w centralnym punkcie
chaty, na mocno udeptanej ziemi oraz małe otwory okienne w grubych
ścianach i zakryte drewnianymi okiennicami. Odrobinę światła dostarczał
również otwór kominowy oraz kaganki oliwne. W bogatszych domostwach
stosowano również świece woskowe. Drewniane drzwi wejściowe czasami
zdobione rzeźbiarsko zaopatrzone były w kute zamki. Sypialnie lokowane
były na chroniących przed zimnem podwyższeniach, często posłane sianem
lub chrustem, a w późniejszych okresach w osobnych izbach.
4
B. Rudnicki, Podróże Marzeń-Islandia, Biblioteka Gazety Wyborczej, Warszawa 2007
22
W każdym domostwie istniały warsztaty tkackie użytkowane przez
kobiety przez cały rok, oraz w okresie zimy również przez mężczyzn.
Wraz z napływem coraz to większej liczby ludności, typ domu
zaczął ulegać przemianom. Początkowo tylko w rozmiarze czy proporcjach,
później także w kształcie i ilości pomieszczeń, w zależności od potrzeb
użytkowników i terenu, na którym się znajdował.
Rys. 4 a) i b). Plan farmy Stöng, Doświetlenie domostwa otworem dachowym na
przykładzie farmy w Þjórsárdalur. Źródło:[10]
W domostwie Stöng z XII wieku, pojawia się dodatkowe
pomieszczenie - salon, oddzielone od głównej sali przedsionkiem
wejściowym. Farma Gröf w regionie Öræfi z wieku XIV, przedstawia
kolejne różnice. Wejście do budynku zostało przeniesione na środek obiektu
oraz kuchnia i magazyn mieszczące się na obu końcach wieńczą budynek
ścianami szczytowymi. Od wejścia prowadzi korytarz, na którego końcu
znajduje się tzw. ‘baðstofa’ - pokój dzienny, w którym stoi piec. Nie ma już
centralnej multifunkcjonalnej sali.
Na przestrzeni kolejnych wieków, to właśnie aranżacja pomieszczeń
będzie w przeciwieństwie do bryły budynku ulegała zmianom. W XVIII
wieku, prawie wszyscy mieszkańcy przenoszą swoje legowiska do pokoju
dziennego, który ma teraz spełniać podobną rolę jak pierwotna sala – do
wspólnego spędzania czasu, jedzenia czy pracy. Powodem tego jest chłód
i brak wystarczającej ilości drewna opałowego. Baðstofa lokowany był
w miejscu najwyższym budynku i najdalej odsuniętym od wejścia, co
czyniło go najcieplejszym pomieszczeniem.
Celem lepszego ogrzania przestrzeni mieszkalnej pojawił się
dodatkowy typ domostwa, tak zwane Fjósabaðstofur – obory połączone
z pomieszczeniami mieszkalnymi znajdującymi się ponad chlewnią.
Mieszkanie ze zwierzętami pomimo złych warunków higienicznych było
mimo wszystko bardzo preferowane ze względu na wytwarzane przez nie
ciepło.
Przykładem średniowiecznej farmy zachowanej do dziś jest
wspomniane wcześniej domostwo Stöng. Odnalezione ruiny zostały
pieczołowicie zrekonstruowane w Þjórsárdalur – „Dolinie Byczej rzeki”,
23
w południowo zachodniej części kraju. Pierwotne gospodarstwo zostało
zasypane warstwą popiołu po wybuchu wulkanu Hekla w XIII wieku, dzięki
czemu zachowało się w tak dobrym stanie. Odkopany w 1939 roku
kompleks mieszkalny składa się z głównej sali, oddzielnej obory dla bydła,
ale również kuźni do przerobu miejscowego żelaza bagiennego.
Rys. 5 a) i b). Rekonstrukcja farmy Stöng w Þjórsárdalur. Autor: Thomas Ormston
Decyzja o utworzeniu repliki Þjóðveldisbærinn została podjęta
z okazji obchodów 1100-tnej rocznicy zasiedlenia Islandii w 1974 roku,
jako próba ponownego utworzenia dużej farmy z okresu Rzeczpospolitej
(930-1262), na co pozwalały zachowane pozostałości Stöng.
Literatura
[1] Klindt-Jensen. History of Scandinavian Archaeology. Ole, 1975.
[2] Thomas Paulsson. Scandinavian architecture: Buildings and society in
Denmark, Finland, Norway, and Sweden, from the Iron Age until today.
Wydawca: C.T. Bradford Co (1959).
[3] Marian C. Donnelly. Architecture in the Scandinavian Countries.
The MIT Press, 1991.
[4] The Age of the Vikings (ca. 800 - 1050 A.D.).
http://www.norway.org.uk/history/upto1814/viking/viking.htm
[5] Turf Longhouses in Iceland and Vínland.
http://www.valhs.org/history/articles/daily_living/text/Turf_Houses.htm
[6] http://www3.hi.is/~oi/climate_in_iceland.htm
[7] http://goscandinavia.about.com/od/icelan1/ss/weathericeland.htm
[8] http://www.przewodnicy.zakopane.pl/foto/spitsbergen/jalbum/slides/
P8092598.html
[9] http://www.thjodveldisbaer.is/
[10] http://www.hurstwic.org/history/articles/daily_living/text/
Turf_Houses.htm
[11] http://www.hurstwic.org/history/articles/daily_living/text/
Turf_Houses.htm
24
Projektowanie wnętrz współczesnych sal
koncertowych.
Układ centralny tarasowy.
Joanna Jabłońska1
Streszczenie: W II połowie XX wieku powstał nowatorski układ wnętrza Filharmonii
w Berlinie, który akustykom i architektom pozwolił na projektowanie sal koncertowych
o dobrej akustyce i pojemnościach widowni powyżej 1800 osób. W ten oto sposób,
wprowadzono do kanonu architektury, tzw. układ centralny z tarasami, czyli wnętrze ze
sceną położoną w środku i otoczoną ze wszystkich stron tarasową widownią.
Słowa kluczowe: sale koncertowe, układ centralny tarasowy, akustyka
1. Wprowadzenie
Projektowanie współczesnych sal koncertowych wymaga połączenia
ze sobą kilku dziedzin naukowych: architektury, akustyki, budownictwa,
informatyki i... psychologii.
Dzięki interdyscyplinarnemu podejściu do tego zagadnienia,
umożliwiono stworzenie skomplikowanych form przestrzennych, m.in.
„układu centralnego tarasowego” 2, który akustykom i architektom pozwolił
na zaprojektowanie wielkich sal koncertowych o pojemnościach widowni
powyżej 1800 osób, które pomimo swoich dużych gabarytów, posiadają
bardzo dobrą akustykę.
1
Politechnika Wrocławska, Wydział Architektury, 50-317 Wrocław, Prusa 53/55,
[email protected]
2
Układem centralnym tarasowym – nazywane będzie wnętrze sali koncertowej ze sceną
położoną w środku, otoczoną ze wszystkich stron widownią (środek traktowany jest tu
nieco umownie, niekoniecznie musi to być bardzo precyzyjnie określony środek
geometryczny, czasami jest to położenie asymetryczne w pobliżu środka). Siedziska
widowni są pogrupowane i umieszczone na tarasach. Powstałe między tarasami ściany
(tzw. fronty tarasów) stanowią dodatkowe płaszczyzny służące do zróżnicowania
kierunków odbicia fal akustycznych, zapewnienia dobrego zmieszania dźwięku
bezpośredniego z dźwiękiem z pierwszego odbicia bocznego i zapewnienia powstawania
intensywnych odbić dźwięku wyższych rzędów.
Termin: „układ centralny tarasowy” zaczerpnięty został z literatury anglojęzycznej
i stanowi parafrazę określenia „tarasy winnicy” (ang. vineyard terraces).
25
W 1963 roku powstała pierwsza sala koncertowa o układzie
centralnym tarasowym. Była to sala główna Filharmonii w Berlinie (rys. 1),
wzniesiona wg projektu architekta Hansa Scharouna oraz akustyka Lothara
Cremera. Fakt ten zbiegł się z rozpoczęciem intensywnych badań nad
dźwiękiem3, co pośrednio przyczyniło się do dynamicznego rozwoju tego
układu.
Rys. 1. Filharmonia w Berlinie – widok wnętrza [fot. autorka]
2. Układ centralny tarasowy – zasada działania
W II połowie XX wieku – w wyniku współpracy akustyków
z architektami – zmodyfikowano sposób dystrybucji fali akustycznej we
wnętrzu sali koncertowej z pomocą dwóch zabiegów architektonicznych.
Pierwszym z nich, było centralne umieszczenie sceny we wnętrzu sali,
przez co zmniejszono odległość słuchacza od źródła dźwięku i skrócono
drogę dla dźwięku bezpośredniego, w porównaniu do drogi, jaką dźwięk ten
musi przebywać od źródła dźwięku do słuchacza, w sali o układzie
pudełkowym4, przy porównywalnej pojemności widowni.
Drugim zabiegiem było zastosowanie tarasów, w celu „budowania
architektury dźwięku”, co umożliwiło precyzyjną modyfikację układu odbić
3
Prace m.in.: Leo Beraneka [lata 60. XX w.], Richarda Bolta [lata 60. XX w.], Roberta
Newmana [lata 60. XX w.], Rusella Johnsona [lata 70. XX w.], Harolda Marshalla [lata 70.
XX w.].
4
Układ pudełkowy – nazwany w ten sposób od prostopadłościennego kształtu wnętrza sali
koncertowej, przypominającego pudełko od butów, charakteryzującego się prostokątnym
rzutem, o znacznej długości w stosunku do szerokości i znacznej wysokości, w proporcjach
1:2:2 [1]. Układ ten znany był w architekturze wnętrz „widowiskowych” od czasów
średniowiecza.
26
fal akustycznych i podzielenie wnętrza sali na mniejsze, działające
indywidualnie ustroje akustyczne.
Sposób dystrybucji dźwięku w salach centralnych tarasowych został
zobrazowany na wirtualnym modelu sali koncertowej5 (rys. 2),
z umieszczonymi w niej: źródłem dźwięku i słuchaczem. Pierwsza fala
wychodząca ze źródła dźwięku napotyka na swojej drodze ścianę tarasu
widowni bocznej, odbijając się od niej w sposób idealny – zwierciadlany
i dociera do ucha słuchacza z boku. Następna fala, która wyszła ze źródła,
odbija się już od dwóch płaszczyzn frontów tarasów i dociera do uszu
słuchacza od tyłu. Jako trzecia, została pokazana fala, która odbija się od
sufitu. Podobnie zachowywać się będą wszystkie fale emitowane przez
źródło. Zakładając, że źródło dźwięku emituje fale akustyczne promieniście
we wszystkich kierunkach, przedstawiony schemat należy przyjąć dla
wszystkich źródeł dźwięku (instrumentów) znajdujących się na scenie sali
koncertowej.
Rys. 2. Dystrybucja dźwięku w sali o układzie centralnym tarasowym – widok
perspektywiczny [oprac. autorki]
Centralne usytuowanie sceny i wprowadzenia tarasów w przestrzeń
widowni, pozwoliły na budowanie dużych kubaturowo sal koncertowych,
o polu dźwięku wyróżniającym się korzystnymi parametrami akustycznymi,
tj: prawidłowym czasem pogłosu, głośnością, przejrzystością,
5
Opracowanie autorki na podst. rzutów i przekrojów wnętrza sali głównej Filharmonii
w Berlinie
27
wymieszaniem pola,
przestrzennością.
barwą,
bogactwem,
a
przede
wszystkim
–
3. Układ centralny tarasowy – parametry
Czas pogłosu6 jest podstawowym parametrem opisującym akustykę
sal koncertowych i ma ścisły związek z ich ukształtowaniem
architektonicznym, m.in.: kubaturą. Przeskalowywanie wymiarów (znanych
do czasów II połowy XX wieku) wnętrz pudełkowych, poza graniczną
wartość 1800 miejsc – powodowało nadmierne wydłużanie się czasu
pogłosu. Natomiast w salach centralnych tarasowych, poprzez rozłożenie
widowni tarasowej wokół sceny, można umieścić większą liczbę słuchaczy
w stosunkowo (w relacji do układów pudełkowych) mniejszej kubaturze,
przez co uzyskiwany jest optymalny czas pogłosu.
Kolejne istotne parametry, to głośność i czystość dźwięku, które
zostały poprawione dzięki temu, że w omawianym układzie do większej
liczby siedzisk, niż w salach pudełkowych, dociera dźwięk bezpośredni,
zmieszany z pierwszym odbiciem, a powierzchnie odbijające – ściany
tarasów – są zbliżone do słuchaczy.
Na dobrą jakość dźwięku w sali koncertowej wpływa również efekt,
tzw.: „wymieszania pola akustycznego”7, który nie został jeszcze opisany
w sposób matematyczny8, ale uważa się, że optymalnym rozwiązaniem dla
uzyskania pożądanego zmieszania dźwięku
jest
zastosowanie
nieregularnych powierzchni odbijających dźwięk. W salach centralnych
tarasowych, w których występuje duża liczba nieregularnych powierzchni,
tj.: ścian tarasów, ścian zamykających salę i zróżnicowanych powierzchni
sufitów, efekt „wymieszania pola akustycznego” jest łatwy do osiągnięcia.
Subiektywne wrażenie zwane „bogactwem tonu”, jest istotne dla
odbioru muzyki i powstaje wtedy, gdy we wnętrzu występują tzw. odbicia
późne. Są one słabsze niż odbicia wczesne, ale ich wpływ na dźwięk jest
zauważalny. Odbicia późne powstają w wyniku wielokrotnego odbijania się
fali akustycznej we wnętrzu. Dzięki różnorodności płaszczyzn refleksyjnych
zastosowanych w salach centralnych tarasowych i znacznej ich liczbie,
uzyskiwane wrażenia słuchowe są ciekawsze niż w układach klasycznych.
Oprócz omówionych powyżej parametrów o akustyce sali decyduje
szereg innych czynników, a wszystkie one uzyskiwane są dzięki współpracy
6
Czasem pogłosu – nazywamy czas, w którym natężenie dźwięku spada o 60 dB [2]
„Wymieszanie dźwięku” ma miejsce we wnętrzach, w których znajdują się elementy
rozpraszające fale akustyczne. Przez rozpraszanie fal o różnych częstotliwościach uzyskuje
się efekt „miękkiego” dźwięku, który działa korzystnie na ucho ludzkie, powodując
subiektywne wrażenie łagodności brzmienia.
8
Obecnie wyznacza się go za pomocą metod graficznych.
7
28
akustyków z architektami, ponieważ każdy detal architektoniczny ma
wpływ na pole dźwięku w sali koncertowej.
4. Efekt psychologiczny i architektoniczny
Oprócz swoistego architektoniczno-akustycznego ukształtowania9,
układ centralny tarasowy wprowadził do projektowania sal koncertowych
zagadnienie interakcji psychologicznych.
Zakłada się, że interakcje psychologiczne powstają pomiędzy
muzykami i słuchaczami oraz między słuchaczami a innymi słuchaczami.
W salach o układzie centralnym tarasowym sprzyjają temu: zmniejszenie
dystansu między wykonawcami i odbiorcami oraz umieszczenie tych
ostatnich we wspólnym okręgu. Możliwość obserwacji reakcji innych
uczestników koncertu „face to face”, wzbogaca wrażenia i wzmacnia
zainteresowanie występem. Lokalizacja miejsc dla publiczności na tylnym
tarasie umożliwia obserwację orkiestry i pracy dyrygenta. Zmienia to
podejście widzów, z bycia jedynie „obserwatorem”, „słuchaczem” na bycie
„uczestnikiem” koncertu. Układ centralny nawiązuje w sposób
bezpośredni, do układów naturalnych i pierwotnych, tj. wspólnego
muzykowania przy ognisku, czy występów kameralnych.
Nietypowe ukształtowanie wnętrza w konfiguracji winnicowej
oferuje ciekawe warunki wizualne, możliwość indywidualnego kreowania
architektonicznego przestrzeni. Przykładami takich sal są: Glasgow Royal
Concert Hall (rys. 3), Muza w Kawasaki, Oriental Arts Center w Szanghaju,
Walt Disney Hall w Los Angeles, Boettcher Concert Hall w Denver, nowo
projektowana Elbphilharmonie w Hamburgu.
Rys. 3. Glasgow Royal Concert Hall – wnętrze sali [fot. autorka]
9
Układ architektoniczno–akustyczny - pojęcie sformułowane na potrzeby ścisłego
wskazania powiązania formy ukształtowania architektury wnętrza i jego akustyki.
29
Dzięki szczególnemu ukształtowaniu architektonicznemu układu
centralnego tarasowego uzyskano dodatkowe wartości wizualne, estetyczne,
a nawet psychologiczne w salach koncertowych - dzięki połączeniu ze sobą
różnorodnych dziedzin nauki i sztuki.
3. Podsumowanie
Uzyskanie odpowiedniego efektu akustycznego w sali koncertowej
wymaga uwzględnienia wpływu wielu różnorodnych czynników:
architektonicznych, akustycznych, konstrukcyjnych, a także czynników
z różnych dziedzin, które nie kojarzą sie bezpośrednio z budownictwem. Te
relacje są szczególnie widoczne w trakcie projektowania sal o układzie
centralnym tarasowym, gdzie niebagatelną rolę odgrywają np.: technologie
informatyczne, czy zależności psychologiczne.
Podsumowując, uważam, że zespół projektujący salę koncertową
o układzie centralnym tarasowym powinien składać się ze specjalistów
z różnych branż budowlanych oraz naukowców reprezentujących różne
dyscypliny naukowe. Można już teraz określić, że przyszłość rozwoju
układu centralnego tarasowego, a także sal koncertowych w ogóle, będzie
ściśle związana z tworzeniem interdyscyplinarnych zespołów projektowych
oraz rozwijaniem języka specjalistycznego i technologii komputerowych,
które ułatwią wzajemną i jednoznaczną komunikację pomiędzy
różnorodnymi specjalistami.
Literatura
[1] Barron M. Auditorium Acoustics and Architectural Design, London
1993.
[2] Beranek L. Concert and Opera House. How they sound, Acoustical
Society of America, (b.m.) 1996.
[3] L., V. Jordan: Acoustical Design of Concert Halls and Theatres.
A personal Account. Applied Science Publishers LTD, London 1980
[4]A. Kulowski: Akustyka sal. Wydawnictwo Politechniki Gdańskiej,
Gdańsk 2007
[5] Z. Wąsowicz. Kształtowanie Akustyki Pomieszczeń. „Budowlany
Informator Techniczny”. 1999 nr 7 (17), s. 61-65.
[6] E.Wiśniewski: Die Berliner Philharmonie und Ihr Kammermusiksaal.
Der Konzertsaal als Zentralraum. Gebr. Mann Verlag, Berlin 1993.
[7]www.acoustics.salford.ac.uk/acoustics_world/concert_hall_acoustics/sha
pe.html
[8] http://www.zainea.com/The_New_Understanding_of_Acoustics.htm
30
Cz˛eść II
Nauki chemiczne
Inhibitowanie wzrostu cyjanobakterii przez
allelochemiczne związki wydzielane przez
makrofity
Barbara Macioszek1
Streszczenie: Toksyczne zakwity cyjanobakterii występują w eutroficznych
i hipertroficznych jeziorach, rzekach i stawach na całym świecie. Powodują one
powstawanie nieprzyjemnego zapachu i smaku wody. Woda taka nie nadaje się do celów
rekreacyjnych czy do odłowu ryb. Aby poprawić jakość wód ujmowanych do celów
wodociągowych oraz rekreacyjnych konieczne jest znalezienie skutecznej metody
kontrolowania zakwitów sinicowych.
Słowa kluczowe: zakwity sinicowe, ograniczanie zakwitów
1. Wprowadzenie
Masowy rozwój sinic, który bardzo często ma miejsce w wodach
ciepłych mórz, jezior i zbiorników zaporowych o wysokiej eutrofizacji,
powoduje deficyt tlenu i światła w niższych warstwach, zaburzenie krążenia
wody, ponadto sinice wydzielają metabolity wtórne, stanowiące zagrożenie
dla zdrowia ludzi i zwierząt. Obecność sinic znacznie pogarsza jakość
wody, wpływa na jej zapach, smak i barwę [1].
Rozwój cyjanobakterii uzależniony jest od szeregu czynników
biotycznych i abiotycznych, z których decydujący wpływ mają: temperatura
wody, naświetlenie oraz dostępność składników mineralnych (głównie
związków azotu i fosforu) [2, 3]. Niektóre gatunki sinic posiadają wakuola
gazowe, które umożliwiają im przemieszczanie się w toni wodnej, a co za
tym idzie lepsze wykorzystanie światła słonecznego oraz składników
pokarmowych. Wpływ na wzrost sinic i biosyntezę toksyn mają również
jony niektórych metali. Na przykład niskie stężenie jonów żelaza znacznie
hamuje rozwój kolonii, ale powoduje wzmożoną syntezę toksyn. Innymi
czynnikami, mającymi również wpływ na wzrost sinic i syntezę toksyn są
odczyn wody, zawartość rozpuszczonego tlenu oraz twardość wody [4, 5].
Obecność dużej liczby komórek cyjanobakterii w wodzie wywołuje
wiele negatywnych skutków, największym jednak zagrożeniem są
wydzielane przez nie toksyny [6]. Sinice wytwarzają szereg bioaktywnych
1
Uniwersytet Łódzki, Wydział Chemii, Katedra Chemii Ogólnej i Nieorganicznej, ul.
Narutowicza 68, 90-136 Łódź, e-mail: [email protected]
32
związków, które możemy podzielić na kilka grup, przyjmując jako
kryterium podziału rodzaj tkanek i narządów ulegających uszkodzeniu oraz
mechanizm ich działania [1]. Możemy więc wyróżnić: (a) hepatotoksyny,
czyli związki negatywnie wpływające na hepatocyty wątrobowe (należą do
nich cykliczne peptydy mikrocystyny i nodularyny), (b) neurotoksyny –
substancje, które uszkadzają obwodowy i ośrodkowy układ nerwowy
(alkaloidy, wśród których wyróżnić można anatoksynę-a, -a(S),
saksytoksyny, cylindrospermopsyny, lyngbiatoksynę-a), (c) toksyny o nie
do końca poznanej toksyczności oraz charakterze oddziaływania na
organizmy (dilaktony takie jak: aplazjatoksyna i debromoaplazjatoksyna
oraz lipopolisacharydy) [7].
Aby poprawić jakość wód nie tylko dla potrzeb stacji uzdatniania
wody, ale również w aspekcie ekologicznym, konieczne jest znalezienie
skutecznej metody kontrolowania zakwitów sinicowych aby można było
podjąć działania prowadzące do ograniczenia masowego występowania
sinic. Głównym czynnikiem limitującym wzrost fitoplanktonu jest
dostępność nutrientów, a zatem poprzez obniżenie stopnia eutrofizacji
można w znacznym stopniu ograniczyć zakwity sinic. Niestety efekty
zmniejszenia żyzności wód dostrzegalne są dopiero po wielu latach, dlatego
też niezbędne są działania wspomagające. Do działań ograniczających
masowe występowanie sinic należą metody fizyczne (destratyfikacja,
zmętnienie, napowietrzanie), chemiczne (stosowanie algicydów,
traktowanie wody związkami wapnia, żelaza lub miedzi), biologiczne
(biomanipulacja, słoma jęczmienna) oraz mechaniczne [7, 8].
Stosowanie dekomponowanej słomy jęczmiennej do ograniczania
zakwitów sinicowych zostało rozpowszechnione stosunkowo niedawno.
Dotychczas jednak nie zidentyfikowano substancji odpowiedzialnych za
hamowanie wzrostu glonów po aplikacji słomy do zbiorników wodnych
[9, 10].
Inhibicję wzrostu cyjanobakterii wykazują również związki
wydzielane przez niektóre gatunki makrofitów (Egeria densa, Cabomba
caroliniana, Myriophyllum spicantum) bądź uzyskane z ich liofilizowanej
biomasy [11 - 16].
W prezentowanej pracy opisano badania nad wpływem związków
o działaniu allelopatycznym, powstających podczas dekompozycji słomy
jęczmiennej lub wydzielanych przez niektóre gatunki makrofitów, na wzrost
sinic oraz na ilości syntezowanej mikrocystyny-LR. Do związków, które
wybrano do badań należą: kwasy: elagowy, galusowy, p-hydroksybenzoesowy, kwercetyna, floroglucyna, pirogalol i hydroksyhydrochinon.
33
2. Metodyka badań
Do badań dotyczących wpływu związków o działaniu
allelopatycznym na wzrost sinic i biosyntezę cyjanotoksyn wykorzystano
toksyczny szczep Microcystis aeruginosa PCC 7820, który to występuje
w zbiornikach wodnych na terenie Polski. Hodowlę badanego szczepu sinic
prowadzono w pożywce mineralnej BG11, przy oświetleniu dziennym,
w temperaturze 24-25 oC, w kolbach stożkowych o pojemności 750 cm3.
Inkubację zawiesin kultur sinic z dodatkiem substancji o działaniu
allelopatycznym prowadzono przez 16 dni równolegle z próbami
kontrolnymi. Wzrost kolonii był monitorowany poprzez oznaczanie liczby
komórek sinic przy pomocy mikroskopu Olympus CX-41 w komorze
Fuchsa-Rosenthala.
W celu oznaczenia stężenia mikrocystyny-LR w badanych próbach
zawiesiny kultur sinicowych były wstępnie zatężane na kolumienkach
ekstrakcyjnych (J.T.Baker) z wypełnieniem typu C18. Próbki zatężone
metodą SPE rozdzielano metodą wysokosprawnej chromatografii cieczowej
w odwróconych fazach (RP-HPLC) (chromatograf HP 1050 z detektorem
UV/VIS firmy Hewlett-Packard, USA) [17]. Do badań stosowano kolumnę
Spherisorb 5S ODS2 (Hewlett-Packard, USA) oraz pętlę nastrzykową
o objętości 20.0 µl. Detekcja była prowadzona przy długości fali 240 nm.
Rozdział w układzie izokratycznym z użyciem mieszaniny acetonitrylu
i 0,01-molowego roztworu octanu amonu (stosunek objętościowy - 26:74)
przy szybkości przepływu 1.0 cm3/min.
3. Wyniki i dyskusja
Zmiany liczby komórek sinic hodowanych w obecności: 1,2-dihydroksybenzenu (c = 0,5 mg/dm3), kwasu syryngowego (c=1,8 mg/dm3),
kwasu 3,4-dihydroksybenzoesowego (c=3 mg/dm3), kwasu elagowego
(c=5 mg/dm3) oraz (+)-katechiny (c=5,5 mg/dm3) przedstawiono na rysunku
1. Natomiast zmiany stężeń mikrocystyny-LR w poszczególnych próbach
przedstawiono rysunku 2.
Kultura sinic M.aeruginosa wzrastająca w obecności kwasu
elagowego o stężeniu 5,0 mg/dm3 wykazywała początkowo szybkość
wzrostu podobną jak w próbach kontrolnych. Poczynając zaś od siódmego
dnia inkubacji ilości komórek w zawiesinie stopniowo malała i po 16 dniach
nastąpiło obniżenie liczebności kultur sinicowych o 53,2% w stosunku do
kultur kontrolnych. Ilość mikrocystyny-LR wydzielana przez tę kolonię
sinic początkowo zmniejszała, z kolei od dnia siódmego hodowli stężenie
toksyny w zawiesinie komórek stopniowo wzrastało osiągając koncentrację
34
32,8 µg/ml, co stanowiło wzrost o odpowiednio 49,1% i o 18,7%
w porównaniu ze stanem wyjściowym
wyj
oraz próbami kontrolnymi.
(+)-Katechina
Katechina zastosowana w stężeniu
st
5,5 mg/dm3 wywołała
inhibicję wzrostu kultur
tur sinic o około 40% w stosunku do hodowli
kontrolnych. Ilość mikrocystyny
mikrocystyny-LR początkowo
tkowo malała, a następnie
nastę
stopniowo jej stężenie
enie wzrastało. Wydaje si
się, iż podobnie jak to miało
miejsce w przypadku kwasu elagowego, (+)
(+)-katechina
katechina reaguje z toksyn
toksyną
obniżając jej zawartość
ść w próbach.
Kolonia sinic wzrastająca
wzrastaj
w obecności
ci kwasu syryngowego
o stężeniu
eniu 1,8 mg/dm3 wykazywała zahamowanie szybkości
ci wzrostu
średnio
rednio o 25%. Natomiast ilo
ilość mikrocystyny-LR w początkowych
tkowych fazach
eksperymentu maleje, zaś
za w końcowym etapie ich ilość w zawiesinie
cyjanobakterii przewyższa poziom stężenia
st enia wykazywany przez hodowlę
hodowl
kontrolną. Początkowy
tkowy spadek ilości
ilo ci toksyny spowodowany był
prawdopodobnie reakcj
reakcją MCYST-LR z zastosowanym związkiem,
ązkiem,
natomiast wzrost jej stężenia
stęż
w etapie końcowym
owym był efektem wyczerpania
się kwasu syryngowego.
Kwas 3,4-dihydroksybenzoesowy
dihydroksybenzoesowy o st
stężeniu 3,0 mg/dm3 dodany do
hodowli sinic praktycznie nie wywołuje inhibicji ich wzrostu. Jeśli
Jeśli chodzi
o ilość MCYST-LR
LR wydzielanej przez kulturę
kultur cyjanobakterii wzrastaj
wzrastające
w obecności
ci tego kwasu, to ich stężenia
st
są zbliżone
one do oznaczonych
w hodowlach kontrolnych
1,2-dihydroksybenzen
dihydroksybenzen dodany do hodowli sinic w stężeniu
stęż
st
0,5 mg/dm3 wywołuje inhibicję
inhibicj ich wzrostu o 19%. Ilość MCYST
MCYST-LR
wydzielanej przez kulturę cyjanobakterii wzrastające w obecności
ci badanego
związku
zku zmniejszyła się
si o 11% w stosunku do ilości
ci oznaczonych
w hodowlach kontrolnych.
liczba komórek/ml
2,3E+07
2,0E+07
1,8E+07
1,5E+07
1,3E+07
1,0E+07
0
kontrola
k.syryngowy
kwas elagowy
1
2
3
4
7
9 11 14 16
czas inkubacji [doba]
1,2-dihydroksybenzen
kwas 3,4-dihydroksybenzoesowy
(+)-katechina
Rys. 1. Zmiany liczby komórek sinic w badanych kulturach
35
stężenie MCYST [µg/ml]
35
30
25
20
15
0
1
2
3
4
7
9
11
14
16
czas inkubacji [doba]
kontrola
1,2-dihydroksybenzen
kwas syryngowy
kwas 3,4-dihydroksybenzoesowy
kwas elagowy
(+)-katechina
Rys. 2. Zmiany stężenia
st
mikrocystyny-LR w kulturach sinic
4. Podsumowanie
Wyniki badańń prezentowane w niniejszej pracy, przedmiotem
których było określenie
lenie wpływu związków
zwi zków o działaniu allelopatycznym na
wzrost sinic i syntezęę cyjanotoksyn, prowadzą
prowadz do następujących
cych wniosków:
1. Kwas 3,4-dihydroksybenzoesowy
dihydroksybenzoesowy nie powodu
powoduje
je zmniejszania si
się
liczebności
ci kultur sinic ani też
te ilości wydzielanych toksyn.
2. Spośród
ród badanych związków
zwi
liczbę komórek w zawiesinie sinic
znacznie redukowały: kwas elagowy, (+)-katechina
(+) katechina oraz katechol.
3. Zmniejszenie się liczby komórek w hodowlach przy równoczesnym
ównoczesnym
zwiększeniu
kszeniu ilości
ci toksyn w zawiesinie obserwowany jest dla kultur
sinic hodowanych w obecności:
obecno ci: kwasu elagowego, syryngowego
i 1,2-dihydroksybenzenu.
dihydroksybenzenu.
Literatura
[1]. Codd G.A., 1995, Cyanobacterial toxins: occurrence, properties and
biological significance,, Water Science Technology,
Technology 32 (4), 149-156.
[2]. Sivonen K.,1990, Effects of light, temperature, nitrate, orthophosphate,
and bacteria on growth of and hepatotoxin production by Oscillatoria
agardhii strains, Appl. Environ. Microbiol., 56, 2658-2666.
[3]. Lehtimäki J., Sivonen K., Luukkainen R., Niemelä S.I.,1994, The effects
of incubation time, temperature, light, salinity and phosphorus on growth
and hepatotoxin production by Nodularia strains, Arch. Hydrobiol., 130,
269-282.
[4]. Kadłubowska J.Z., Zarys algologii
algologii, PWN, 1975.
36
[5]. Podbielkowski Z., Glony, PZWS, 1967.
[6]. Hitzfeld B.C., Höger S.J., Dietrich D.R., 2000, Cyanobacterial toxins,
removal during drinking water treatment, and human risk assessment,
Environ. Health Perspect, 108, 113 –122.
[7]. WHO, Toxic Cyanobacteria in Water, E & FN Spon Press, London,
1999.
[8]. O’Melia C.R., 1998, Coagulation and sedimentation in lakes, reservoirs
and water treatment plants, Water Science Technology, 37(2), 129-135.
[9]. Barrett P.R.F., 1992, Newman J.R., Algal growth inhibition by rotting
barley straw, Br. Phycology Journal, 27, 83–84.
[10]. Martin D., Ridge I., 1999, The relative sensitivity of algae to
decomposing barley straw, Journal of Applied Phycology, 11, 285–291.
[11]. Gross E.M., Erhard D., Iványi E., 2003, Allelopathic activity of
Ceratophyllum demersum L. and Najas marina ssp. intermedia (Wolfgang)
Casper, Hydrobiology, 506–509, 583–589.
[12]. Gross E.M., Meyer H., Schilling G., 1996, Release and ecological
impact of algicidal hydrolysable polyphenols in Myriophyllum spicatum,
Phytochemistry, 41, 133–138.
[13]. Hilt S., 2006, Allelopathic inhibition of epiphytes by submerged
macrophytes, Aquatic Botany, 85, 252–256.
[14]. Leu E., Krieger-Liszkay A, Goussias Ch, Gross E.M., 2002,
Polyphenolic allelochemicals from the aquatic angiosperm Myriophyllum
spicatum inhibit photosystem II, Plant Physiology, 130, 2011–2018.
[15]. Nakai S., Inoue Y., Hosomi M., Murakami A., 1999, Growth
inhibition of blue-green algae by allelopathic effects of macrophytes, Water
Sci. Technology, 39, (8), 47-53.
[16]. Saito K., Matsumoto M., Sekine T., Murakoshi I., Morisaki N.,
Iwasaki S., 1989, Inhibitory substances from Myriophyllum brasiliense on
growth of blue-green algae, Journal of Natural Products, 52, (6), 1221-1226.
[17]. Meriluoto J., 1997, Chromatography of microcystins, Analytica
Chimica Acta, 352, 277–298.
37
Optymalizacja procesu grawitacyjnego
odwadniania osadów organicznych
z użyciem polielektrolitów
Grzegorz Maliga, Jerzy Składzień, Janusz Szymków
Streszczenie:
W
pracy
zaprezentowano
wyniki
eksperymentów
grawitacyjnego zagęszczania komunalnych ścieków pofermentacyjnych
zmieszanych z różnymi dawkami flokulanta syntetycznego w postaci
polielektrolitu kationowego. Badanie skuteczności odwadniania prowadzono
na filtrze laboratoryjnym przy użyciu trzech rodzajów polielektrolitów.
Słowa kluczowe: grawitacyjne odwadnianie, flokulacja, optymalizacja,
ścieki komunalne, polielektrolit kationowy
1.Wprowadzenie
Taśmowe prasy filtracyjne są powszechnie wykorzystywane do
procesu odwadniania organicznych osadów ściekowych. Proces ten pozwala
zredukować objętość osadu, ułatwia ich transport na miejsce składowania
oraz podwyższa wartość kaloryczną, jeżeli istnieje potrzeba wykorzystania
osadu jako biopaliwa w procesie współspalania.
W porównaniu z termicznym procesem suszenia mechaniczne odwadnianie
wymaga znacznie mniejszego nakładu energetycznego. Jednak odwadnianie
osadów ściekowych metodą mechaniczną posiada znaczne ograniczenie,
ponieważ jak wynika z danych literaturowych, maksymalna zawartość
suchej masy jaką można osiągnąć wynosi około 30% [1]. Spowodowane jest
to tym, iż w skład osadu organicznego wchodzą głównie mikroorganizmy
(bakterie), które tworzą specyficzną biosieć zwaną stadną. Cechą tego typu
sieci jest wysoka porowatość oraz fraktalna struktura, wykazująca odmienną
budowę w porównaniu z osadami nieorganicznymi.
Proces odwadniania organicznych osadów ściekowych na
taśmowych prasach filtracyjnych jest wspomagany, środkami zwanymi
polimerami. W celu zapewnienia właściwego kontaktu polimerów ze
ściekami, poddaje się je procesowi mieszania mechanicznego lub
statycznego. Mieszanie zapewnia odpowiednią strukturę przygotowanego
ścieku, co bezpośrednio wpływa na efektywność odwadniania, dlatego
38
należy prowadzić je przy optymalnej prędkości obrotowej oraz optymalnym
czasie przebywania.
Proces mechanicznego odwaniania na prasach taśmowych można
podzielić na trzy etapy: zagęszczanie, strefę klina oraz wyciskanie pomiędzy
rolkami. W pracy główną uwagę zwrócono na etap zagęszczania. Etap ten
jest często pomijany podczas analiz, ponieważ nie wpływa on w takim
samym stopniu jak wyciskanie na końcową zawartość suchej masy w placku
filtracyjnym. Jednak zagęszczanie grawitacyjne cechuje się najmniejszą
energochłonnością jak również jest najtańsze, biorąc pod uwagę nakłady
kapitałowe.
Jak wynika z danych literaturowych, zawartość suchej masy zaraz po
etapie taśmowego zagęszczania wynosi około 6-9%, natomiast jeżeli
zaopatrzy się taśmę w jedną lub dwie rolki niskiego ciśnienia, to poziom
zawartości suchej masy zaraz po zagęszczeniu może osiągnąć wartość około
10-13% [1]. Zagęszczanie można prowadzić na osobnym urządzeniu lub
integralnie na prasie filtracyjnej. Warto zwrócić uwagę na fakt, iż etap ten
jest pierwszym jaki zachodzi w całym procesie mechanicznego
odwadniania, więc jeżeli będzie on przeprowadzony sprawnie oraz
z wysoką efektywnością, to wpłynie on bezpośrednio na wydajność
kolejnych etapów, a w efekcie na pracę całej prasy filtracyjnej i końcowy
wzrost zawartości suchej masy w osadzie.
2. Modele matematyczne etapu grawitacyjnego odwadniania
W literaturze dotyczącej procesu odwadniania osadów organicznych,
istnieje wiele modeli matematycznych, które opisują etap grawitacyjnego
odwadniania podobny do tego jaki zachodzi na zagęszczaczach taśmowych.
Niektóre modele teoretyczne opierają się na prawach filtracji Darcy’ego,
które w celu uzyskania korelacji, zostały zmodyfikowane współczynnikiem
empirycznie wyznaczalnym. Natomiast inne modele są modelami
empirycznymi i zawierają w swojej postaci wiele współczynników.
W pracy przedstawiono porównanie dwóch modeli: rów. (3), (4) [1],
z wynikami doświadczalnymi.
Pierwszy model zakłada, że gęstość
pierwotnych ścieków, poddawanych zagęszczaniu jest proporcjonalna do
gęstości filtratu i jego różniczkowa postać zapisana jest równaniem:
d ( M 0 − M (t ))
= −λ (( M 0 − M (t )) − ( M 0 − M ∞ )) 2 ,
dt
(1)
gdzie: λ - współczynnik wyznaczalny doświadczalnie, bazujący na
zależności:
39
 1
1

 + b2 .
λ = b1 
+
 M0 M0 − M∞ 
(2)
Do celów eksperymentalnych użyteczna jest całkowa postać równania (1),
która określa zależność masy filtratu w czasie i zapisana jest w formie:
−1

1 
 .
M (t ) = M ∞ −  λ ⋅ t +
M ∞ 

(3)
Inny model [1] zakłada, że istnieje liniowa zależność pomiędzy masą
placka filtracyjnego po nieskończenie długim czasie zagęszczania
a zawartością suchej masy w podawanym ścieku i wyraża się zależnością:
C (t ) =
DS


1

(a1 ⋅ DS + a 2 ) +  c1 ⋅ exp(c 2 ⋅ DS ) ⋅ t +
M 0 − (a1 ⋅ DS + a 2 ) 

−1
.(4)
Wartości parametrów: a1, a2, b1, b2, c1 oraz c2, zawarte w równaniach
modelowych zależą od początkowej zawartości suchej masy. W części
eksperymentalnej użyte zostały ścieki, które zawierają 3,1% suchej masy,
a wartości współczynników dobrano z [1].
3. Część eksperymentalna
Badania zostały przeprowadzone na laboratoryjnym filtrze
grawitacyjnym rys. 1, gdzie jako przegrodę filtracyjną użyto tkaninę
syntetyczną SP 031608 KUFFERATH używaną w taśmowych
zagęszczaczach grawitacyjnych. Procesowi odwadniania poddawano ściek
pofermentacyjny, który pobrany został z komór fermentacyjnych
Wrocławskiej Oczyszczalni Ścieków. Badany ściek cechował się pierwotną
zawartością suchej masy o wartości DS=3,1% i gęstością ρ=992 kg·m-3.
Jako środka flokulacyjnego użyto trzech polielektrolitów kationowych
FLOERGER typ: FO o numerach 4650, 4490, 4240, które różnią się
kationowością, rys. 2. Proces grawitacyjnego odwadniania prowadzono
przez czas 1200 sekund dla różnych stężeń dozowanego flokulanta. Podczas
prowadzonego procesu zagęszczania rejestrowano masę filtratu, na
40
podstawie której możliwe było wykreślenie krzywych odwadniania dla
każdej dawki polielektrolitu.
Rys 1. Stanowisko laboratoryjne do zagęszczania grawitacyjnego.
Rys 2. Polielektrolity kationowe służce do flokulacji ścieków organicznych [4].
4. Wnioski
Przedstawione badania potwierdzają możliwość określenia
optymalnej wartości dozowanego polielektrolitu. W przypadku zagęszczania
grawitacyjnego przyjęto kryterium maksymalnej zawartości suchej masy
w placku jak i kryterium czasu zagęszczania. W zakresie czasów
zagęszczania do kilku minut wartość optymalnej dawki jest mniejsza niż
41
optymalne dawki przy czasie odwadniania wynoszącym 1200 s. W
praktycznym zastosowaniu jednostkowy czas
procesu zagęszczania
ścieków zawiera się w granicach jednej minuty, stąd optymalizacji
grawitacyjnego procesu zagęszczania należy dokonywać przyjmując
kryterium czasu.
Porównując wyniki eksperymentalne z modelowymi
stwierdzono, że dla czasów odwadniania do jednej minuty proces
odwadniania dobrze opisuje zależność (4), natomiast w zakresie czasów
powyżej jednej minuty dobrą zbieżność uzyskano z modelem opisanym
równaniem (3).
Zawartość suchej masy po 10 s
FO4650
5,5
Sucha masa, %
5,0
4,5
4,0
3,5
3,0
2,5
5
7
9
11
13
15
17
19
21
Dawka polielektrolitu, g/kg
Rys. 3. Zawartość suchej masy w zależności od dawki polielektrolitu.
Zawartość suchej masy po 1200 s
FO4650
7,6
Sucha masa, %
7,4
7,2
7,0
6,8
6,6
6,4
6,2
6,0
5
7
9
11
13
15
17
19
Dawka polielektrolitu, g/kg
Rys. 4. Zawartość suchej masy w zależności od dawki polielektrolitu.
42
21
E ksprym e ntalne
w g rów . 4
w g rów . 3
Zawartość suchej masy, %
10
9
8
7
6
5
4
3
2
1
0
0
200
400
600
800
1000
1200
C zas, s
Rys. 5. Graficzne porównanie modeli matematycznych z danymi eksperymentalnymi.
5. Oznaczenia
C - zawartość suchej masy w placku, %
DS. - sucha masa zawarta w ścieku, kg
M - masa filtratu w czasie, kg
M0- masa ścieku poddanego zagęszczaniu, kg
M¥- masa filtratu po bardzo długim czasie odwadniania, kg
t - czas, s
l - kinetyczny współczynnik dla modelu empirycznego, g-1s-1
Literatura
[1] J.Olivier, J. Vaxelaire, P. Ginisty: J. Chem. Technol. Biotechnol.79:461467 (2004).
[2] B. F. Severin, Collins: Wat. Env. Fed, 65th Conf. , Sept 20-24, pp 205216 (1992).
[3] J. Składzień, J. Szymków: Inż. i Ap. Chem.,44, nr 4, 33, 2005.
[4] www.snf-group.com/Flocculants.html
43
Usuwanie toksyn sinicowych w procesie
uzdatniania wody
Dominik Szczukocki1
Streszczenie: Obecność toksyn sinicowych w zbiornikach wodnych, które są
źródłem zaopatrzenia w wodę dla dużych ośrodków miejskich, oraz ich
bardzo wysoka trwałość i stabilność chemiczna, stanowią problem dla stacji
uzdatniania wody oraz laboratoriów zajmujących się analizą jakości wody.
Należy jak najszybciej opracować dobrą metodę usuwania tych związków.
Słowa kluczowe: toksyny sinicowe, mikrocystyna, uzdatnianie wody
1. Wprowadzenie
Woda odgrywa niezastąpioną rolę w gospodarce komunalnej. Jakość
wody, zwłaszcza używanej do celów pitnych, musi być bardzo wysoka.
Wodom zagraża jednak antropopresja. Efektem jej może być zarówno
zubożenie zasobów (zagrożenia ilościowe), jak i niebezpieczeństwo
wystąpienia zanieczyszczeń wód (zagrożenia jakościowe). Skażenie
naturalnych zbiorników wód przez człowieka przyczynia się do obniżenia
stopnia wykorzystania powierzchniowych wód śródlądowych, a także
morskich. Coraz częściej naturalne warunki ekologiczne zbiorników
wodnych zostają silnie naruszone przez odprowadzanie do rzek ścieków
komunalnych i przemysłowych. Wzrost zawartości mineralnych związków
odżywczych pochodzących z tych ścieków, jak również spływ składników
nawozowych doprowadzają do szybkiej eutrofizacji wód. Zdolność
szybkiego rozwoju, jaka cechuje niektóre gatunki fitoplanktonu
w korzystnych warunkach temperatury, oświetlenia i koncentracji związków
odżywczych, może doprowadzić, zwłaszcza w odniesieniu do sinic, do tak
wielkiego ich zagęszczenia w powierzchniowych warstwach wody, że
osiągają one nawet 10 milionów komórek w 1 cm3 (Rys. 1) [1].
Niebezpieczeństwem towarzyszącym obfitym zakwitom sinic jest
zachwianie równowagi tlenowej w środowisku wodnym, a także
wytwarzanie toksyn niebezpiecznych dla zdrowia ludzi i zwierząt. Zakwity
sinic tworzą się w okresie późnego lata i wczesnej jesieni, w postaci zielono
- niebieskiego kożucha lub piany.
1
Uniwersytet Łódzki, Wydział Chemii, Katedra Chemii Ogólnej i Nieorganicznej,
ul. Narutowicza 68, 90-136 Łódź, e-mail: [email protected]
44
Rys. 1. Zakwit sinicowy w jeziorze Balgavies w Szkocji z 1981 r. [1].
Jak donosi światowa literatura z dziedziny chemii, toksykologii
środowiska i medycyny, toksyczne zakwity fitoplanktonu są olbrzymim
problemem dla ludzi i zwierząt na całym świecie [1-3].
W Polsce zakwity sinic w zbiornikach wody pitnej stanowią poważny
problem, szczególnie dla wielkich aglomeracji. Wykrycie obecności toksyn
sinic w wodach polskich jezior i zbiornikach zaporowych postawiło nowe
problemy przed stacjami uzdatniania wody i laboratoriami zajmującymi się
analizą jakości wody pitnej. W latach 90. XX wieku, podczas badań
prowadzonych przez zespół Pracowni Analizy Chemicznej i Badań
Środowiskowych Uniwersytetu Łódzkiego, stwierdzono występowanie
cyjanotoksyn m.in. w Zbiorniku Sulejowskim, który był dotychczas źródłem
(i nadal jest potencjalnym źródłem) zaopatrzenia w wodę dla miasta Łodzi.
2. Powstawanie zakwitów sinicowych
Sinice (łac.: Cyanobacteria, Cyanophyta; syn.: cyjanobakterie,
cyjanofity) to gromada organizmów dawniej uznawanych za glony, według
nowszej taksonomii zaliczanych do królestwa Procaryota (bezjądrowe),
podkrólestwa Eubacteria. Z racji samożywności i tego, że należą do
jednych z najważniejszych producentów w środowisku wodnym, sinice
często zaliczane są wraz z glonami do fitoplanktonu.
Pojawianie się sinicowych zakwitów wody jest determinowane przez
czynniki środowiskowe biotyczne jak i abiotyczne (fizyczne i chemiczne).
Poszczególne gatunki sinic charakteryzują się różną zdolnością
przystosowawczą do życia w planktonie, jednakże gatunki potencjalnie
toksyczne, zdolne do tworzenia zakwitów, wykazują pewne cechy wspólne.
Jedną z nich jest obecność wakuol gazowych, których istnienie umożliwia
tym organizmom wertykalne przemieszczanie się w toni wodnej.
W zbiorniku wodnym sinice koncentrują się w dużych ilościach przy jego
powierzchni, co powoduje zmianę barwy wody na niebiesko-zieloną. Mogą
45
one być wtedy
w
łatwoo spychane przez wiattr do zatok,, gdzie twoorzą postać
grubego kożucha
k
lubb napowierzchniowej piany (Ryss. 2). Z takką sytuacją
można byyło spotkać się na plaażach Zatok
ki Gdańskieej. W latacch 2001-06
masowy zakwit
z
Noddularia spuumigena po
owodował okresowe zamykanie
kąpielisk w rejonie Trójmiasta.
•kom
mórki sinic rozm
mieszczone w caałej objęętości zbio
ornika
•zagęszczen
nie komórek przy powierzchn
ni zbiornika
•spychanie komó
órek sinic przezz wiatr
R 2. Powsttawanie kożuccha sinicoweg
Rys.
go na powierzcchni zbiornikaa.
Tokssyny są wyddzielane doo wody w trrakcie całeggo cyklu rozzwojowego
sinic, procces ten jednnak wzmaga się podczzas starzenia i rozpaduu komórek.
Produkcjaa toksyn związana
z
jest ze strresowymi dla
d danegoo gatunku
środowiskkowymi
czynnikamii
fizyczn
nymi
(głównie
teemperaturą
i oświetlenniem), jak również
r
czyynnikami ch
hemicznymi i biologiczznymi.
3. Toksyyny sinicoowe
Toksyny sinicoowe (cyjanootoksyny) są
s zróżnicoowaną pod względem
chemicznyym, jak i toksykologi
t
cznym grup
pą toksyn naturalnych
n
h. Pomimo
tego, że występują
w
w środowiisku wodny
ym okazujee się, że ssą bardziej
niebezpiecczne dla ssaków
s
ląddowych niiż dla florry i faunyy wodnej.
Dotychczaasowa wieddza na tem
mat działaniia toksyn produkowan
p
nych przez
sinice pocchodzi głow
wnie z tesstów na zw
wierzętach laboratoryjnych oraz
izolowanyych liniach komórek
k
ssaków.
Związki te moożna podzieelić ze wzg
ględu na charakter tooksycznego
oddziaływ
wania na dw
wie klasy: biotoksyny
y (hepatotokksyny, neurrotoksyny)
i cytotokssyny (m.in. dermatotooksyny) oraaz toksyny o nierozpooznanej do
końca tokksyczności oraz charaakterze odd
działywaniaa na organnizm ludzi
i zwierząt. O ichh toksycznności ostrrej może świadczyćć wartość
o tak silnej
ej trucizny jak cyjanek
współczynnnika LD50 niższego o 2-3 rzędy od
sodu czy potasu.
p
należą
Heppatotoksyny
do
naajniebezpiecczniejszych
trucizn
w przyroddzie. Konsekkwencją osttrego zatruccia tymi subbstancjami jjest szybko
postępującca degraddacja wąttroby, powodująca masowe krwotoki
wewnątrzw
wątrobowe,, co w koonsekwencji prowadzii do śmierrci całego
46
organizmu. Intoksykowane zwierzęta umierają w charakterystycznym
letargu, poprzedzonym silnym przekrwieniem wątroby oraz jej silnym
obrzękiem a także szokiem krwotocznym. Organotropizm i specyficzność
komórkowa tej grupy toksyn wiąże się z selektywnym systemem transportu
kwasów żółciowych, występujących tylko w hepatocytach [2]. Długotrwałe
spożywanie wody oraz pożywienia skażonego tego typu toksynami może
dawać takie objawy kliniczne jak wysypka, gorączka, wymioty i biegunka
oraz ostra dysfunkcja wątroby spowodowana jej przewlekłym
uszkodzeniem. Istnieją także dowody na genotoksyczność tego typu toksyn,
a zatem mogą być one silnymi promotorami raka wątroby, przy
długotrwałej ekspozycji na tego typu toksyny, nawet przy niewielkich ich
stężeniach w wodzie pitnej i pokarmie. Ta ich aktywność łączona jest
z powszechnym występowaniem nowotworów wątroby u mieszkańców
niektórych prowincji w Chinach, gdzie woda używana do celów pitnych
pobierana jest ze zbiorników powierzchniowych zanieczyszczonych
metabolitami cyjanobakterii [3].
Toksyny tej grupy są cyklicznymi oligopeptydami o ciężarze
cząsteczkowym w granicach 800-1100 Da i toksyczności ostrej w granicach
30-1000 μg na kilogram masy ciała (LD50). Są one syntezowane za
pośrednictwem specyficznych syntetaz peptydowych, których budowa
i obecność grup funkcyjnych determinują skład i sekwencję aminokwasów
w toksynach, a co za tym idzie ich aktywność biologiczną. Pierwszym
wyizolowanym związkiem z tej grupy była mikrocystyna-LR (Rys. 3),
której strukturę określił w 1988 r. Rinehart.
Rys. 3. Struktura mikrocystyny-LR.
Hepatotoksyny są bardzo trwałe, mogą być obecne w zbiorniku
wodnym nawet do kilku tygodni po zakwicie. Spadek ich stężenia
w środowisku jest spowodowany powolnym rozkładem przez bakterie oraz
47
dzięki mieszaniu i rozcieńczaniu mas wody w zbiorniku. Są związkami
stabilnymi w wysokiej temperaturze co oznacza, że gotowanie wody nie
powoduje rozpadu ich struktury. Są one również stabilne zarówno przy
niskich jak i wysokich wartościach pH, co jest przyczyną ich bardzo
wysokiej odporności na działanie soków żołądkowych.
Hepatotoksyny przemieszczają się w niezmienionej postaci poprzez
system transportu kwasów żółciowych z pomocą komórek okładzinowych
jelita cienkiego. Akumulowane są w komórkach wątrobowych, a ich
obecność wywołuje wewnątrzwątrobowy krwotok, prowadzący do
zmniejszenia objętości krwi krążącej w tym narządzie oraz zmiany
morfologiczne.
4. Metody usuwania toksyn sinicowych z wody
Do chwili obecnej nie opracowano skutecznej metody, która
pozwalałaby na usunięcie śladowych ilości mikrocystyn z wody pitnej.
Brakuje również wiedzy na temat produktów rozkładu tych związków
w procesach uzdatniania oraz prowadzenia badań w skali technologicznej.
Stosowane obecnie metody oczyszczania wód powierzchniowych
z toksyn sinicowych można podzielić na trzy grupy:
a. metody klasyczne (flokulacja, koagulacja, filtracja piaskowa)
b. metody fizykochemiczne (adsorpcja na węglu aktywnym, fotoliza,
fotokataliza, procesy membranowe)
c. metody
chemiczne
(chlorowanie,
ozonowanie,
reakcja
z chlorkiem żelaza(III), utlenianie odczynnikiem Fentona).
Klasyczne metody uzdatniania wody są nieskuteczne w usuwaniu
toksyn sinicowych. Koagulacja może usuwać komórki sinicowe nawet w stu
procentach, proces ten jest jednak całkowicie nieprzydatny do usuwania już
rozpuszczonych w wodzie toksyn.
Fotoliza promieniami UV o długości fali zbliżonej do maksimum
absorpcji mikrocystyny daje dość dobre wyniki w skali laboratoryjnej.
Naświetlanie wody promieniami o natężeniu 2550 μW/cm2 powoduje
całkowity rozpad mikrocystyny-LR po 10 min. Zmiana natężenia lub
długości fali powoduje znaczny spadek efektów. Zastosowanie
katalizatorów podnosi efektywność uzyskiwaną dla rozkładów
fotolitycznych.
Podejmowano również próby stosowania procesów membranowych
do oczyszczania wody z komórek i toksyn sinicowych. Stwierdzono, że
komórki Microcystis aeruginosa mogą być usuwane przez mikrofiltrację
prawie w stu procentach. Może tu jednak dochodzić do uszkadzania
komórek i uwalniania się dodatkowych porcji toksyn zawartych
w cytoplazmie (wtórne skażenie wody).
48
Chemiczne metody uzdatniania wody są najefektywniejsze
i najczęściej stosowane w procesie technologicznym. Polegają one na
chemicznym utlenianiu ładunku toksyn sinicowych za pomocą różnego typu
utleniaczy takich, jak: chlorek żelaza(III), mono- i dichloramina, chlor,
ditlenek chloru(IV), ozon. W układach oczyszczania wody ujmowanej ze
zbiorników wód zeutrofizowanych stosuje się zwykle wstępne utlenianie.
Skuteczność działania utleniaczy zależy od ich rodzaju i dawki, czasu
kontaktu z wodą oraz jej odczynu, a także od obecności innych substancji
organicznych, z którymi mogą reagować. Zdolności utleniające
poszczególnych utleniaczy najczęściej porównuje się biorąc pod uwagę ich
potencjały oksydacyjno-redukcyjne, które silnie zależą od pH. Reakcje
utleniania podlegają prawu Arrheniusa i ich szybkość maleje ze spadkiem
temperatury. Jest to bardzo ważna właściwość, na którą należy zwracać
uwagę przy uzdatnianiu wody powierzchniowej w różnych porach roku.
Chlorek żelaza(III) stosowany jest w procesie oczyszczania wody na
etapie flokulacji. Efektywność reakcji toksyn z jonami żelaza(III) wynosi
około 95% po około 60 min., ale przy braku rozpuszczonych substancji
organicznych. Reakcja zachodzi w szerokim zakresie pH (2-10), przy czym
efektywność jej jest wyższa przy wyższych wartościach pH (przy pH=10 po
30 min. zostaje usunięty prawie cały ładunek toksyn). O ile jednak ten
sposób uzdatniania wykonuje się na początku procesu, przed
odseparowaniem komórek sinic, może dojść do lizy komórek i wtórnego
skażenia wody toksynami.
Metoda uzdatniania wody przez chlorowanie jest stosowana od ponad
stu lat. Chlor utlenia mikrocystynę-LR przy zastosowaniu odpowiednio
dużej dawki - przynajmniej 0,5 mg/dm3, w ciągu 30 min. przy pH poniżej 8.
Dlatego chloran(II) sodu lub wapnia, podwyższające wartość pH, są mało
efektywne. Mechanizm i produkty utleniania nie zostały jeszcze dokładnie
poznane. Chlorowanie jest powszechnie stosowane w procesach uzdatniania
wody pomimo, że istnieje niebezpieczeństwo tworzenia się toksycznych
produktów w reakcjach częściowego utleniania związków organicznych
(a w szczególności toksyn sinicowych) występujących w wodzie. Z tego
powodu istnieje obecnie tendencja do zastępowania chloru ditlenkiem
chloru(IV). Daje on lepszą efektywność dezynfekcji w szerokim zakresie
pH i przy stosowaniu mniejszych dawek, nie wykazuje tendencji do
tworzenia chlorowcopochodnych, w tym trihalometanów. Spowalnia on
także wtórny rozwój bakterii w sieciach przesyłowych.
Inną metodą utleniania mikrocystyn jest traktowanie zanieczyszczonej
wody manganianem(VII) potasu. Dawka 1-1,25 mg/dm3 KMnO4 obniża
stężenie mikrocystyn poniżej 1 μg/dm3 (granicy wyznaczonej przez WHO
dla wody pitnej). Jak do tej pory przeprowadzono tylko badania wstępne,
nie są znane produkty utleniania ani ich toksyczność. Należy również
49
ostrożnie dobierać dawki manganianu(VII), żeby nie spowodować lizy
komórek sinic znajdujących się w wodzie w wyniku stresu chemicznego.
Z danych literaturowych [5] wynika, że efektywność utleniania
mikrocystyny-LR za pomocą ozonu jest duża, a ozon okazał się bardziej
efektywny w niszczeniu hepatotoksyny niż chlor, peroksotlenek wodoru,
czy manganian(VII) potasu. Rezultaty wstępnych badań przeprowadzonych
przez Keijola i współpracowników [4] wskazały, że proces uzdatniania
wody zawierający etap ozonowania może być najefektywniejszy
w eliminowaniu toksyczności powodowanej przez sinice.
5. Podsumowanie
Zakwity sinic w Zbiorniku Sulejowskim występują praktycznie od
początku jego istnienia. Coraz liczniejsze doniesienia naukowe na temat
zagrożeń jakie niosą ze sobą zakwity zbiorników wodnych na świecie,
a następnie toczona w mediach od lat 90. XX wieku kampania, zwracająca
uwagę na problem toksyczności zakwitów sinicowych w Zbiorniku
Sulejowskim spowodowały, że od roku 1995 ZWiK w Łodzi we współpracy
z Uniwersytetem Łódzkim jako jedne z pierwszych w Polsce rozpoczęły
badanie wody pod tym kątem. Została stwierdzona obecność kilkunastu
toksyn sinicowych, wśród których przeważała mikrocystyna-LR. Jej
zawartość w wodzie do picia nie przekroczyła nigdy 1 μg/dm3, czyli
stężenia normowanego przez WHO. w niektórych okresach w wodzie
powierzchniowej stwierdzano jednak przekroczenie normy WHO dla wód
rekreacyjnych (5 μg/dm3). Efektywność usuwania mikrocystyny-LR jest
uzależniona od obecności materii organicznej, która bardzo znacznie obniża
skuteczność procesu ozonolizy. Większa ilość materii organicznej znajduje
się w pobieranej do uzdatniania wodzie w okresie zwiększonej wegetacji
fitoplanktonu. Dla polskich warunków klimatycznych typowy jest jeden
wyraźny okres zakwitu na przełomie sierpnia i września.
Uzyskiwana efektywność końcowa usuwania mikrocystyny-LR
w procesie uzdatniania wody w ciągu technologicznym Sulejów-Łódź jest
bardzo dobra, a stosowane procesy gwarantują skuteczne oczyszczanie
wody powierzchniowej z toksyn sinicowych. Stosowanie w okresach
silnego zakwitu mieszania uzdatnionej wody powierzchniowej z wodami
głębinowymi lub infiltracyjnymi o wysokiej czystości pozwala na
rozcieńczenie ewentualnie nieusuniętej do końca toksyny. Po zmieszaniu
z wodami głębinowymi uzyskuje się obniżenie stężenia mikrocystyny-LR
poniżej 0,38 μg/dm3. Woda uzdatniona w systemie wodociągowym
Sulejów-Łódź, pracującym na bazie wód powierzchniowych ze Zbiornika
Sulejowskiego, nawet w okresie zakwitów cyjanobakterii spełnia wymogi
50
rozporządzenia Ministra Zdrowia z 19 listopada 2002 r. oraz zalecenia
WHO w zakresie stężenia mikrocystyny-LR.
Literatura
[1] W.W. Carmichael, The Toxins of Cyanobacteria. Scientific American,
270: 78-86, 1994.
[2] J. E. Eriksson, D. Toivola, J.A.O. Meriluoto, H. Karaki, Y-G. Han, D.
Hartshorne, Microcystic Cyanobacteria Extract Induces Cytoskeletal
Disruption and Intracellular Glutathione Alteration in Hepatocytes.
Biochem. Biophys. Res. Commun., 1347-1353, 1990.
[3] K-I. Harada, M. Oshikata, H. Uchida, M. Suzuki, F. Kondo, K. Sato, Y.
Ueno, S-Z. Yu, G. Chen, G-C. Chen, Detection and identification of
microcystins in the drinking water of Haimen City, China. Natural
Toxins, 4: 277-283, 1996.
[4] A.M. Keijola, K. Himberg, A.L. Esala, K. Sivonen, L. Hiisvirta,
Removing of Cyanobacterial Toxins from Water in Pretreatment
Process: Experiments in Pilot and Laboratory Scale. Toxicity
Assesment, 3: 643-656, 1988.
[5] J. Rositano, B.C. Nicholson, P. Pieronne, Destruction of Cyanobacterial
Toxins by Ozone. Ozone Sci. Eng., 20, 223, 1998.
51
Stabilizacja czy destabilizacja DNA fotochemiczne działanie promieniowania
z zakresu bliskiej podczerwieni (NIR)
Katarzyna Szymborska1
Streszczenie: Przy pomocy spektroskopii UV-VIS oraz skaningowej kalorymetrii róŜnicowej (DSC) zbadano modyfikacje zachodzące w obrębie DNA
pod wpływem naświetlania promieniowaniem z zakresu bliskiej podczerwieni. Zaobserwowano, Ŝe krótki czas ekspozycji na promieniowanie NIR powoduje wzrost stabilności makromolekuły. DłuŜsze czasy naświetlania działają
na układ destabilizująco.
Słowa kluczowe: promieniowanie NIR, DNA, spektroskopia UV-VIS,
skaningowa kalorymetria róŜnicowa (DSC)
1. Wprowadzenie
Struktura wody związanej determinuje konformację makromolekuł
biologicznych (białek, kwasów nukleinowych, itp.) i decyduje o ich aktywności metabolicznej [5, 21, 22]. Modyfikacja struktury wody wywołana poprzez czynniki chemiczne lub fizyczne wywołuje zmiany strukturalne
cząsteczek biologicznych, które mogą modulować ich funkcje i reaktywność. Strukturę wody moŜe zmienić pole elektromagnetyczne, ciśnienie,
obecność jonów, temperatura lub kilka tych czynników jednocześnie [1-3,
6-9, 14, 16, 23]. Skutecznym modyfikatorem wody moŜe być równieŜ promieniowanie z zakresu bliskiej podczerwieni (NIR) [12, 13]. Działanie tego
promieniowania nie jest w pełni wyjaśnione i wywołuje wiele kontrowersji.
Wcześniejsze badania na erytrocytach wyraźnie wskazują na modyfikacje
błon biologicznych po ekspozycji na promieniowanie NIR. Przykładowo,
ekspozycja na NIR powoduje wzrost gęstości ładunku objętościowego na
powierzchni błony erytrocytów, unifikację właściwości osmotycznych naświetlanych erytrocytów. Ponadto NIR chroni erytrocyty przed stresem
oksydacyjnym i obniŜa moŜliwość ich agregacji [10, 11]. Wykazano równieŜ, Ŝe promieniowanie z tego zakresu moŜe indukować agregację aminokwasu – fenyloalaniny. Tworzenie dimerów fenyloalaniny zostało
1
Instytut Chemii Fizycznej i Teoretycznej, Politechnika Wrocławska, WybrzeŜe
Wyspiańskiego 27, 50-370 Wrocław, [email protected]
52
potwierdzone poprzez badania przy uŜyciu spektroskopii ATR-FTIR oraz
obliczeń kwantowo-chemicznych [18-20].
Sugeruje się, Ŝe wszystkie wyŜej wymienione procesy są indukowane
zmianami struktury wody. Modyfikacje sąsiadujących struktur wodnych
(tzw. wody związanej) na skutek promieniowania NIR pociągają za sobą
zmianę protonacji grup polarnych oraz procesy wtórne polegające na agregacji i zmianach konformacyjnych cząsteczek biologicznych.
W celu dokładniejszego wyjaśnienia procesów strukturalnych zachodzących pod wpływem tego promieniowania przebadano DNA, którego
warstwa hydratacyjna ma pierwszorzędne znaczenie w stabilizacji cząsteczki i dlatego jest intensywnie badana. W niniejszej pracy przedstawiono wyniki badań uzyskane ze spektroskopii UV-VIS. Przy wykorzystaniu tej
metody zarejestrowano temperaturowe widma UV, na podstawie których
skonstruowano profile denaturacji DNA oraz wyznaczono temperatury topnienia. Badania przeprowadzono dla próbek wystawionych na działanie
promieniowania NIR i dla próbek kontrolnych, nie poddanych procedurze
naświetlania. Wyniki uzyskane z metod spektroskopowych zostały potwierdzone i wzbogacone rezultatami badań przy uŜyciu skaningowej kalorymetrii róŜnicowej (DSC)
2. Materiały i metody
2.1. Materiał badawczy
Do badań uŜyto soli sodowej kwasu deoksyrybonukleinowego (DNA),
wyizolowanego ze spermy śledzia. Roztwory DNA o stęŜeniu 50 µg/ml sporządzono poprzez rozpuszczenie DNA w buforze MOPS (kwas 3-Nmorfolinopropanosulfonowy) o stęŜeniu 50 mM, pH = 6. Wszystkie materiały i odczynniki stosowane w doświadczeniach zostały zakupione w firmie
Sigma Aldrich.
2.2. Procedura naświetlania
Przygotowane wcześniej roztwory DNA umieszczano w zamykanym
płasko-wypukłym naczyniu szklanym, zaopatrzonym w mieszadełko magnetyczne. Następnie wstawiano naczynie do komory naświetlania. Źródło
światła stanowiła lampa halogenowa o gęstości mocy promieniowania 6,5
mW/cm2. Próbki były naświetlane przez 5, 10 i 20 minut promieniowaniem
NIR w zakresie spektralnym 700–2000 nm dzięki zastosowaniu filtru krawędziowego przepuszczającego fale o tych długościach. W celu zabezpieczenia przed przegrzewaniem się próbek wykorzystano system podwójnego
chłodzenia płaszczem wodnym i strumieniem powietrza. Próbka była mie53
szana w czasie ekspozycji na promieniowanie NIR. Punkt odniesienia stanowiła próbka kontrolna będąca roztworem DNA w buforze, który nie został poddany procedurze naświetlania.
2.3. Spektroskopia UV-VIS
Przy uŜyciu dwuwiązkowego spektrofotometru Unicam UV 300, wyposaŜonego w przystawkę termostatującą Peltiera, wykonano pomiary widm
absorpcji UV w zakresie od 200 do 350 nm dla roztworów DNA nienaświetlanych i naświetlanych promieniowaniem NIR. Badania przeprowadzono
dla temperatur od 25 do 95 °C. Jako próbę odniesienia uŜyto roztworu wodnego zawierającego 50 mM buforu MOPS.
Z uzyskanych widm odczytano wartości absorbancji przy długości fali
260 nm i na ich podstawie skonstruowano profile denaturacji DNA.
Z otrzymanych krzywych denaturacji wyznaczono temperatury przejść termicznych zachodzących w makrocząsteczce. Wyniki ze spektroskopii UVVIS przedstawiono równieŜ w postaci zaleŜności hiperchromowości od
temperatury. Wartości hiperchromowości obliczono ze wzoru [17]
%H =
Ax o C − A25 o C
⋅ 100%
A25 o C
2.4. Badania kalorymetryczne
Badania kalorymetryczne przeprowadzono przy uŜyciu skaningowego
kalorymetru róŜnicowego Nano 5200, w zakresie temperatur 25 – 95 ºC,
stosując szybkość nagrzewania 20 deg/min. Pomiary DSC wykonano dla
roztworów DNA [50 µg/ml] nienaświetlanych i poddanych ekspozycji na
promieniowanie z zakresu NIR oraz dla odnośnika. Jako odnośnik zastosowano 50 mM roztwór buforu MOPS w wodzie. Z uzyskanych krzywych
DSC wyznaczono temperatury przejść termicznych.
3. Wyniki
Na Rysunku 1 przedstawiono profile topnienia DNA dla próbek nienaświetlanych i naświetlonych promieniowaniem z zakresu NIR. Dokonano
analizy tych krzywych i stwierdzono, Ŝe w procesie denaturacji DNA moŜna
wyodrębnić trzy etapy, charakteryzowane przez trzy temperatury przejść
fazowych. Wartości tych temperatur, wyznaczonych z krzywych denaturacji, zgromadzono w Tabeli 1.
Wyniki przeprowadzonych badań wskazują, Ŝe promieniowanie z tego
zakresu wyraźnie wpływa na kaŜdy etap topnienia makromolekuły. Analiza
54
pierwszego etapu wykazała, Ŝe próbki eksponowane na działanie promieniowania, niezaleŜnie od jego dawki wykazują przyrost absorbancji w temperaturze 25 °C, w odniesieniu do próbki kontrolnej. ZauwaŜono równieŜ
róŜnice w przebiegach denaturacji w dwóch pozostałych etapach, Największej modyfikacji uległ etap trzeci, czyli etap właściwej denaturacji makromolekuły.
Rys. 1. Krzywe denaturacji DNA w funkcji czasu ekspozycji na promieniowanie NIR
W celu zbadania wpływu promieniowania NIR na wydajność procesu
denaturacji DNA przeanalizowano zaleŜności hiperchromowości od temperatury dla próbki kontrolnej oraz próbek eksponowanych na promieniowanie (Rys. 2). Analiza tych krzywych wykazała, Ŝe długie czasy naświetlania
promieniowaniem NIR zwiększają wydajność denaturacji DNA w porównaniu z próbką nienaświetloną. Zaobserwowano wzrost hiperchromowości
o 2 % dla DNA naświetlanego przez 10 minut oraz o 3 % dla DNA naświetlanego 20 minut. Z kolei krótkie czasy ekspozycji na NIR, modyfikują
strukturę makrocząsteczki na tyle, Ŝe jej denaturacja jest utrudniona. W tym
przypadku widoczny jest spadek hiperchromowości o ok. 3 % w odniesieniu
do próbki kontrolnej.
55
Rys. 2. Krzywe denaturacji DNA wyraŜone w postaci zaleŜności hiperchromowści od temperatury dla próbek nienaświetlanych oraz naświetlonych promieniowaniem NIR
Trójetapowość procesu topnienia makromolekuły została potwierdzona wynikami z róŜnicowej kalorymetrii skaningowej (DSC). W Tabeli 1
zgromadzono wyznaczone temperatury przejść fazowych makromolekuły
(T1, T2, T3) w funkcji czasu naświetlania.
Czas naświetlania
[min]
Temperatury przejść [°C]
T1
T2
T3
UV-VIS
DSC
UV-VIS
DSC
UV-VIS
DSC
0
43
45
61
62
82
83
5
37
35
60
57
72
70
10
40
42
65
64
84
83
20
40
42
65
64
85
86
Tab. 1. Temperatury przejść fazowych w funkcji czasu naświetlania promieniowaniem NIR
wyznaczone z krzywych denaturacji (pomiary UV-VIS) oraz z pomiarów DSC.
Analiza danych zawartych w Tabeli 1 pokazała, Ŝe krótki czas ekspozycji na promieniowanie NIR (5 minut) powoduje obniŜenie wszystkich
trzech temperatur przejść, ale największe róŜnice obserwuje się w przypad56
ku temperatur opisujących etap pierwszy oraz trzeci. Dla próbek naświetlanych przez 10 i 20 minut nie zauwaŜono istotnych zmian w temperaturach
przejść w porównaniu z próbką kontrolną.
4. Dyskusja wyników
Przeprowadzone eksperymenty pozwalają wnioskować, Ŝe promieniowanie z zakresu NIR modyfikuje strukturę cząsteczki DNA, a wywołane
zmiany strukturalne zaleŜą od dawki tego promieniowania. Świadczyć moŜe
o tym przyrost absorbancji (w temperaturze 25 °C) po ekspozycji na promieniowane NIR. ZauwaŜono, Ŝe im dłuŜszy jest czas ekspozycji, tym
większy wzrost absorbancji. Taki przyrost absorbancji moŜe wskazywać na
początek rozpadu nici DNA lub zmianę oddziaływań międzycząsteczkowych w roztworze. Analiza krzywych denaturacji oraz temperatur przejść
termicznych pokazuje, Ŝe próbki eksponowane na działanie promieniowania
NIR przez 10 oraz 20 minut denaturują według podobnych mechanizmów.
DNA. ZauwaŜono, Ŝe długie czasy naświetlania wydajniej denaturują makrocząsteczkę. Zwiększona hiperchromowość oznacza, Ŝe promieniowanie
NIR modyfikuje wiązania wodorowe między zasadami, dlatego teŜ po 10
oraz 20 minutach naświetlania większa ilość DNA uległa rozpadowi. Elementem róŜniącym te próbki jest wydajność denaturacji. Okazuje się, Ŝe 20
minutowa ekspozycja na NIR najefektywniej wpływa na proces topnienia
DNA. Wydajność denaturacji dla tej próbki okazała się większa w porównaniu z DNA naświetlonym przez 10 minut. Dla próbki naświetlonej przez
5 minut obserwuje się całkowicie odmienny mechanizm topnienia w porównaniu z próbką kontrolną oraz próbkami wystawionymi na działanie
promieniowania przez 10 i 20 minut. Krótki czas ekspozycji na NIR spowodował utworzenie struktury o duŜej stabilności termicznej. Denaturacja tak
zmodyfikowanego DNA jest utrudniona. Świadczyć moŜe o tym spadek hiperchromowości w porównaniu do próbki nienaświetlonej oraz plateau obserwowane na krzywej topnienia w zakresie temperatur 70 – 90 °C.
4. Podsumowanie
Wyniki uzyskane ze spektroskopii UV-VIS oraz róŜnicowej kalorymetrii skaningowej (DSC) pokazują, Ŝe krótkie czasy naświetlania powodują
wzrost stabilności DNA, z kolei dłuŜsza ekspozycja na NIR destabilizuje
układ. Sugerujemy, Ŝe modyfikacja struktury DNA jest tylko efektem wtórnym naświetlania. Pierwotnym efektem działania promieniowania NIR jest
najprawdopodobniej modyfikacja wody otaczającej makromolekułę, która
pociąga za sobą zmiany strukturalne cząsteczki biologicznej.
57
Literatura
[1] M. C. Bellissent-Funel, Effects of pressure and confinement on liquid
water, Journal of Physics: Condensed Matter, maj 2008
[2] O. D. Boner, C. F. Jumper, Effect of ions on water structure, Infrared
Physics, sierpień 1973
[3] O. D. Bonner, R.K. Arisman, C.F. Jumper, The effect of ions on water
structure II: A reinterpretation of experimental data, Infrared Physics,
listopad 1974
[4] L. Chludzinska, E. Ananicz, A. Jaroslawska, M. Komorowska, Nearinfrared radiation protects the red cell membrane against oxidation,
Blood Cells, Molecules, and Diseases, marzec 2005
[5] F. Despa, Biological water: Its vital role in macromolecular structure and
function, Annals of the New York Academy of Sciences, grudzień 2005
[6] P. Dias-Lalcaca, N.J.C. Packham, H.A. Gebbie, The effect of ultraviolet
radiation on water vapour absorption between 5 and 50cm−1, Infrared
Physics, wrzesień 1984
[7] G. A. Gaballa; G. W. Nelson, The effect of pressure on the structure of
light and heavy water, Molecular Physics, wrzesień, 1983
[8] C. J. Hochanadel, Effects of cobalt γ-radiation on water and aqueous
solutions, Journal of Physical Chemistry, maj 1952
[9] O. A. Karim, Simulation of an anion in water: effect of ion
polarizability, Chemical Physics Letters, październik 1991
[10] M. Komorowska, Fotoprocesy indukowane promieniowaniem
z zakresu bliskiej podczerwieni w erytrocytach i modelach błon
biologicznych, Oficyna Wydawnicza Politechniki Wrocławskiej,
Wrocław 2001
[11] M. Komorowska, A. Cuissot, A. Czarnoleski, W. Bialas, Erythrocyte
response to near-infrared radiation, Journal of Photochemistry and
Photobiology B: Biology, październik 2002
[12] M. Komorowska, M. Galwa, B. Herter, U. Wesolowska, Hydration
effects under near-infrared radiation, Colloids and Surfaces B:
Biointerfaces, grudzień 2001
[13] M. Komorowska, J. Lamperski, L. Komorowski, Near-infrared-induced
proton transfer studied by electron spin resonance, Chemical Physics,
styczeń 1999
[14] W. J. Lamb, D. R. Brown, J. Jonas, Temperature and density
dependence of the proton lifetime in liquid water, Journal of Physical
Chemistry, czerwiec 1981
[15] R. Leberman, A. K. Soper, Effect of high salt concentrations on water
structure, Nature, listopad 1995
[16] Y. A. Mantz, B. Chen, G. J. Martyna, Temperature-dependent water
58
structure: Ab initio and empirical model predictions, Chemical Physics
Letters, marzec 2005
[17] N. Nikolis, C. Methenitis, G. Pneumatikakis, Studies on the interaction
of altromycin B and its platinum(II) and palladium(II) metal complexes
with calf thymus DNA and nucleotides, Journal of Inorganic
Biochemistry, czerwiec 2003
[18] S. Olsztynska, N. Dupuy, L. Vrielynck, M. Komorowska, Water
evaporation analysis of L-phenylalanine from initial aqueous solutions
to powder state by vibrational spectroscopy, Applied Spectroscopy,
wrzesień 2006
[19] S. Olsztynska, M. Komorowska, N. Dupuy, Influence of Near-Infrared
Radiation on the pKa Values of L-Phenylalanine, Applied Spectroscopy,
czerwiec 2006
[20] S. Olsztynska-Janus, K.Szymborska, M. Komorowska, J. Lipinski,
Usefulness of spectroscopy for biomedical engineering, październik
2008
[21] J. Teixeira, Can water possibly have a memory? A sceptical view,
Homeopathy, maj 2007
[22] J. Teixeira, A. Luzar, S. Longeville, Dynamics of hydrogen bonds: how
to probe their role in unusual properties of liquid water, Journal of
Physics: Condensed Matter, sierpień 2006
[23] G. E. Walrafen, Raman Spectral Studies of the effects of temperature
on water structure, Journal of Chemical Physics, lipiec 1967
59
Cz˛eść III
Nauki techniczne
System wspomagania wyprzedzania pojazdów wprowadzenie
Magdalena Barańska 1
Streszczenie: Niniejsza praca zawiera propozycję uproszczonego systemu
wspomagania wyprzedzania pojazdów. Ograniczenia, które zostały podane
w pracy umoŜliwiły stworzenie prostego systemu wspomagania
wyprzedzania. Proponowany system bazuje na czujnikach radarowych oraz
kamerach. Jego zadaniem jest podanie kierowcy informacji czy manewr
wyprzedzania moŜe być bezpiecznie wykonany. Informacja o sukcesie, bądź
poraŜce wykonania manewru jest przekazywana za pomocą sygnałów
świetlnych oraz dźwiękowych.
Słowa kluczowe: Algorytm sterowania, czujniki, manewr wyprzedzania
1. Wprowadzenie
Wiedząc, Ŝe wyprzedzanie jest jednym z najtrudniejszych
i jednocześnie najbardziej niebezpiecznych manewrów drogowych wydaje
się zasadne zaproponowanie systemu wspomagającego ten manewr.
Manewr ten polega na przejechaniu obok pojazdu lub innego uczestnika
ruchu, poruszającego się w tym samym kierunku. W Polsce wyprzedzanie
związane jest w większości przypadków ze zmianą pasa ruchu na pas
o przeciwnym kierunku.
Zaproponowany system ma na celu usprawnienie manewru
wyprzedzania, wykorzystując algorytm bazujący na danych pobieranych
z czujników oraz kamer. Jego zadaniem jest podanie kierowcy informacji
czy manewr wyprzedzania moŜe być bezpiecznie wykonany. Informacja ta
jest przekazywana za pomocą sygnałów świetlnych oraz dźwiękowych.
Manewr wyprzedzania opisano w publikacji [1]. Na podstawie tego
opisu jesteśmy w stanie wyliczyć drogę oraz czas potrzebny do wykonania
tego manewru. Natomiast w artykule [2] moŜna znaleźć opis
rozmieszczenia czujników oraz kamer, które umoŜliwiają zbadanie obszaru
wokół pojazdu, a co za tym idzie zmierzenie odległości pojazdów,
znajdujących się w pobliŜu. Większość systemów tworzonych obecnie ma
na celu podwyŜszenie bezpieczeństwa uŜytkowników inteligentnych
pojazdów. System oceny odległości [4], system nawigacji [6], system
1
Politechnika Wrocławska, WybrzeŜe Wyspiańskiego 27, Wrocław, [email protected]
61
rejestracji danych ruchu pojazdu [3], system ostrzegający o zmianie pasa
ruchu [5] są przykładami takich rozwiązań.
2. Wykorzystane czujniki i ich rozmieszczenie
W systemie wspomagania manewru wyprzedzania zostanie
wykorzystane jedno z dwóch zaproponowanych w [2] rozmieszczeń
czujników radarowych oraz kamer, które zostaną umiejscowione jak
przedstawia rysunek 1. Pozwala on rozpoznać przestrzeń wokół pojazdu.
Rys. 1. Rozmieszczenie czujników i kamer.
Rozmieszczenie czujników oraz kamer proponowane powyŜej,
umoŜliwia jak najszerszą obserwację otoczenia, co jest związane z
bezpieczeństwem wykonania manewru. Dzięki temu moŜna pozyskać
wszystkie informacje potrzebne do odpowiedniego zaprojektowania
algorytmu sterowania wspomagającego manewr wyprzedzania.
Przy pmocy czujników radarowych jesteśmy w stanie odczytać
odległości pojazdów (pojazdu wyprzedzanego oraz pojazdu jadącego z
naprzeciwka), co za tym idzie ich prędkości.
Wszystkie czujniki oraz kamery zostały podłączone do systemu
samochodu przy uŜyciu sieci CAN, w celu umoŜliwienia pozyskania
dodatkowych parametrów samochodu, m. in. prędkości, połoŜenia pedału
gazu i hamulca, wartości obrotów silnika.
3. Algorytm sterowania
Do wyznaczenia algorytmu sterowania przyjęto następujące
ograniczenia:
- pojazd wyprzedzany oraz pojazd jadący z przeciwnej strony nie
przyspieszą więcej niŜ o 10% od prędkości posiadanej w momencie
rozpoczęcia
manewru
wyprzedzania,
czyli
v1 = v1 min + 10% ⋅ v1 min = 110% ⋅ v1 min oraz v3 = v3 min + 10% ⋅ v3 min = 110% ⋅ v3 min ,
- zakładamy maksymalną długość pojazdu wyprzedzanego jako 18m,
62
- zakładamy, Ŝe w trakcie wykonywania manewru moŜemy zweryfikować
długość pojazdu wyprzedzanego na podstawie odczytów z czujników oraz
odpowiednich wyliczeń, bazujących na zasadach fizyki (dynamiki). Jeśli
pojazd będzie na tyle długi, Ŝe na podstawie wyliczeń nie zdąŜymy go
wyprzedzić, zostanie podany komunikat, iŜ naleŜy zrezygnować z manewru
i kontynuować jazdę na swoim pasie ruchu,
- zakładamy, Ŝe odległość pomiędzy wyprzedzanym, a kolejnym
samochodem jest wystarczająca do bezpiecznego przeprowadzenia tego
manewru,
- odczytując wartości z czujników radarowych tylnych jesteśmy w stanie
sprawdzić czy pojazd jadący z tyłu nie rozpoczął wcześniej manewru
wyprzedzania.
Wiedząc jaka jest zmiana drogi przebytej przez pojazd ∆s w
określonym czasie ∆t jesteśmy w stanie wyliczyć jego prędkość ze wzoru
v=
∆s
∆t
(1)
Odczytanie z czujników radarowych przednich zmiany drogi
∆s1 oraz ∆s3 jesteśmy w stanie wyliczyć prędkości pojazdu jadącego przed
nami v1 oraz pojazdu jadącego z przeciwnej strony v3 z wzoru (1).
Prędkość pojazdu jadącego przed nami wykorzystana zostanie do
wyliczenia długości drogi potrzebnej do wykonania bezpiecznego manewru.
Przebieg manewru wyprzedzania ze stałym przyspieszeniem i opóźnieniem
przedstawiono na rysunku 2. Z tego wykresu wyliczamy długość drogi s w
oraz czas t w potrzebne do wyprzedzenia pojazdu znajdującego się przed
nami. Znając naszą prędkość i korzystając z załoŜenia, Ŝe samochód jadący
przed nami nie przyspieszy więcej niŜ o 10% swojej prędkości, zakładamy,
Ŝe nasze przyspieszenie jest równe
&x&2 =
v2 max − v2
t
(2)
Zakładamy, Ŝe nasza prędkość po przyspieszeniu będzie równa
120% prędkości początkowej, czyli v 2 max = 120%v 2 . Natomiast opóźnienie
będzie równe a 2 = − &x&2 . PoniewaŜ samochód wykonujący manewr
wyprzedzania powinien po jego zakończeniu powrócić do wartości
prędkości z przed tego manewru, wprowadzamy pojęcie opóźnienia.
63
Rys. 2. Przebieg manewru wyprzedzania ze stałym przyśpieszeniem i opóźnieniem.
Długość drogi s w potrzebnej do wykonania bezpiecznego manewru
wyliczono wykorzystując wzór (3) na podstawie załoŜeń uwidocznionych
na rysunku 2.
&x& + a 2
s w = v1 ⋅ 2 ⋅ 2
⋅ (s 02 + s 01 + l c1 + lc 2 ) + (s 02 + s 01 + l c1 + lc 2 )
(3)
&x&2 ⋅ a 2
Czas manewru moŜna wtedy wyliczyć z wzoru (4).
&x& + a 2
(4)
t w = (v 2 max − v1 ) ⋅ 2
&x&2 ⋅ a 2
Znając czas manewru moŜna wyliczyć drogę, jaką przejedzie pojazd jadący
z przeciwnej strony w tym czasie (5).
v
⋅t
(5)
s p = 3 max w
2
W następnym kroku sprawdzamy czy droga potrzebna do wykonania
manewru wyprzedzania jest krótsza od róŜnicy początkowego połoŜenia
pojazdu jadącego z przeciwnej strony i wyliczonej drogi, którą przejedzie
w tym czasie. śeby manewr był bezpieczny, moŜemy załoŜyć, Ŝe droga
potrzebna do wyprzedzenia pojazdu będzie o 20% dłuŜsza niŜ wyliczona
z zaleŜności (6).
(6)
s 0 − s p ≤ 120% ⋅ s w
PoniŜej przedstawiono blokowy algorytm wspomagania manewru
wyprzedzania.
64
Rys. 3. Schemat blokowy algorytmu wspomagania manewru wyprzedzania.
65
4. Podsumowanie
W powyŜszej pracy przedstawiono system wspomagania manewru
wyprzedzania. Wykorzystane w nim załoŜenia są bardzo restrykcyjne.
Zwiększenie niezawodności systemu związane jest z zainstalowaniem
lepszej jakości czujników, co pozwoliłoby na pełniejsze zbadanie
przestrzeni wokół pojazdu wykonującego manewr wyprzedzania.
Wiedząc, Ŝe manewr wyprzedzania naleŜy do najtrudniejszych
i najniebezpieczniejszych manewrów wykonywanych w ruchu drogowym
oraz przy istnieniu systemów wspomagających prowadzenie samochodu
w trudnych warunkach, np. ABS, ESP, ASR wydaje się zasadne powstanie
systemu wspomagającego manewr wyprzedzania.
Zaproponowane rozwiązanie mogłoby się znacznie przyczynić do
zmniejszenia liczby wypadków samochodowych i wzrostu bezpieczeństwa
na drodze.
Model układu wyprzedzania łącznie z prezentowanym algorytmem
jest budowany w oprogramowaniu Matlab i za pomocą badań
symulacyjnych, będą przeprowadzone testy. Kolejnym etapem pracy będzie
aplikacja w rzeczywistym samochodzie.
Literatura
[1] S. ARCZYŃSKI, Mechanika ruchu samochodu, Wydawnictwo
Naukowo-Techniczne, Warszawa 1993.
[2] N. BOURBAKIS, M. FINDLER, Smart Cars as Autonomous Intelligent
Agents, IEEE Computer Society, Washington 2001.
[3] NGO CHON CHET, Design of black box for moving vehicle warning
system, Conference on Research and Development (SCOReD), 2003.
[4] J. GOLDBECK, B. HUERTGEN, S. ERNST, L. KELCH, Lane
following combining vision and DGPS, Image and Vision Computing,
2000.
[5] SUHONG KO, SEONGCHAN GIM, CE PAN, JONGMAN KIM,
KIHYUN PYUN, Road Lane Departure Warning using Optimal Path
Finding of the Dynamic Programming, SICE-ICASE International Joint
Conference, 2006.
[6] G. TOULMINET, M. BERTOZZI, S. BOUSSET, A. BENSRHAIR,
A. BROGGI, Vehicle detection by means of stereo vision-based
obstacles features extraction and monocular pattern analysis, IEEE
Transactions on Image Processing, 2006.
[7] Ustawa z dnia 20 czerwca 1997 roku, Prawo o ruchu drogowym, artykuł
24.
66
Badanie możliwości wykorzystania metod
analizy dynamiki tworzenia wypowiedzi do
celów rozpoznawania mówcy
Łukasz Bronakowski1
Streszczenie: Celem prac jest znalezienie prawidłowości w dynamice zmian
wypowiedzi danego mówcy na poziomie artykulacji fonemów oraz dłuższych
fragmentów wypowiedzi. Jako metodę modelowania na obu płaszczyznach
przewiduje się zastosowanie niejawnych modeli Markowa (HMM).
Słowa kluczowe: rozpoznawanie mówcy, biometria
1. Wprowadzenie
Rozpoznawanie mówcy polega na automatycznym wskazaniu
tożsamości osoby mówiącej na podstawie analizy informacji zawartych
w sygnale mowy. W zależności od zastosowania, procedura rozpoznawania
może mieć na celu identyfikację, bądź weryfikację. Identyfikacja polega na
wskazaniu tożsamości mówcy na podstawie wyniku porównania
analizowanego głosu z każdym z modeli mówców znajdujących się w bazie.
Wynik rozpoznawania określa się na podstawie uzyskanego
prawdopodobieństwa. Weryfikacja jest zadaniem łatwiejszym, ponieważ
polega na porównaniu cech głosu osoby mówiącej z modelem tylko jednego
mówcy, którego tożsamość jest deklarowana przez osobę mówiącą. Wynik
rozpoznawania jest pozytywny, jeżeli stopień prawdopodobieństwa
przekroczy określony i wcześniej zdefiniowany próg.
W zależności od stopnia współpracy osoby mówiącej, procedury
rozpoznawania mówcy dzieli się na zależne i niezależne od treści. Jeżeli
możemy oczekiwać współpracy, można zastosować rozwiązanie zależne od
treści, tzn. takie w którym osoba wypowiada określoną frazę lub słowo
kluczowe. Jeżeli jednak nie można liczyć na współpracę ze strony osoby
mówiącej (np. sądownictwo, kryminalistyka), odpowiednim rozwiązaniem
będzie użycie procedury rozpoznawania niezależnej od treści [3].
Metodologia badań obejmuje identyfikację cech – dobrych
deskryptorów mówcy oraz klasyfikację otrzymanych wektorów cech.
W standardowym podejściu identyfikacja cech polega na analizie krótkoi długookresowych parametrów sygnału mowy: częstotliwościowych
1
Politechnika Łódzka, Instytut Elektroniki, ul. Wólczańska 211/215, 90-924 Łódź,
[email protected]
67
(m.in. częstotliwość tonu podstawowego, formanty), związanych z energią
sygnału (globalne, w pasmach), czasowych (m.in. pauzy, mowa
dźwięczna/bezdźwięczna), widmowych (Linear Prediction Coefficients
- LPC, Mel-Frequency Cepstral Coefficients – MFCC, itp) [1].
Możliwość zastosowania rozwiązania zależnego lub niezależnego od
treści implikuje zastosowanie określonych metod klasyfikacji.
Implementacje zależne od treści polegają na porównaniu modeli
wypowiedzi i najczęściej wykorzystują dynamiczne dopasowanie czasowe
(Dynamic Time Warping - DTW) oraz niejawne modele Markowa (Hidden
Markow Models – HMM) [4]. Natomiast przy podejściu niezależnym od
treści wykorzystywane są różne długookresowe statystyki sygnału mowy.
Metodą powszechnie stosowaną w tym podejściu są mikstury modeli
gaussowskich (Gaussian Mixture Models - GMM).
2. Głos jako cecha biometryczna
Rozpoznawanie mówcy zalicza się do biometrycznych metod
weryfikacji tożsamości. Systemy biometryczne bazują na cechach
anatomicznych człowieka (np. linie papilarne, cechy charakterystyczne
tęczówki oka, geometria dłoni, kształt twarzy) oraz behawioralnych
(np. podpis odręczny, dynamika pisania na klawiaturze, sposób chodzenia,
sposób mówienia) (Rys. 1).
Rys. 1. Przykłady cech biometrycznych
Badania ankietowe przeprowadzone na zlecenie firmy Unisys
(www.unisys.com) wykazują, że użytkownicy najchętniej korzystaliby
z systemów opartych o analizę głosu. Jednak skuteczność rozpoznawania
osiągana w obecnie dostępnych systemach wykorzystujących głos nie jest
na tyle wysoka, aby mogły one znaleźć zastosowanie w aplikacjach, gdzie
bezpieczeństwo danych ma znaczenie krytyczne, np. dostęp do konta
bankowego. Zatem uzyskanie nawet kilkuprocentowego zwiększenia
skuteczności rozpoznawania mówcy otworzyłoby, z pewnością, szereg
dziedzin zastosowań.
68
Zaletą głosu, w porównaniu do innych cech biometrycznych, takich
jak np. tęczówka oka, kształt dłoni czy odciski palców, jest łatwość
akwizycji (wystarczy jedynie mikrofon) – nie trzeba stosować specjalnych
czujników lub skanerów. Głos można zatem traktować jako jedyne medium
zdalnej autoryzacji, które daje możliwość tzw. skrytej weryfikacji.
Konsekwencją tego jest możliwość zastosowania rozwiązań opartych na
analizie głosu w sądownictwie i kryminalistyce, oraz wszędzie tam, gdzie
istnieje możliwość braku współpracy osoby, której tożsamość jest
poddawana weryfikacji. Ponadto tego typu rozwiązania mogą znaleźć
również zastosowanie w różnego rodzaju aplikacjach kontroli dostępu.
Konsekwencją tego jest potrzeba stworzenia systemu automatycznego
rozpoznawania mówcy, stanowiącego uzupełnienie niezawodnego systemu
weryfikacji tożsamości.
3. Proponowane kierunki badań
W głosie zawartych jest kilka rodzajów informacji, związanych
z przekazywaną treścią, emocjami oraz cechami geno- i fenotypowymi
mówcy. Problem badawczy polega na zneutralizowaniu charakterystyk
sygnału mowy związanych z treścią oraz emocjami i wyekstrahowanie cech
niosących informację o mówcy. Deskryptory mówcy powinny
charakteryzować się dużą zmiennością międzyosobniczą i małą zmiennością
wewnątrzosobniczą.
Rys. 2. Przykłady portretów fazowych wyznaczonych z przebiegów czasowych sygnału
mowy dla dwóch mówców
Prezentowane prace badawcze polegają na wprowadzeniu do opisu
zmienności sygnału mowy nowej grupy deskryptorów, zaczerpniętych
z dziedziny analizy układów nieliniowych (np. przekroje Poincaré,
rekonstrukcje przestrzeni fazowej (Rys. 2), mapy rekurencyjne, miary
fraktalne) [2,5]. Proponowane rozwiązanie polega na poszukiwaniu
69
prawidłowości w dynamice zmian wypowiedzi danego mówcy na poziomie
cech segmenalnych i suprasegmentalnych.
Jako metodę modelowania na obydwu płaszczyznach przewiduje się
zastosowanie niejawnych modeli Markowa, prowadząc do uzyskania
hierarchicznych, probabilistycznych modeli mówców.
3. Podsumowanie
Proponowany kierunek badań - dynamika sposobu tworzenia
wypowiedzi - wydaje się nie być bezpośrednio skorelowany z powszechnie
wykorzystywanymi parametrami sygnału mowy. Może stanowić cenne
uzupełnienie dla innych metod.
Planowanym efektem badań jest opracowanie biometrycznej metody
rozpoznawania, bazującej na analizie głosu, której oryginalnymi elementami
będą zestawy nowych deskryptorów sygnału mowy oraz wykorzystanie do
ich klasyfikacji hierarchicznych modeli Markowa.
Stypendysta projektu "Innowacyjna dydaktyka bez ograniczeń
- zintegrowany rozwój Politechniki Łódzkiej - zarządzanie uczelnią,
nowoczesna oferta edukacyjna i wzmacnianie zdolności do zatrudniania,
także osób niepełnosprawnych" współfinansowany przez Unię Europejską
w ramach Europejskiego Funduszu Społecznego.
Literatura
[1] J.P. Campbell, „Speaker Recognition: A Tutorial”, Proceedings of the
IEEE, Vol. 85, NO. 9, pp.1437-1462, 1997
[2] I. Kokkinos, P. Maragos, „Nonlinear Speech Analysis Using Models for
Chaotic Systems“, IEEE Transactions On Speech And Audio
Processing, Vol. 13, No. 6, 1098-1109, 2005
[3] J. Ortega-Garcia, J. Gonzslez-Rodriguez, S. Cruz-Llanas, „Speech
Variability in Automatic Speaker Recognition Systems for Commercial
and Forensic Purposes”, IEEE AES Systems Magmine, pp. 27-32, 2000
[4] L.R. Rabiner, „A Tutorial on Hidden Markov Models and Selected
Applications in Speech Recognition“, Proceedings Of The IEEE,
Vol. 77, 257-286, 1989
[5] H.G. Schuster, W. Just „Deterministic Chaos”, Wiley-VCH, 2005
70
Realizacja pamięci w sekwencyjnych
algorytmach sterowania
Łukasz Dworzak1, Tadeusz Mikulczyński1
Streszczenie: Synteza równania schematowego, reprezentującego program
użytkowy sterownika PLC, w przypadku procesów sekwencyjnych, wymaga
realizacji pamięci. Opracowana metoda pozwala na wyznaczenie w szybki
i łatwy sposób postaci pamięci i w efekcie równania schematowego. Liczba
komórek pamięci jest zdecydowanie mniejsza niż w innych metodach.
Słowa kluczowe: proces, automatyzacja, metoda Grafpol, PLC
1. Wprowadzenie
Podstawowe procedury algorytmów dyskretnych procesów produkcyjnych stanowią procedury sekwencyjne, sterowane przez sekwencyjne
układy sterowania. Podstawową cechą charakterystyczną układów sekwencyjnych jest to, że są to układy z pamięcią. Wynika to z faktu, że układy sekwencyjne generują stan wyjść nie tylko na podstawie aktualnego stanu
wejść ale także na podstawie stanu wejść w poprzednich chwilach czasu
(rys. 1). Cecha ta powoduje duże trudności podczas syntezy tego typu układów. W przypadku programowania sterowników PLC (ang. Programmable
Logic Controller), będących obecnie podstawowym narzędziem automatyzacji, dotyczy to syntezy równania schematowego stanowiącego podstawę
zapisu programu użytkownika. Trudność dotyczy określania liczby elementarnych komórek pamięci, które należy użyć oraz warunków ich zapisu i kasowania. Trudność została wyeliminowana dzięki metodzie Grafpol 2.0,
która pozwala w sposób prosty i jednoznaczny zrealizować pamięć sekwencyjnego algorytmu sterowania, a w efekcie określić równanie schematowe.
Rys. 1. Schemat blokowy układu automatycznego sterowania:
proces - układ sterowania
1
Laboratorium Podstaw Automatyzacji, Politechnika Wrocławska, ul. I. Łukasiewicza 5,
50-371 Wrocław, [email protected], [email protected]
71
2. Zapis, kasowanie oraz użycie informacji zawartych
w komórkach pamięci
Modelowanie i programowanie procedur sekwencyjnych składa się
z pięciu etapów przedstawionych na rys. 2.
Rys. 2. Etapy modelowania i programowania procedur sekwencyjnych [3]
Realizację poszczególnych etapów zilustrowano na poniżej zamieszczonym przykładzie. Na rysunku 3 zaprezentowano schemat funkcjonalny
urządzenia podającego elementy A i B z zasobników zgodnie z sekwencją
zawartą w opisie słownym.
Rys. 3. Schemat funkcjonalny procesu podawania elementów A i B
Opis słowny automatyzowanego procesu:
ETAP E1: *podanie elementu A*
Realizacja: 1A+ (1Y2+)
Sygnalizacja: 1S2
ETAP E2: *wycofanie podajnika elementu A*
Realizacja: 1A- (1Y1+)
Sygnalizacja: 1S1
72
ETAP E3: *podanie elementu B*
Realizacja: 2A+ (2Y2+)
Sygnalizacja: 2S2
ETAP E4: *wycofanie podajnika elementu B*
Realizacja: 2A- (2Y1+)
Sygnalizacja: 2S1
Na podstawie schematu funkcjonalnego i opisu słownego wyznaczono algorytm procesu (rys. 4a i 4b) oraz algorytm sterowania (rys. 4c)
Rys. 4. Algorytm procesu zapisany w postaci: a) sieci operacyjnej, b) sieci Grafpol GP; Algorytm sterowania: c) sieć Grafpol GS, d) sieć Grafpol GS z uwzględnioną pamięcią
W etapie 4 zrealizowano pamięć stosując następujące zasady:
Zasada 1
Liczba elementarnych komórek pamięci użytych do realizacji automatyzowanego procesu jest równa L i określa ją zależność:
L=
Sn
,
2
gdzie:
Sn - liczba kroków algorytmu sterowania
73
(1)
Zasada 2
Zapis komórek pamięci (archiwizacja informacji o zdarzeniach) następuje po zakończeniu wykonania pierwszego ruchu napędu pneumatycznego lub hydraulicznego z pozycji wyjściowej. Stany te opisują tranzycje ti,
które sygnalizują zakończenie wykonania kroku Si .
Zależności opisujące zapis elementarnych komórek pamięci mają następujące postaci:
M 1  S =t 1 ,
M j  S =t i⋅M j −1⋅t i−1 , dla j=2 ... L , i=2 ... n−1 ,
(2)
(3)
gdzie: Mj - elementarna komórka pamięci,
Mj - sygnał wyjściowy elementarnej komórki pamięci,
Zasada 3
Kasowanie wszystkich elementarnych komórek pamięci (utrata informacji o zdarzeniach) następuje w ostatnim stanie algorytmu sterowania.
Zależność opisującą kasowanie wszystkich elementarnych komórek pamięci
ma postać:
M 1... L  R=t n⋅M L ,
(4)
Zasada 4
Do wyznaczenia funkcji zmiennych wyjściowych algorytmu sterowania (sygnałów wyjściowych układu sterowania) konieczne jest określenie
zależności ti*, czyli tranzycji algorytmu sterowania z uwzględnionymi pamięciami. Tranzycja ti* określa rozpoczęcie i-tego kroku algorytmu sterowania. Stanowi ją iloczyn:
•
warunku ti wynikającego z algorytmu procesu,
•
sygnału pamięci M j  lub zanegowanego sygnału pamięci M j  .
Postać sygnału pamięci M j ustalamy na podstawie algorytmu sterowania
(rys. 4c) i wówczas:
•
zanegowane sygnały pamięci M j występują we wszystkich tranzycjach poprzedzających tranzycję w której nastąpił zapis pamięci M j,
do tranzycji t0 lub tranzycji w której zapisywana jest poprzednia elementarna komórka pamięci (M j-1) włącznie.
•
niezanegowane sygnały pamięci M j występują we wszystkich tranzycjach następujących po tranzycji w której nastąpił zapis pamięci M j
do tranzycji tn-1 lub tranzycji w której następuje zapis kolejnej elementarnej komórki pamięci (M j+1) włącznie.
74
W wyniku takiego postępowania otrzymujemy algorytm sterowania
uwzględniający zrealizowaną pamięć przedstawiony za pomocą sieci Grafpol GS (rys. 4d). Na jego podstawie możliwe jest otrzymanie równania
schematowego, stanowiącego sumę funkcji wszystkich zmiennych wyjściowych i elementarnych komórek pamięci.
F Y , M =∑
{
St⋅2S1⋅M 1⋅Y 1 ,
1S2⋅M 2⋅Y 2 ,
1S1⋅M 1⋅M 2⋅Y 3 ,
2S2⋅M 1⋅Y 4 ,
(5)
1S2⋅M 1  S  ,
2S2⋅M 1⋅1S1⋅M 2  S  ,
2S1⋅M 2⋅[ M 1  RM 2  R]
Rys. 5. Przyporządkowanie sygnałów wyjściowych procesu do wejść układu sterowania
i sygnałów wyjściowych układu sterowania do wejść procesu
Po uwzględnieniu adresów sygnałów wejściowych i wyjściowych
(rys. 5) sterownika PLC równanie schematowe przyjmuje następującą postać:
F Y , M =∑
{
I0.6⋅I0.2⋅M1.0⋅O0.1 ,
I0.1⋅M2.0⋅O0.0 ,
I0.0⋅M1.0⋅M2.0⋅O0.3 ,
I0.3⋅M1.0⋅O0.2 ,
(6)
I0.1⋅M1.0  S  ,
I0.3⋅M1.0⋅I0.0⋅M2.0  S  ,
I0.2⋅M2.0⋅[ M1.0  RM2.0  R]
Równanie schematowe (6) stanowi podstawę do zapisu programu
użytkowego. Zapis za pomocą języka LD przedstawiono na rys. 6.
75
Rys. 6. Zapis równania schematowego jako program użytkowy
sterownika PLC za pomocą języka LD
3. Podsumowanie
Opracowana metoda Grafpol 2.0 pozwala na szybkie i proste, w porównaniu z dotychczas istniejącymi metodami, wyznaczenie warunków zapisu, kasowania i użycia komórek pamięci w algorytmie sterowania. Metoda
ta jest uniwersalna dzięki możliwości zapisu równania schematowego w sterowniku PLC za pomocą dowolnego języka programowania określonego
w normie IEC 61131-3. Do jej zalet zaliczyć należy ponadto minimalną postać równania schematowego oraz możliwość użycia mniejszej liczby komórek pamięci w porównaniu do metody Grafcet lub SFC.
Literatura
[1] Z. Banaszak, A. Drzazga, J. Kuś: Metody interakcyjnego modelowania i programowania procesów dyskretnych, Wydawnictwo Politechniki Wrocławskiej, Wrocław 1993.
[2] J. Kasprzyk: Programowanie sterowników przemysłowych, WNT, Warszawa 2007.
[3] T. Mikulczyński: Automatyzacja procesów produkcyjnych, WNT,
Warszawa 2006.
[4] T. Mikulczyński, Z. Samsonowicz, K. Naplocha: Zastosowanie
metody MTS do programowania sterowników PLC, VIII Konferencja
PNEUMA'94, Wrocław 1994.
[5] J. Siwiński: Układy przełączające w automatyce, Wydawnictwa Naukowo-Techniczne, Warszawa 1980.
76
Zastosowanie rezystancyjnych czujników
gazów do pomiarów lotnych związków
organicznych.
Barbara Flisowska-Wiercik1
Streszczenie: Lotne związki organiczne stanowią realne zagroŜenie dla
organizmów Ŝywych. W związku z tym, zachodzi potrzeba ciągłej kontroli ich
emisji. DuŜą szansą na szybki i precyzyjny pomiar par lotnych związków
organicznych w powietrzu są matryce czujnikowe zbudowane w oparciu
o rezystancyjne czujniki gazów.
Słowa kluczowe: lotne związki organiczne, czujniki gazów
1. Wprowadzenie
Wśród zanieczyszczeń powietrza atmosferycznego, powszechną
uwagę skupiały dotychczas głównie związki nieorganiczne, takie jak:
ditlenek siarki, tlenki azotu, tlenki węgla, ozon, czy pyły. Obecnie duŜo
mówi się o emisji zanieczyszczeń organicznych, równie niebezpiecznych
i uciąŜliwych dla środowiska jak substancje nieorganiczne. Szczególną
uwagę poświęca się lotnym związkom organicznym, które ze względu na
swoje właściwości, stanowią powaŜne zagroŜenie dla organizmów Ŝywych
i środowiska.
Ze względu na duŜe ryzyko, jakie niesie za sobą wzmoŜona emisja
tych substancji, niezbędna jest ciągła kontrola jej wielkości.
Monitoring lotnych związków organicznych w środowisku moŜe być
realizowany na szereg róŜnych sposobów. Nie mniej ciągle poszukuje się
metod, które pozwolą na szybki i precyzyjny pomiar stęŜenia przy moŜliwie
niskich kosztach. DuŜą nadzieją w dziedzinie oznaczania lotnych związków
organicznych w powietrzu są matryce czujnikowe zbudowane w oparciu
o rezystancyjne czujniki gazów [1, 5].
1
Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska, Politechnika
Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław,
[email protected]
77
2. Lotne związki organiczne- definicje
Związki organiczne emitowane do powietrza atmosferycznego,
w tym m.in.:
- węglowodory (parafiny, węglowodory aromatyczne),
- tlenowe związki organiczne (alkohole, ketony, kwasy, estry),
- halogenowe związki organiczne, określa się wspólnym mianem Lotnych
Związków Organicznych (LZO).
Amerykańska Agencja Ochrony Środowiska (EPA; Environmental
Pollution Agency- USA) definiuje LZO jako: „dowolny związek węgla, za
wyjątkiem CO, CO2, kwasu węglowego, węglików metali lub węglanów,
który bierze udział w reakcjach fotochemicznych w atmosferze”.
Według Ministra Gospodarki i Pracy w Rozporządzeniu z dnia 20.10.2005r.
za LZO uwaŜa się: „związki organiczne o początkowej temperaturze
wrzenia mniejszej lub równej 250˚C, mierzonej w warunkach ciśnienia
normalnego 101,3 kPa”. [4]
3. Lotne związki organiczne- właściwości i źródła emisji
UciąŜliwość lotnych związków organicznych wynika z ich
specyficznych właściwości. Znaczna część tych substancji charakteryzuje
się bowiem wysoką toksycznością wobec organizmów Ŝywych. Wiele
z nich to związki o właściwościach mutagennych i kancerogennych,
w związku z tym mogą przyczyniać się do powaŜnych uszkodzeń
organizmów lub powodować ich śmierć. Substancje te są szczególnie
niebezpieczne w zamkniętych, źle wentylowanych pomieszczeniach, gdzie
człowiek spędza znaczną część swojego Ŝycia. Ich wzmoŜona emisja do
powietrza wewnętrznego powoduje pogorszenie się warunków Ŝycia
w mieszkaniach oraz w środowiskach pracy. W trakcie wieloletnich badań
stwierdzono, Ŝe ekspozycja na szkodliwe czynniki chemiczne, w tym LZO,
w pomieszczeniach nieprodukcyjnych wpływa niekorzystnie na zdrowie
ludzi. Efekty naraŜenia pracowników na emisję tych substancji skutkują
szerokim spektrum dolegliwości i objawów, które określa się mianem
chorób związanych z budynkiem (BRI-Building Related Illness).
Lotne związki organiczne biorą równieŜ udział w wielu procesach
zachodzących w środowisku. W wyniku reakcji z ozonem stratosferycznym
przyczyniają się do niszczenia warstwy ozonowej. Są równieŜ
odpowiedzialne za zaburzanie cyklu fotolitycznego NOx oraz tworzenie
wtórnych zanieczyszczeń powietrza, które definiuje się jako smog letni.
Lotne związki organiczne emitowane są z wielu źródeł, zarówno
naturalnych (wegetacja, wybuchy wulkanów), jak i antropogenicznych.
Klasyfikację głównych źródeł LZO w atmosferze przedstawiono na Rys.1.
78
Rys.1. Klasyfikacja źródeł emisji Lotnych Związków Organicznych
Ze względu na duŜe ryzyko, jakie niesie za sobą wzmoŜona emisja
tych substancji, niezbędne jest ciągłe nadzorowanie jej wielkości.
Wynikiem takiej kontroli powinna być informacja o charakterze ilościowojakościowym. W tym celu wykorzystuje się m.in. metody sensoryczne,
a takŜe obliczeniowe.
Najbardziej wiarygodne informacje uzyskujemy jednak przy uŜyciu metod
pomiarowych, a wśród nich duŜym zainteresowaniem cieszą się techniki
czujnikowe. W analizie ochrony powietrza najszersze zastosowanie znalazły
chemiczne czujniki gazów. [1]
3. Chemiczne czujniki gazów - definicja, klasyfikacja
Według IUPAC (International Union of Pure and Applied
Chemistry) pod pojęciem czujnika chemicznego rozumiemy urządzenie,
w którym chemiczny sygnał wejściowy przetwarzany jest na mierzalny
i uŜyteczny w analizie sygnał wyjściowy. KaŜdy czujnik chemiczny składa
się z przynajmniej dwóch części: elementu receptorowego oraz
przetwornikowego. Wskutek działania czynnika chemicznego receptor
odbiera i przekształca niesioną informację na energię, w wyniku czego
zmianie ulegają jego parametry. Wygenerowane zmiany konwertowane są
na mierzalny sygnał wyjściowy za pomocą przetwornika.
79
Ze względu na wykorzystywaną zasadę pomiaru czujniki chemiczne
moŜna podzielić na:
- grawimetryczne (masowe),
- termiczne,
- optyczne,
- elektrochemiczne,
- elektroniczne (półprzewodnikowe) [1], [5, 6].
Z doniesień literaturowych wynika, Ŝe w badaniach dotyczących
zanieczyszczenia
powietrza
atmosferycznego
najczęściej
wykorzystywanymi czujnikami półprzewodnikowymi są rezystancyjne
czujniki gazów.
5. Rezystancyjne czujniki gazów- budowa i zasada działania
Rezystancyjny czujnik gazu składa się z:
- elementu receptorowo-przetwornikowego,
- podłoŜa,
- elektrod;
- grzejnika.
Schemat konstrukcji komercyjnego czujnika TGS japońskiej firmy
FIGARO zaprezentowano na Rys.2.
Rys.2. Schemat konstrukcji czujnika TGS serii 2000 firmy FIGARO
Podstawą działania rezystancyjnych czujników gazów jest zmiana
rezystancji półprzewodnikowego materiału tlenkowego, która zaleŜy od
składu powietrza w otoczeniu chemicznie czułej warstwy sensora. [5, 6]
80
5. Rezystancyjne czujniki gazów- budowa i zasada działania
Rezystancyjne czujniki gazów charakteryzują się szeregiem cech,
które przemawiają za ich powszechnym stosowaniem. Wśród
niewątpliwych zalet tego typu przyrządów moŜemy wymienić m.in.:
- niski koszt zakupu,
- prostota i wytrzymałość konstrukcji,
- niewielkie gabaryty i cięŜar,
- wieloletni czas uŜytkowania,
- szeroki zakres temperaturowy pracy,
- łatwość obsługi.
NaleŜy jednak zauwaŜyć, Ŝe przyrządy te nie spełniają w pełni
stawianych im wymagań. Zakłada się bowiem, Ŝe dobrze pracujący czujnik
powinien być selektywny, czyli reagować tylko na wybrany gaz lub na
pewną określoną grupę gazów. Obecność innych związków chemicznych
w badanym powietrzu nie powinna wpływać na jego odpowiedź. Natomiast
jedną z wad rezystancyjnych czujników gazów jest właśnie mała
selektywność. Cecha ta w znaczny sposób ogranicza obszar zastosowań
rezystancyjnych czujników gazów.
6. Matryce czujnikowe do pomiarów gazów
Nieselektywne działanie chemicznie czułych rezystorów moŜe
okazać się cechą bardzo przydatną w urządzeniach zwanych matrycami
czujnikowymi. Za ich pomocą moŜna dokonywać ilościowo-jakościowej
analizy mieszanin róŜnych gazów. Takie podejście do problemu oznaczania
substancji chemicznych w powietrzu rozszerza moŜliwości zastosowania
rezystancyjnych czujników gazów.
Matryce czujnikowe mogą składać się z róŜnej liczby sensorów.
KaŜdy z nich pracuje niezaleŜnie od reszty i reaguje róŜnie na badane gazy,
a wyniki takich indywidualnych oznaczeń podlegają wspólnej analizie.
W odpowiedziach matrycy zawarte są zatem informacje o wielu składnikach
analizowanej mieszaniny.
Praktyczne zastosowanie matryc czujnikowych wiąŜe się
z koniecznością wykorzystania metod i narzędzi pozwalających na analizę
danych pochodzących z zestawu pomiarowego. W tym celu powszechnie
stosuje się m.in. metody statystyczne, w tym analizę regresji, czy teŜ analizę
czynników głównych. DuŜym zainteresowaniem w temacie analizy danych,
które znalazły zastosowanie we współpracy z matrycami czujnikowymi, są
metody z obszaru sztucznej inteligencji. Z przeprowadzonych badań
wynika, Ŝe bardzo dobre wyniki analiz moŜna uzyskać stosując do tego typu
danych sieci neuronowe. [2, 3]
81
7. Podsumowanie
WzmoŜona emisja lotnych związków organicznych stanowi
powaŜne zagroŜenie dla środowiska i organizmów Ŝywych. Niezbędna jest
zatem ciągła kontrola jej wielkości. Matryce czujnikowe zbudowane
w oparciu o rezystancyjne sensory gazów realizują potrzebę szybkiego,
taniego i jednocześnie precyzyjnego pomiaru zanieczyszczeń gazowych.
W sprzęŜeniu z nowoczesnymi technikami analizy danych oferują pełne
ilościowo-jakościowe oznaczenia niebezpiecznych substancji. Mogą słuŜyć
zatem jako przystępne narzędzie w walce z nadmierną emisją lotnych
związków organicznych.
Literatura
[1] Flisowska B., Zastosowanie analizy dyskryminacyjnej do rozróŜniania
związków chemicznych emitowanych w przemyśle farb i lakierów, praca
magisterska, Politechnika Wrocławska, Wrocław 2008.
[2] Gantar E., Nieparametryczna metoda dyskryminacji i regresji,
Wydawnictwo Naukowe PWN, 2001.
[3] Owsiński J.W., Wykłady z metod analizy danych, WyŜsza Szkoła
Informatyki Stosowanej i Zarządzania, 2003.
[4] Rozporządzenie Ministra Gospodarki i Pracy w sprawie szczegółowych
wymagań dotyczących ograniczenia emisji lotnych związków
organicznych powstających w wyniku stosowania rozpuszczalników
organicznych w niektórych farbach, lakierach, preparatach do
odnawiania pojazdów, 20. października 2005r.
[5] Szczurek A., Pomiary lotnych związków organicznych rezystancyjnymi
czujnikami gazów, Oficyna Wydawnicza Politechniki Wrocławskiej,
2006.
[6] Tetrycz H., Grubowarstwowe chemiczne czujniki gazów na bazie
dwutlenku cyny, Oficyna Wydawnicza Politechniki Wrocławskiej, 2005.
82
Rozwój układów bezpieczeństwa czynnego
w pojazdach uŜytkowych.
Arkadiusz Gierczak
Streszczenie: Artykuł poświęcony układowi ABS oraz systemom bezpieczeństwa
zapobiegającym wypadkom w pojazdach m.in. ESP i ASR. Przedstawienie pierwszych
układów hydraulicznych w układach ABS opatentowanych przez firmę BOSCH w 1978
roku.
Słowa kluczowe: Systemy bezpieczeństwa ABS, ASR i ESP.
1. Wprowadzenie
ABS obecnie nie jest juŜ techniczną rewolucją poniewaŜ juŜ w latach
20-stych ubiegłego stulecia, w poradniku samochodowym Bussiena z roku
1941 wydanie 14 czytamy: „ W próbach są urządzenia (regulatory
Piganeau), które przeciwdziałają niebezpiecznemu blokowaniu hamulców.
Regulator, który czyni hamulce moŜliwymi do wykorzystania w kaŜdych
warunkach, jest wielkim postępem na drodze do podniesienia
bezpieczeństwa ruchu samochodowego." Pierwsze seryjne auto z ABS-em
zjechało z taśmy produkcyjnej w grudniu 1978 roku. Był to Mercedes klasy
S serii W116 [1]. Jednak pierwsze urządzenie mające zapobiegać
blokowaniu kół przy hamowaniu zastosowano znacznie wcześniej, bo juŜ
w latach 40-tych. w samolotach lądujących (np. Dunlop Maxaret-AntiSkid)
na lotniskowcach. Chodziło tu głównie o uniknięcie uszkodzenia opon
w czasie lądowania, wskutek nadmiernych ilości ciepła wydzielających się
z blokowanych kół.
Generalnie systemy bezpieczeństwa w pojazdach uŜytkowych
moŜemy podzielić na bezpieczeństwo czynne i bierne.
Zastosowaniem czynnego bezpieczeństwa jest juŜ wcześniej
wspomniany
układ przeciwblokujący się kół ABS (niem.
Antiblockiersystem; ang. Anti-Lock Braking System), ESP (niem.
Elektronisches Stabilitätsprogramm; ang. Electronic Stability Program),
ASR (ang. Acceleration Slip Regulation) [4]. Układy i urządzenia
zwiększające bezpieczeństwo bierne słuŜą do ochrony pasaŜerów przed
powaŜnymi obraŜeniami. Zmniejszają urazy i łagodzą skutki wypadków.
Przykładami biernego zabezpieczenia są m.in.: poduszki powietrzne, pasy
bezpieczeństwa, napinacze pasów, aktywne zagłówki, lusterka.
83
2. Zasada działania i budowa układu ABS.
ABS jest systemem zapobiegający blokowaniu się kół. Zadaniem
układu jest kontrola i modyfikacja systemu hamowania w celu uniknięcia
blokady kół we wszystkich warunkach pogodowych. Obecnie blisko trzy
czwarte wszystkich produkowanych na świecie pojazdów jest
wyposaŜonych w ABS. Na mocy porozumienia koncernów
motoryzacyjnych zrzeszonych w Europejskim Związku Producentów
Samochodów (ACEA), od lipca 2004 roku wszystkie nowo sprzedawane na
terytorium Wspólnoty Europejskiej pojazdy o dopuszczalnym cięŜarze
całkowitym nieprzekraczającym 2,5 tony, muszą być seryjnie wyposaŜone
w ABS. Polska przystąpiła do porozumienia w 2006 roku [3].
Zastosowanie układu ma na celu zwiększenia bezpieczeństwa jazdy,
dzięki temu rozwiązaniu kierowca ma pełną kontrolę nad pojazdem podczas
hamowania awaryjnego na nawierzchniach o małej przyczepności. Wynika
to z faktu, Ŝe ABS daje moŜliwość zmiany kierunku jazdy pojazdu w celu
ominięcia przeszkody. NaleŜy pamiętać, Ŝe w przypadku zablokowania kół
wszelkie zmiany toru jazdy mogą okazać się bezowocne, a samochód będzie
poruszał się w kierunku zgodnym z jego osią wzdłuŜną; najgorszym
scenariuszem jest wypadnięcie z drogi. System ABS nie skraca drogi
hamowania a jedynie zapobiega blokadzie kół podczas poślizgu. Droga
hamowania auta zaleŜy między innymi od następujących parametrów:
najwaŜniejsze jest poprawne działanie układu hamulcowego oraz
przyczepność między kołami a nawierzchnią drogi [2].
Rys. 1. Hamowanie z układem ABS i bez układu ABS [2].
84
Elementy składowe układu ABS: elektroniczny zespół sterujący,
hydrauliczny zespół sterujący, czujniki, alternator, czujnik połoŜenia pedału
hamulca, pompa hamulcowa, czujnik prędkości kół, przekaźnik,
akumulator.
Rys. 2. Zespół elektrohydrauliczny.
W skład zespołu elektrohydraulicznego wchodzą:
elektryczna, 2 modulator ciśnienia, 3 sterownik elektryczny.
85
1
pompa
Rys. 3. schemat hydrauliczny układu.
Układ hydrauliczny tworzą następujące elementy: 1 pompa
hamulcowa, 2 serwo – urządzenie wspomagające, 3,4 akumulatory
wysokiego, 5,6,7 pompy wtórnego obiegu, 8,9 akumulatory niskiego
ciśnienia, 10 zawory szybkiego zmniejszania ciśnienia, 11...18
elektrozawory, 19…22 zaciski hamulcowe.
86
3. Zachowanie optymalnego hamowania
Standardowe układy hamulcowe, jeśli nawet są wyposaŜone w zespół
wspomagania hamowania, nie dają kontroli nad przebiegiem procesu
hamowania. Czynnikiem decydującym o chwilowym zachowaniu się
pojazdu w momencie hamowania jest poślizg koła. Wielkość ta wynika
z zaleŜności pomiędzy prędkościami liniowymi toczącego się koła.
ZaleŜności te przedstawiono na rys. 4.
Rys. 4. Rozkład prędkości na kole [3].
S=
v − vo
∗ 100%
v
(1)
We wzorze (1) S jest wartością poślizgu w %, v prędkość liniowa środka
koła (prędkość pojazdu), v o prędkość obwodowa koła. JeŜeli koło obraca
się z prędkością obwodową równą prędkości pojazdu (jest to czysto
teoretyczne), wówczas mówimy o poślizgu zerowym. Najczęściej przyjmuje
się, Ŝe najlepsze warunki dla przebiegu procesu hamowania występują gdy
poślizg koła osiąga wartość pomiędzy 10 a 30%. Układy zapobiegające
blokowaniu kół zostały skonstruowane w taki sposób, aby kontrolować
proces hamowania i aby kontrola to mogła przebiegać w sposób
automatyczny [3].
4. Podsumowanie
Wraz ze wzrostem rozwoju osiąganej prędkości przez samochody
wzrosła liczba wypadków w tym równieŜ wypadków ze skutkiem
śmiertelnym. Konstruktorzy musieli zacząć projektować układy
zwiększające bezpieczeństwo i takimi układami są m.in. wyŜej wymienione
ABS, ESP oraz ASR.
W dalszej perspektywie moŜna się spodziewać, Ŝe systemy
zapobiegające wypadkom ulegną dalszemu progresowi.
87
Literatura
[1] „Systems of Safety a Vehicle” Bosch Stuttgart 2002
[2] Anna Tylusińskaa- Kowalska „ABS Układy zapobiegające blokowaniu
kół”- wydawnictwo AUTO Warszawa.
[3] Ciastoń Adam „Kinematyka i dynamika” 1977
[4] „Technische Information über ESP“ Bosch Stuttgart 2004
[5] http://www.bosch.pl
[6] http://www.roadlook.pl/technika/bosch-abs-wczoraj-i-dzis.html
[7] http://www.samarins.com/glossary/abs.html
88
Modyfikacja geometrii i analiza zmęczeniowa
tłumika pulsacji spręŜarki śrubowej
schładzacza cieczy
Piotr Harnatkiewicz 1
Streszczenie: Przedstawiono wybrane zagadnienia szacowania trwałości
tłumika pulsacji spręŜarki śrubowej schładzacza cieczy. Obliczenia
zmęczeniowe wykonano wykorzystując kryterium płaszczyzny krytycznej.
Lokalny wieloosiowy stan napręŜenia i odkształcenia został wyznaczony na
podstawie prawa Hooke-a, przy jednoczesnym uwzględnieniu nieliniowości
kinematycznej umocnienia materiału zgodnie z modelem Jiang-a.
Słowa kluczowe: pęknięcia zmęczeniowe, tłumik pulsacji,
optymalizacja, MES, kod Falancs
1. Wprowadzenie
Zniszczenie zmęczeniowe materiałów jest zjawiskiem niezwykle
groźnym dla bezpieczeństwa konstrukcji inŜynierskich, części maszyn
i urządzeń. Zjawisko degradacji własności mechanicznych materiałów
postępującą w czasie eksploatacji urządzenia prowadzi do obniŜenia
rezydentalnej wytrzymałości urządzenia i maszyny. Zmiany struktury
materiału tj. poślizgi defektów sieci krystalicznej, koncentracje defektów
w miejscach, gdzie napotkają one przeszkody uniemoŜliwiające im dalsze
przemieszczenia, pasma poślizgu, transformacje fazowe wywołane
napręŜeniami lub zmianą temperatury, są najczęstszą przyczyną
powstawania pęknięć zmęczeniowych. Finalnym efektem ww. zjawisk jest
nukleacja (inicjacja mikropęknięcia), wzrost mikropęknięć, uformowanie
w materiale szczeliny dominującej (mikropęknięcia), a w końcowej fazie
procesu zniszczeni jej niekontrolowana propagacja i zniszczenie konstrukcji
lub urządzenia.
1
Wydział Mechaniczny Politechniki Wrocławskiej, ul. Łukasiewicza 7/9,Wroclaw 50-37,
email. [email protected]
89
2. PROBLEM BADAWCZY
Obiektem prowadzonych badań był tłumik pulsacji spręŜarki śrubowej
schładzacza cieczy rys. 1. Badany obiekt ulegał częstym awariom, które
miały charakter zmęczeniowy. Uszkodzenia następowały w górnej części
tłumika pulsacji, co zostało przedstawione na rys. 2. Przełamania pokrywki
następowały w róŜnych miejscach i po róŜnym czasie eksploatacji,
w związku z tym nie moŜna było w sposób jasny określić przyczyny
zniszczenia elementu [1].
Rys. 1. Schemat budowy tłumika pulsacji spręŜarki śrubowej schładzacza cieczy.
Rys. 2. Miejsce występowania pęknięć.
Pokrywka ulegająca uszkodzeniom wchodzi w skład mufler'a tłumika pulsacji. Tłumik ten jest zamontowany na wyjściu ze spręŜarki
śrubowej schładzacza cieczy. PrzybliŜona wydajność objętościowa
spręŜarki wynosi 360 m3/godz. Czynnikiem roboczym jest freon chłodniczy
o symbolu R134A. Głównym celem analizowanego obiektu jest tłumienie
pulsacji czynnika chłodzącego. Pulsacje te powodują niepoŜądany hałas
w systemie. Na podstawie analizy schematu montaŜu domniemywa się,
iŜ umiejscowienie, sposób wykonania kompensacji rurociągu, jak równieŜ
sposób zamontowania spręŜarki moŜe wywoływać dodatkowe obciąŜenie
tłumika pulsacji siłą poprzeczną. Dodatkowo obwód odzysku ciepła moŜe
powodować chwilowe obciąŜenia o charakterze pulsacyjnych uderzeń [1].
90
3. ANALIZA WYTRZYMAŁOŚCIOWA
I OPTYMALIZACJA GEOMETRII
Pokrywka tłumika pulsacji została wykonana ze stali oznaczonej
symbolem materiału: DD13. Materiał DD13 jest oznaczany w normie
EN 10111 jako – 1,0335 / DD13 / StW24 /. Do przeprowadzenia analiz
wykorzystano następujące dane materiałowe - ReH 256 [MPa], Rm
333 [MPa], A 33,49% [2]. Zostały one wykorzystane do stworzenia
nieliniowego, binarnego modelu materiału [3].
Do przeprowadzenia analizy wytrzymałościowej wykorzystano kod
ABAQUS bazujący na metodzie elementów skończonych. zbudowano
model geometryczny obiektu. W pierwszym etapie przygotowano model
geometryczny pękającego tłumika pulsacji [przed optymalizacją] w trakcie
eksploatacji. Zbudowano go w celu określenia przestrzennego stanu
napręŜenia. Jest to model objętościowy, który w dokładny sposób
odwzorowuje rzeczywistą geometrię pokrywki tłumika pulsacji. Podczas
przygotowywania modelu szczególny nacisk połoŜono na poprawne
odzwierciedlenie miejsca połączenie spoiną pachwinową wylotu tłumika
z jego korpusem. Model ten w bardzo dokładny sposób odzwierciedla
rzeczywisty obiekt, co w znaczący sposób wpłynęło na dokładność
prowadzonych obliczeń. Na rys. 3 przedstawiono widok modelu
geometrycznego pokrywki tłumika pulsacji.
b)
a)
Rys. 3. Model geometryczny tłumika pulsacji przed optymalizacją –
a) widok ogólny, b) widok przekroju
Pokrywka tłumika pulsacji wraz z tłumikiem jest zamontowana na
wyjściu ze spręŜarki śrubowej schładzacza cieczy. Głównym celem
analizowanego obiektu jest tłumienie pulsacji czynnika chłodzącego.
Pulsacje te powodują niepoŜądany hałas w systemie. Na podstawie analizy
procesu montaŜu i eksploatacji stwierdzono, iŜ sam sposób montaŜu ma
wpływ na trwałość tłumika [1]. Umiejscowienie, sposób wykonania
91
kompensacji rurociągu, jak równieŜ sposób zamontowania spręŜarki moŜe
wywoływać dodatkowe obciąŜenie tłumika pulsacji siłą poprzeczną.
Na podstawie powyŜszych informacji zdefiniowano pięć podstawowych
przypadków obciąŜeń, które zostały wykorzystane, jako dane wejściowe do
modelu numerycznego. Jako najbardziej krytyczny przypadek obciąŜenia
elementu określano kompilację obciąŜenia układu maksymalnym
ciśnieniem roboczym o wartości 21 Bar i jednoczesne zadanie
przemieszczenia całkowitego wylotowi pokrywy tłumika pulsacji
o 0,05 mm.
W celu identyfikacji przyczyn powstawania pęknięć w pokrywce
tłumika pulsacji przed modyfikacją geometrii przeprowadzono analizę
numeryczną z wykorzystaniem metody elementów skończonych. Wykonano
analizę statyczną, przy załoŜeniu nieliniowości geometrii i nieliniowego,
binarnego modelu materiału. Obliczenia przeprowadzono wykorzystując
metodą bezpośrednią z uŜyciem algorytmu Newtona [3]. Wyniki w postaci
pól napręŜeń pochodzących od działania maksymalnego ciśnienia
roboczego i jednoczesnego działania maksymalnego przemieszenia wylotu
tłumika pulsacji przedstawiono na rys. 4.
b)
a)
Rys. 4 Warstwice napręŜeń zredukowanych wg hipotezy HMH
w MPa – działanie maksymalnego ciśnienia roboczego i jednoczesnego przemieszczenia
wylotu tłumik - a] widok ogólny, b] widok na miejsca powstawania pęknięć
Miejsce koncentracji napręŜeń potwierdza się, z obszarem
występowania uszkodzeń na obiekcie rzeczywistym. Maksymalne wartości
napręŜeń zanotowano na pokrywce tłumika pulsacji przed modyfikacją dla
maksymalnego ciśnienia roboczego 21 Bar i przemieszczenia poprzecznego
wylotu. Wynoszą one 303 MPa wg hipotezy HMH, przy uwzględnieniu
nieliniowości materiału i geometrii oraz 367 MPa wg hipotezy HMH
w zakresie liniowym. Na podstawie przeprowadzonych obliczeń
numerycznych stwierdzono, iŜ nie spełniono warunku wytrzymałości
doraźnej w miejscu występowania pęknięć.
92
Niespełnienie warunku wytrzymałości zmęczeniowej przez pokrywkę
tłumika pulsacji przed modyfikacją, został potwierdzony po
przeprowadzeniu numerycznej analizy zmęczeniowej przy wykorzystaniu
kodu FALANCS [4]. Do wyznaczenia trwałości zmęczeniowej tłumika
wykorzystano wieloosiowy model materiału Jiang-a [4]. Model ten
wykorzystuje kryterium płaszczyzny krytycznej. W modelu tym
zapoczątkowanie, inicjacji pęknięcia i akumulacji zniszczenia następuje
wzdłuŜ płaszczyzny krytycznej (5). Tensor napręŜenia i odkształcenia dla
tego kryterium opisany został na rys. 5. NapręŜenia w lokalnym układzie
współrzędnych opisać moŜna następująco:
σN −
1
(σ x + σ y ) + 1 (σ x − σ y ) ⋅ cos(2ϕ ) + τ xy ⋅ sin (2ϕ )
2
2
τ S = − (σ x +σ y ) ⋅ sin (2ϕ ) + τ xy ⋅ cos(2ϕ )
1
2
[1]
[2]
Definicja napręŜeń w lokalnym układzie współrzędnych wg kryterium planu
krytycznego została przedstawiona na rys. 6.
Rys. 5. Opis tensora napręŜenia
i odkształcenia wg. kryterium planu
krytycznego
Rys. 6. Definicja napręŜeń w lokalnym
układzie współrzędnych wg. kryterium
planu krytycznego
Na rys. 7 i 8 przedstawiono rozkład uszkodzenia zmęczeniowego dla
jednego cyklu przy załoŜeniu nieliniowej charakterystyki materiału (Max
Damage according to the Miner Sum, Max Blocks to Damage according to
the Max. Absolute Stress) [6]. Polami oznaczonymi kolorem czerwonym
zostały wyróŜnione miejsca, dla których wartość uszkodzenia
zmęczeniowego dla jednego cyklu osiągnęła wartość krytyczną.
Niespełnienie warunku wytrzymałości zmęczeniowej przez pokrywkę
tłumika pulsacji przed modyfikacją o charakterystyce nieliniowej materiału
zostało równieŜ potwierdzone przez obliczenia analityczne. W obliczeniach
zmęczeniowych przyjęto, jako poprzednio [tłumik pulsacji po modyfikacji
geometrii] wartość amplitudy napręŜeń granicznych wytrzymałości
zmęczeniowej dla materiału rodzimego równą odpowiednio 233 MPa
dla jednostronnego zginania i 149 MPa dla dwustronnego zginania.
93
Z punktu widzenia wytrzymałości zmęczeniowej trwałość
komponentu jest zachowana. Wartość zmęczeniowego współczynnika
przeciąŜeniowego dla obciąŜenia ciśnieniem roboczym 21 Bar
i jednoczesnego działania przemieszczenia poprzecznego wlotu tłumika
wynosi odpowiednio 0,76 dla jednostronnego zginania i 0,46
dla dwustronnego zginania. Dlatego teŜ przyjmuję się, iŜ przeciętny czas
Ŝycia produktu, dla wyŜej przedstawionych warunków eksploatacji ma
charakter mocno ograniczony.
Rys. 7. Rozkład uszkodzenia
zmęczeniowego tłumika pulsacji przed
modyfikacją dla jednego cyklu (Max
Damage according to Miner Sum)
Rys. 8. Rozkład uszkodzenia
zmęczeniowego tłumika pulsacji przed
modyfikacją dla jednego cyklu (Max Blocks
to Damage according to the Max. Absolute
Stress)
W związku z tym, iŜ obiekt nie spełniał warunku wytrzymałości
doraźnej i wytrzymałości zmęczeniowej dla skrajnych warunków
eksploatacji, zoptymalizowano geometrię obiektu.
Obiekt modyfikowano wielokryterialnie. Pierwszym kryterium było
obniŜenie napręŜenia wg hipotezy HMH do wartości 75 MPa poprzez
optymalizację kształtu. Drugim kryterium było zachowanie masy obiektu.
Optymalizację wykonywano w sposób iteracyjny, poddając kaŜdą
opracowaną koncepcję geometrii obiektu analizie numerycznej. Finalny
kształt tłumik pulsacji otrzymał przy 4 iteracji. Na rys. 9 przedstawiono
kształt tłumika pulsacji po modyfikacjach. Przeprowadzono obliczenia
statyczne uwzględniającą nieliniowość materiału. Do obliczeń
wykorzystano kod ABAQUS. Przeprowadzono obliczenia uwzględniające
wartość obciąŜenia pochodzącego od maksymalnego ciśnienia roboczego
21 Barów i przemieszczenia 0,05 mm. Po przeprowadzeniu obliczeń dla
w/w obciąŜenia uzyskano przestrzenne pole napręŜeń oraz deformacji
modelu. Wyniki w postaci warstwic napręŜeń pochodzących od działania
maksymalnego ciśnienia roboczego przedstawiono na rys. 10.
94
b)
a)
Rys. 9. Model geometryczny pokrywki tłumika pulsacji po modyfikacji –
a) widok ogólny, b) widok przekroju
Rys. 4 Warstwice napręŜeń zredukowanych wg hipotezy HMH
w MPa – działanie maksymalnego ciśnienia roboczego i przesunięcia wlotu tłumika o 0,05
mm – a) widok ogólny, b) rejon karbu
W obliczeniach zmęczeniowych przyjęto wartość amplitudy napręŜeń
granicznych wytrzymałości zmęczeniowej dla materiału rodzimego równą
jak poprzednio 233 MPa dla jednostronnego zginania, 149 MPa dla
dwustronnego zginania [7]. Wartość maksymalnych zakresu napręŜeń
po analizie napręŜeń wg hipotezy HMH wynosi 73 MPa [oddziaływanie
na pokrywkę ciśnienia roboczego 21 Bar i przemieszczenia 0,05 mm.
Z punktu widzenia wytrzymałości zmęczeniowej trwałość komponentu jest
zachowana [2]. Wartość zmęczeniowego współczynnika przeciąŜeniowego
dla obciąŜenia ciśnieniem roboczym 21 Bar i jednoczesnego działania
przemieszczenia poprzecznego wlotu tłumika wynosi odpowiednio 7,1 dla
jednostronnego zginania i 4,6 dla dwustronnego zginania [7]. Zgodnie
z powyŜszym przyjmuję się, iŜ przeciętny czas Ŝycia produktu, przy jego
prawidłowym uŜytkowaniu dla obciąŜenia nieprzekraczającego 21 Bar
ciśnienia roboczego będzie spełniał postawiony wymóg pracy 100 000
godzin pracy [1].
95
3. Podsumowanie
Przedstawiono wyniki przeprowadzonych analiz numerycznych
identyfikujących rozkładu pół napręŜeń, pól przemieszczeń. Przedstawiono
model matematyczny i numeryczny wykorzystany do wyznaczenia
trwałości zmęczeniowej w tłumiku pulsacji w wersji pierwotnej i po jego
modyfikacji. W prowadzonych badaniach zwrócono szczególną uwagę na
rozkład pól napręŜeń na pokrywce tłumika pulsacji, w miejscach
wskazanych, jako szczególnie zagroŜone na powstanie pęknięć.
Po przeprowadzonych analizach, stwierdza się, iŜ tłumik pulsacji po
modyfikacji nawet przy krytycznym obciąŜeniu tj. maksymalnym ciśnieniu
roboczym 21 Bar, spełnia warunek wytrzymałości doraźnej i wytrzymałości
zmęczeniowej.
Przedstawione podejście wskazuje na nowe spojrzenie do problemu
analizy wytrzymałościowej i zmęczeniowej produktów, ze szczególnym
zwróceniem uwagi na wirtualne metody prototypowania i numeryczne
metody szacowania trwałości zmęczeniowej.
Literatura
[1]. E. Rusiński, P. Moczko, B. Yakhno, P. Harnatkiewicz,. Analiza
zmęczeniowa pokrywy tłumika pulsacji. Wrocław : Oficyna Wydawnicza
Politechniki Wrocławskiej, 2008. Raport serii SPRAWOZDANIA.
[2]. Guideline, FKM –. Analytical Strength Assessment Of Components In
Mechanical Engineering. Norma . Frankfurt/Main : Forschungskuratorium
Maschinenbau [FKM], 2003. Tom 5th revised edition.
[3]. Rusiński E., Czmochowski J., Smolnicki T. Zaawansowana metoda
elementów skończonych w konstrukcjach nośnych. Wrocław : Oficyna
Wydawnicza Politechniki Wrocławskiej, 2000.
[4]. LMS International. LMS Falancs Theory Monual. 2002. Tom LMS
Falancs Documentation.
[5]. T., Łagoda. Energetyczne modele oceny trwałości zmęczeniowej
materiałów konstrukcyjnych w warunkach jednoosiowych i wieloosiowych
obciąŜeń losowych, Studia i Monografie z. 121. Opole : Oficyna
Wydawnicza Politechniki Opolskiej, 2001.
[6]. LMS International. LMS Virtual.Lab Durability. User Monual. brak
miejsca : LMS INternational, 2008. Rev. 7B.
[7]. S., Kocańda. Zmęczeniowe pękanie metali. Warszawa : Wydawnictwo
Naukowo- Techniczn, 1985.
96
Metoda energooszczędnego procesu ładowania
ośrodka rozdrobnionego
Radosław Ilnicki1
Streszczenie: Artykuł stanowi krótkie wprowadzenie do procesu ładowania
urobku rozdrobnionego przy wykorzystaniu ładowarki łyŜkowej oraz
przedstawia główne cele rozprawy doktorskiej. Opisuje niezbędne do
wykonania badania, krótko odnosi się do obiektu fizycznego, na którym praca
będzie wykonana oraz przewidywanych korzyści.
Słowa kluczowe: ładowarka łyŜkowa, procesy ładowania,
automatyzacja.
1. Cele
Celem jest zbadanie zjawisk występujących podczas ładowania urobku
rozdrobnionego oraz znalezienie i zaimplementowanie na fizycznym
obiekcie algorytmów zapewniających energooszczędne ładowanie
ośrodków rozdrobnionych.
2. Proces ładowania przy pomocy ładowarki łyŜkowej
Ładowanie jest procesem zaczerpywania ośrodka ziarnistego, zwykle
ze zwału, do naczynia i przenoszenia go do miejsca przeznaczenia, lub
nagarnianie go na urządzenie odbierające.
Proces ładowania wykonywać moŜna z wykorzystaniem wielu
róŜnych maszyn roboczych. W moim przypadku zajmę się ładowaniem
ośrodka ładowarką łyŜkową. Maszyny te są dziś powszechnie stosowane.
Proces napełniania łyŜki urobkiem wykonuje się za pomocą ruchu
prostoliniowego związanego z przemieszczeniem całej maszyny oraz ruchu
w przybliŜeniu prostopadłego do podłoŜa, związanego z obrotem łyŜki, lub
podnoszeniem wysięgnika.
Napełnianie łyŜki moŜe być prowadzone trzema zasadniczymi
sposobami.
- Napełnianie jednostopniowe polega na jednorazowym zagłębianiu
łyŜki w zwał ośrodka a następnie obrocie łyŜki, ze zgromadzonym
w jej wnętrzu urobkowi do pozycji transportowej. Sposób ten
1
Instytucja Konstrukcji i Eksploatacji Maszyn, 50-371 Wrocław, ul. I. Łukasiewicza 7/9,
e-mail: [email protected]
97
moŜna stosować do ośrodków łatwo ładowalnych, gdyŜ ogólnie
wymaga ogromnych sił naporu i duŜego momentu do obrotu łyŜki.
- Napełniane „złoŜone” wielostopniowe polega na tym, iŜ po
wprowadzeniu łyŜki w zwał na pewną głębokość następuje obrót
łyŜki o mały kąt, lub jej minimalne podniesienie, w celu
naruszenia równowago statycznej ośrodka, co bez zmiany siły
naporu umoŜliwia dalsze zagłębianie. Powtarzanie tego cyklu
umoŜliwia całkowite napełnienie łyŜki. Zakończenie polega na
ostatecznym obrocie łyŜki do pozycji transportowej. Ten sposób
stosuje się najczęściej, poniewaŜ moŜna nim ładować grunty nawet
o duŜej granulacji i duŜym oporze.
- Napełnianie „złoŜone” ciągłe polega na wstępnym zagłębianiu
łyŜki, po czym bez przerwania zagłębiania następuje powolny
ciągły obrót łyŜki. Taki sposób napełniania wymaga
automatyzacji, poniewaŜ jest kłopotliwy. Jeśli obrót łyŜki jest za
wolny moŜe dojść do częstego powstawanie stanu równowagi i
duŜego zuŜycia energii. Za szybki obrót łyŜki, w stosunku do
prędkości jej wciskania w pryzmę, spowoduje częściowe
napełnienie.
Urobek moŜe być wyładowany z przodu ładowarki, z boku ładowarki
(przez człon obrotowy), lub z tyłu (zasięrzutny).
W procesie ładowania mamy do czynienia z duŜym oporem
napełniania łyŜki. Na opór ten ma wpływ opór zagłębiania łyŜki w pryzmę
ośrodka rozdrobnionego, opór związany z jej obrotem. Nie bez znaczenia
jest teŜ stopień stępienia krawędzi łyŜki i jej kształt.
Największy opór występuje na samym początku ruchu obrotowego
i maleje wraz ze wzrostem kąta obrotu.
Istotnym czynnikiem określającym jakość procesu ładowania danym
urządzeniem jest wydajność tego procesu. Teoretyczna wydajność maszyny
roboczej w cyklicznej pracy określa stosunek pojemności naczynia do czasu
cyklu pracy. W eksploatacji porównawczą wielkością jest natomiast
wydajność techniczna, która jest równa:
Qt =
Vz K n
Tc k s
(1)
gdzie: Qt – wydajność techniczna, Vz – pojemność łyŜki, Tc – czas cyklu
pracy, K n – współczynnik napełnienia łyŜki (0.6-1.1), k s – współczynnik
spulchniania.
98
3. Badania
Wyznaczenie energooszczędnego procesu ładowanie ośrodków
rozdrobnionych wymagać będzie przeprowadzenia wielu badania
porównujących róŜnych sposobów ładowania. Niezbędne będzie zbadanie
wpływu podnoszenia i obrotu łyŜki na efektywność jej napełniania dla
róŜnych gruntów.
Badania zachowania sił i momentów sił, podczas cyklu pracy
napełniania modelu łyŜki ładowarki Fadroma Ł220 (w skali 1:3,5) drobnym
tłuczniem oraz nad wpływem elementarnych obrotów na napełnienie łyŜki,
prowadzone były juŜ wcześniej w Instytucie Konstrukcji i Eksploatacji
Maszyn Politechniki Wrocławskiej. Badania nie umoŜliwiały
przeanalizowania kilku bardzo istotnych aspektów procesu ładowania, na
których skupię się w rozprawie doktorskiej.
Po pierwsze nie umoŜliwiały zbadania wpływu elementarnego
podrywania łyŜki (bez lub z jednoczesnym obrotem) na efektywność jej
napełniania. Po drugie moment wykonania elementarnego obrotu był
przyjmowany arbitralnie. Nie miała tu miejsca analiza aspektu pojawienia
się poślizgów kół ładowarki w momencie przekroczenia przez siły oporu sił
napory maszyn roboczej. Wystąpienie poślizgu jest najbardziej intuicyjnym
momentem wykonania elementarnych ruchów w celu naruszenia stanu
równowagi, gdyŜ umoŜliwia całkowite wykorzystanie siły naporu maszyny.
Ponadto z powodu prostego układu sterowania pominięto ,,złoŜony'' ciągły
proces ładowania. Zaaplikowanie na ładowarce adaptacyjnych algorytmów
pozwoli na sprawdzenie, czy ten sposób ładowania jest zauwaŜalnie
wydajniejszy niŜ powszechny sposób „złoŜony” wielostopniowy. Pozyskane
wyniki zostaną odniesione do energii zuŜywanej przez maszynę roboczą
podczas całego procesu.
Ostatecznie zaproponowany zostanie sposobu ładowania urobku, który
maksymalizuje kryterium jakości. Kryterium tym jest stosunek masy
nabranego urobku do całkowitej zuŜytej energii podczas procesu jego
ładowania
Ef = M u / E z .
(2)
4. Obiekt fizyczny i czujniki
Badania wykonywane będą na ładowarce łyŜkowej firmy Fadroma,
model Ł220 (rys.1). Mechanizm podnoszenia i obrotu łyŜki jest
przestrzennym mechanizmem typu Z zapewniającym zachowanie zadanego
kąta połoŜenia łyŜki podczas podnoszenie jej. Podnoszenie wysięgnika
99
wykonywane jest za pomocą dwóch siłowników hydraulicznych.
Dodatkowe dwa wykonują obrót.
Ładowarka otrzyma niezbędny zestaw czujników i sterowników. Do
badania występowania poślizgów wykorzystane zostaną czujniki prędkości
obrotowej umieszczone na kołach. O wystąpieniu poślizgu będzie
informować znaczne róŜnice pomiędzy prędkościami obrotowymi kół.
Sworznie pomiarowe zamontowane w miejscu mocowania łyŜki do
wysięgnika pozwolą nam określić siły i momenty działające na łyŜkę. To
z kolej moŜe okazać się pomocne do wyznaczania kryteriów jakości.
Niezbędny będzie równieŜ inklinometr badający orientację łyŜki względem
układu odniesienia związanego z ziemią. Dodatkowe czujniki będą
potrzebne do wyznaczania masy naładowanego urobku oraz energii zuŜytej
podczas tego procesu.
Sterowanie procesem efektywnego energetycznie ładowania urobku
wykonane będzie przy pomocy algorytmów zaimplementowanych
w sterowniku Plus+1 firmy Sauer-Danfoss.
Rys. 1. Ładowarka FADROMA Ł220
3. Podsumowanie
Wyniki pracy przyniosą spore korzyści w przyszłości związane
zarówno z kosztami, jaki i aspektem ludzkim.
Energooszczędność spowoduje zmniejszenie kosztów wynikających
głównie z mniejszego zuŜycia paliwa, oraz efektywniejszego jego
wykorzystania. Ponadto automatyzacja procesu ładowania odciąŜy
operatora. Zmniejszy to zarówno jego wysiłek fizyczny, jak i psychiczny.
Literatura
[1] K. Pieczonka, InŜynieria maszyn roboczych. Część I. Podstawy
urabiania, jazdy i obrotu, Oficyna Wydawnicza Politechniki
Wrocławskiej, Wrocław 2007.
[2] www.fadroma.pl
[3] www.sauer-danfoss.pl
100
Wymiana ciepła w wymienniku krzyŜowym
w systemach wentylacji i klimatyzacji
Andrzej Jedlikowski, Maciej Skrzycki1
Streszczenie: W artykule przeanalizowano proces wymiany ciepła i masy
w wymienniku krzyŜowym. Opisano problemy związane z eksploatacją urządzenia w warunkach zewnętrznych temperatur obliczeniowych. Przedstawiono model wymiany ciepła i masy.
Słowa kluczowe: rekuperator, wymiana ciepła i masy, model
1. Wprowadzenie
Uzdatnianie
strumienia
powietrza
wentylującego
lub
klimatyzacyjnego wymaga znacznych ilości energii. W celu ograniczenia
zuŜycia energii stosowany jest odzysk ciepła, który ma za zadanie
przygotować świeŜe powietrze do stanu zbliŜonego do komfortu cieplnego
przy znacznym oszczędzeniu energii. Oszczędność energii wymuszona jest
przepisami prawa [5]. Obowiązek ten zapisano § 151 Rozporządzenia
w sprawie warunków technicznych, jakim powinny odpowiadać budynki
i ich usytuowanie [3] wraz z późniejszymi zmianami [4]. Zasada działania
polega na wykorzystaniu ciepła zawartego w powietrzu wywiewanym
i przeznaczeniu go do wstępnego podgrzania powietrza nawiewanego.
Istotna jest róŜnica temperatur między dwoma strumieniami powietrza.
Niekiedy wykorzystuje się zjawiska kondensacji i absorpcji wilgoci [2].
Celem prowadzonych badań jest podwyŜszenie skuteczności
odzysku ciepła. WaŜnym kryterium wyboru danego rozwiązania jest
zapewnienie bezpiecznej pracy urządzenia podczas ujemnych zewnętrznych
temperatur. Jednym ze sposobów podwyŜszenia skuteczności odzysku
ciepła jest racjonalne wykorzystanie ciepła kondensacji. Podczas zwilŜenia
powierzchni przegród wymiennika istnieje niebezpieczeństwo powstawania
szronu. Na ogół przy niskich temperaturach powietrza zewnętrznego
przeprowadza się działania mające na celu ograniczenie strumienia
przepływu. Na przebieg procesów wymiany ciepła ma równieŜ wpływ
1
Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska,
Politechnika Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław,
[email protected], [email protected]
101
struktura wypełnienia. Procesy dodatkowo komplikują elementy
oŜebrowane wymiennika. Bezpieczna praca ma miejsce zwykle
w warunkach suchej wymiany ciepła. W przypadku pojawienia się
kondensacji, powstała ciecz nagrzewa powierzchnię przegrody wymiennika.
Prowadzi to do wydzielenia się ciepła utajonego. W przypadku powierzchni
oŜebrowanej powstająca ciecz nagrzewa elementy dystansujące, które
równieŜ uczestniczą w procesach wymiany ciepła. Istnieje granica
określająca obszary Ŝebra, w których odbywa się wymiana ciepła jawnego
i utajonego. Jej wartość jest zdeterminowana przez temperaturę punktu rosy.
Pod wpływem kondensacji następuje podgrzanie powierzchni Ŝebra,
co w konsekwencji moŜe spowodować obniŜenie wymienionej granicy.
Uzasadnione jest zatem rozpatrzenie procesów wymiany ciepła
i masy w tym urządzeniu, w celu określenia warunków jego racjonalnego
wykorzystania.
2. Model fizyko-matematyczny
W literaturze moŜna znaleźć wiele modeli wymiany ciepła i masy
stosowanych w celu analizy pracy wymienników krzyŜowych. Zwykle
do opisu zagadnień związanych z procesami zachodzącymi podczas
uzdatniania powietrza w wymiennikach wykorzystywane są równania
róŜniczkowe. W praktyce moŜna wyodrębnić trzy rodzaje konstruowanych
modeli opartych na równaniach [1]:
- Reynoldsa
- warstwy granicznej (przyściennej)
- jednowymiarowego przenoszenia (ε, NTU)
Modele skonstruowane na podstawie równań Reynoldsa lub warstwy
granicznej pozwalają na uzyskanie bardzo szczegółowych informacji
o warunkach temperaturowych i wilgotnościowych w kaŜdym obszarze
rozpatrywanego układu. Opis parametrów systemu za pomocą równań
róŜniczkowych nieliniowych jest dość trudny, gdyŜ wymaga określenia
turbulentnych charakterystyk przepływu. Dlatego w przypadku braku
konieczności otrzymania tak dokładnych informacji moŜna wykorzystać
model jednowymiarowego przenoszenia. W wielu zagadnieniach
inŜynieryjnych nie jest waŜny rozdział parametrów termodynamicznych
w przekrojach poprzecznych kanałów, lecz ich średnie całkowe wartości.
Dlatego teŜ przy opisie matematyczno-fizycznym procesów wymiany ciepła
i masy w płytowych rekuperatorach do odzysku ciepła stosowany jest model
jednowymiarowego przenoszenia. Ruch powietrza w kanałach
rozpatrywany jest jako strumień cieczy ze stałą wzdłuŜ jego poprzecznego
102
przekroju prędkością, temperaturą oraz zawartością wilgoci, które równe są
średnim tych wartości.
Na rysunku 1 przedstawiono schemat ideowy krzyŜowego
wymiennika ciepła, który posłuŜył do napisania równań bilansu wymiany
ciepła i masy. Dodatkowo zaznaczono strefy naraŜone na moŜliwość
powstawania kondensacji oraz szronu.
ZałoŜenia do konstrukcji modelu:
- strumień powietrza jest idealną
mieszaniną gazu, zawierającą
suche powietrze i parę wodną,
- siłą napędową przenoszenia
masy jest gradient zawartości
wilgoci (ciśnień cząstkowych
pary wodnej);
- charakterystyki
kinetyczne
strumienia powietrza i warstwy
granicznej wody przyjmuje się
jako stałe i równe średnim całkowym wartościom w przekroju
poprzecznym kanału,
- wzdłuŜna dyfuzja molekularna
pary wodnej w powietrzu, jak
równieŜ wzdłuŜne przewodzeRys. 1. Schemat ideowy krzyŜowego
nie ciepła są nieznaczne,
wymiennika ciepła
- podczas kondensacji wilgoci
na powierzchni ścianek kanału, przyjęto temperaturę płyty równą temperaturze warstwy kondensatu t Z SC = tW SC = t SC ,
- wydzielające się ciepło kondensacji w całości zuŜywane jest do podgrzewania strumieni powietrza; brak akumulacji w wypełnieniu,
- temperatura ścianek kanałów (kondensatu) zmienia się wraz z kierunkiem ruchu powietrza i zaleŜy od warunków przebiegu procesów
wymiany ciepła w kanałach.
Równania fizyko-matematycznego modelu procesów wymiany
ciepła i masy w rozpatrywanym urządzeniu realizowane są w kartezjańskim
układzie współrzędnych. Obie osie skierowane są równolegle do kierunków
przepływających strumieni powietrza. Odpowiednio osie dotyczą
parametrów powietrza X (odciętych) nawiewanego, Y (rzędnych)
wywiewanego. Oś Z jest prostopadła do powierzchni przegród wymiennika.
Na podstawie przyjętych załoŜeń modelu wymiana ciepła i masy
dla wymiennika krzyŜowego opisana jest za pomocą równań bilansów
ciepła i wilgoci dla strumieni powietrza zewnętrznego i wywiewanego
oraz dla ścianki wymiennika.
103
 ∂t
 Z = NTU Z t Z SC − t Z
∂ X
 ∂t
 c  ∂xW
 W
t
= NTUW tW SC − tW +  pw 
−t

 c p  ∂Y W SC W
 ∂Y

W

 ∂xW = NTUW  σ  xW SC − xW
 Le W
 ∂Y
(
)
(
)
(
(
 WZ

 WW
 ∂t Z  ∂tW ∂xW

+
+
∂Y
 ∂ X  ∂Y
(1)
)
)
 q o 
 c pw 
 tW SC − tW
  − 


 c p W  c p W
(

)  = 0
(2)
 
W układzie równań wprowadzono bezwymiarowe oznaczenia:
Le = α ( β c p )
NTU = ( α F ) W
W = G cp
(3)
Dla równań (1)–(2) podano warunki brzegowe określające wielkości
parametrów termodynamicznych strumieni powietrza na wejściach
odpowiednich kanałów wypełnienia:
tW = tW we
t Z = t Z we
xW = xW we
X =0
X = 0 −1
X = 0 −1
Y = 0 −1
Y =0
Y =0
(4)
Zjawisko kondensacji oraz powstawania szronu określają warunki:
σW = 1
σW = 0
(5)
tW SC ≤ tWr
tW SC > t
r
W
q o = r + qice
qo = r
xW SC = xW
tW SC > t
r
W
tW SC ≤ tWr
tW SC ≤ tWr
tW SC > 0
tW SC ≤ 0
xW SC = xW SC
sat
tW SC ≤ tWr
(6)
Oznaczenia indeksów:
Z – powietrze zewnętrzne, W – powietrze wywiewane, SC – ścianka wymiennika, we – wejście
do wymiennika, wy – wyjście z wymiennika, r – punkt rosy, sat – stan nasycenia, ice – powstawanie
szronu.
Dla powietrza zewnętrznego temperatura na wejściu wymiennika
jest stała wzdłuŜ osi rzędnych i moŜe się zmieniać w kierunku przepływu
powietrza w zakresie przyjętej powierzchni elementarnej 0÷1. Analogicznie
proces przebiega dla powietrza wywiewanego, z dodatkowym
uwzględnieniem zmian zawartości wilgoci. Oznaczenie σ określa
współczynnik przełączający związany z moŜliwością wystąpienia
min
kondensacji. Warunek σ=0 oznacza suchą wymianę ciepła t SC
> tWr we .
min
W przeciwnym przypadku t SC
≤ tWr we gdy temperatura ścianki wymiennika
104
jest mniejsza od temperatury punktu rosy istnieje moŜliwość kondensacji
i wartość współczynnika σ=1.
Wymienniki wyposaŜone w elementy dystansujące charakteryzują
się wyŜszą skutecznością odzysku ciepła. Kształt Ŝeber jak równieŜ sposób
umieszczenia odgrywają istotną rolę w procesach wymiany ciepła i masy.
Na rysunku 2 przedstawiono procesy wymiany ciepła i masy w obu
kanałach przepływającego powietrza z moŜliwością wystąpienia
kondensacji na powierzchni oŜebrowanej w kanale powietrza
wywiewanego. Opis przemian termodynamicznych zapisano w postaci
równań (7) – (8).
Rys. 2. Wymiana ciepła i masy w kanałach rekuperatora z oŜebrowaniem prostokątnym
 ∂t
*
 Z = NTU Z t Z SC − t Z
∂
X

 ∂t
 c  ∂xW *
 W
t
= NTUW tW* SC − tW +  pw 
−t

 c p  ∂Y W SC W
 ∂Y

W

 ∂xW = NTU*W  σ  xW* SC − xW
 ∂Y
 Le W
(
)
(
)
(
 WZ

 WW
 ∂t Z  ∂tW ∂xW

+
+
∂Y
 ∂ X  ∂Y
(
)
(7)
)
 q o 
c 
  −  pw  tW* SC − tW
c
 p W  c p W
(

)  = 0
(8)
 
Oznaczenia indeksów:
* – wartość uśredniona wyznaczona z uwzględnieniem oŜebrowania.
PoniŜej będzie rozpatrywane przewodzenie ciepła przez płaskie Ŝebro
o wymiarach geometrycznych jak na rysunku 3. Dodatkowo przedstawiono
schematy wymiany ciepła i masy podczas eksploatacji wymiennika z kanałem oŜebrowanym. Zaznaczono obszary suchej wymiany ciepła, związane
z wystąpieniem kondensacji oraz naraŜone na powstawanie szronu. Granicą
określającą zjawisko kondensacji jest temperatura punktu rosy. Przy
temperaturze powierzchni wymiany ciepła poniŜej 0°C obserwowany jest
proces zamarzania.
105
RozwaŜania będą prowadzone przy następujących załoŜeniach [6]:
- temperatura Ŝebra u nasady ma stałą wartość równą temperaturze ścianki
Ŝebra tŜ,
- współczynnik przejmowania ciepła α od Ŝebra do ośrodka otaczającego
ma stałą wartość,
- przewodzenie ciepła w Ŝebrze jest jednowymiarowe w kierunku osi Z,
temperatura w dowolnym przekroju Ŝebra ma stałą wartość tz,
Rys. 3. Schematy wymiany ciepła i masy w kanale oŜebrowanym
Rozkład temperatur wewnątrz Ŝebra moŜna przedstawić za pomocą równania róŜniczkowego przekazywania ciepła:


d 2t ś
qo  σ 
= m 2  (tO − t P ) +  (xO − xP ) ;
2


dZ
c p  Le 


m=
2α
λś δ ś
(9)
Dla przedstawionego równania (9) określono warunki graniczne:
t ś = const = t SC
Z =0
;
tP = tś
tś > tr ∪ 0 < tś < tr
dt ś dZ = 0
;
Z = hś 2
;
t P = t SZR
tś < tr < 0
(10)
gdzie:
α – współczynnik przejmowania ciepła, W/(m2 K); cp – ciepło właściwe powietrza, kJ/(kg K);
δś – grubość Ŝebra, m; hś – wysokość Ŝebra, m; lś – długość Ŝebra, m; λś – współczynnik przewodności cieplnej Ŝebra, W/(m K); K; Le – liczba Lewisa; tO – temperatura strumienia przepływającego
powietrza, K; tP – temperatura powierzchni wymiany ciepła i masy, K; tr – temperatura punktu rosy
powietrza, K; tSC – temperatura ścianki wymiennika, K; tSZR – temperatura powierzchni szronu, K;
tś – temperatura Ŝebra w dowolnym przekroju, K; xO – zawartość wilgoci w strumieniu przepływającego powietrza, kg/kg; xP – lokalna zawartość wilgoci w powietrzu nasyconym warstwy przygranicznej nad powierzchnią szronu, kg/kg; qo – ciepło przejścia fazowego, kJ/kg; σ – bezwymiarowy współczynnik przełączający określający moŜliwość wystąpienia lub brak wymiany masy.
106
Równanie (9) pozwala na określenie temperatur oraz wyznaczenie stref
wymiany ciepła i masy na powierzchni Ŝebra. Przeprowadzone obliczenia
wykorzystane zostaną do określenia średniej temperatury ścianki
oŜebrowanej. Następnie uzyskane wartości wprowadzone do równań
(7) – (8) pozwolą na rozwiązanie opisanego zagadnienia.
3. Wyniki obliczeń
Na podstawie przeprowadzonych badań numerycznych wykazano wpływ
kondensacji na przebieg procesów wymiany ciepła i masy. Wykroplenie
cieczy moŜe wystąpić na ściankach wymiennika oraz doprowadzić
do częściowego zwilŜenia powierzchni oŜebrowanej. Powstają w ten sposób
obszary w których ma miejsce wydzielenie ciepła jawnego i utajonego.
Przeprowadzona analiza wymiany ciepła i masy dla Ŝeber płaskich
wykazała, iŜ podobnie jak w kanałach rekuperatora moŜna wyodrębnić
strefy suchej wymiany ciepła i naraŜone na kondensację oraz zamarzanie.
Granicą określającą obszary wymiany ciepła na powierzchni Ŝeber jest
temperatura punktu rosy. Jej wartość nie utrzymuje się na stałym poziomie,
poniewaŜ zjawisko kondensacji nagrzewa element Ŝebra.
0
temperatura termometru suchego, °C
24
22
20
18
16
14
12
10
8
6
4
2
0
-2
-4
-6
-8
-10
-12
-14
-16
-18
1
zawartość wilgoci, g/kg
2 3
4
5
6
7
8
X=0,0-1,0
X=0,0
X=0,2
X=0,4
X=0,6
X=0,8
X=1,0
Średnia
Rys. 4. Przebieg zmian stanu parametrów
powietrza w rekuperatorze na wykresie i-x
107
9
Na rysunku 4 przedstawiono
wyniki pracy wstępnej wersji
programu
skonstruowanego
na podstawie opisanego modelu. Wykres został utworzony
dla warunków zewnętrznych
obliczeniowych II strefy klimatycznej. Parametry powietrza
w pomieszczeniu załoŜono
tp=20°C, ϕp=60%. W przeprowadzonej symulacji na powierzchni przegród wymiennika
powstawały dodatkowo ciecz
oraz szron. Charakter przemian
stanu powietrza wywiewanego
w zaleŜności od powierzchni
elementarnej świadczy o istnieniu róŜnej temperatury powierzchni ścianek wymiennika.
4. Podsumowanie
- Przedstawiono i sformułowano fizyko-matematyczny model procesów
wymiany ciepła i masy w rekuperatorze.
- Opracowano numeryczną metodę obliczeń podstawowych parametrów
wymiany ciepła i masy w wymienniku krzyŜowym.
- Na podstawie przeprowadzonej analizy określono charakter procesów
wymiany ciepła i masy w kanałach rekuperatora.
- Dalsze obliczenia optymalizacyjne pozwolą na określenie zakresu zmian
roboczych parametrów wymiennika ciepła oraz umoŜliwią ocenę
moŜliwości jego racjonalnego wykorzystania w zaleŜności od warunków
klimatycznych.
Literatura
[1] Богословский В.Н., Поз М.Я., Теплофизика аппаратов утилизации
систем отопления, вентиляции и кондиционирования воздуха.
М., Стройиздат, 1983.
[2] Pawiłojć A., Targański W., Bonca Z., Odzysk ciepła w systemach wentylacyjnych i klimatyzacyjnych, Wyd. IPPU MASTA sp. z o.o. Gdańsk
1999.
[3] Rozporządzenie Ministra Infrastruktury z dnia 12 kwietnia 2002 r.
w sprawie warunków technicznych, jakim powinny odpowiadać budynki
i ich usytuowanie. Dz. U. nr 75, poz. 690.
[4] Rozporządzenie Ministra Infrastruktury z dnia 6 listopada 2008 r. zmieniające rozporządzenie w sprawie warunków technicznych, jakim powinny odpowiadać budynki i ich usytuowanie. Dz. U. nr 201, poz. 1238.
[5] Staniszewski D., Targański W., Odzysk ciepła w instalacjach chłodniczych i klimatyzacyjnych, Wyd. IPPU MASTA sp. z o.o. Gdańsk 2007.
[6] Werszko D., Wybrane zagadnienia z techniki cieplnej. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2003.
108
Wymiana ciepła w regeneracyjnych
obrotowych wymiennikach ciepła w systemach
wentylacji i klimatyzacji
Andrzej Jedlikowski, Maciej Skrzycki1
Streszczenie: W artykule opisano podstawy teoretyczne dotyczące
regeneracyjnych obrotowych wymienników ciepła w instalacjach
wentylacyjnych i klimatyzacyjnych. Przedstawiono charakterystyki
geometryczne wypełnienia wymiennika oraz modele fizyko-matematyczne
wymiany ciepła wraz z komentarzem.
Słowa kluczowe: wymiennik obrotowy, wymiana ciepła, model matematyczny
1. Wprowadzenie
Obrotowe wymienniki ciepła są stosowane w systemach wentylacji
i klimatyzacji w celu obniŜenia wymaganych mocy urządzeń grzewczych
oraz/lub chłodniczych. Zastosowanie urządzeń do odzyskiwania energii
z powietrza wywiewanego niesie ze sobą szereg korzyści, ogólną redukcja
kosztów eksploatacyjnych oraz zmniejszenie emisji do atmosfery substancji
szkodliwych, które powstają w trakcie procesów przetwarzania paliw
pierwotnych.
Jednym z typów urządzeń do
odzyskiwania energii w systemach
wentylacji i klimatyzacji są
urządzenia regeneracyjne. Zasada
działania polega na naprzemiennym
omywaniu tej samej powierzchni
wypełnienia wymiennika przez
strumień powietrza wywiewanego
i zewnętrznego. Strumień powietrza
wywiewanego przekazuje energię
Rys. 1. Przepływ powietrza przez
do
omywanej
powierzchni
wymiennik obrotowy
a
strumień
powietrza
zewnętrznego
odbiera
1
Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska, Politechnika
Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław,
[email protected], [email protected]
109
zakumulowaną w niej energię. Dodatkowo wymieniana jest takŜe masa.
Podstawowym elementem obrotowego wymiennika ciepła jest obracająca
się masa akumulacyjna (rotor) [1].
Rotor wymiennika zbudowany jest w formie bębna z ułoŜonymi
centrycznie taśmami ze stali nierdzewnej, aluminium, tworzyw sztucznych
lub innych materiałów. Dwie sąsiadujące ze sobą taśmy tworzą kanał, przez
który przepływa powietrze. Rozstaw taśm zaleŜy od dopuszczalnego oporu
na wymienniku, od wielkości spodziewanych zanieczyszczeń. Taśmy
ułoŜone są w taki sposób, aby moŜliwy był przepływ laminarny powietrza,
co ogranicza opory przepływu, ale jednocześnie zmniejsza przejmowanie
ciepła przez powietrze.
Do analizy pracy wymiennika przyjęto następujące załoŜenia [1]:
− wymiennik pracuje w warunkach quasi-ustalonych (tj. przy stałym
przepływie i temperaturach na wlocie dla obydwu strumieni powietrza),
− straty i zyski ciepła do i z otoczenia są pomijalnie małe,
− nie ma Ŝadnych źródeł energii lub upustów wewnątrz dla obracającej się
masy akumulacyjnej oraz strumieni powietrza,
− prędkości i temperatury strumieni powietrza na wlocie są jednolite
w całym przekroju przepływu powietrza i są stałe w czasie,
− współczynniki
przejmowania
ciepła
pomiędzy wypełnieniem
wymiennika a strumieniami powietrza są stałe w całym wymienniku,
− temperatura w całej grubości wypełnienia jest stała a opór cieplny jest
traktowany, jako zerowy dla przewodnictwa poprzecznego wypełnienia,
− brak wycieków oraz obejścia dla obydwu strumieni powietrza,
− wymiana ciepła na drodze promieniowania jest niewielka w porównaniu
do konwekcji ciepła,
− czas przebywania powietrza w wypełnieniu jest relatywnie mały do czasu
przepływu,
2. Geometryczne właściwości wypełnienia wymiennika
Wypełnienie wymiennika (rotor) jest symetryczne i zrównowaŜone,
czołowy przekrój poprzeczny, obszar swobodnego przepływu powietrza
(ciepła oraz masy) po obu stronach dla przepływu powietrza, zarówno
wywiewanego, jak i zewnętrznego jest taki sam [3].
Czołowa powierzchnia rotora:
2
2
 α  πd rot  πd rot


Aw = 
=
; m2


8
 100  4 
Przekrój poprzeczny przepływu powietrza przez rotor:
110
(1)
2
2
 α   πd rot  ϕπd rot


(
)
ϕ
Ag = 
=
; m2
 

8
 100   4 
(2)
Przekrój poprzeczny rotora:
2
 πd 2  (1 − ϕ )πd rot
 α 
Ag = 
; m2
(1 − ϕ ) rot  =
8
 100 
 4 
(3)
gdzie:
drot – średnica rotora [mm], φ – porowatość, α – podział rotora
(ok. 50%)
Porowatość wypełnienia (rotora) jest stosunkiem strumienia objętości
powietrza Vp do całkowitej objętości (strumień objętości powietrza
Vp + objętość wypełnienia Vrot):
ϕ=
Vp
Vcała
=
Vg
V p + Vrot
lub
Vrot
= 1−ϕ
Vrot + V p
(4)
Porowatość wypełnienia wskazuje, ile jest moŜliwej powierzchni
przestrzeni As do wymiany ciepła oraz masy. Gęstość obszaru lub
powierzchnia właściwa definiowana, jako As / Vcałk i jest uŜywana do
określania zwartości rotora:
πd f Lrot
As
4
=
=
; m −1
2
Vrot  πd f 
df

 Lrot
 4 


(5)
gdzie:
df – średnica nawinięcia taśmy wypełnienia rotora [mm],
Lw – szerokość rotora wymiennika [mm]
MoŜliwa przestrzeń do wymiany ciepła i masy w rotorze wynosi:
As =
(1 − ϕ )πd rot2 Lrot
2d f
111
;
m2
(6)
3. Model matematyczno-fizyczny wymiany ciepła
Ruch energii wewnątrz wypełnienia wymiennika odbywać się moŜe
w trzech kierunkach: wzdłuŜnie,
poprzecznie oraz zgodnie z ruchem
rotacyjnym wypełnienia. Schematycznie
przepływ energii przedstawiono na
rysunku 2.
Zgodnie z rys. 2 taka sama ilość
ciepła wpływa do elementarnej cząstki
wypełnienia wymiennika i taka sama
z niej wypływa, spełniając zasadę bilansu
cieplnego. Część ciepła przekazywana
jest do/od strumienia powietrza, część Rys. 2. Przepływ energii przez
strukturę wymiennika
przenoszona jest do/od wypełnienia
a część ciepła transportowana jest
wewnątrz wypełnienia, zgodnie z rys 2. Ilość transportowanego ciepła
zaleŜy od właściwości przepływającego gazu. PoniewaŜ dwie wartości
temperatur są nieznane, naleŜy je wyznaczyć dla kaŜdego z obliczeniowych
punktów: temperatury wypełnienia wymiennika oraz temperatury powietrza
za wymiennikiem. Zagadnienie to moŜna wyznaczyć iteracyjnie. Model
matematyczny opisujący zjawisko wymiany ciepła w regeneracyjnym
obrotowym wymienniku ciepła oparty jest na bilansie energetycznym dla
elementarnej cząstki wypełnienia wymiennika oraz dla przepływu strumieni
powietrza. W przypadku znajomości temperatur, zarówno na wlocie do
wymiennika, jak i wylocie korzysta się metody temperatur logarytmicznych.
Temperatury te moŜna równieŜ wyznaczyć na podstawie bilansu
energetycznego. W przypadku, gdy temperatury te pozostają niewiadomymi
metoda temperatur logarytmicznych
wymaga
zastosowania
procedur
iteracyjnych. W celu wyznaczenia
efektywności wymienników ciepła,
pojawia się konieczność wprowadzenia
pojęcia maksymalnego strumienia
być
cieplnego,
który
moŜe
wymieniony, tj. o nieskończonej
długości. W przeciwnym przypadku
naleŜy posiłkować się metodą liczb
jednostek przenikania ciepła, tzw.
metodą NTU (ang. NTU –
Rys. 3. Układ współrzędnych i nomenklatura dla
Number of Transfer Units).
regeneracyjnego obrotowego wymiennika ciepła
112
Rys. 4. Przekazywanie energii w kanalikach wypełnienia wymiennika obrotowego
Zmienne bezwymiarowe:
X* =
τ w* =
x
L
(7)
τw
τ z* =
Pw
τz
(8)
Pz
gdzie:
x – odnosi się do kierunku przepływu strumieni powietrza,
L – szerokość wypełnienia wymiennika [mm], τw, τz – czas przebywania
odpowiednio strumienia powietrza wywiewanego oraz zewnętrznego [s],
Pw, Pz – czas przepływu odpowiednio strumienia powietrza wywiewanego
oraz zewnętrznego [s].
Bezwymiarowe temperatury dla rozpatrywanego układu wymiennika
obrotowego:
t w* =
t w − t z , wl
t w, wl − t z , wl
t z* =
t z − t z , wl
t w, wl − t z , wl
t sc* =
t sc − t w, wl
t sc , wl − t w, wl
(9)
gdzie:
tw – temperatura powietrza wywiewanego [°C], tz,wl – temperatura
powietrza zewnętrznego na wlocie do wymiennika [°C], tw,wl – temperatura
powietrza wywiewanego na wlocie do wymiennika [°C], tsc – temperatura
powierzchni wypełnienia [°C],
Parametry bezwymiarowe zdefiniowano, jako:
NTU w =
(UA)w
Cw
NTU z =
(UA) z
Cz
(10)
gdzie wartości Cw oraz Cz oznaczają pojemność cieplną, odpowiednio dla
strumienia powietrza wywiewanego oraz zewnętrznego. Wielkości te
zdefiniowano, jako:
113
Cw = (mC p )w = (ρVC p )w
C z = (mC p )z = (ρVC p )z
C r*, w =
C r ,w
Cr*, z =
Cw
(11)
Cr , z
(12)
Cz
Po uwzględnieniu temperatur poszczególnych strumieni powietrza
oraz ścianek wymiennika, zaleŜności zredukowano do następujących
postaci:
∂t w*
∂X
∂t sc*
*
∂τ
*
w
(
= NTU w t sc* − t w*
=
NTU w
C
*
r ,w
(t
*
w
)
(13)
)
(14)
− t sc*
∂t z*
= NTU z t sc* − t z*
∂X *
∂t sc*
NTU z * *
=
t z − t sc
∂τ z*
C r*, z
(
)
(
(15)
)
(16)
Warunki
brzegowe
oraz
okresowe
warunki
równowagi
z uwzględnieniem bezwymiarowych temperatur układu, parametrów
bezwymiarowych oraz pojemności cieplnych strumieni powietrza:
( ) dla 0 ≤ τ ≤ 1
(1, τ ) = 0 dla 0 ≤ τ ≤ 1
(X , τ = 1) = t (X , τ = 0)
(X , τ = 0) = t (X , τ = 1)
t w* 0, τ w* = 1
*
w
t z*
*
z
*
t
*
sc , w
t
*
sc , w
*
z
*
*
*
w
*
sc , z
*
w
*
sc , z
*
(17)
(18)
*
z
dla 0 ≤ X ≤ 1
(19)
*
z
dla 0 ≤ X ≤ 1
(20)
*
*
Temperatury strumieni powietrza oraz wypełnienia są funkcjami
następujących składowych:
(
t w* , t z* , t sc* = φ X * , τ w* , τ z* , NTU w , NTU z , C r*, w , C r*, z
)
(21)
Temperatury strumieni powietrza na wylocie z wymiennika, zarówno
wywiewanego, jak i zewnętrznego, są funkcjami następujących składowych:
(
t w* , wyl , t z*, wyl = φ NTU w , NTU z , C r*, w , C r*, z
)
(22)
Temperatury powietrza na wylocie z wymiennika są wyraŜone przez
efektywność wymiennika, określaną jako zaleŜność ε=q/qmax.
Wykorzystując temperatury wylotowe z wymiennika moŜna zdefiniować
wielkość strumienia ciepła:
114
q = C w (t w, wl − t w, wyl ) = C z (t z , wyl − t z , wl )
(23)
Aby móc ustalić wartość qmax, naleŜy zdefiniować pojęcie
wymiennika idealnego, tzn. takiego, który ma nieskończoną powierzchnię,
przewodzenie wzdłuŜne wypełnienia wynosi zero oraz nie występuje
jakiekolwiek przenikanie jednego strumienia powietrza do drugiego
a temperatury wlotowe są jednakowe, jak w rzeczywistym regeneratorze.
Właściwości powietrza są stałe dla obydwu wymienników. W związku
z powyŜszym, wartość qmax odniesiona do wymiennika idealnego wyniesie:
q max = C min (t w, wl − t z , wl )
(24)
w którym wartość pojemności cieplnej Cmin odnosi się do mniejszej ze
strumieni powietrza o wartości Cw lub Cz.
ε=
q
q max
=
C w (t w, wl − t w, wyl )
C min (t w, wl − t z , wl )
=
C z (t z , wyl − t z , wl )
C min (t w, wl − t z , wl )
(25)
ε = φ (NTU w , NTU z , Cr*, w , Cr*, z )
(26)
W związku z tym, iŜ współczynniki przejmowania ciepła lub
powierzchnie wymiany ciepła od strony powietrza wywiewanego lub
zewnętrznego mogą się róŜnić pomiędzy sobą, moŜna to przedstawić, jako
[4]:




1
1


NTU o =
1 
C min  1
 (UA) + (UA) 
w
z 

(27)
Gdy powierzchnie wymiany ciepła są takie same dla współczynników
przejmowania ciepła od strony powietrza wywiewanego oraz zewnętrznego
forma poprzedniej zaleŜności będzie następująca:
NTU o =
(UA) z
2C min
=
C min
C max
C
Cr* = r
Cmin
NTU
2
(28)
C* =
(29)
(30)
(
ε = φ NTU wyl , C * , Cr* , (UA)*
115
)
(31)
4. Wnioski
−
−
przedstawiono charakterystyki geometryczne dotyczące wypełnienia
wymiennika obrotowego (rotora) oraz uzasadniono model fizyko –
matematyczny procesów wymiany ciepła i masy w wymienniku
obrotowym,
zaprezentowane równania wymiany ciepła umoŜliwią rozwinięcie
modeli wymiany ciepła oraz masy w regeneracyjnych obrotowych
wymiennikach ciepła, co umoŜliwi opracowanie zaleŜności pracy
urządzenia od liczby obrotów oraz od warunków obliczeniowych,
Literatura
[1] Drobnič B., Oman J., Tuma O., A numerical model for the analyses of
heat transfer and leakages in a rotary air preheater, International Journal of
Heat and Mass Transfer 49/2006
[2] Shah Ramesh K., Sekulic Dušan P., Fundamentals of heat exchanger
design, John Wiley & Sons Inc. New Jersey 2003
[3] Al-Ghamdi A. S., Analysis of air-to-air rotary energy wheels, Russ
College of Engineering and Technology of Ohio University, Ohio 2006
[4] Simonson J. C., Heat and moisture transfer in energy wheels,
Department of Mechanical Engineering, University of Saskatchewan,
Saskatoon 1998
116
Kryterium doboru własności
wytrzymałościowych połączeń profili
cienkościennych obciąŜonych udarowo
Paweł Kaczyński1
Streszczenie: W pracy skupiono się na analizie moŜliwości zastosowania
połączeń przetłaczanych (ang. clinching) do łączenia profili cienkościennych,
rozpatrując przy tym aspekty wytrzymałości połączenia oraz jego wpływ na
energochłonność konstrukcji. Pod rozwagę poddano moŜliwość utworzenia
modelu zastępczego połączenia przetłaczanego, którego wykorzystanie na
etapie budowy modelu dyskretnego gwarantowałoby jego uproszczenie
i skrócenie czasu analizy numerycznej, zachowując przy tym zgodność
wyników z rzeczywistym doświadczeniem.
Słowa kluczowe: MES, profile cienkościenne, obciąŜenia udarowe
1. Wprowadzenie
Elementy cienkościenne są najczęściej stosowanymi elementami
konstrukcyjnymi w ustrojach nośnych pojazdów samochodowych, ale takŜe
w innych dziedzinach przemysłu. Zgrzewanie punktowe jest, z powodu jego
wieloletniego zastosowania i ciągłego rozwoju, nadal najszerzej
rozpowszechnioną technologią łączenia cienkościennych elementów z blach
i kształtowników. Technologia ta, mimo wielu zalet takich jak łatwość
automatyzacji, stwarza wiele trudności technologicznych. NajwaŜniejsze
spośród nich to:
- problem przy łączeniu materiałów z pokryciami ochronnymi
metalicznymi oraz z powłokami niemetalicznymi takimi jak pokrycia
ceramiczne wykazujące duŜą oporność elektryczną,
- stosowanie materiałów róŜnoimiennych na elementy konstrukcyjne,
- oddziaływanie termiczne na łączone materiały, powodujące rozrost
ziaren w strefie wpływu ciepła i pogorszenie własności mechanicznych.
Jest ono szczególnie niekorzystne przy nowoczesnych stalach
o wysokiej granicy plastyczności typu HSS (High Strength Steel) oraz
AHSS (Advanced High Strength Steel).
1
Politechnika Wrocławska, WybrzeŜe Wyspiańskiego 27, [email protected]
117
Istnieje wiele innych przesłanek za wykorzystaniem metod łączenia
innych niŜ zgrzewanie. W przemyśle samochodowym najwaŜniejszą
spośród nich jest stale rosnący udział stali o podwyŜszonej wytrzymałości
i stali superwytrzymałych (rys. 1).
Rys. 1. Stale stosowane w przemyśle samochodowym
Udział tego rodzaju materiałów w budowie ustrojów nośnych
pojazdów wynosił w Polsce w 1991 roku około 10%, w roku 1998 wzrósł
do 30%, zaś w 2002 roku osiągnął poziom 65% [4].
Ich zastosowanie pozwala na redukcję grubości stosowanych profili
przy
jednoczesnym
zachowaniu
dotychczasowych
własności
wytrzymałościowych. Zabieg ten umoŜliwia redukcję masy własnej
pojazdu, co pozwala na zmniejszenie zuŜycia paliwa.
2. Łączenie za pomocą przetłaczania
Z powodu ograniczeń dotychczas stosowanych połączeń
technologowie zmuszeni są do poszukiwania alternatywnych metod łączenia
materiałów jak np. przetłaczanie (ang. clinching). Metoda ta polega
na mechanicznym odkształceniu dwóch blach przy uŜyciu stempla i matrycy
jak pokazano na rys 2.
Rys. 2. Proces tworzenia połączeń przetłaczanych
Mimo wielu niewątpliwych zalet jak niskie koszty narzędzi,
stosunkowo niskie siły łączenia, korzystny wygląd połączenia i moŜliwość
118
automatyzacji procesu oraz braku wad połączeń zgrzewanych (pogarszanie
własności mechanicznych w strefie wpływu ciepła), technika ta nie jest
dokładnie zbadana. Zgrzeiny punktowe nie wykazują, podczas badań
elementów energochłonnych na młocie spadowym, skłonności
do niszczenia, a profile połączone za pomocą tej metody nie ulegają
wyboczeniu. Tendencję tą potwierdził w pracy [2] dr Kopczyński.
W przypadku połączeń klinczowych naleŜy rozwaŜyć moŜliwość
rozdzielenia złącza i zastanowić się nad przyczynami tego zjawiska.
W literaturze zagranicznej istnieje szereg prac poświęconych temu
zagadnieniu [1, 5]. W pracy [3] dr Polak doszedł do wniosku, Ŝe główną
przyczyną rozwarstwiania się klinczowanych elementów cienkościennych
moŜe być niewystarczająca wytrzymałość złącz.
4. Wykorzystanie metod numerycznych
Ze względu na czasochłonność badań połączeń naleŜy rozwaŜyć
wykorzystanie metod numerycznych do przeprowadzenia wirtualnych
badań na modelach matematycznych. Jak wcześniej wspomniano, materiał
połączony za pomocą połączeń klinczowych moŜe podczas dynamicznego
zgniatania ulec rozerwaniu. NaleŜy opracować model połączenia,
uwzględniający to zjawisko. PoniewaŜ złącze moŜe zostać zniszczone
na dwa sposoby (rys. 2), tj. przez ścięcie i rozłączenie model matematyczny
połączenia powinien umoŜliwić wprowadzenie sił w dwóch róŜnych
kierunkach powodujących jego niszczenie. Opracowany model pozwoli
na skrócenie czasu modelowania i obliczeń oraz wykonanie wielu
crash-testów. Wynikiem obliczeń będzie uzyskanie minimalnych wartości
sił jakie musi przenieść połączenie, aby cała próbka podczas obciąŜenia
udarowego symulującego zderzenie samochodu z przeszkodą zgniotła się
w sposób poprawny, bez globalnego wyboczenia.
a)
b)
Rys. 2. Testy złącz przetłaczanych; a) test krzyŜowy b) test na ścinanie
Uniwersalność opisanego algorytmu polega na tym, iŜ do wstępnych
obliczeń nie jest potrzebna wiedza o technologii wykonania połączenia
(połączenia zgrzewane, klejone przetłaczane narzędziami okrągłymi
i prostokątnymi). Dobranie technologii wykonania złącza jest kolejnym
119
etapem. Polega on na wyborze kształtu złącza, średnicy stempla i matrycy
oraz głębokości przetłoczenia. Kryterium doboru tych parametrów jest
przeniesienie przez złącze obliczonych uprzednio sił.
5. Wnioski
Utworzony model matematyczny ma za zadanie uprościć
modelowanie połączeń profili cienkościennych. Pozwoli on ponadto
na skrócenie czasu potrzebnego na wykonanie analizy numerycznej,
a w konsekwencji na przeprowadzenie znacznie większej ilości
eksperymentów niŜ w przypadku tradycyjnego eksperymentu. Wyniki
uzyskane na drodze rzeczywistego eksperymentu i analizy numerycznej
powinny być ze sobą skonfrontowane w celu wykluczenia błędu grubego
w modelu matematycznym złącza. W przypadku uzyskania zgodności,
świadczącej
o poprawnie utworzonym modelu złącza, moŜna przystąpić do analizy
uzyskanych wyników.
Opracowany model pozwoli na wielokrotnie szybsze wykonywanie
analizy bez konieczności przeprowadzania rzeczywistego eksperymentu
i wnioskowanie na podstawie jej wyników.
Literatura
[1] M. Carboni, S. Beretta, M. Monno, Fatigue behaviour of tensile-shear
loaded clinched joints, Engineering Fracture Mechanics Volume 73
Issue 2 January 2006 p. 178-190
[2] A. Kopczyński, Model pochłaniania energii przez profile cienkościenne
połączone zgrzeinami punktowymi, Politechnika Wrocławska, Wydział
Mechaniczny, Instytut Konstrukcji i Eksploatacji Maszyn, praca
doktorska
[3] S. Polak, Zastosowanie metod przetłaczania do łączenia profili
cienkościennych absorbujących energię podczas zderzenia, Politechnika
Wrocławska, Wydział Mechanicznych, Instytut Technologii Maszyn
i Automatyzacji, praca doktorska
[4] A. Ulewski, Analiza doboru parametrów geometrycznych I technologii
połączenia cienkościennych profile podłuŜnic w samochodach
osobowych, Politechnika Wrocławska, Instytut Konstrukcji
i Eksploatacji Maszyn, Wrocław 2006
[5] J. P. Varis, The suitability of clinching as a joining method for
high-strength structural steel, Journal of Materials Processing
Technology, Volume 132 Issue 1-3 January 2003 p. 242-249
120
MoŜliwość zastosowania ultrafiltracji do separacji
barwników organicznych z roztworów wodnych
Joanna Kawiecka-Skowron1, Katarzyna Majewska-Nowak2
Streszczenie: Zbadane zostały separacyjne właściwości ceramicznych membran
ultrafiltracyjnych w stosunku do barwników organicznych o róŜnych masach
cząsteczkowych. Określono wpływ wartości ciśnienia transmembranowego
na skuteczność usuwania barwnika oraz na wielkość uzyskiwanego strumienia
permeatu. Najlepsze efekty oczyszczania uzyskano dla barwnika o największej masie
cząsteczkowej stosując najniŜsze ciśnienie transmembranowe..
Słowa kluczowe: barwniki organiczne, ultrafiltracja, membrany ceramiczne
1. Wprowadzenie
Barwniki są to związki chemiczne posiadające zdolność intensywnej absorpcji
promieniowania elektromagnetycznego w obszarze widzialnym, bliskiego
nadfioletu oraz bliskiej podczerwieni. Znajdują one zastosowanie do nadawania tej
własności innym substancjom. Wykorzystuje się je do barwienia między innymi
włókien naturalnych, włókien chemicznych, tworzyw sztucznych, Ŝywności,
papieru, skóry [2]. Zabarwienie nadane materiałom jest odporne na działanie
czynników zewnętrznych, takich jak podwyŜszona temperatura, promieniowanie
słoneczne, substancje chemiczne.
Ścieki zawierające barwniki są wytwarzane przez róŜne gałęzie przemysłu
(m.in. farbiarski, poligraficzny, włókienniczy, papierniczy, spoŜywczy,
fotograficzny). Odprowadzanie ich od odbiornika powoduje zmianę barwy wody,
co pogarsza nie tylko jego cechy wizualne, ale takŜe niekorzystnie wpływa
na przepuszczalność światła, a w efekcie na zdolność samooczyszczania się wód
odbiornika. Barwniki naleŜą do substancji trudnobiodegradowalnych, wpływają one
bardzo niekorzystnie na florę i faunę odbiornika [4]. Badania wykazały, iŜ barwniki
toksycznie oddziaływają na bakterie ściekowe. Poza tym niektóre barwniki
powodują śnięcie ryb [5] a barwniki anilinowe, nawet w małych stęŜeniach,
akumulują się w organizmach ryb i mogą zabarwiać ich mięso [4].
1
Instytut InŜynierii Ochrony Środowiska Politechniki Wrocławskiej,
[email protected]
2
Instytut InŜynierii Ochrony Środowiska Politechniki Wrocławskiej,
[email protected]
121
Do konwencjonalnych metod oczyszczania ścieków zawierających barwniki
naleŜą: chemiczne strącanie, utlenianie, adsorpcja na węglu aktywnym oraz metody
biologiczne. Procesy te stosowane do oczyszczania ścieków barwnych posiadają
wiele wad. Jest to spowodowane przede wszystkim przez zróŜnicowanie składu tych
ścieków, które prócz barwników mogą zawierać sole, kwasy, zasady, substancje
powierzchniowo czynne, środki klejące czy środki zwilŜające [6]. Obecność tych
substancji znacznie obniŜa skuteczność konwencjonalnych metod oczyszczania
ścieków, a takŜe zwiększa konieczne dawki reagentów oraz wymagane czasy
kontaktu.
Z powodu licznych ograniczeń konwencjonalnych metod oczyszczania
ścieków pochodzących z przemysłu barwników, coraz więcej uwagi poświęca się
metodom membranowym. Procesy te polegają na separacji określonych składników
dzięki zastosowaniu bariery w postaci membrany, przez którą transport zachodzi
przy zastosowaniu odpowiedniej siły napędowej (róŜnica stęŜeń, ciśnień,
potencjałów lub temperatury po obu stronach membrany). Do oczyszczania ścieków
barwnych wykorzystywane są najczęściej procesy, których siłę napędową stanowi
róŜnica ciśnień po obu stronach membrany.
Badania [1, 3, 6] nad moŜliwością zastosowania procesu odwróconej osmozy
do usuwania barwników wykazują, iŜ proces ten jest bardzo skuteczny w stosunku
do wszystkich barwników. ZauwaŜana jest duŜa korelacja pomiędzy stosowanym
ciśnieniem transmembranowym oraz skutecznością procesu. W związku z duŜym
ciśnieniem wymaganym w procesie odwróconej osmozy, bardziej atrakcyjnym
procesem wydaje się być proces nanofitracji, który wymaga nieco mniejszej róŜnicy
ciśnień po obu stronach membrany. Przeprowadzone badania [8, 9] wykazują,
iŜ równieŜ nanofiltracja moŜe być z duŜą skutecznością stosowana do usuwania
substancji barwnych ze ścieków.
Wysokociśnieniowe procesy membranowe są niewątpliwie bardzo atrakcyjną
metodą separacji barwników z roztworów wodnych. Jednak wymagane w nich
wysokie wartości ciśnienia transmembranowego, powodują wysokie koszty energii.
W związku z tym celowe jest podjęcie badań nad moŜliwością zastosowania
równieŜ niskociśnieniowych procesów membranowych do barwników z roztworów
wodnych.
2. Metodyka i materiały badawcze
W badaniach wykorzystano membranę ceramiczną firmy CeRAM INSIDE
(Tami) o granicznej rozdzielczości (cut-off) 15 kDa. Do badań uŜyto siedmiu
barwników o róŜnej masie cząsteczkowej. StęŜenie barwników w roztworze
modelowym wynosiło 100g/m3. Właściwości barwników przedstawiono w tabeli 1.
122
Nazwa barwnika
OranŜ metylowy
Czerwień indygo
Czerń amidowa
śółcień tytanowa
Zieleń
bezpośrednia
Błękit helionowy
Czerń
bezpośrednia
λmax
nm
465
610
618
399
370
Masa cząsteczkowa
Da
327
466
616
695
878
C14H14N3O3SNa
C16H8N2Na2O8S2
C22H14N6Na2O9S2
C28H19N5Na2O6S4
C36H32N8Na2O12S2
577
480
980
1060
C42H21N7Na4O13S4
C34H25N9O7S2Na2
Wzór sumaryczny
Tabela 1 Charakterystyka barwników
StęŜenie barwników w badanych roztworach określano na podstawie pomiaru
absorbancji przy danej, określonej dla kaŜdego barwnika, długości fali (λmax)
odpowiadającej maksymalnej absorbancji. W oznaczeniach wykorzystywano
spektrofotometr UVMINI-1240 firmy Shimadzu.
3. Przebieg badań
Badania właściwości transportowych i separacyjnych membran prowadzono
na instalacji ProFlux M12. Wykorzystano membranę ceramiczną jednokanałową
o długości 0,25 m i powierzchni 0,0042 m2. Średnica wewnętrzna kanału wynosiła
6 mm natomiast średnica zewnętrzna 10 mm. W celu utrzymania stałego stęŜenia
roztworu zasilającego zastosowano recyrkulację permeatu do zbiornika zasilającego.
Proces ultrafiltracji przeprowadzono w zakresie ciśnień transmembranowych
0,03-0,09 MPa. KaŜda seria badań była poprzedzona wpracowaniem membrany.
Właściwości transportowe oraz separacyjne membrany badano w stosunku
do roztworów barwników.
Do oceny właściwości transportowych oraz separacyjnych membrany
wykorzystywano następujące parametry:
- strumień objętościowy permeatu (Jv, m3/m2d), określony zaleŜnością
Jv =
V
A⋅t
w której:
- V – objętość permeatu [m3],
- A – powierzchnia membrany [m2],
- t – czas pomiaru [d].
123
(1)
- skuteczność usuwania barwnika (R, %),określona zaleŜnością
R=
C 0 − C1
⋅ 100%
C0
(2)
w której:
- C0 – stęŜenie barwnika w roztworze zasilającym [g/m3],
- C1 – stęŜenie barwnika w permeacie [g/m3].
4. Dyskusja wyników
J, m 3/m 2d
Wyniki otrzymane podczas badań ultrafiltracji roztworów barwników
organicznych przedstawiono na rysunku 1.
0,5
0,45
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
ORANś METYLOWY
CZERWIEŃ INDYGO
CZERŃ AMIDOWA
śÓŁCIEŃ TYTANOWA
ZIELEŃ BEZPOŚREDNIA
BŁĘKIT HELIONOWY
CZERŃ BEZPOŚREDNIA
0,03
0,06
0,09
CIŚNIENIE TRANSMEMBRANOWE,
MPa
100
R, %
80
ORANś METYLOWY
60
CZERWIEŃ INDYGO
40
CZERŃ AMIDOWA
śÓŁCIEŃ TYTANOWA
20
ZIELEŃ BEZPOŚREDNIA
0
BŁĘKIT HELIONOWY
0,03
0,06
0,09
CZERŃ BEZPOŚREDNIA
CIŚNIENIE TRANSMEMBRANOWE,
MPa
Rysunek 1. Wpływ wysokości ciśnienia transmembranowego na: a) skuteczność usuwania barwnika;
b) strumień objętościowy permeatu
124
Najlepsze właściwości separacyjne membrany zaobserwowano stosując
najmniejszą róŜnicę ciśnień po obu stronach membrany, przy czym wpływ masy
barwnika na skuteczność jego usuwania jest znaczny. Najlepiej usuwane były
barwniki o największej masie cząsteczkowej, których cząsteczki są duŜe, w związku
z czym mniejsza ich ilość przedostaje się przez pory w membranie.
Z największą skutecznością przy kaŜdym ciśnieniu transmembranowym
separowana była czerń bezpośrednia. Obserwowano niewielkie wahania
skuteczności separacji tego barwnika, która w kaŜdym przypadku wynosiła około
99%. Natomiast najmniejszą skuteczność procesu obserwowano w stosunku
do roztworu oranŜu metylowego. W przypadku tego barwnika róŜnice
w skuteczności procesu w zaleŜności od ciśnienia transmembranowego były
znaczne i wynosiły nawet 10%.
Największy strumień filtratu otrzymywano stosując najwyŜsze ciśnienie
transmembranowe, poniewaŜ większa róŜnica ciśnień wymusza ruch większej ilości
cieczy przez membranę. Największą ilość permeatu otrzymano w procesie
oczyszczania roztworu oranŜu metylowego, poniewaŜ najmniejszy barwnik
przechodzi przez pory membrany z największą łatwością.
Bardzo dobre efekty transportowe i separacyjne membrany obserwowano
podczas oczyszczania roztworu Ŝółcieni tytanowej. Skuteczność separacji tego
barwnika wynosiła w granicach 99%, a ilość permeatu przekraczała 0,4 m3/m2d.
5. Podsumowanie
Skuteczność usuwania barwnika w procesie ultrafiltracji zaleŜy w duŜym
stopniu
od jego masy cząsteczkowej. Barwniki o większej masie usuwane są ze znacznie
większą skutecznością.
Właściwości transportowe membrany takŜe w duŜym stopniu zaleŜą od masy
cząsteczkowej barwnika. Barwniki o mniejszej masie łatwiej przechodzą przez
membranę dając większe ilości permeatu o gorszej jakości.
Barwniki o większych masach cząsteczkowych (takie jak czerń bezpośrednia
i Ŝółcień tytanowa) zostały usunięte w niemal 100% niezaleŜnie od ciśnienia
transmembranowego.
Literatura
[1] Al-Baski Nader, Removal of methyl orange dye and Na2SO4 salt from syntetic
waste water using reverse osmosis, Chemical Engineering and Processing 43
(2004) 1561-1567,
[2] Gronowska J., Podstawy fizykochemii barwników, Wydawnictwo Uniwersytetu
Mikołaja Kopernika, Toruń 1997,
125
[3] Kim T., Park C., Kim S., Water recycling from desalination and purification
process of reactive dye manufacturing industry by combined membrane
filtration, Journal of Cleaner Production 13 (2005) 779-786,
[4] Koziorowski B., Oczyszczanie ścieków przemysłowych, Wydawnictwo
Naukowo-Techniczne, Warszawa 1975,
[5] Meinck F., Stooff H., Kohlschütter H. Ścieki przemysłowe, Arkady, Warszawa
1975,
[6] Sostar-Turk S., Simonic M., Petrinic I., Wastewater treatement after reactive
printing, Dyes and Pigments 64 (2005) 147-152,
[7] Sójka-Ledakowicz J., Gajdzicki B., Mochnowski W., śyłta R., Lewartowska J.,
Grzywacz K., Strzelecka-Jastrząb E.: „Charakterystyka technologiczna
przemysłu włókienniczego w Unii Europejskiej”, Ministerstwo Środowiska,
Warszawa 2003,
[8] Sungpet A., Jiraratananon R., Luangsowan P., Treatment of effluents from
textile-rinsing operations by thermally stable nanofiltration membranes,
Desalination 160 (2004)75-81,
[9] Van der Bruggen B., Daems B., Wilms D., Vandecasteele C., Mechanism of
retention and flux decline for the nanofiltration of dye baths from the textile
industry, Separation and Purification Technology 22-23 (2001) 519-528.
126
Usuwanie jonów bromianowych za pomocą
dializy Donnana
Sylwia Kliber1, Jacek Wiśniewski2
Streszczenie: Zbadano moŜliwość zastosowania procesu dializy Donnana
z membraną anionowymienną Selemion AMV do usuwania jonów
bromianowych z roztworów wodnych. Stwierdzono, Ŝe wraz ze wzrostem
stęŜenia soli w roztworze odbierającym wzrasta skuteczność usuwania
bromianów oraz anionów towarzyszących (NO3-, HCO3-).
Słowa kluczowe: wymiana anionów, membrana, bromiany
1. Wstęp
Ozon jest silnym utleniaczem i dezynfektantem stosowanym
w procesach oczyszczania wody. Podczas procesu ozonowania następuje
inaktywacja mikroorganizmów patogennych, utlenianie związków
powodujących barwę, smak i zapach oraz utlenianie syntetycznych
związków organicznych [8]. Ozon pozwala ograniczyć powstawanie
związków halogenowych oraz powoduje inaktywację mikroorganizmów np.
oocysty Cryptosporidium parvum, odpornych na działanie powszechnych
dezynfektantów (chlor, dwutlenek chloru) [4, 5]. Jednak ozon powoduje
takŜe powstawanie ubocznych produktów utleniania. Najbardziej
charakterystycznym nieorganicznym produktem ozonowania są jony
bromianowe (BrO3-) mające charakter kancerogenny i mutagenny.
Bromiany powstają podczas ozonowania wody zawierającej w swym
składzie jony bromkowe [2]. Ze względu na szkodliwe działanie
bromianów, ich stęŜenie jest regulowane prawnie. Dyrektywa Rady Unii
Europejskiej określiła stęŜenie dopuszczalne dla bromianów na poziomie 10
µg/dm3 [3].
Spośród kilku metod usuwania jonów bromianowych z wody, duŜo
uwagi poświęca się adsorpcji na granulowanym węglu aktywnym [1, 7].
W procesie tym, grupy funkcyjne znajdujące się na powierzchni
granulowanego węgla aktywnego powodują redukcję bromianów (BrO3-),
przez jony podbrominowe (OBr-), do bromków (Br-). JednakŜe redukcja
1
Politechnika Wrocławska, Instytut InŜynierii Ochrony Środowiska, WybrzeŜe
Wyspiańskiego 27, 50-370 Wrocław, [email protected]
2
Politechnika Wrocławska, Instytut InŜynierii Ochrony Środowiska, WybrzeŜe
Wyspiańskiego 27, 50-370 Wrocław, [email protected]
127
bromianów (wynosząca początkowo ok. 60%) po około 2 miesiącach ulega
obniŜeniu, natomiast po 3 miesiącach – całkowicie zanika. Efekt ten jest
spowodowany stopniowym przejściem granulowanego węgla aktywnego
w biologicznie aktywny węgiel, który z kolei jest pozbawiony grup
funkcyjnych. Oznacza to, Ŝe biologicznie aktywny węgiel nie posiada
predyspozycji do redukcji bromianów.
Zbadano takŜe moŜliwość zastosowania innych procesów do usuwania
bromianów z wody. Wykorzystanie promieniowania UV pozwoliło
osiągnąć skuteczność usunięcia bromianów na poziomie 19% przy bardzo
wysokiej dawce UV (ponad 10-krotnie większej niŜ dawka UV stosowana
podczas dezynfekcji wody) [11]. Z kolei, w procesie koagulacji siarczanem
glinu uzyskano 26% usunięcie bromianów z wody [12]. Bardzo dobre
wyniki otrzymano przy zastosowaniu procesów membranowych [6].
Odwrócona osmoza pozwoliła usunąć bromiany w 96%, natomiast
elektrodializa odwracalna na poziomie 64%, przy jednoczesnym odsoleniu
oczyszczanej wody w wysokości 98%.
W niniejszej pracy zbadano moŜliwość wykorzystania procesu dializy
Donnana z membraną anionowymienną do usuwania bromianów
z roztworów wodnych. Dializa Donnana jest bezprądową techniką
membranową, która polega na wymianie jonów tego samego znaku
pomiędzy dwoma roztworami rozdzielonymi membraną jonowymienną.
Siłą napędową procesu jest gradient potencjałów chemicznych roztworów
po obu stronach membrany. Membrana rozdziela dwa roztwory, róŜniące się
zarówno składem jak i stęŜeniem: roztwór zasilający (czyli roztwór
oczyszczany, zawierający jony które naleŜy usunąć) i roztwór odbierający
(nazywany równieŜ koncentratem). Koncentrat jest zwykle roztworem
prostej soli lub kwasu o relatywnie wysokim stęŜeniu – do 1 mol/ dm3.
W procesie dializy Donnana z membraną anionowymienną, obecne
w koncentracie aniony dyfundują do roztworu zasilającego w celu
wyrównania stęŜeń. Dla zachowania elektroneutralności roztworów, zostaje
wymuszony równowaŜny przepływ anionów w kierunku przeciwnym,
z roztworu zasilającego do roztworu odbierającego. Proces wymiany jonów
trwa tak długo aŜ ustali się pomiędzy roztworami równowaga donnanowska
[13]. W ten sposób moŜna usunąć z wody zarówno aniony szkodliwe dla
zdrowia człowieka (azotany) oraz aniony uciąŜliwe (wodorowęglany), które
utrudniają proces odsalania wody [14].
2. Metodyka
Proces dializy Donnana prowadzono w laboratoryjnej instalacji do
dializy Goemasep 136 wyposaŜonej w 20 par komór z membranami
anionowymiennymi typu Selemion AMV. Całkowita powierzchnia
128
membran wynosiła 0,1404 m2. Badaniom poddano roztwory
wieloskładnikowe (jako roztwory zasilające), które zawierały następujące
składniki: NaNO3, NaHCO3, NaCl o stęŜeniu 3 mM kaŜdy oraz NaBrO3
o stęŜeniu 200 µg/dm3. Roztworem odbierającym był roztwór NaCl
o stęŜeniu 50, 100, 200 lub 300 mM. Stosunek objętości roztworu
zasilającego i odbierającego wynosił 10 dm3 : 2,5 dm3. Proces dializy
Donnana prowadzano z recyrkulacją obu roztworów (tzw. batch system) do
momentu ustalenia się stęŜenia równowagowego jonów BrO3- w roztworze
zasilającym. W trakcie procesu mierzono stęŜenie anionów w roztworze
zasilającym. StęŜenie azotanów badano za pomocą spektrofotometru DREL
2000. StęŜenie chlorków i wodorowęglanów określano poprzez
miareczkowanie, odpowiednio, roztworem AgNO3 lub roztworem HCl.
Natomiast stęŜenie bromianów mierzono przy uŜyciu spektrofotometru UV
mini 1240 (Shimadzu), stosując jodek 3,3’– dimetylonaftydyny [9].
3. Wyniki badań i dyskusja
Rys. 1 przedstawia skuteczność usuwania anionów (bromianów,
azotanów i wodorowęglanów) z roztworu zasilającego.
skuteczność usuwania anionu, %
100
90
80
70
60
50
40
30
20
10
0
bromiany
azotany
wodorowęglany
Rys. 1. Skuteczność usuwania bromianów, azotanów i wodorowęglanów
z wieloskładnikowego roztworu zasilającego (CNaCl = 200 mM)
MoŜna zaobserwować, Ŝe najskuteczniej usuwane są azotany (85,6%),
usunięcie bromianów jest mniej skuteczne (75,5%), natomiast z najmniejszą
skutecznością usuwane są wodorowęglany (73,3%). Przyczyną tego efektu
są róŜnice w rozmiarze jonów: promień zhydratyzowanego jonu NO3wynosi 0,335 nm, promień jonu BrO3- – 0,353 nm, natomiast promień jonu
129
HCO3- jest największy spośród badanych i przekracza 0,394 nm [10].
Oznacza to, Ŝe azotany, jako jony najmniejsze, usuwane są z najwyŜszą
skutecznością, natomiast wodorowęglany, jako jony największe, usuwane są
najmniej efektywnie.
Istotne znaczenie na przebieg procesu ma równieŜ szybkość transportu
jonów przez membranę (rys. 2).
250
3,5
3,0
200
150
2,0
1,5
100
NO 3-, HCO 3-, mM
BrO 3-, µg/dm
3
2,5
1,0
50
0,5
0
0,0
0
0,5
1
1,5
2
2,5
3
czas, h
BrO3-
NO3-
HCO3-
Rys. 2. Spadek stęŜenia bromianów, azotanów i wodorowęglanów w wieloskładnikowym
roztworze zasilającym (CNaCl = 200 mM)
Wyraźnie widać, iŜ jony NO3- usuwane są najszybciej z roztworu
zasilającego do roztworu odbierającego. Średni strumień tych jonów do
osiągnięcia stęŜenia równowagowego wynosi 0,072 mol/m2·h. Azotany jako
jony najmniejsze są transportowane przez membranę najszybciej,
jednocześnie z wysoką skutecznością. Wolniej usuwane są z roztworu
zasilającego wodorowęglany – ich średni strumień do ustalenia się stęŜenia
równowagowego wynosi 0,055 mol/m2·h, co naleŜy wiązać z relatywnie
duŜym rozmiarem jonu. Natomiast najwolniej przenoszone są przez
membranę jony bromianowe – średni strumień jonów BrO3- do stanu
równowagi wynosi 0,036·10-3 mol/m2·h. Przyczyną jest stosunkowo niskie
stęŜenie początkowe bromianów w roztworze zasilającym w porównaniu ze
stęŜeniami początkowymi pozostałych jonów (NO3-, HCO3-). Pomimo, iŜ
bromiany charakteryzują się mniejszym rozmiarem niŜ wodorowęglany, są
przenoszone przez membranę zdecydowanie wolniej ze względu na ich
stęŜenie początkowe, które jest o 3 rzędy wielkości mniejsze w porównaniu
ze stęŜeniem azotanów i wodorowęglanów. Zatem udział jonów
130
skuteczność usuwania BrO
3,
%
bromianowych w całkowitym strumieniu anionów transportowanych przez
membranę z roztworu zasilającego do roztworu odbierającego (tj.
koncentratu) jest niewielki.
Rys. 3, 4 i 5 przedstawiają wpływ stęŜenia soli (NaCl) w roztworze
odbierającym (koncentracie) na skuteczność usuwania, odpowiednio
azotanów, bromianów i wodorowęglanów z roztworu zasilającego.
100
90
80
70
60
50
40
30
20
10
0
50 mM
100 mM
200 mM
300 mM
stęŜenie NaCl w koncentracie
Rys. 3. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania bromianów
z roztworu zasilającego
skuteczność usuwania NO
3,
%
100
90
80
70
60
50
40
30
20
10
0
50 mM
100 mM
200 mM
300 mM
stęŜenie NaCl w koncentracie
Rys. 4. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania azotanów
z roztworu zasilającego
131
skuteczność usuwania HCO
3,
%
100
90
80
70
60
50
40
30
20
10
0
50 mM
100 mM
200 mM
300 mM
stęŜenie NaCl w koncentracie
Rys. 5. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania wodorowęglanów
z roztworu zasilającego
Analizując przedstawione dane moŜna zauwaŜyć, Ŝe wraz ze wzrostem
stęŜenia soli w koncentracie (czyli wzrostem stęŜenia jonów Cl-), wzrasta
skuteczność usuwania wszystkich anionów. Przyczyną tego zjawiska jest
wyŜszy gradient stęŜeń jonów napędowych (tj. jonów Cl-) i wynikający stąd
wyŜszy strumień jonów chlorkowych z roztworu odbierającego do roztworu
zasilającego. W efekcie, w celu zachowania elektroneutralności roztworów,
wymuszony zostaje relatywnie wysoki strumień usuwanych jonów
w kierunku przeciwnym, z roztworu zasilającego do koncentratu. NaleŜy
zaznaczyć, Ŝe wysoki gradient stęŜeń jonów chlorkowych powoduje
przepływ bromianów, azotanów i wodorowęglanów do roztworu
odbierającego przeciwko rosnącemu, podczas trwania procesu, gradientowi
stęŜeń.
W wyniku zachodzącej podczas procesu wymiany anionów, istotnej
zmianie ulega skład jonowy roztworu surowego (rys. 6). Po dializie
Donnana udział molowy jonów chlorkowych zwiększa się z 33,3 do 87,6 %.
Natomiast zmniejszeniu ulega udział molowy azotanów – z 33,3 do 7,6 %,
wodorowęglanów – z 33,3 do 4,8 % i bromianów – z 0,02 do 0,005 %.
132
0,02
0,005
4,8
7,6
100%
33,3
udział molowy, %
80%
60%
33,3
87,6
40%
33,3
20%
0%
roztwór surowy
chlorki
roztwór po dializie Donnana
azotany
wodorowęglany
bromiany
Rys. 6. Skład jonowy roztworu surowego oraz roztworu po procesie dializy Donnana
(CNaCl = 200 mM)
4. Wnioski
•
•
Proces dializy Donnana z membraną anionowymienną Selemion AMV
pozwala obniŜyć stęŜenie szkodliwych anionów (azotanów
i bromianów), a takŜe anionów uciąŜliwych ze względu na odsalanie
(wodorowęglanów), zastępując je jonami neutralnymi (tj. chlorkami).
Szybkość i skuteczność usuwania anionów z roztworu zasilającego
zaleŜy od rozmiaru i stęŜenia początkowego jonu oraz stęŜenia soli
w koncentracie.
StęŜenie soli w roztworze odbierającym ma istotny wpływ na
skuteczność usuwania anionów z roztworu zasilającego. Wraz ze
wzrostem stęŜenia soli w koncentracie, wzrasta skuteczność usuwania
anionów z wody. Przy stęŜeniu soli w koncentracie równym 200 mM
NaCl uzyskano 75,5% usunięcie bromianów, 85,6% usunięcie azotanów
i 73,3% usunięcie wodorowęglanów. PodwyŜszenie soli w roztworze
odbierającym do 300 mM pozwala na całkowite usunięcie bromianów,
89.% usunięcie azotanów i 83,3.% usunięcie wodorowęglanów.
133
Literatura
[1] M. Asami, T. Aizawa, T. Morioka, W. Nishijma, A. Tabata, Y. Magara.
Bromate removal during transition from new granular activated carbon
(GAC) to biological activated carbon (BAC). Water Research 1999, vol.
33, pp. 2797-2804.
[2] T.P. Bonacquisti. A drinking water utility’s perspective on bromide,
bromate and ozonation. Toxicology 2006, vol. 221, pp. 145-148.
[3] Dyrektywa Rady 98/83/WE z dnia 3 listopada 1998r. W sprawie jakości
wody przeznaczonej do spoŜycia przez ludzi.
[4] A. Gierak, R. Leboda. Analiza azotanów i bromianów powstających
podczas dezynfekcji wody ozonem. Ochrona Środowiska 1999.
[5] U. von Gunten. Ozonation of drinking water: Part II. Disinfection and
by-product formation in presence of bromide, iodide or chlorine. Water
research 2003, vol. 37, pp. 1469-1487.
[6] J.P. van der Hoek, D.O. Rijnbende, C.J.A. Lokin, P.A.C. Bonne, M.T.
Loonen, J.A.M.H. Hofman. Electrodialysis as an alternative for reverse
osmosis in an integrated membrane system. Desalination 1998, vol. 117,
pp. 159-172.
[7] W.J. Huang, Y.L. Cheng. Effect of characteristics of activated carbon on
removal of bromate. Separation Purification Technology 2008, vol. 59,
pp. 101-107.
[8] A. Kowal, M. Świderska-BróŜ. Oczyszczanie wody. Wydawnictwo
Naukowe PWN, Warszawa-Wrocław 1998.
[9] Merck applications: Bromate in water and drinking water. Photometric
determination with 3,3’-Dimethylnaftidin and iodine.
[10] E.R. Nighitingale. Phenomenological theory of ion solvation. Effective
radii of hydrated ions. J. Phys. Chem. 1959, vol. 63, pp. 1381-1387.
[11] S. Peldszus, S.A. Andrews, R. Souza, F. Smith, I. Douglas, J. Bolton,
P.M. Huck. Effect of medium-pressure UV irradiation on bromate
concentrations in drinking water, a pilot-scale study. Water Research
2004, vol. 38, pp. 211-217.
[12] H. Selcuk, Y. Vitosoglu, S. Ozaydin, M. Bekbolet. Optimization of
ozone an coagulation processes for bromate control in Istanbul drinking
waters. Desalination 2005, vol. 176, pp. 211-217.
[13] J. Wiśniewski. Ion exchange by means of Donnan dialysis as a
pretreatment process before elektrodialysis. Environment Protection
Engineering 2006.
[14] J. Wiśniewski, A. RóŜańska. Donnan dialysis with anion-exchange
membranes as a pretreatment step before electrodialytic desalination.
Desalination 2006, vol. 191, pp. 210-218.
134
Problemy przenoszenia energii w układach
mikrohydrauliki.
Grzegorz Łomotowski 1
Streszczenie: Referat poświęcono dość innowacyjnej dziedzinie techniki jaką jest
mikrohydraulika. Skoncentrowano się na zminiaturyzowanych elementach oraz układach
hydraulicznych mogących przenosić nierzadko bardzo duże gęstości mocy. W referacie
wskazano różnice między klasyczną, a zmniaturyzowaną hydrauliką siłową i wynikające
z tego nowe problemy badawcze. Podano także przykłady zastosowań mikrohydrauliki.
Słowa kluczowe: mikrohydraulika, miniaturyzacja hydrauliki siłowej, gęstość mocy
1. Wprowadzenie
Szybki rozwój elektroniki i mikromechaniki dał nowe możliwości do
rozwoju mikrohydrauliki. Elektronika sterując mikroelementami
mechanicznymi, może nadawać płynącemu medium wymagane parametry.
Układy mikrohydrauliczne można podzielić ze względu na pełnioną
funkcję na dwie grupy. Do pierwszej zaliczyć można układy, w których
płynąca ciecz wykorzystana jest do wykonania pracy mechanicznej. Układy
te mają zastosowanie w napędach i sterowaniu małych maszyn, urządzeń
lub przyrządów. Ciśnienia w tych układach dochodzą nawet do 40MPa.
Drugą grupę stanowią układy, w których celem samym w sobie jest jedynie
nadanie określonych parametrów cieczy – ciśnienia lub przepływu.
Przykładowym zastosowaniem tego typu układów jest precyzyjne
dozowanie płynów. Można tu podać takie przykłady jak dozowanie
atramentu w drukarce atramentowej, dozowanie leków (bezinwazyjne
zastrzyki z użyciem mikroigieł wprowadzających lek nie do żył lecz do
naczyń włosowatych), dozowanie substancji do reakcji chemicznych,
dozowanie paliwa. Ciśnienia w tych układach przeważnie bliskie są
atmosferycznemu. Funkcje te warunkują wymiary elementów
mikrohydraulicznych. W pierwszym przypadku wymiary nominalne
elementów nie są przeważnie mniejsze od jednego milimetra. Układy te są
także nazywane hydrauliką zminiaturyzowaną. W drugim przypadku
wymiary elementów są zwykle w skali mikrometrów, a nawet mniejszych.
Niniejszy referat obejmuje tylko pierwszą grupę mikrohydrauliki.
1
Instytut Konstrukcji i Eksploatacji Maszyn I-16 Politechnika Wrocławska,
50-371 Wrocław, ul. I. Łukasiewicza 7/9,
e-mail: [email protected]
135
2. Miniaturyzacja hydrauliki siłowej
Przepływająca ciecz idealnie nadaje się do przenoszenia energii i ma
szerokie zastosowanie w układach napędowych. Napęd hydrauliczny
możemy podzielić na napęd hydrostatyczny oraz napęd hydrokinetyczny
w zależności od tego czy kluczową rolę w przenoszeniu energii odgrywa
ciśnienie, czy prędkość płynącej cieczy. Niniejszy referat będzie się odnosił
tylko do napędów hydrostatycznych. Ten rodzaj napędu doskonale nadaje
się do wykonywania pracy, szczególnie jeśli przenoszone siły są duże.
Chodzi tutaj nie tylko o pracę wykonywaną w wyniku ruchu obrotowego,
ale przede wszystkim o pracę wykonywaną ruchem postępowo zwrotnym.
Napęd hydrostatyczny cieszy się bardzo dużym powodzeniem w maszynach
roboczych ciężkich (np. koparki, ładowarki) oraz w maszynach
przemysłowych (np. prasy hydrauliczne).
Napęd hydrostatyczny ma wiele zalet takich jak: łatwość
automatyzacji,
duża
dokładność
pozycjonowania
elementów
wykonawczych, łatwość zabezpieczenia przed przeciążeniem, możliwość
eliminacji hamulców mechanicznych, czy też możliwość użycia
elastycznych przewodów hydraulicznych i dowolnego rozmieszczania
elementów hydraulicznych w przestrzeni. Jednak największą zaletą napędu
hydrostatycznego jest możliwość uzyskiwania wyjątkowo dużej gęstości
strumienia przekazywanej mocy, to znaczy małej masy na jednostkę
generowanej lub przenoszonej mocy. Przykładowo gęstość mocy dla pomp
i silników hydrostatycznych może dochodzić nawet do 10kW/kg, podczas
gdy gęstość mocy przeciętnych silników elektrycznych wynosi od 0,1 do
0,15 kg/kW, [8]. Obecnie obserwujemy powszechny trend miniaturyzacji.
Chociaż najbardziej wyraźny był on ostatnio w dziedzinie jaką jest
elektronika, to możemy zaobserwować go także w mechanice. Warto tu
zauważyć, że układy hydrostatyczne cechujące się wysoką gęstością mocy
pasują idealnie do trendu miniaturyzacji. Mogą one przenosić duże ilości
energii posiadając zwartą, małogabarytową oraz lekką budowę, w czym
mają przewagę nad napędami elektromechanicznymi i pneumatycznymi.
Ponadto mała masa elementów wpływa na małą bezwładność tych
elementów. Wiąże się to z możliwością szybkiego rozwijania oraz zmiany
prędkości odbiornika hydraulicznego, jakim jest siłownik lub silnik. Układy
hydrostatyczne mają tym większą gęstość przenoszonej energii im wyższe
są ciśnienia robocze.
Podejmując temat przenoszonej energii nie sposób nie poruszyć
tematu sprawności. Należy pamiętać, że napęd hydrostatyczny korzysta
z zewnętrznego źródła energii jakim może by silnik elektryczny lub
spalinowy. Z tego względu sprawność układu hydrostatycznego powinna
być jak największa. Moc jest iloczynem ciśnienia i natężenia przepływu,
136
dlatego też straty energii możemy podzielić na hydrauliczne dotyczące
spadku ciśnienia w wyniku oporów przepływu oraz objętościowe dotyczące
zmniejszenia przepływu w wyniku przecieków.
Straty hydrauliczne zależą w dużym stopniu od liczby Reynoldsa (1).
We wzorze tym v jest prędkością cieczy, d jest charakterystycznym
wymiarem liniowym, a ν jest lepkością kinematyczną cieczy.
Re =
vd
(1)
ν
Jeżeli liczba Reynoldsa jest mniejsza od krytycznej wtedy przepływ
jest laminarny, a jeśli jest większa wtedy przepływ jest burzliwy. Krytyczna
liczba Reynoldsa zależna jest przede wszystkim od kształtu elementu przez
który przepływa ciecz. Baczniej przyglądając się wzorowi (1) można
zauważyć, że przy miniaturyzacji elementów należy liczyć się ze spadkiem
liczby Reynoldsa. Jeżeli więc w skali makro będzie występował gdzieś
w układzie przepływ turbulentny to po pomniejszeniu tego układu zachodzi
ryzyko wystąpienia przepływu laminarnego. W klasycznej hydraulice
zakłada się z dużą poprawnością, że w przewodach występuje przepływ
laminarny, który można opisać wzorem
Hagena- Poiseuille’a (2).
We wzorze tym ∆p jest spadkiem ciśnienia na przewodzie, µ jest lepkością
dynamiczną, l jest długością przewodu, Q przepływem, d średnicą
przewodu.
∆p =
128µQl
πd 4
(2)
Tak więc można przyjąć, że przy obliczeniach strat
w mikroprzewodach
należy korzystać tych samych zależności co
w przewodach w klasycznej hydraulice, gdyż w obu przypadkach występują
przepływy laminarne. Nieco inaczej przedstawia się problem miejscowych
oporów przepływu. W elementach hydraulicznych oraz wszelkiego rodzaju
kolankach zwężkach, zmianach przekroju itp. zakłada się z dużą
poprawnością, że liczby Reynoldsa są większe od krytycznej, tak więc
występuje przepływ burzliwy elementów określony wzorem (3). We wzorze
tym v jest średnią prędkością przepływu cieczy, ρ jest gęstością cieczy,
a ξ jest stałym współczynnikiem zależnym jedynie od kształtu elementu
przez który przepływa ciecz.
∆p = ξ
ρ
2
v2
(3)
Po miniaturyzacji w elementach hydraulicznych może wystąpić więc
przepływ laminarny, co wiąże się z innym podejściem do projektowania
układu hydraulicznego. W elementach zależności związane z przepływem
137
laminarnym są z inżynierskiego punku widzenia nieco bardziej
skomplikowane niż zależności związane z przepływem turbulentnym.
Współczynnik ξ nie jest wtedy stały, ale jest funkcją liczby Reynoldsa –
różną dla różnych kształtów elementów.
Analiza strat objętościowych jest dosyć skomplikowanym
zagadnieniem. Aby sprawności objętościowe w skali makro i mikro były
takie same, przecieki przy bardzo małych przepływach powinny mieć taką
samą względną procentową wartość jak przy przepływach obecnych
w tradycyjnej hydraulice. Wartości luzów między ruchomymi elementami
powinny więc zmniejszać się proporcjonalnie wraz ze zmniejszaniem
wszystkich pozostałych wymiarów geometrycznych, przy jednoczesnym
zapewnieniu tych samych oporów tarcia oraz stabilności pracy ruchomych
elementów. Wiąże się to z koniecznością zapewnienia bardzo dużej
dokładności wykonania, co przy użyciu tradycyjnych technik wytwarzania
może być niemożliwe. Dlatego też koniecznym może być wykorzystanie
innych materiałów konstrukcyjnych oraz użycie innych technologii
wykonania niż przy klasycznej hydraulice.
Elementy hydrauliczne są bardzo wrażliwe na zanieczyszczenia
czynnika roboczego, dostające się do cieczy roboczej z zewnątrz lub
w wyniku ściernego zużycia się jego ruchowych elementów. Nietrudno
zauważyć, że przy miniaturyzacji układów hydraulicznych filtracja musi
być dużo dokładniejsza. Cząstki zanieczyszczeń, których znaczenie jest
pomijalne w klasycznej hydraulice, mogą zaburzać w wyraźny sposób pracę
układu i powodować szybkie zużycie się elementów. Należy liczyć się także
z niebezpieczeństwem zjawiska obliteracji, czyli stopniowego zamykania
się drogi przepływu, w wyniku osadzania się cząstek zanieczyszczeń.
Opracowanie nowoczesnego systemu filtracji przeznaczonego dla
mikroukładów hydraulicznych jest ciekawym polem do badań naukowych.
Powyższe porównanie mikrohydrauliki z hydrauliką klasyczną
bazowane są na twierdzeniu, że w skali mikro będą zachodzić zjawiska
takie same jak w skali makro. Należy jednak liczyć się z występowaniem
szeregu zjawisk pomijalnych w klasycznej hydraulice a które mogą mieć
decydujący wpływ na zachowanie się układu mikrohydraulicznego. Z tego
względu próba miniaturyzacji układów hydraulicznych może napotkać
wiele problemów. Mimo tych obaw niezaprzeczalnym staje się fakt, że
mikrohydraulika jest dziedziną dającą wiele nowych możliwości
nieobecnych w klasycznej hydraulice.
Pierwszym takim obszarem w mikrohydraulice, gdzie można
wprowadzać innowacyjne technologie jest sterowanie mikrozaworami.
W klasycznej hydraulice najpopularniejsze obecnie jest sterowanie
elektryczne, w którym prąd podawany na elektromagnes lub silnik
momentowy zamieniany jest na sygnał mechaniczny siły lub przesunięcia,
138
który z kolei przetwarzany jest na sygnał hydrauliczny jakim jest ciśnienie,
bądź natężenie przepływu. Zawory można podzielić na zawory
jednostopniowe oraz dwustopniowe. W tych pierwszych sygnał
mechaniczny jest zamieniany bezpośrednio na sygnał hydrauliczny
o znacznie większej mocy. W drugich natomiast sygnał mechaniczny
zamieniany jest na sygnał hydrauliczny małej mocy w pierwszym stopniu
(zwanym pilotem), a dopiero w drugim stopniu następuje wzmocnienie
sygnału hydraulicznego. Rozsądnym wydaje się, że mikrozawory
jednostopniowe oraz stopień główny mikrozaworów dwustopniowych mogą
mieć jeszcze klasyczną konstrukcję. Mają one wymiary takie same bądź
niewiele mniejsze niż wymiary elementów stopnia wstępnego w klasycznej
hydraulice. Różnią się ona natomiast ich przeznaczeniem. Pilot ma za
zadanie jedynie doprowadzenie cieczy o odpowiednich parametrach do
drugiego stopnia zaworu, a mikrozawór hydrauliczny odpowiada za
sterowanie całym układem mikrohydraulicznym. Dlatego też mikrozawory
oparte na konstrukcjach takich jak piloty klasycznej hydrauliki powinny
zostać dokładnie przebadane. Natomiast stopień wstępny mikrozaworów
dwustopniowych może stanowić doskonałe pole do wprowadzania
nowoczesnych
konstrukcji
i
rozwiązań.
Zamiast
klasycznych
elektromagnesów i silników momentowych można zastosować
najróżniejsze obecnie bardzo dynamicznie rozwijane mikroprzetworniki
elektromechaniczne
wykorzystujące
zjawiska
piezoelektryczne,
elektromagnetyczne,
elektrostatyczne,
elektrotermopneumatyczne,
termicznie, magnetostrykcyjne itp. Ponadto jeżeli w pierwszym stopniu
mikrozaworu obecne są małe ciśnienia można zastosować specjalne
konstrukcje z elastyczną membraną, która ma szereg zalet takich jak duża
szczelność oraz mała masa, co wpływa na szybkość działania zaworu.
Więcej informacji o niekonwencjonalnych sposobach sterowania elementów
mikrohydraulicznych znajduje się w źródłach [2, 6, 7].
Ciekawym zagadnieniem może być praca nad rodzajem czynnika
roboczego. Powinien być on traktowany jako kluczowy element układu
mikrohydraulicznego, gdyż właśnie on odpowiada za przenoszoną moc.
Idealne medium robocze to takie, które miałoby małą ściśliwość (większa
jest wtedy dokładność pozycjonowania), optymalną lepkość (im mniejsza
lepkość tym mniejsze opory przepływu, ale mogą wystąpić większe
przecieki), dobre własności smarne, dużą przewodność cieplną oraz
wysokie ciepło właściwe. W mikrohydraulice cieczy jest mniej niż
w hydraulice klasycznej, tak więc może być droższa. Ponadto należy
zwrócić uwagę na to, że jeśli ciecz ma mieć zastosowania w mikroukładach
hydraulicznych stosowanych w medycynie musi ona spełniać dodatkowy
warunek: nieszkodliwości medium dla człowieka.
139
W
samych
konstrukcjach
elementów
oraz
układów
mikrohydraulicznych również można stosować niekonwencjonalne
rozwiązania niemożliwe do użycia w klasycznej hydraulice. Jako przykład
zostanie
przedstawiony
zintegrowany
układ
mikrohydrauliczny
wykorzystywany w narzędziach ręcznych takich jak kombinerki, czy też
narzędzia służące do przecinania materiałów. Kombinerki, w których użyto
tego właśnie układu przedstawiono na rysunku 1.
Rys. 1. Kombinerki zasilane jedynie energią ludzkiej dłoni, w których wykorzystano
innowacyjny mikroukład hydrostatyczny; [13]
Kombinerki zasilane są jedynie energią pochodzącą z ludzkiej dłoni
i nie mają żadnego zewnętrznego źródła zasilania. Zintegrowany układ
mikrohydrauliczny znajdujący się wewnątrz kombinerek składa się z pompy
tłokowej, akumulatora – pełniącego także funkcję zbiornika cieczy, cylindra
oraz specjalnych zaworów typu FastFlow. Układ ten nie zawiera w ogóle
przewodów hydraulicznych. Zawory typu FastFlow są innowacyjnymi
zaworami składającymi się z ruchomego uszczelnienia, mającymi bardzo
mała masę. Zapewniają one doskonałą szczelność w kierunku zaporowym
i minimalne straty hydrauliczne w kierunku przepływu, poprzez utworzenie
dużej powierzchni przepływowej. Mogą być stosowane jako zaworu
zwrotne lub przelewowe.
Mikroukład pracuje w trzech trybach. Zmiany trybów realizowane są
w sposób automatyczny w zależności od siły obciążającej cylinder – w tym
wypadku siły działającej na kombinerki. Tryb pierwszy jest wtedy kiedy
kombinerki nie są obciążone. Wtedy następuje szybkie zaciśnięcie się
szczęk. Gdy siła na kombinerkach przekroczy pewną wartość, wtedy
szczęki zaciskają się wolniej, a wartość siły jaką zadaje człowiek jest
zgodna z pewnym z góry ustawionym przełożeniem. Gdy siła na
kombinerkach przekroczy kolejną wartość graniczną, wtedy następuje
bardzo silne wzmocnienie siły zadawanej przez człowieka. Na
kombinerkach można wtedy uzyskać siłę dochodzącą nawet do jednej tony
– oczywiście kosztem niewielkiego przemieszczenia szczęk kombinerek.
Wartości sił, które powodują przejście między poszczególnymi trybami
mogą być nastawiane przez użytkownika. Warto zwrócić uwagę, że
wszystkie trzy tryby są ważne. Na przykład odpowiednie ustawienie siły
i przemieszczenia w drugim trybie ma kluczowe znaczenie w narzędziach
140
przecinających, gdyż potrzebna jest odpowiednie odkształcenie
przecinanego materiału.
Opisywany mikroukład hydrauliczny cechuje się bardzo wysoką
sprawnością – dużo wyższą niż ta w klasycznej hydraulice. Straty
hydrauliczne są niewielkie, gdyż brak jest przewodów, a zawory pracują
z duża powierzchnią przepływu. Straty objętościowe są również niewielkie,
gdyż element zamykający zawór jest jednocześnie uszczelnieniem.
Warto zauważyć na jeszcze jedną ważną zaletę mikrohydrauliki. Wiele
układów mikrohydraulicznych oraz mikrohydraulicznych elementów
wykonawczych może być zasilane ze wspólnego źródła. Źródło to może być
mikrozasilaczem hydraulicznym, ale może też być klasycznym zasilaczem
jeżeli w maszynie obecna jest już klasyczna hydraulika.
Zastosowania mikroukładów hydraulicznych są bardzo szerokie.
Jedno z nich zostało już wymienione. Są to narzędzia ręczne – do cięcia,
zgniatania, wkręcania, łączenia itp. Oczywiście mogą one być zasilane nie
tylko energią z ludzkiej dłoni, ale także energią elektryczną. Kolejnym
zastosowaniem są wszelkiego rodzaju maszyny technologiczne szczególnie
przemysłu lekkiego (włókienniczy, tekstylny, tworzyw sztucznych) oraz
zautomatyzowane linie montażowe oraz produkcyjne. Nie sposób również
nie wymienić zastosowań mikrohydrauliki w manipulatorach lub robotach
zarówno przemysłowych jak i tych o innym przeznaczeniu.
Mikrohydraulika spełnia wszystkie wymagania jakimi są: mała masa,
możliwość przeniesienia dużych sił, łatwość sterowania ruchem oraz dużą
dokładność ruchu. Jako przykład zastosowania mikrohydrauliki w robotyce
można podać stworzenie sztucznej dłoni bazującej na dłoni ludzkiej
wykorzystującej jedynie napęd hydrostatyczny [4].
Następnym obszarem zastosowań mikroukładów hydraulicznych jest
lotnictwo i astronautyka. Mikrohydraulika ma tutaj ogromną przewagę nad
innymi napędami, gdyż oczywiste jest, że każde zmniejszenie masy oraz
zajmowanej przestrzeni ma ogromne znaczenie. Mikrohydraulika może
mieć także zastosowanie w jednostkach pływających, małych maszynach
roboczych,
czy
też
pojazdach
samochodowych.
Elementy
mikrohydrauliczne mogą być wykorzystane zarówno w układach
związanych bezpośrednio z napędem samochodu, jak i w urządzeniach
poprawiających komfort lub bezpieczeństwo jazdy oraz w urządzeniach
pomocniczych dla osób niepełnosprawnych. Kolejnym ważnym polem
zastosowań mikroukładów hydrostatycznych jest inżynieria i technika
medyczna. Można tu wymienić zastosowania mikrohydrauliki do napędów
stołów operacyjnych i rentgenowskich, foteli dentystycznych itp.
141
3. Podsumowanie
Mikrohydraulika może stanowić doskonałe narzędzie do przenoszenia
dużych mocy przy zachowaniu małych wymiarów oraz masy, co idealnie
wpasowuje się do obecnego trendu miniaturyzacji. Mikrohydraulika nie ma
jeszcze niestety tak rozwiniętej i szeroko dostępnej metodologii
projektowania układów jak klasyczna hydraulika siłowa. Z tego względu
jest doskonałym obiektem do badań naukowych. Mikrohydraulika
w odróżnieniu od klasycznej hydrauliki ma bardziej interdyscyplinarny
charakter. Aby jej rozwój mógł być dynamiczny musi ona korzystać
z innych dziedzin techniki, takich jak mechatronika, nowoczesne
materiałoznawstwo, nowoczesne techniki wytwarzania, czy też chemia.
Literatura
[1] Dindorf R., Łaski P., Wołkow J.: Technika napędu i sterowania
mikroelementów płynowych. CYLINDER'2000" Szczyrk 2000
[2] Dindorf R., Wołkow J.: Mikroprzetworniki w układach płynowych.
Hydraulika i Pneumatyka nr 3/2001
[3] Dindorf R., Wołkow J.: Mikroukładu płynowe. Mikrohydraulika.
CYLINDER'99 Zakopane 1999
[4] Kargov A., Asfour T., Pylatiuk C., Oberle R., Klosek H., Schulz S.,
Regenstein K., Bretthauer G., Dillmann R.: Development of an
Anthropomorphic Hand for a Mobile Assistive Robot. IEEE 9th
International Conference on Rehabilitation Robotics: Frontiers of the
Human-Machine Interface. Chicago USA 2005
[5] Kollek W., Palczak E.: Zastosowanie mikrohydrauliki w maszynach i
urządzeniach. Napędy i Sterowanie nr 6/1999 oraz 7/1999
[6] Skrzyniarz S., Jędrzykiewicz Z.: Zastosowanie pomp w technologii
MEMS. Hydraulika i Pneumatyka nr 6/2007
[7] Skrzyniarz S., Jędrzykiewicz Z.: Zastosowanie zaworów w technologii
MEMS. Hydraulika i Pneumatyka nr 1/2008
[8] Stryczek S.: Napęd hydrostatyczny tom I i II Warszawa 2003
[9] Tupper M. McPheterson B.: LatchTool PowerCylinder: fluid power in
the palm of your hand… Technical paper – Latchtool Group
[10] http://www.hoerbiger.com/Micro-Fluid.937.0.html?&L=1
[11] http://www.hydroleduc.com/site/en_index.php
[12] http://www.theleeco.com
[13] http://www.latchtool.com
[14] http://www.theleeco.com
142
Oszacowanie stałej Lipschitza dla Jakobianu
robota mobilnego typu monocykl
Łukasz Małek1
Streszczenie: W pracy podj˛eto analiz˛e własności matematycznych modelu kinematyki dwukołowego robota mobilnego typu monocykl. Wykorzystujac
˛ pochodna˛ Gâteaux oszacowano stała˛ Lipschitza Jakobianu tego robota. Uzyskano wynik w postaci afinicznej, zależnej od normy sterowania tego układu.
Słowa kluczowe: Jakobian, stała Lipschitza, monocykl, planowanie ruchu
1. Wst˛ep
Jednym z kluczowych problemów zwiazanych
˛
z algorytmami planowania ruchu [3, 4] dla robotów mobilnych jest obszar, w którym istnieje gwarancja, że algorytmy te wygeneruja˛ właściwe rozwiazanie.
˛
Obszar ten nazywany jest obszarem zbieżności. W przypadku Jakobianowych algorytmów
planowania ruchu [8] wyznaczenie tego obszaru może odbywać si˛e na dwa
sposoby. Po pierwsze można próbować wykazać, że algorytm jest zbieżny
globalnie, poprzez wykazanie istnienia lokalnego rozwiazania
˛
a nast˛epnie poprzez znalezienie afinicznego oszacowania normy Jakobianu wzgl˛edem normy
sterowań, sprawdzenia, że rozwiazanie
˛
to można przedłużyć na cała˛ przestrzeń [7]. Chcac
˛ wykazać istnienie lokalnego rozwiazania
˛
można posłużyć
si˛e twierdzeniem Picarda-Lindelöfa [1], do którego zastosowania konieczne
jest wykazanie spełnienia warunku Lipschitza przez Jakobian. Alternatywnym podejściem jest próba wyznaczenia obszaru zbieżności w oparciu o twierdzenie Kantorovicha [5]. Jednym z warunków koniecznych do zastosowania tego twierdzenia jest wykazanie spełnienia warunku Lipschitza przez pochodna˛ funkcji, dla której to twierdzenia ma być stosowane. W przypadku
algorytmów Jakobianowych pochodna˛ funkcji wyst˛epujac
˛ w twierdzeniu jest
właśnie Jakobian. Spełnienie warunku Lipschitza jest wi˛ec jednym z istotnych problemów wia˛żacych
˛
si˛e z tematyka˛ istnienia rozwiazania
˛
algorytmów
planowania ruchu dla robotów mobilnych.
W niniejszej pracy przedstawiono oszacowanie stałej Lipschitza dla Jakobianu robota mobilnego typu monocykl. Praca składa si˛e z nast˛epujacych
˛
cz˛eści. Pierwsza˛ z nich stanowi opis metodyki użytej do wyznaczenia stałej. Dalej podejście to zostało zastosowane dla przypadku algorytmu typu
1
Instytut Informatyki, Automatyki i Robotyki, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, [email protected]
143
monocykl i doprowadziło do wyznaczenia szukanej stałej. W ostatniej cz˛eści
znajduje si˛e podsumowanie niniejszej pracy.
2. Idea
Celem pracy jest wykazanie istnienia oszacowania
k(J(x) − J(y))vk ≤ ωkvkL2 kx − ykL2
(1)
dla Jakobianu robota typu monocykl. Aby udowodnić ta˛ nierówność załóżmy, że Jakobian jest funkcja˛ różniczkowalna˛ wzgl˛edem sterowania. W takim wypadku skorzystamy z twierdzenia o wartości średniej w przestrzeniach Hilberta [2] które mówi, że istnieje takie sterowanie s ∈ [0, 1], że dla
u = sx + (1 − s)y, zachodzi
k(J(x) − J(y))vk ≤ kDJ(u)vkk(x − y)k
gdzie DJ(u) oznacza pochodna˛ Gâteaux Jakobianu
d J(u + αv)w,
DJ(u)vw =
dα α=0
(2)
(3)
a norma operatorowa zdefiniowana jest w sposób nast˛epujacy
˛
kDJ(u)vwk
.
kwk
kwk6=0
kDJ(u)vk = sup
(4)
Naszym celem jest wi˛ec wykazanie, że dla u określonego powyżej istnieje
niepusty podzbiór przestrzeni sterowań, dla którego zachodzi warunek
kDJ(u)vk ≤ Lkvk
(5)
ze stała˛ L > 0.
3. Monocykl
Na poczatek
˛ rozpatrzmy robot mobilny o dwóch kołach nap˛edowych
(Rys. 1). Taka konstrukcja nazywana jest monocyklem, a jej kinematyk˛e opisuje poniższe równanie q̇ = G(q(t))u(t), które w tym przypadku ma postać


 q̇1 = u1 cos q3
q̇2 = u1 sin q3
(6)

 q̇ = u .
3
2
Linearyzujac
˛ kinematyk˛e wzdłuż trajektorii otrzymujemy równanie
ξ˙ = A(t)ξ + B(t)u(t)
144
Rys. 1. Schemat platformy mobilnej typu monocykl
gdzie macierze A(t) oraz B(t) dane sa˛ zależnościami


0 0 −u1 (t) sin q3 (t)
∂(G(q(t))u(t)) 
= 0 0 u1 (t) cos q3 (t)  ,
A(t) =
∂q
0 0
0


cos q3 (t) 0
B(t) = G(q(t)) =  sin q3 (t) 0 .
0
1
(7)
Znajac
˛ kinematyk˛e robota możemy przejść do jej pochodnej czyli do jakobianu. W przypadku robotów mobilnych określony jest on zależnościa˛
Z T
J(u)w =
Φu (T, t)Bu (t)w(t)dt
(8)
0
gdzie w rozważanym przypadku macierz Cauchy’ego ma postać


RT
1 0 − t u1 sin q3 ds
RT
Φ(T, t) = 0 1
u1 cos q3 ds  .
t
0 0
1
(9)
Majac
˛ postać jakobianu analitycznego monocykla możemy przejść do post˛epowania opisanego wcześniej. Zaczynamy od wyliczenia pochodnej Gâteaux
Jakobaianu.
Z T
d DJ(u)vw =
Φu+αv (T, t)Bu+αv (t)w(t)dt
dα α=0 0


R
Z T cos q3 (t) − T (u1 + αv1 )(s) sin q3 (s)ds
Rt
d  sin q3 (t)
=
(u1 + αv1 )(s) cos q3 (s)ds  w(t)dt.
dα α=0 0
0
1
145
Uwzgl˛edniajac
˛ fakt, że
Z
q3 (t) =
t
u2 (s)ds + q3 (0)
0
obliczamy pochodna˛ Gâteaux funkcji q3 (t)
Z t
Z t
d (u2 + αv2 )(s)ds + q3 (0) =
v2 (s)ds.
Dq3 (t)v =
dα α=0 0
0
Zatem pochodna jakobianu monocykla ma postać
Z T
DJ(u)vw =
P (u(·), v(·), t)w(t) dt,
0
gdzie
P (u(·), v(·), t) =
Rt
"
− sin q3 (t) 0 v2 (τ )τ
Rt
cos q3 (t) 0 v2 (τ )dτ
0
#
Rs
RT
− t v1 (s) sin q3 (s) + u1 (s) cos q3 (s) 0 v2 (τ )dτ ds
RT
Rs
v1 (s) cos q3 (s) − u1 (s) sin q3 (s) 0 v2 (τ )dτ ds .
t
0
Nast˛epnie wykorzystujac
˛ znane z analizy funkcjionalnej fakty otrzymujemy
Z T
kP (u(·), v(·), t)kkw(t)kdt.
kDJ(u)vwk ≤
0
Zauważamy dalej, że dla normy macierzowej zachodzi nast˛epujaca
˛ nierówność
sX
X
kP (u(·), v(·), t)k =
|Pi,j (u(·), v(·), t)|2 ≤
|Pi,j (u(·), v(·), t)|.
i,j
i,j
Wobec tego oszacowanie sumy modułów poszczególnych pól macierzy P (t)
Z T
|P1,1 (u(·), v(·), t)| ≤
|v2 (s)|ds ≤ kvkL1
0
Z T
|P2,1 (u(·), v(·), t)| ≤
|v2 (s)|ds ≤ kvkL1
0
Z T
Z T
Z T
|P1,2 (u(·), v(·), t)| ≤
|v1 (s)|ds +
|u1 (s)|ds
|v2 (s)|ds
0
0
0
≤ kvkL1 + ku1 kL1 kvkL1
Z T
Z T
Z
|P2,2 (u(·), v(·), t)| ≤
|v1 (s)|ds +
|u1 (s)|ds
0
0
≤ kvkL1 + ku1 kL1 kvkL1
|P2,3 (u(·), v(·), t)| = 0,
|P1,3 (u(·), v(·), t)| = 0.
146
0
T
|v2 (s)|ds
Otrzymujemy stad,
˛ że
kP (u(·), v(·), t)k ≤ 4kvkL1 + 2ku1 kL1 kvkL1 = kvkL1 (4 + 2ku1 kL1 ).
Dalej z nierówności Hölder [6] dla funkcji określonych na docinku [0, T ] zachodzi nast˛epujaca
˛ zależność pomi˛edzy normami
√
kvkL1 ≤ T kvkL2 ,
co prowadzi do
√
kDJ(u)vwk ≤ T kwkL2 kvkL2 (4 + 2 T ku1 kL2 ).
Stad
˛ otrzymujemy, że
√
kDJ(u)vwk
≤ T kvkL2 (4 + 2 T ku1 kL2 ).
kwk
kwk6=0
kDJ(u)vk = sup
Ostatecznie, jeśli założmy, że ku1 kL2 ≤ Cu to otrzymujemy żadane
˛
oszacowanie
k(J(x) − J(y))vk ≤ LkvkL2 kx − ykL2 ,
√
ze stała L = T (4 + 2 T Cu ).
4. Podsumowanie
W niniejszej pracy wykazaliśmy, istnienie oszacowania stałej Lipschitza
dla Jakobianu robota mobilnego typu monocykl. Uzyskane oszacowanie jest
zależne od normy sterowania u1 (·), które jest uzyskiwane z parametryzacji
odcinkowej dla sterowań x oraz y. Wynik ten może być wykorzystany przy
wykazywaniu lokalnego istnienia rozwiazania
˛
Jakobianowego algorytmu planowania ruchu badź
˛ też do wykazania obszaru zbieżności Jakobianowego algorytmu planowania ruchu w oparciu o twierdzenie Kantorovicha.
Literatura
[1] R. Abraham, J. E. Marsden, R. Ratiu, Manifolds, tensor analysis, and
applications: 2nd edition, Springer-Verlag, New York, 1988
[2] D. Behmardi, E. D. Nayeri, Introduction of Frechet and Gateaux derivative, Appl. Math. Sci., 2(20), 975–980
[3] J. Latombe, Robot Motion Planning, Kluwer, Boston, 1993
[4] S. LaValle, Planing Algorithms, Cambridge University Press, Cambridge,
2006
147
[5] L. Rall, A note on the convergence of Newton’s method, SIAM J. Numer.
Anal., 11(1), 34–36, 1974
[6] W. Rudin, Functional Analysis, McGraw-Hill Science, 1991
[7] H. Sussmann, A continuation method for nonholomic path-finding problems, 32nd CDC, 91–125, IEEE, San Antonio, 1993
[8] K. Tchoń, J. Jakubiak, Endogenous configuration space approach to mobile manipulators: a derivation and performance assessment of Jacobian
inverse kinematics algorithms, Int. J. Control, 76(14), 1387–1419, 2003
148
Badania pośredniej chłodnicy wyparnej
Joanna Paduchowska1
Streszczenie: Przedmiotem opracowania jest pośrednia chłodnica wyparna
mogąca mieć zastosowanie w technice klimatyzacyjnej. W pracy omówiono
sposób badań pośredniej chłodnicy wyparnej zbudowanej na bazie wymiennika
płytowego powietrze – powietrze, w którym jedna strona zraszana jest wodą.
Słowa kluczowe: pośrednie chłodzenie wyparne, wymiennik rekuperacyjny.
1. Wprowadzenie
Większość systemów chłodzenia wykorzystuje wodę jako czynnik
chłodzący, ponieważ to medium pozwala na zwarte systemy chłodzenia
i jest powszechnie prawie wszędzie dostępne. Drugim również
ogólnodostępnym czynnikiem, który również bywa wybierany
na nieskończenie duże źródło energii współpracujące z obiegiem
termodynamicznym jest powietrze.
Najbardziej korzystne termodynamicznie i ekonomicznie jest
zastosowanie obu tych czynników jednocześnie. Doprowadzenie
do kontaktu powietrza z wodą powoduje odparowanie wody do powietrza.
W wyniku tego procesu następuje odprowadzenie przez powietrze
odparowującej wody, oraz w znacznie mniejszym stopniu ciepła jawnego,
wnikającego od powierzchni wody do strumienia powietrza. Wyżej opisany
proces, w którym wykorzystuje się ciepło parowania wody nazywa się
chłodzeniem wyparnym i jest stosowane w technice klimatyzacyjnej.
Wyparne chłodzenie powietrza jest tańsze eksploatacyjnie
od ochładzania go w sprężarkowych urządzeniach ziębniczych, co jest jego
główną zaletą. Podstawowymi wadami tego sposobu chłodzenia powietrza
są[1]:
 zależność od parametrów powietrza zewnętrznego,
 mniejsze schłodzenie powietrza
niż w
sprężarkowych,
 brak możliwości osuszania powietrza.
1
urządzeniach
Instytut Klimatyzacji i Ogrzewnictwa Wydziału Inżynierii Środowiska Politechniki
Wrocławskiej, Wybrzeże Wyspiańskiego 27, 50-370 Wrocław; [email protected]
149
Chłodzenie wyparne powietrza, w zależności od konfiguracji
urządzenia można podzielić na [1]:
 bezpośrednie, związane z adiabatycznym ochładzaniem powietrza
przy jego kontakcie z wodą. Jest to sposób najbardziej
rozpowszechniony i stosowany w tych dziedzinach przemysłu,
gdzie wymaga się lub dopuszcza do utrzymania wysokiego
poziomu zawartości wilgoci w powietrzu pomieszczenia
wentylowanego.
 pośrednie, z wykorzystaniem wymiennika ciepła, gdzie
w procesie biorą udział dwa strumienie powietrza: oziębiany
i nawilżany,
 pośrednio- bezpośrednie: mieszane, w którym skutek schłodzenia
powietrza jest większy niż dwóch poprzednich. Nieuniknione jest
jednak nawilżenie powietrza przed doprowadzeniem go do
pomieszczenia.
2. Stanowisko doświadczalne
Badania
procesu
ochładzania
powietrza
przeprowadzono
na stanowiskach badawczych, których schematy pokazano na rysunkach
1 i 2. Na rysunku 1 pokazano schemat stanowiska pomiarowego w układzie
współprądowego przepływu powietrza i wody, a na rysunku 2 w układzie
przeciwprądowego przepływu tych czynników.
Przez urządzenie powietrze zewnętrzne transportowane jest za pomocą
wentylatora (5). Powietrze najpierw wpływa do suchej przestrzeni
wymiennika (1) skąd wstępnie ochłodzone przepływa do części mokrej,
gdzie dochodzi do jego bezpośredniego kontaktu z kroplami wody
rozpylanej za pomocą rozpylacza (2). Doprowadzenie do bezpośredniego
kontaktu powietrza z wodą powoduje odparowanie wody do powietrza.
W wyniku tego procesu następuje odprowadzenie przez powietrze ciepła
utajonego z nawilżającej je wody kosztem energii cieplnej z obu czynników.
Dalej woda z wanny ociekowej jest podawana do rozpylacza (2) za pomocą
pompy (6), przez rotametr (12). W trakcie badań zmieniano objętościowy
strumień przepływającej wody, zraszającej wymiennik poprzez
zastosowanie rozpylaczy ślimakowych o różnych średnicach otworu
wylotowego. Wynikało to z tego, że przy niższych ciśnieniach kąt stożka
rozpylanej wody malał, więc nie była zraszana cała powierzchnia
wymiennika. Przepływ powietrza zaś zmieniano za pomocą przepustnicy
wielopłaszczyznowej(3).
150
Rys. 1. Schemat stanowiska pomiarowego dla przepływu
współprądowego powietrza i wody
Rys. 2. Schemat stanowiska pomiarowego dla przepływu
przeciwprądowego powietrza i wody
1-zraszany wymiennik płytowy, 2- rozpylacz, 3-odkraplasz,4-wanna wody obiegowej,5wentylator,6-pompa wody obiegowej,7-kryza pomiarowa,8-mikromanometr,9-termometr
suchy, 10-termometr mokry,11-manometr tarczowy,12-rotametr,13-przepustnica
wielopłaszczyznowa
151
Badane urządzenie składa się z pięciu podstawowych elementów:
 wymiennika płytowego (1) zbudowanego z pakietu płyt
poliwęglanowych, układanych na przemian prostopadle karbami
wzmacniającymi, umieszczonego w metalowej obudowie.
Fragment płyty poliwęglanowej w przekroju pokazano na rys.3.
 rozpylacza wody (2) z przepływem zawirowanym, który
w przekroju pokazano na rys.4. W elemencie zawirowującym jest
nawiercony centrycznie otwór o średnicy d mniejszej niż otwór
w korpusie dyszy (1) D. Wytwarza on pełny stożek kropel wody
o kącie rozwarcia około 90o,jedna dysza zatem zapewnia zraszanie
wodą całej powierzchni badanego wymiennika.
Rys. 3. Profil płyty poliwęglanowej
Rys. 4.Rozpylacz wody
 odkraplacza (3);
 pompy wody obiegowej (5) firmy Wilo o mocy 480W;
 wanny wody obiegowej (4).
Objętościowy strumień przepływającej wody, zraszającej wymiennik,
zmieniano przez zastosowanie rozpylaczy ślimakowych o różnych
średnicach otworu wylotowego.
Woda z wanny ociekowej była podawana do rozpylacza za pomocą
pompy (6).
W trakcie badań mierzono następujące wielkości:
1. Objętościowy strumień powietrza za pomocą kryzy pomiarowej (7)
o średnicy φ164 wykonanej zgodnie z PN-ISO 5221, zainstalowanej
na odcinku pomiarowym ( spiętrzenie na kryzie zmierzono za pomocą
mikromanometru (8) napełnionego alkoholem etylowym).
152
2. Pomiar natężenia przepływu wody za pomocą rotametru
wyposażonego w stalowy pływak i wyskalowany (w l/h) dla wody
o temperaturze 15°C.
3. Temperatury płynów za pomocą atestowanych termometrów
rtęciowych (9) i (10) z podziałką co 0,1 °C.
4. Opory hydrauliczne po stronie suchej i mokrej wymiennika za
pomocą mikromanometrów napełnionych alkoholem etylowym.
5. Ciśnienie wody przed dyszą za pomocą manometru tarczowego (11).
6. Wilgotność właściwą powietrza metodą psychrometryczną.
2.Badania pośredniej chłodnicy wyparnej zbudowanej na
bazie wymiennika płytowego
W chłodnicy rozpylona woda z rozpylacza z przepływem
zawirowanym spływa w kanalikach wymiennika płytowego współprądowo
lub przeciwprądowo w stosunku do absorbującego wilgoć powietrza.
Podjęto próbę określenie wpływu sposobu doprowadzania wody do
wymiennika płytowego na efektywność pracy pośredniej chłodnicy
wyparnej. Ponieważ na efektywność pracy chłodnicy wpływa zarówno
wydajność chłodnicza wymiennika jak i opory hydrauliczne przepływu
powietrza przez ten wymiennik analizie poddano przede wszystkim te dwa
czynniki.
Opory przepływu odczytywano bezpośrednio w trakcie badań,
a wydajność chłodniczą należało obliczyć.
Przepływ wody przez wymiennik jak wykazały obserwacje nie ma
charakteru filmu wodnego, lecz przebiega dwutorowo (rys.5):
tm
tw
Rys. 5. Przepływu wody w kanałach powietrznych wymiennika płytowego
153
a) występuje spływ wody stróżkami w rogach kanałów powietrznych,
b) okresowo wymieniających się praktycznie stałych kropel wody na
płaskich powierzchniach kanałów
W przypadku „a” jako temperaturę odniesienia do oceny sprawności
chłodnicy wyparnej przyjęto średnią temperaturę wody, a w przypadku „b”
temperaturę termometru mokrego.
Uzyskane wyniki badań należy opracować tak, aby w sposób
jednoznaczny wynikało czy lepszy jest układ współprądowy czy
przeciwprądowy przepływu powietrza i wody po mokrej stronie
wymiennika. W tym celu należy sprawdzić:
 bilans energii, gdyż jego zrównoważenie gwarantuje poprawność
przeprowadzonych badań,
 sprawność zraszanego wymiennika płytowego w układzie
współprądowego i przeciwprądowego przepływu powietrza
i wody,
 opory przepływu powietrza po zraszanej stronie wymiennika
płytowego w układzie współprądowego i przeciwprądowego
przepływu powietrza i wody.
Literatura
[1] Bednarski J., Pośrednie chłodzenie wyparne w klimatyzacji, Wrocław Oficyna
Wydaw. PWroc., 1999. 99 s. : 41 rys., 6 tab.
154
Zastosowanie symulacji numerycznych
w analizie bezpieczeństwa biernego pieszego
Mariusz Ptak1
Streszczenie: W artykule zaprezentowano aspekty bezpieczeństwa biernego
pieszego oraz przedstawiono procedurę badawczą odzwierciedlającą
zderzenie pojazdu z pieszym. Dzięki symulacjom numerycznym moŜliwe było
stworzenie konstrukcji przedniego układu zabezpieczającego oraz jego
weryfikację jeszcze na etapie projektowania.
Słowa kluczowe: bezpieczeństwo pieszego, symulacje numeryczne
1. Wprowadzenie
Bezpieczeństwo pieszych stanowi powaŜny problem natury
społecznej. Na drogach Europy niemal 20% śmiertelnych wypadków [1] to
niechronieni uczestnicy ruchu drogowego. Rozwijanie systemów
bezpieczeństwa czynnego w pojazdach, jak równieŜ oddzielanie ruchu
pieszych od dróg przyczynia się do poprawy tej sytuacji. Jednak nawet
w najbardziej rozwiniętych krajach, gdzie infrastruktura drogowa
nastawiona jest na bezpieczeństwo wszystkich uczestników dróg, wypadki
z pieszymi w duŜych miastach i aglomeracjach stanowią nawet 70%
wszystkich ofiar [2]. Często zaobserwować moŜna lekcewaŜenie pieszych,
jako pełnoprawnych uczestników ruchu, szczególnie na przeznaczonych dla
nich przejściach. Faktowi temu nie przeciwdziałają zaawansowane systemy
bezpieczeństwa czynnego, poniewaŜ pomimo wsparcia techniki
odpowiedzialność za podejmowane decyzje spoczywa na kierowcy.
Z drugiej strony wina za wypadek często leŜy po stronie osoby
niezmotoryzowanej, której pośpiech lub brak rozwagi moŜe mieć tragiczne
skutki.
Na początku lat 50. dwudziestego wieku nastąpił szybki rozwój
technologii, która przyczyniała się do poprawy bezpieczeństwa osób
w kabinie pojazdu. Udoskonalenie stref zgniotu, pasów bezpieczeństwa oraz
poduszek powietrznych z pewnością jest uznawane za kamienienie milowe
w motoryzacji, jednak w małym stopniu przyczyniło się do poprawy
1
Instytut Konstrukcji i Eksploatacji Maszyn, Politechnika Wrocławska; 50-371 Wrocław,
ul. I. Łukasiewicza 7/9; e-mail: [email protected]
155
bezpieczeństwa pieszych. Konstruktorom wydawało się, Ŝe w starciu
z kilkunastokrotnie cięŜszym i szybszym pojazdem niechroniony uczestnik
ruchu musi odnieść powaŜne, jeśli nie śmiertelne obraŜenia. Dopiero
wprowadzane regulacje wymusiły na rynku samochodów osobowych
zmiany, których to ewolucję moŜna zaobserwować równieŜ dziś. Aspekty
bezpieczeństwa pieszych, jak równieŜ obowiązujące trendy i zagadnienia
aerodynamiczne zmieniły szczególnie część przednią pojazdów
samochodowych. Stały się one bardziej opływowe, zderzaki pozbawione
zostały ostrych krawędzi, które potencjalnie przyczyniały się do
zwielokrotnienia obraŜeń przy zderzeniu. Nie spotyka się juŜ praktycznie
zderzaków wykonanych ze stopów metali - zostały one zastąpione przez
tworzywa sztuczne, wypełnione absorbującą energię zderzenia pianką. Co
więcej, to właśnie bezpieczeństwo pieszych i odpowiednie, ujęte w ramy
prawne przepisy, wymusiły wyeliminowanie symboli firmowych
z przedniej części maski. Tworzone dziś modele samochodów pozbawione
są charakterystycznych gwiazd, odlewów jaguarów czy rozpoznawalnych
emblematów jak Spirit of Ecstasy, sygnujących osłonę chłodnicy RollsRoyce’a. Jeśli elementy takie pozostają, nie mogą zagraŜać pieszemu.
Innymi słowy muszą chować się lub łamać pod działaniem niewielkiej siły.
Analogię moŜna znaleźć w konstrukcji bocznych lusterek pojazdów, które
powinny składać się juŜ przy słabym uderzeniu np. w pieszego.
W celu ograniczenia ofiar wypadków wśród pieszych, powstały
regulacje prawne odnoszące się do wprowadzanych na rynek Unii
Europejskiej pojazdów. W związku z tym firmy motoryzacyjne testują
swoją produkty juŜ na etapie projektowania, aby uniknąć ewentualnych,
bardzo kosztowych zmian wyprodukowanych seryjnie konstrukcji. Obecnie
symulacje numeryczne pomyślnie zastępują testy rzeczywiste, które ze
względu na swój zniszczeniowy charakter są zazwyczaj droŜsze, trudniejsze
do powtórzenia i dostarczają mniej danych. W artykule zaprezentowany
został przebieg prac nad badaniem bezpieczeństwa pieszego podczas kolizji
z pojazdem typu SUV (ang. Sport Utility Vehicle) wyposaŜonym w przedni
układ zabezpieczający, popularnie nazywanym orurowaniem.
2. Opracowanie przedniego układu zabezpieczającego
pieszego z wykorzystaniem symulacji numerycznych
W celu opracowania układu zabezpieczającego zgodnego
z regulaminem (EC) 78/2009 oraz dyrektywą 2005/66/EC przeprowadzono
serie wirtualnych symulacji zderzenia pojazdu z pieszym przy prędkości
40 km/h. Kryteria optymalizacji nowej konstrukcji, które są jednocześnie
maksymalnymi wartościami mierzonymi na poszczególnych częściach
wirtualnego ciała ludzkiego, zamieszczone zostały w tab.1.
156
CZĘŚĆ CIAŁA
Dolna część nogi
Górna część nogi
Głowa dziecka
Głowa dorosłego
KRYTERIUM
BIOMECHANICZNE
Ugięcie kolana
Przemieszczenie ścinające stawu
kolanowego
Przyspieszenie piszczeli
Suma działających sił
Moment gnący
Head Injury Criterion
Head Injury Criterion
LIMIT
21.0°
6.0 mm
200 g
5.0 kN
300 Nm
1000
1000
Tab. 1. Zestawienie granicznych wartości dla uderzenia pieszego w pojazd zgodnie z [3]
Symulacje przeprowadzono przy uŜyciu wirtualnego modelu pojazdu,
którego przednia część została wiernie odwzorowana przy uŜyciu inŜynierii
odwrotnej (z ang. Reverse Engineering). Tzw. chmura punktów poddana
została konwersacji na powierzchnie rozpoznawalne przez programy
wspomagające projektowanie typu CAD (ang. Computer Aided Design).
Następnie do modelu pojazdu dołączono przedni system zabezpieczający,
którego parametryczna konstrukcja pozawalała wprowadzać konieczne
zmiany. Niezbędnym etapem w tworzeniu symulacji numerycznej
z wykorzystaniem MES (Metody Elementów Skończonych) jest naniesienie
siatki
elementów
skończonych,
zdefiniowanie
właściwości
i charakterystyk uŜytych materiałów oraz określenie warunków brzegowych
[4]. W opisanym teście uŜyto certyfikowanych impaktorów,
odzwierciedlających krytyczne dla zderzenia części ciała ludzkiego. Cały
cykl modelowania przedstawiony został na rys. 1.
Rys. 1. Cykl projektowania modelu do zderzenia z pieszym
157
W wyniku przeprowadzonych symulacji otrzymano optymalną, pod
względem załoŜonych kryteriów biomechanicznych, montaŜu oraz
wymagań prawnych, konstrukcję przedniego układu zabezpieczającego. Ze
względu na zastosowanie w obliczeniach certyfikowanych numerycznych
impaktorów, symulacja moŜe być podstawą do przyznania konstrukcji
homologacji i wprowadzenia jej na rynek.
3. Podsumowanie
Ochrona pieszych przed skutkami zderzenia, w odróŜnieniu od kwestii
bezpieczeństwa pasaŜerów, była przez wiele lat pomijana przez
konstruktorów pojazdów. Obecnie homologowane pojazdy nie powinny
zagraŜać Ŝyciu pieszego przy uderzeniu z prędkością 40 km/h. Niewątpliwie
zastosowanie konstrukcji absorbujących energię zderzenia w przedniej
części pojazdu przyczyniło się do tego stanu. NaleŜy równieŜ zwrócić
uwagę na znaczy wpływ symulacji numerycznych na poprawę
bezpieczeństwa biernego pieszego. W artykule przedstawiono studium prac
nad przednim układem zabezpieczającym, który dzięki uŜyciu programów
CAD/CAE oraz wykorzystaniu metody MES optymalizowany był jeszcze
na etapie projektowania. Przy symulacji zderzenia zastosowano
odpowiednio przygotowany model pojazdu oraz wirtualne impaktory,
odzwierciedlające poszczególne części ciała ludzkiego. Pozytywne wyniki
badań mogą stanowić podstawę do dalszych prac badawczych, mających na
celu poprawę bezpieczeństwa biernego.
Literatura
[1] Łęgiewicz, Jacek. Pieszy teŜ człowiek. Auto Technika Motoryzacyjna.
2007, 2.
[2] Leon Prochowski, Jan Unarski, Wojciech Wach, et al. Podstawy
rekonstrukcji wypadków drogowych. Pojazdy samochodowe. Warszawa :
Wydawnictwa Komunikacji i Łączności WKŁ, 2008.
[3] Council, European Parliament and. Regulation (EC) No 78/2009 of the
European Parliament and of the Council. Brussel : Official Journal of the
European Union, 2009.
[4] E. Rusiński, J. Czmochowski, T. Smolnicki. Zaawansowana metoda
elementów skończonych w konstrukcjach nośnych. Wrocław : Oficyna
Wydawnicza Politechniki Wrocławskiej, 2000.
158
Idea budowy robota inspekcyjnego do badania
kanałów wentylacyjnych i klimatyzacyjnych
Przemysław Sperzyński1
Streszczenie: W artykule przedstawiono charakterystykę środowiska,
skalę problemu jakim jest, badanie i ciągłe monitorowanie istniejących
ciągów wentylacyjnych w budynkach uŜyteczności publicznej. Przedstawiono
charakterystykę środowiska t.j. wymiary i kształty rur wentylacyjnych
oraz warunki w nich panujące. Zawarto podział struktur robotów obecnie
wykorzystywanych do podobnych celów.
Słowa kluczowe: robot inspekcyjny, robot modułowy,
systemy wentylacyjne
1. Wprowadzenie
Celem pracy jest przedstawienie zadania jakim jest kontrola systemów
wentylacji jaki i klimatyzacji budynków. Systemy te często zamontowane
są pod podwieszonymi sufitami bądź w specjalnych ciągach kominowych,
do których człowiek ma utrudniony dostęp. JeŜeli jest moŜliwość dostępu
do rur, to z zewnątrz nie jesteśmy w stanie określić czy ich stan jest
zadawalający. Często istnieje potrzeba kontroli powierzchni rury – czy nie
powstały znaczące pęknięcia, czy łączenia są nienaruszone,
oraz czy nie zagnieździły się w nich bakterie czy grzyby.
Większość komercyjnych robotów inspekcyjnych proponowanych na
rynku posiada oczywiste wady. Sterowanie robotem odbywa się najczęściej
ze zdalnego centrum zamontowanego w samochodzie co usprawnia jego
działanie. JednakŜe sterowanie to realizowanie jest za pomocą kabla
łączącego robota z komputerem sterowniczym. Przy bardziej
skomplikowanej infrastrukturze systemu rur znacznie ogranicza to jego
ruchy. Ponadto, jeŜeli spojrzeć na zadanie inspekcji rur wentylacyjnych
istnieje potrzeba ruchu robota w kierunku pionowym, a większość
proponowanych rozwiązań nie spełnia tego załoŜenia. Podobnie
jest w przypadku robota znajdującego się w Instytucie InŜynierii Lądowej
na Wydziale Budownictwa Lądowego i Wodnego PWr [8].
1
Instytut Konstrukcji i Eksploatacji Maszyn I-16, Zakład Teorii Maszyn i Układów
Mechatronicznych, ul. Ignacego Łukasiewicza 7/9, 50-371 Wrocław,
[email protected]
159
2. Charakterystyka środowiska
W kanałach wentylacyjnych bądź klimatyzacyjnych panują często
niesprzyjające warunki. Powietrze w pomieszczeniach powinno mieć
temperaturę od 18°C do 22°C i wilgotność od 40 do 60%. Nie oznacza
to jednak Ŝe takie warunki będą panowały w kanałach. Istnieje bowiem
potrzeba szybkiej zmiany warunków panujących w wentylowanych
pomieszczeniach, a wtedy pompowane powietrze charakteryzuje się
warunkami róŜniącymi się znacznie od wyŜej wymienionych. Ponadto,
moŜna krótko przedstawić dlaczego istnieje potrzeba inspekcji tych rur:
• w kanałach wentylacyjnych często osadzają się pyły, kurze i inne
lotne substancje. Przy sprzyjających warunkach powstają procesy
gnilne oraz pleśnienia. Zaczynają się rozwijać mikroorganizmy
które następnie mogą być pompowane wraz z powietrzem
do pomieszczeń,
• wyŜej wymienione czynniki pompowane z powietrzem wpływają
negatywnie na pracę ludzi znajdujących się w pomieszczeniach.
Powodują częste bóle głowy, złe samopoczucie czy nadmierne
zmęczenie. Wszystko to prowadzi do zmniejszenia efektywności
pracy,
• w
skrajnych
przypadkach
zanieczyszczenia
prowadzą
do powstawania róŜnych chorób dróg oddechowych, czy alergii.
Często wymienianą chorobą spowodowaną przez bakterie
w kanałach wentylacyjnych jest legionelloza [10],
• kurz wraz z rozgrzanym i suchym powietrzem tworzy środowisko,
w którym moŜna łatwo zaprószyć ogień.
Wszystkie te czynniki stwarzają potrzebę monitorowania wnętrza rur
wentylacyjnych. Nie wyczerpują jednak powodów, które skłaniają
do inspekcji. Zaleganie kurzu w drogach wentylacyjnych powoduje
zmniejszenie przepuszczalności kanału przez co zwiększa się pobór energii
przez urządzenia nagrzewające bądź chłodzące powietrze. Podobnie dzieje
się w przypadku nieszczelnego kanału. Listę powodów dlaczego naleŜy
regularnie monitorować stan instalacji AC (obok zdrowia ludzi i powodów
ekonomicznych), dopełnia ustawowy obowiązek nałoŜony na zarządców
budynków, do dbania o prawidłowe warunki panujące w pomieszczeniach
uŜytkowanych przez ludzi. W pracy [1] autorzy stwierdzają znaczną
poprawę efektywności pracy, po wyczyszczeniu kanałów wentylacyjnych.
3. Kształt kanałów wentylacyjnych
Systemy rur, choć wykonane są ze standardowych elementów róŜnią
się nie tylko wymiarem, ale równieŜ jednak kształtem przekroju kanału.
160
a)
b)
c)
d)
e)
f)
g)
h)
Rys. 1. Najczęściej spotykane kształty kanałów wentylacyjnych
Na rys. 1, przedstawione zostały elementy z jakich zbudowane są
kanały wentylacyjne. Jak widać moŜna spotkać kanały sztywne (rys. 1d-h),
jak i elastyczne (rys. 1a-c), o przekroju okrągłym ale takŜe prostokątnym.
Utrudnia to zdefiniowanie układu napędowego robota, który mógłby się
poruszać we wszystkich pokazanych elementach. Spotyka się takŜe,
elementy o znacznie zróŜnicowanych wymiarach. Rury mogą mieć średnicę
od 80mm aŜ do 600mm. Podobnie jest w przypadku kanałów prostokątnych.
MoŜna zauwaŜyć róŜnicę w wymiarach przekroju elementu
przedstawionego na rys. 1e, oraz 1h.
3. Struktury robotów inspekcyjnych
Podstawowe typy robotów inspekcyjnych przedstawione zostały
na rysunku 2.
a)
e)
b)
c)
f)
d)
g)
Rys. 2. Rodzaje robotów przeznaczonych do inspekcji rur
161
WyróŜnić moŜna roboty: a) kołowe, b) kroczące, c) gąsienicowe,
d) rozporowe e) płynące z medium znajdującym się w rurze (ang. pig-type
robot), f) o napędzie śrubowym oraz g) robot typu robak.
W literaturze moŜna spotkać realizacje niemal wszystkich
wymienionych typów robotów [2-7]. Najpopularniejsze są roboty
o napędzie gąsienicowych bądź kołowym. Przykładem takiego robota jest
„Gopher Pipe Crawler” [7], przedstawiony na rys. 3. Dzieje się tak
z powodu prostoty realizacji napędów i odometri robota w kanałach.
a)
b)
c)
d)
Rys. 3. Przykłady robotów inspekcyjnych spotykanych na rynku
W odróŜnieniu od poprzednich, stosunkowo mało wśród robotów
inspekcyjnych jest robotów kroczących. Dzieje się tak z powodu wciąŜ
rozwijanego rozwiązania problemu kroczenia robota. Skomplikowanie
układu jest na tyle duŜe, Ŝe wypierane jest przez pozostałe rozwiązania.
Nie moŜna jednak wykluczyć, Ŝe w przyszłości pojawi się ta koncepcja.
Roboty typu rozporowego (rys. 3d) pozwalają na dostosowanie rozmiarów
układu jezdnego do kształtu kanału przez co zwiększa to spektrum
zastosowań robota. Ciekawą konstrukcją jest robot pokazany na rys. 3c.
Poprzez zmienny kąt nachylenia górnych kół obrót głowicy robota
162
powoduje ruch posuwisty względem rury. Robot pokazany na rys. 2e
nie nadaje się tutaj, do postawionego zadania inspekcji wentylacji. Kanały
wentylacyjne posiadają wymuszony obieg powietrza, jednakŜe nie moŜna
polegać na przepływie tego medium, ze względu na róŜne jego prędkości
i kierunki przepływu. Roboty typu robak (rys. 2g) podobnie jak roboty
kołowe są chętnie stosowane do inspekcji wszelkiego rodzaju rur
m.in. rur kanalizacyjnych. Konstrukcja ta jednak wyklucza poruszanie się
po obydwu wyŜej zdefiniowanych kształtach kanałów. Równie popularną
konstrukcją jest nie wyszczególniona na rys. 2, struktura robota-węŜa.
4. Pole badań
Potrzeba inspekcji kanałów wentylacyjnych jest rzeczą waŜną
nie tylko ze względów zdrowotnych ale takŜe ekonomicznych.
Przede wszystkim zadanie jest postawione przy realizacji konstrukcji
mechanicznej robota, pozwalającej na wykonywanie załoŜonych ruchów.
JeŜeli postawimy ponadto zadanie budowy robota modułowego [9],
tzn. takiego, którego poszczególne człony mogą poruszać się po kanale
niezaleŜnie od pozostałych, bądź wszystkie razem jednocześnie, to zadanie
znacznie się komplikuje. Zadanie takie postawili konstruktorzy z organizacji
SINTEF [11]. Ich celem stała się budowa inteligentnego robota (rys. 4).
Modułowość umoŜliwiłaby rozdzielanie się robota przy rozgałęzieniach
dróg.
Rys. 4. Idea robota rozwijana w instytucie SINTEF
Przy realizacji takiego robota istnieje dodatkowy problem - komunikacji.
JeŜeli zrezygnujemy ze sterowania poprzez łącze kablowe, naleŜy w inny
sposób zrealizować komunikację robota z panelem sterowniczym.
Przy modułowości robota naleŜy takŜe zadbać o prawidłową komunikację
między modułami. Przy konstrukcji, naleŜy takŜe pamiętać o warunkach
na jakie będzie naraŜony robot od róŜnych zakresów temperatur
163
po wilgotność czy wszelakie czynniki chemiczne. Kolejnym problemem
do rozwiązania jest prawidłowa sensoryka robota. Podstawą działania takich
robotów jest bowiem zdolność do prawidłowego określenia własnego
połoŜenia w badanym systemie. Dodając do tego autonomię w postaci
umiejętności rozpoznawania nieprawidłowości struktury kanałów, powstaje
spory problem do rozwiązania.
5. Podsumowanie
Patrząc na rynek robotów inspekcyjnych uwidacznia się duŜa luka
w braku odpowiedniego mechanizmu wystarczająco uniwersalnego
do róŜnego rodzaju kanałów. Istniejące rozwiązania mają zawęŜone pole
działania i są robotami „na sznurku” – przewodowo połączone
z operatorem. Ponadto widać brak robota zaopatrzonego w jakąkolwiek
autonomię działania.
Literatura
[1]
S. Kolaria, U. Heikkila-Kalliob, M. Luomaa, P. Pasanenc, P. Korhonenb, E.
Nykyrib, K. Reijulab The effect of duct cleaning on perceived work
environment and symptoms of office employees in non-problem buildings,
Building and Environment, grudzień 2004
[2] Se-gon Roh and Hyouk Ryeol Choi, Differential-Drive In-Pipe Robot for
Moving Inside Urban Gas Pipelines. IEEE Robotics on Robotics, luty 2005.
[3] M. Horodinca, I. Doroftei, E. Mignon, A. Preumont, A simple architecture
for in-pipe inspection robots. Active Structures Laboratory, Univeriste Libre
De Bruxelles.
[4] Design, Modeling and Prototyping of a Pipe Inspection Robot, International
Symposium on Automation and Robotics in Construction, wrzesień 2005.
[5] A. A. F. Nassiraei, Y. Kawamura, A. Ahrary, Y. Mikuriya, K. Ishii, Concept
and Design of A Fully Autonomous Sewer Pipe Inspection Mobile Robot
“KANTARO”, IEEE International Conference on Robotics and Automation,
kwiecień 2004
[6] A. Brunete, M. Hernando, E.Gambao, Modular Multiconfigurable
Architecture for Low Diameter Pipe Inspection Microrobots, IEEE
International Conference on Robotics and Automation, kwiecień 2005
[7] http://www.roboprobe.com/
[8] http://www.iil.pwr.wroc.pl/
[9] A. Brunete, M. Hernando, E.Gambao, Modular Multiconfigurable
Architecture for Low Diameter Pipe Inspection Microrobots, International
Conference on Robotics and Automation, kwiecień 2005
[10] http://en.wikipedia.org/wiki/Legionellosis
[11] http://www.sintef.no/Home/Press-Room/Research-News/The-robot-thatclimbs-in-the-pipe/
164
Układy robotyczne – mobilny
robot kołowo-kroczący
Jarosław Szrek*, Przemysław Sperzyński*
Streszczenie: W artykule przedstawiono ogólną budowę układu
robotycznego – jego strukturę, poszczególne elementy, ogólną zasadę
działania. Jako przykład układu robotycznego zastał zaprezentowany
”LegVan”, mobilny robot kołowo-kroczący.
Słowa kluczowe: Kroczenie, sterowanie, kinematyka
1. Wprowadzenie
Roboty, ze względu na zastosowania, możliwości, funkcje można
podzielić na kilka kategorii. Na początek można je podzielić na dwie
kategorie związane z poruszaniem się. Wyróżnimy zatem roboty stacjonarne
oraz mobilne. Roboty stacjonarne, zwane również manipulatorami lub
robotami przemysłowymi są najbardziej rozpowszechnione. To one
w zakładach produkcyjnych wyręczają człowieka w ciężkich, monotonnych
pracach, zapewniając przy tym większą dokładność i powtarzalność
wykonania. W zależności od potrzeb ramię manipulatora może być
zaprojektowane na przenoszenie lekkich, ciężkich ładunków na małe bądź
duże odległości.
W przypadku gdy robot ma możliwość zmiany swojego położenia
(cały robot względem podłoża) staje się robotem mobilnym.
Roboty mobilne, w zależności od środowiska w jakim działają,
ponownie można podzielić na kilka kategorii. Wyróżniamy roboty latające,
pływające, oraz poruszające się na lądzie. Roboty lądowe dzielimy
ze względu na sposób przemieszczania. Istnieją mobilne roboty kroczące
oraz kołowe, w tym poruszające się na gąsienicach.
Roboty mobilne, w wielu przypadkach, mogą być nazwane
platformami mobilnymi. Tego typu obiekty głównie znajdują zastosowane
w transporcie, inspekcji, obserwacji.
Aby zwiększyć funkcjonalność i tym samym zwiększyć możliwości
potencjalnego zastosowania robotów, wykonuje się kombinacje kilku
kategorii. Montując manipulator na platformie mobilnej można uzyskać
*
Politechnika Wrocławska, Zakład Teorii Maszyn i Układów Mechatronicznych,
ul. Łukaszewicza 7/9, 50-371 Wrocław;
http://tmm.pwr.wroc.pl, e-mail: (Jarosław.Szrek | Przemyslaw.Sperzynski)@pwr.wroc.pl
165
pojazd posiadający zdolność przemieszczania oraz manipulacji – np.
możliwe stanie się uchwycenie i przewiezienie ładunku.
Każde z tego typu rozwiązań posiada zarówno wady jak i zalety. Roboty
kołowe posiadają możliwość rozwijana większej prędkości w porównaniu
z robotami kroczącymi. Z kolei roboty kroczące lepiej funkcjonują na
nierównym podłożu z przeszkodami.
W celu zwiększenia prędkości poruszania się robota oraz zapewnienia
mu możliwości pokonywania przeszkód połączono w tym przypadku dwie
kategorie robotów [1, 2, 3]. Po połączeniu powstał robot hybrydowy
kołowo-kroczący. W swej idei robot po równym terenie jedzie na kołach,
a gdy natrafi na przeszkodę, której nie będzie w stanie ominąć, pokona
przeszkodę przechodząc po niej lub nad nią.
2. Ogólna budowa układu robotycznego
Niezależnie od kategorii i zastosowania ogólna zasada działania oraz
struktura układu robotycznego jest niezmienna. Układ robotyczny posiada
cześć mechaniczną (manipulacyjną), która oddziałuje na otoczenie, układ
sterowania odpowiedzialny za przetwarzanie informacji oraz układy
sensoryczne, za których pośrednictwem pozyskuje się dane z otoczenia oraz
aktualnego stanu robota. Ogólny schemat struktury układu robotycznego
przedstawiono na rys. 1.
Rys. 1. Schemat blokowy układu robotycznego
Oddziaływanie na otoczenie wiąże się z wykonaniem działania lub
wysłaniem informacji. Może to być np. wykonanie przemieszczenia, ruchu,
wydanie dźwięku, sygnału świetlnego czy wyświetlenie komunikatu
tekstowego. W układach robotycznych wykonanie ruchu zazwyczaj wiąże
się z uruchomieniem silnika (DC, AC, skokowego, piezoelektrycznego itp.)
lub otwarciem zaworu w instalacji hydraulicznej, pneumatycznej.
166
Decyzja o tym jakie działanie będzie wykonane zapada w układzie
sterowania. Informacja, obecnie zazwyczaj w formie cyfrowej, kierowana
jest do konkretnego układu, który zmienia swój aktualny stan.
Układ sterowania robota w obecnych czasach jest wysokowydajnym
komputerem, który w krótkim czasie potrafi przetworzyć znaczną liczbę
informacji. Przetwarzanie, informacji, wykonanie działania realizowane jest
zgodnie z zaprogramowanym algorytmem sterowania, a dodatkowe
informacje i parametry pozyskiwane z układów sensorycznych - czujników
robota.
Czujnik robota można podzielić na dwie kategorie. Pierwsza –
czujniki parametrów wewnętrznych robota oraz druga – czujniki
pozyskujące informacje z otoczenia. Parametry wewnętrzne (np. aktualne
położenie, prędkość, aktualna konfiguracja itp.) stanowią niezbędną
informację przy wykonywaniu każdego ruchu robota.
Dane z otoczenia (usytuowanie lub położenie obiektu względem
robota, temperatura, natężenia światła, poziom dźwięku) pozyskiwane są za
pośrednictwem odpowiednich układów przetwarzających daną wielkość na
sygnał elektryczny, a później wartość liczbową, która może być użyta przy
procedurach sterujących. Dane te są nazywane sprzężeniem zwrotnym
i pozwalają sprawdzić jak sygnały sterujące oddziałują na otoczenie lub na
samego robota i czy to działanie jest odpowiednie i zgodne z intencjami.
3. Robot kołowo-kroczący „LegVan”
Robot kołowo-kroczący „LegVan” (rys. 2), podobnie jak każde
urządzenie mechatroniczne, łączy w sobie cześć mechaniczną, elektroniczną
oraz oprogramowanie, które odpowiada za działanie całości.
3.1. Część mechaniczna robota
Bazą robota jest platforma o wymiarach 750 x 400 x 150 mm, do
której przymocowane są cztery identyczne kończyny. Na końcu każdej
z kończyn jest zamocowane koło. Wszystkie cztery koła robota są
napędzane, dwa z nich (tylne) dodatkowo posiadają możliwość skrętu.
Funkcje jakie posiada robot to poziomowanie platformy w nierównym
terenie oraz pokonywanie przeszkód przez kroczenie (unoszenie kończyn).
Robot posiada specjalny układ zawieszenia kół, które zaprojektowano pod
kątem najlepszej realizacji funkcji poziomowania, przy jednoczesnym
zapewnieniu minimalnej liczby napędów. Dzięki temu w robocie możliwa
jest realizacja funkcji poziomowania przy użyciu jednego napędu
w kończynie, co dodatkowo pozwoliło to na uproszczenie układu
sterowania oraz usprawnienie działania robota. Ponadto robot w dalszym
ciągu posiada możliwość pokonywania przeszkód przez kroczenie.
167
Rys. 2. Robot kołowo-kroczący „LegVan”[5]
W robocie wykorzystywanych jest 14 silników napędowych.
Z powodu znacznej ich liczby oraz specyficznych funkcji robota, układ
sterowania został podzielony na bloki. W robocie można wyróżnić moduły
napędów odpowiedzialne za ruch poszczególnymi grupami silników oraz
moduły pomiarowe.
Jedna grupa odpowiada za przemieszczenie się robota na kołach. Do
tego działania wykorzystano 4 silniki napędowe kół oraz 2 silniki
wykonujące skręt. Kolejne cztery napędy odpowiadają za ruch poziomujący
platformy. Ostatnie cztery napędy wykorzystywane są przy wykonywaniu
kroczenia. Funkcja kroczenia w tym przypadku wymaga uniesienia
kończyny i przesunięcia jej nad przeszkodę. Jest to złożenie dwóch ruchów
podstawowych zatem należy uruchomić zsynchronizować ze sobą ruch
napędów modułów poziomowania oraz kroczenia.
3.2. Układ sterowania
Każdy z poszczególnych bloków napędowych posiada własny lokalny
układ sterowania. Lokalne sterowniki, odpowiedzialne za poruszanie się na
kołach, ruch poziomujący oraz kroczenie zbudowane są w oparciu
o niezależne mikrokontrolery. Moduły te zapewniają regulację do zadanej
wartości położenia (np. uniesienie kończyny) lub prędkości wykorzystując
przy tym sygnały sprzężenia zwrotnego.
Sterowanie robotem może odbywać się w trybie ręcznym oraz
automatycznym. Sterowanie ręczne wykonywane jest za pośrednictwem
joysticka, podłączonego do zewnętrznego komputera sterującego (rys. 3).
Drugi tryb pracy robota to działanie automatyczne. Robot, już bez udziału
człowieka realizuje zgodnie z algorytmem działania powierzone zadanie.
168
Rys. 3. Zewnętrzny komputer sterujący robotem [5]
Rys. 4. Okno aplikacji sterującej robotem [5]
W trybie automatycznym możliwy jest ruch robota po określonej
trajektorii przy jednoczesnym wykonywaniu poziomowania platformy
w nierównym terenie. W przypadku gdy na drodze robota pojawi się
przeszkoda robot samodzielnie ją pokona przez kroczenie.
Na zewnętrznym komputerze sterującym uruchomiona jest aplikacja
„GRAS” (Główna, Robota Aplikacja Sterująca), w której dostępne są
wszystkie parametry robota, oraz wizualizowane dane pomiarowe. Okno
aplikacji „GRAS” widoczne jest na rys. 4. Dodatkowo w jej oknie dostępny
jest obraz z kamery umieszczonej na robocie stanowiący uzupełnienie
danych sensorycznych lub pozyskanie konkretnych danych z miejsca,
w które robot został skierowany do inspekcji.
169
3.3. Sensoryka
Za pozyskiwanie sygnałów pochodzących z otoczenia robota
odpowiadają moduły pomiarowe. Jako oddzielne jednostki na bieżąco
wykonują pomiary i na żądanie komputera nadrzędnego udostępniają
wyniki. Między innymi w robocie wykonywany jest pomiar odległości od
przeszkód, stopień nacisku kół na podłoże, odchylenie platformy od
poziomu, wartość składowych przyspieszenia ziemskiego.
4. Podsumowanie
Układy robotyczne są co raz częściej stosowane w różnych
dziedzinach życia. Obecnie ciężko sobie wyobrazić funkcjonowanie
nowoczesnego i wydajnego zakładu produkcyjnego bez wykorzystania
automatów czy manipulatorów.
Poza produkcją roboty są wykorzystywane do zadań specjalnych –
inspekcji niedostępnych obiektów, terenów, rozbrajania niebezpiecznych
ładunków czy eksploracji planet. Robotem specjalnym również jest
„LegVan”, prototyp robota kołowo-kroczącego, który posiada ciekawe
własności lokomocyjne, które również można obejrzeć w formie filmu
dostępnego na stronie www [4].
Robotom specjalnym stawiane są o wiele większe wymagania
w porównaniu z robotami przemysłowymi. Jeśli roboty mają również
funkcjonować w otoczeniu człowieka to problem staje się o wiele bardziej
złożony ze względu na dynamiczne otoczenie oraz bezpieczeństwo.
Literatura
[1] Ch. Grand, F. BenAmar, F. Plumet, Ph. Bidaud. Stability control of
a wheel-legged mini-rover. Proceedings of the CLAWAR 2002
Conference.
[2] A. Halme, I. Leppänen, S. Salmi, S. Ylönen. Hybrid locomotion of
wheel-legged machine. Proceedings of the CLAWAR 2000 Conference.
[3] J. Szrek. Synteza układu kinematycznego i sterowania czworonożnego
robota kołowo-kroczącego - Rozprawa doktorska. Raporty Inst. Konstr.
Ekspl. Masz. PWroc. 2008, Ser. PRE nr 10.
[4] http://robosystem.pl
170
Systemy wentylacji pomieszczeń, a koszty
uzdatniania powietrza
Agnieszka Zając1,Maria Kostka2
Streszczenie: W artykule porównano możliwości wykorzystania trzech
wybranych systemów wentylacyjnych do obsługi sali audytoryjnej Centrum
Naukowo – Badawczego Wydziału Elektrycznego Politechniki Wrocławskiej
przy ul. Janiszewskiego. Przedstawiono analizę całorocznej pracy wybranych
systemów oraz zestawienie kosztów ogrzewania, chłodzenia oraz transportu
powietrza wentylującego pomieszczenie.
Słowa kluczowe: wentylacja, klimatyzacja
1. Wprowadzenie
Budynek D20 – Centrum Naukowo – Badawcze Wydziału
Elektrycznego jest jednym z najnowszych budynków Politechniki
Wrocławskiej. Budynek składa się z 11 kondygnacji, z czego 2 znajdują się
poniżej poziomu terenu. Część, w której mieści się rozpatrywana sala
audytoryjna - Sala Kongresowa jest niższą częścią kompleksu o konstrukcji
stalowej z żelbetowym stropem, na którym zaprojektowano zielony ogród.
Sala Kongresowa (rys.1) przeznaczona jest na 600 osób i jest jedną
z największych i najnowocześniejszych sal audytoryjnych Politechniki
Wrocławskiej. Konstrukcja umożliwia jej podział na trzy odrębne sale:
jedną dla 300 słuchaczy, oraz dwie mniejsze dla 150 słuchaczy każda.
Całkowita powierzchnia sali wynosi ponad 667 m2.
grzejniki
grzejniki
grzejniki
Rys. 1. Rzut Sali Kongresowej, podział na 3 mniejsze sale audytoryjne.
1
2
Politechnika Wrocławska, Wydział Inżynierii Środowiska, [email protected]
Politechnika Wrocławska, Wydział Inżynierii Środowiska, [email protected]
171
2. Całoroczna praca systemów wentylacyjnych
Sala Kongresowa nie ma przegród przeszklonych, co wymusza
zastosowanie oświetlenia sztucznego. Przyjęto obciążenie cieplne
pomieszczenia wynikające ze sztucznego oświetlenia w ilości 25 W/m2.
Dodatkowo sala wyposażona jest w projektor, ekran, nagłośnienie,
tłumaczenia symultaniczne oraz system podglądu CCTV. Obciążenie
cieplne wynikające z dodatkowych urządzeń elektrycznych wynosi
~2,0 kW.
Całkowite zyski ciepła w pomieszczeniu w okresie letnim wynoszą 70,0 kW
i składają się na nie, poza oświetleniem i zamontowanymi urządzeniami:
− ludzie 80 W/os.
− stropodach 3,0 kW
− ściany zewnętrzne 1,0 kW
W okresie zimowym natomiast bilans ciepła, po uwzględnieniu
statycznych strat ciepła (założono brak konwencjonalne instalacji
centralnego ogrzewania) wynoszą 10,0 kW.
Dokonano analizy trzech systemów wentylacyjnych z centralnym
przygotowaniem powietrza zewnętrznego:
− wentylacja mieszająca, ze stałym strumieniem powietrza
wentylującego
− wentylacja mieszająca, ze zmiennym strumieniem powietrza
wentylującego
− wentylacja źródłowa, ze stałym strumieniem powietrza
wentylującego
W każdym z rozpatrywanych systemów przewidziano odzyskiwanie
energii z powietrza nawiewanego poprzez zastosowanie recyrkulacji
powietrza. Strumień powietrza świeżego (zewnętrznego) z pomieszczenia
obliczono z minimalnych wymagań higienicznych, zależnych od ilości osób
w pomieszczeniu. Powietrze zużyte po usunięciu z pomieszczenia jest
częściowo zawracane i mieszane z powietrzem zewnętrznym. Następnie
następuje jego obróbka termiczna (ogrzewanie lub chłodzenie, w zależności
od potrzeb) do wymaganych parametrów nawiewu i doprowadzenie do
pomieszczenia.
Na poniższych rysunkach (rys. 2, 3, 4) przedstawiono zmiany
temperatury w pomieszczeniu (tp), temperatury powietrza nawiewanego (tn)
oraz temperatury mieszaniny powietrza zewnętrznego i recyrkulowanego
(tm) w zależności od temperatury powietrza zewnętrznego (tz).
Rys. 2 przedstawia całoroczną pracę systemu mieszającego, ze stałym
strumieniem powietrza wentylującego. W rozwiązaniu tym zarówno
dostarczanie powietrza uzdatnionego, jak i odprowadzanie powietrza
zużytego odbywa się w górnej części pomieszczenia. Strumień powietrza
172
dostarczanego, wynikający z obciążenia pomieszczenia zyskami ciepła
wynosi Vn= 30000m3/h. Obróbka termiczna powietrza wentylującego jest
konieczna w zakresie temperatur powietrza zewnętrznego:
− do 9°C – praca nagrzewnicy powietrza
− od 15°C – praca chłodnicy powietrza
Temperatura powietrza zewnętrznego z przedziału 9 - 15°C umożliwia
wykorzystanie tego powietrza do wentylowania pomieszczenia bez użycia
wymienników ciepła – nagrzewnicy i chłodnicy. Wówczas ponoszony jest
jedynie koszt na przetransportowanie (dostarczenie) powietrza do sali.
Rys. 2. Całoroczna praca systemu mieszającego, ze stałym strumieniem powietrza
wentylującego.
Na rys. 3 przedstawiono całoroczną pracę systemu mieszającego, ze
zmiennym strumieniem powietrza. W systemie takim możliwe są zmiany
ilości powietrza doprowadzanego do pomieszczeń w zakresie 50 – 100%
strumienia wentylującego, a więc wynosi on 15000 – 30000m3/h.
Dostarczanie oraz odprowadzania powietrza rozwiązane jest jak
w poprzednim przykładzie w systemie „góra – góra”.
Górny wykres, podobnie jak w poprzednim przypadku obrazuje
zmiany temperatury pomieszczenia, nawiewu oraz mieszaniny w zależności
od temperatury zewnętrznej. Dolny natomiast pokazuje procentowe zmiany
strumienia powietrza wentylującego dostarczanego do pomieszczenia.
W tym przypadku obróbka termiczna powietrza wentylującego jest
konieczna w zakresie temperatur powietrza zewnętrznego:
− do 10°C – praca nagrzewnicy powietrza
− od 13°C – praca chłodnicy powietrza.
Wykorzystanie powietrza zewnętrznego do wentylowania pomieszczenia
bez użycia wymienników ciepła możliwe jest w zakresie temperatur
10 - 13°C. Zaznaczyć należy jednak, iż pomimo dłuższego czasu pracy
173
poszczególnych wymienników ciepła zmniejszenie strumienia powietrza
doprowadzanego do pomieszczeń znacznie obniża moc niezbędną do jego
ogrzania oraz transportu.
Rys. 3. Wentylacja mieszająca, ze zmiennym strumieniem powietrza wentylującego.
Rys. 4 przedstawia całoroczną pracę wentylacji źródłowej ze stałym
strumieniem powietrza wentylującego. W systemie tym powietrze
dostarczane jest bezpośrednio do strefy przebywania ludzi, a odprowadzane
jest spod stropu pomieszczenia – organizacja wymiany powietrza typu
„dół – góra”. Warunkiem dostarczania powietrza w bezpośrednie
sąsiedztwo ludzi jest utrzymywanie temperatury powietrza nawiewanego
zbliżonej do temperatury w pomieszczeniu. Zbyt duże różnice temperatur,
szczególnie w okresie letnim powodowałyby negatywne samopoczucie
użytkowników sali, odczucie przeciągu, dyskomfort przebywania
w pomieszczeniu. Niestety efektem niewielkich różnic temperatur pomiędzy
pomieszczeniem, a nawiewem jest znaczne zwiększenie strumienia
powietrza doprowadzanego do obiektu. Strumień powietrza wentylującego
w tym systemie, którym możemy usunąć gromadzące się zyski ciepła,
wynosi 42000m3/h. Jest więc o 40% większy od nominalnego strumienia
obliczeniowego w pozostałych systemach.
Obróbka termiczna powietrza wentylującego jest konieczna w zakresie
temperatur powietrza zewnętrznego:
− do 11°C – praca nagrzewnicy powietrza
− od 18°C – praca chłodnicy powietrza.
174
Pomimo możliwości wykorzystania powietrza zewnętrznego w dłuższym
niż w poprzednich przypadkach zakresie temperatur (11 - 18°C) praca
systemu ze zwiększonym o 40% strumieniem powietrza powoduje
zwiększenie mocy niezbędnej do ogrzewania, chłodzenia, jak również
transportu powietrza wentylującego.
Rys. 4. Wentylacja źródłowa, ze stałym strumieniem powietrza wentylującego.
3. Koszty pracy systemów wentylacyjnych
Przy obliczaniu nakładów finansowych na całoroczną pracę systemów
wentylacyjnych wzięto pod uwagę koszty wynikające z konieczności
ogrzewania, chłodzenia oraz transportu powietrza wentylującego.
Uwzględnione zostały przedsięwzięcia umożliwiające obniżenie kosztów
eksploatacji systemów wentylacyjnych, a więc recyrkulację powietrza
usuwanego z pomieszczenia.
Zastosowanie recyrkulacji powoduje podwyższenie temperatury
powietrza doprowadzanego na nagrzewnicę. W warunkach temperatury
obliczeniowej okresu zimnego dla Wrocławia tzobl=-18°C zmieszanie
powietrza wywiewanego z zewnętrznym podwyższa temperaturę powietrza:
− do 5°C w systemie mieszającym ze stałym strumieniem powietrza
− do -14°C w systemie mieszającym ze zmiennym strumieniem
powietrza
− do 8°C w systemie źródłowym ze stałym strumieniem powietrza.
Bardzo niska temperatura powietrza dostarczanego na nagrzewnicę po
recyrkulacji, w systemie mieszającym ze zmiennym strumieniem powietrza
jest wynikiem konieczności zachowania minimalnego higienicznego
strumienia powietrza dla osób przebywających na sali wykładowej.
175
Powietrze to musi być powietrzem zewnętrznym. W momencie
zmniejszenia do 50% strumienia powietrza wentylującego udział strumienia
higienicznego w strumieniu całkowitym zwiększa się z 45% do 90%.
Rys. 5. Zapotrzebowanie energii do uzdatniania i transportu powietrza.
Rys. 6. Całkowite zapotrzebowanie energii do uzdatniania i transportu powietrza.
Ostatecznie
z
porównania
trzech
wybranych
systemów
wentylacyjnych
wynika,
że
najkorzystniejsze
pod
względem
eksploatacyjnym jest zastosowanie wentylacji ze zmiennym strumieniem
powietrza wentylującego. Energia potrzebna do ogrzania powietrza we
wszystkich trzech wariantach jest porównywalna. Na sumaryczny,
całoroczny koszt eksploatacji instalacji wentylacyjnej duży wpływ ma
zmniejszenie mocy chłodniczej oraz zwiększenie energii na transport
powiększonego strumienia powietrza w systemie wentylacji źródłowej.
Wynika to z dostarczania powietrza bezpośrednio do strefy przebywania
ludzi. Analogicznie, zmniejszenie strumienia transportowanego powietrza
w drugim rozpatrywanym systemie przyczyniło się do znacznych
oszczędności finansowych.
176

Podobne dokumenty