Pobież książkę - Ko-oper - Politechnika Wrocławska
Transkrypt
Pobież książkę - Ko-oper - Politechnika Wrocławska
Interdyscyplinarność badań naukowych Praca zbiorowa pod redakcją Jarosława Szreka Oficyna Wydawnicza Politechniki Wrocławskiej Wrocław 2009 Redakcja Jarosław Szrek Współpraca Sławomir Wudarczyk, Maciej Paszkowski, Przemysław Sperzyński, Jacek Sipa. Grupa „Ko-oper” Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn ul. Łukasiewicza 7/9, 50-371 Wrocław http://ko-oper.pwr.wroc.pl, e-mail: [email protected] Projekt okładki i nadruku na płytę Karolina Wójtowicz Patronat Rada Doktorantów Politechniki Wrocławskiej, http://rada-doktoranci.pwr.wroc.pl Wsparcie Prof. dr hab. inż. Andrzej Kasprzak, Prorektor ds. Nauczania, Prof. dr hab. inż. Dionizy Dudek, Dyrektor Instytutu Konstrukcji i Eksploatacji Maszyn. Wydano na podstawie dostarczonych materiałów Wszelkie prawa zastrzeżone - żadna część niniejszej książki zarówno w całości, jak i we fragmentach, nie może być reprodukowana w sposób elektroniczny, fotograficzny i inny bez zgody wydawcy. © Copyright by Politechnika Wrocławska, Grupa „Ko-oper”, Wrocław 2009 OFICYNA WYDAWNICZA POLITECHNIKI WROCŁAWSKIEJ Wybrzeże Wyspiańskiego 27, 50-370 Wrocław http://www.oficyna.pwr.wroc.pl e-mail: [email protected] ISBN 978-83-7493-472-5 Spis treści Spis treści 4 Słowo wst˛epne 7 I Architektura 8 Różnorodność rozwiazań ˛ ekologicznych we współczesnej architekturze mieszkaniowej. Analiza na wybranych przykładach - Anna Krajewska . . . . . . . . . . . . . . . . . . . . . . . . 9 Architektura w dobie globalizacji. Analiza na wybranych przykładach - Joanna Krajewska . . . . . . . . . . . . . . . . . . . . . . . 13 Wpływ trudnego klimatu i ukształtowania terenu Islandii na budow˛e domów darniowych - Paweł Orłowski . . . . . . . . . . . . . . . . . . . . . . . . 19 Projektowanie wn˛etrz współczesnych sal koncertowych. Układ centralny tarasowy. - Joanna Jabłońska . . . . . . . . . . . . . . . . . . . . . . . 25 II Nauki chemiczne 31 Inhibitowanie wzrostu cyjanobakterii przez allelochemiczne zwiazki ˛ wydzielane przez makrolity - Barbara Macioszek . . . . . . . . . . . . . . . . . . . . . . 32 4 Optymalizacja procesu grawitacyjnego odwadniania osadów organicznych z użyciem polielektrolitów - Grzegorz Maliga, Jerzy Składzień, Janusz Szymków . . . . . 38 Usuwanie toksyn sinicowych w procesie uzdatniania wody - Dominik Szczukocki . . . . . . . . . . . . . . . . . . . . . . 44 Stabilizacja czy destabilizacja czasteczki ˛ DNA-fotochemiczne działanie promieniowania z zakresu bliskiej podczerwieni - Katarzyna Szymborska . . . . . . . . . . . . . . . . . . . . . 52 III Nauki techniczne 60 System wspomagania wyprzedzania pojazdów - wprowadzenie - Magdalena Barańska . . . . . . . . . . . . . . . . . . . . . 61 Badanie możliwości wykorzystania metod analizy dynamiki tworzenia wypowiedzi do celów rozpoznawania mówcy - Łukasz Bronakowski . . . . . . . . . . . . . . . . . . . . . . 67 Realizacja pami˛eci w sekwencyjnych algorytmach sterowania - Łukasz Dworzak, Tadeusz Mikulczyński . . . . . . . . . . . . 71 Zastosowanie rezystancyjnych czujników gazów do pomiarów lotnych zwiazków ˛ organicznych - Barbara Flisowska-Wiercik . . . . . . . . . . . . . . . . . . 77 Rozwój układów bezpieczeństwa czynnego w pojazdach użytkowych. - Arkadiusz Gierczak . . . . . . . . . . . . . . . . . . . . . . 83 Modyfikacja geometrii i analiza zm˛eczeniowa tłumika pulsacji spr˛eżarki śrubowej schładzacza cieczy - Piotr Harnatkiewicz . . . . . . . . . . . . . . . . . . . . . . 89 Metoda energooszcz˛ednego procesu ładowania ośrodka rozdrobnionego - Radosław Ilnicki . . . . . . . . . . . . . . . . . . . . . . . . 97 5 Wymiana ciepła w wymienniku krzyżowym w systemach wentylacji i klimatyzacji - Andrzej Jedlikowski, Maciej Skrzycki . . . . . . . . . . . . . 101 Wymiana ciepła w regeneracyjnych obrotowych wymiennikach ciepła w systemach wentylacji i klimatyzacji - Andrzej Jedlikowski, Maciej Skrzycki . . . . . . . . . . . . . 109 Kryterium doboru własności wytrzymałościowych połaczeń ˛ profili cienkościennych obcia˛żonych udarowo - Paweł Kaczyński . . . . . . . . . . . . . . . . . . . . . . . . 117 Możliwość zastosowania ultrafiltracji do separacji barwników organicznych z roztworów wodnych - Joanna Kawiecka-Skowron, Katarzyna Majewska-Nowak . . 121 Usuwanie jonów bromianowych za pomoca˛ dializy Donnana - Sylwia Kliber, Jacek Wiśniewski . . . . . . . . . . . . . . . . 127 Problemy przenoszenia energii w układach mikrohydrauliki - Grzegorz Łomotowski . . . . . . . . . . . . . . . . . . . . . 135 Oszacowanie stałej Lipschitza dla Jakobianu robota mobilnego typu monocykl - Łukasz Małek . . . . . . . . . . . . . . . . . . . . . . . . . 143 Badania pośredniej chłodnicy wyparnej - Joanna Paduchowska . . . . . . . . . . . . . . . . . . . . . 149 Zastosowanie symulacji numerycznych w analizie bezpieczeństwa biernego pieszego - Mariusz Ptak . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Idea budowy robota inspekcyjnego do badania kanałów wentylacyjnych i klimatyzacyjnych - Przemysław Sperzyński . . . . . . . . . . . . . . . . . . . . 159 Układy robotyczne - mobilny robot kołowo-kroczacy ˛ - Jarosław Szrek, Przemysław Sperzyński . . . . . . . . . . . . 165 Systemy wentylacji pomieszczeń, a koszty uzdatniania powietrza - Agnieszka Zajac, ˛ Maria Kostka . . . . . . . . . . . . . . . . 171 6 Drogi Czytelniku, oddaję w Twoje ręce niniejszą publikację prezentującą wyniki badań prowadzonych przez młodych naukowców. Celem jaki temu przyświeca jest zachęcenie do podejmowania wspólnych inicjatyw oraz tworzenie interdyscyplinarnych zespołów badawczych. Pozwolę sobie przytoczyć słowa Wieszcza, które to w młodości właśnie kładą nadzieję. Traktując jako przenośnię, niech słowa te dadzą zapał i porwą do działania. Jarosław Szrek (…) Hej! ramię do ramienia! spólnymi łańcuchy Opaszmy ziemskie kolisko! Zestrzelmy myśli w jedno ognisko I w jedno ognisko duchy!... Dalej, bryło, z posad świata! Nowymi cię pchniemy tory… (…) Razem, młodzi przyjaciele! ... Adam Mickiewicz „Oda do młodości” - fragmenty Cz˛eść I Architektura Różnorodność rozwiązań ekologicznych we współczesnej architekturze mieszkaniowej. Analiza na wybranych przykładach. Anna Krajewska1 Streszczenie: W artykule przedstawiono różnorodność mieszkaniowej architektury ekologicznej. Na potrzeby opracowania współczesna mieszkaniowa architektura ekologiczna została podzielona na pięć podstawowych grup. Obiekty zostały przyporządkowane poszczególnym grupom w zależności od głównych założeń i celów projektantów. Słowa kluczowe: architektura mieszkaniowa, ekologiczna, solarna 1. Wprowadzenie Dynamiczny rozwój cywilizacyjny pociągnął za sobą ogromne zapotrzebowanie na energię. Czerpano ją głównie ze źródeł kopalnych co doprowadziło do ogromnej degradacji środowiska naturalnego. Na ten moment około połowa światowego zużycia energii jest związana z procesem realizacji i późniejszą eksploatacją budynków, czyli ich ogrzewaniem i chłodzeniem [5]. Zrodziła się konieczność przeciwdziałania naruszaniu równowagi w przyrodzie w skutek budowlanej działalności człowieka [1]. Odpowiedzią na to stała się architektura ekologiczna, której podstawowym celem jest zminimalizowanie wpływu budynku na środowisko przyrody. Na potrzeby niniejszego opracowania, na podstawie analizy przykładów realizacji, wyszczególniłam kilka grup obiektów wśród ekologicznej architektury mieszkaniowej. Są to: budynki energooszczędne, architektura solarna, domu niezależne, ekowioski oraz grupa, którą nazwałam „forma i krajobraz”. 2. Budynki energooszczędne Budynki energooszczędne to jedne z najbardziej kojarzonych z architekturą ekologiczną obiektów [3]. Tu priorytetem jest zminimalizowanie zużycia energii elektrycznej oraz energii potrzebnej na ogrzanie i chłodzenie budynku. Duży nacisk kładzie się na pozyskiwanie 1 Wydział Architektury PWr, ul. B. Prusa 53/55, 50-317 Wrocław [email protected] 9 energii ze źródeł odnawialnych, ale liczą się każde zyski energii, jak na przykład pasywne zyski ciepła ze słońca czy ciepło oddawane przez mieszkańców. Oprócz pozyskiwania energii ważne jest również niedopuszczenie do zbędnej ucieczki ciepła z domu, co jest osiągnięte po przez bardzo dobrą izolację i szczelność przegród - praktyczne brak mostków cieplnych. Charakterystyczne dla budynków energooszczędnych są instalacje wspomagające gospodarkę energią: kolektory słoneczne, ogniwa fotowoltaiczne, pompy ciepła, rekuperatory, gruntowe wymienniki ciepła, wentylacja mechaniczne i szereg innych. Bryła domu, a także jego usytuowanie względem stron świata jest również bardzo dokładnie przemyślane i przeanalizowane pod względem zysków i strat ciepła. 3. Architektura solarna Architektura solarna skupia się przede wszystkim na czerpaniu maksymalnych zysków energii ze słońca. Charakterystyczną cechą obiektów należących do tej grupy jest nadanie elementom budynku, oprócz ich tradycyjnej funkcji, także nowej, dodatkowej związanej z pozyskiwaniem, gromadzeniem, rozprowadzeniem, produkcją energii czy ochroną przed przegrzaniem [1]. Wykorzystanie energii słonecznej pociąga za sobą bardzo przemyślane usytuowanie budynku względem stron świata, oraz odpowiednie ukształtowanie jego formy i rozmieszczenie przeszkleń. Charakterystyczną cechą jest tu duża dysproporcja transparentności pomiędzy fasadą północną, a południową. Od południa znajdują się duże połacie przeszkleń, oraz takie nieodłączne elementy architektury solarnej jak kolektory słoneczne, ogniwa fotowoltaiczne, czy osłony przeciwsłoneczne. Oprócz popularnie stosowanych technologii spotyka się wręcz całe „inteligentne elewacje” reagujące na światło, jak w przypadku domu spokojnej starości w Ems, w Szwajcarii (projekt: Architektbüro Schwarz), gdzie na południowej fasadzie budynku zamocowano Panele Glass-X. To elementy, które w zależności od pory roku bądź przepuszczają ciepło do wnętrza, bądź nie pozwalają na jego przeniknięcie by zapobiec przegrzaniu. Dodatkowo akumulują ciepło, a następnie powoli oddają je do wnętrza domu. 4. Domy niezależne Podstawowym celem projektantów domów niezależnych jest całkowite uniezależnienie obiektu od wszelkich mediów [4]. Ma być to rodzaj mobilnego modułu mieszkalnego łatwo składanego i rozkładanego z możliwością ustawienia go w dowolnym miejscu. Możemy oglądać w Polsce, w Piasecznie modelowy niezależny ”DOM DODO” (projekt: artin 10 Zespół Koordynacji Inwestycji), o lekkiej konstrukcji z prefabrykatów z możliwością łatwego złożenia, przewiezienia i montażu w innym miejscu. Domy tego typu są wyposażone w szereg najnowszych technologii służących do produkcji energii ze słońca czy wiatru, tak by same mogły wytworzyć energię elektryczną, energię potrzebną do ogrzania powietrza i wody użytkowej. O ile jest to możliwe posiadają nawet własny system oczyszczania zużytej wody, a także możliwość czerpania wody z własnego ujęcia [4]. 5. Ekowioski Ludzie zmęczeni życiem w dużych, głośnych, zatłoczonych miastach zaczęli z nich uciekać, szukać spokoju i wyciszenia. Ekowioski powstały w wyniku poszukiwania przez nich utopii. Są to zespoły działające na zasadzie wspólnot, gdzie promowany jest zdrowy styl życia pod każdym względem. Podstawą procesu projektowania, realizacji i eksploatacji budynków jest zminimalizowanie ich obciążenia na środowisko naturalne [2]. Do ich budowy wykorzystuje się lokalne, tradycyjne materiały, dlatego w ekologicznej wiosce Findhorn w Szkocji są domy z bali słomianych, gliny, lokalnego kamienia, ocieplone wełną owczą, a niektóre nawet mieszczą się w starych, wielkich beczkach po whisky. Do produkcji energii wykorzystuje się źródła odnawialne: słońce, ziemię, wiatr, biomasę. Ważna jest także oszczędność wody pitnej, dlatego powtórnie wykorzystuje się wodę szarą do celów gospodarczych, a wodę czarną neutralizuje w roślinnych oczyszczalniach ścieków. Zazwyczaj ekowioski są wolne od ruchu samochodowego, mieszkańcy poruszają się pieszo lub na rowerze przez co są to ciche, bardziej bezpieczne i czystsze miejsca. 6. Forma i krajobraz Projektanci obiektów z grupy „forma i krajobraz” kładą największy nacisk na powiązanie budynku z otoczeniem. Ich celem jest zminimalizowanie ingerencji obiektu w krajobraz. Są to domy tradycyjne, wykonane z lokalnych materiałów, domy zagłębione w ziemi, czy też wyniesione z powierzchni terenu w korony drzew. Domy zagłębione w ziemi wyłaniają się z niej w naturalny sposób. Od północy są w zasadzie niezauważalne, widoczny jest tylko porośnięty roślinnością pagórek. Architektura ukazuję się nam dopiero od strony południowej zazwyczaj jako mocno przeszklona fasada. Przykładem takiego obiektu jest zespół pięciu szeregowo połączonych domów w Hockerton, w Wielkiej Brytanii. Do tej grupy można zaliczyć także dom jednorodzinny w San Paulo w Brazyli projektu Una Arquitetos. W naturalny sposób wypełnia 11 zbocze, na którym stoi, a elewacja pokryta lokalnym kamieniem powoduje, że z daleka sam dom wygląda jak leżący na łące głaz. Niemieckie biuro Baumraum wyspecjalizowało się w projektowaniu domów na drzewach. Ich funkcje mieszkalne są często zredukowane i raczej stają się miejscami relaksu w otoczeniu przyrody. Jednak efekt wizualny jest bardzo ciekawy, a wpływ na otaczające miejsce znikomy, powierzchnia terenu pozostaje właściwie w stanie nienaruszonym. 6. Podsumowanie W Polsce, choć coraz więcej, wciąż mało jest obiektów ekologicznych. Moda na takie realizacje dopiero do nas nadchodzi. Istotne jest by uświadomić sobie, że to, w jaki sposób będziemy gospodarować energią związaną z budownictwem, jakie materiały, technologie, źródła i sposoby pozyskiwania energii będziemy stosować, ma rzeczywiste znaczenie dla środowiska. Dlatego też, ważne jest propagowanie budownictwa zrównoważonego, obiektów mających na celu przybliżenie i zachęcenie do stosowania rozwiązań energooszczędnych i ekologicznych. Literatura [1] S. Wehle-Strzelecka: Współczesne technologie pozyskiwania energii słonecznej i ich wpływ na estetykę rozwiązań architektonicznych. Wydawnictwo Politechniki Krakowskiej. Kraków 2007. s. 314. [2] J. Gąsiorek: Wioski ekologiczne w Wielkiej Brytanii. Oficyna Wydawnicza Politechniki Wrocławskiej. Wrocław 2005. [3] D.E. Ryńska: Architekt w Procesie Tworzenia Harmonijnego Środowiska. Oficyna Wydawnicza Politechniki Warszawskiej. Warszawa 2004. [4] http://www.bryla.pl/bryla/1,85298,4735453.html [5] A.Bać, K. Cebrat: Innowacyjne technologie energooszczędne w budownictwie i ich możliwe zastosowanie na Dolnym Śląsku. Opracowanie dla Dolnośląskiego Centrum Zaawansowanych Technologii. Wrocław 2006. s. 3. 12 Architektura w dobie globalizacji. Analiza na wybranych przykładach Joanna Krajewska1 Streszczenie: W artykule został zarysowany problem globalizacji architektury na przykładzie przemian stolicy mocarstwa, światowej sławy architekta oraz typu budynku i materiału elewacyjnego spotykanych w róŜnych częściach globu. Słowa kluczowe: globalizacja, kontekst architektoniczny, przemiana 1. Wprowadzenie Istnieje wiele definicji globalizacji. Rozumiana jako uniwersalizm, jest rozprzestrzenianiem się zjawisk i rzeczy na cały świat [1, s. 19]; jako modernizacja (westernizacja) – oznacza dynamiczny proces przenoszenia nowoczesnych form Ŝycia społecznego i gospodarczego na nowe tereny, przy jednoczesnym niszczeniu istniejących tam wcześniej lokalnych kultur, gospodarki i toŜsamości [1, s. 19]. W ciągu ostatnich dziesięcioleci stała się zjawiskiem szczególnie zauwaŜalnym. Wbrew pozorom, jak pisze Małgorzata Solska, nie jest to zjawisko nieznane czy nowe w architekturze [2], jednak nigdy dotąd nie występowało na tak szeroką skalę. Rys. 1. Ewolucja zjawiska globalizacji (opracowanie własne) Od czasów podbojów i kontaktów handlowych istniała dyfuzja idei między kulturami. Zasięg wpływów ograniczał się jednak do państw, które miały ze sobą bezpośrednią styczność, czyli sąsiadowały ze sobą (Rys. 1.). Budowle 1 Politechnika Wrocławska, Wydział Architektury, B. Prusa 53/55, 50-317 Wrocław, [email protected] 13 i osady stawiane przez hegemona miały ten sam charakter w róŜnych częściach imperium (np. Imperium Rzymskie), a kultury podbite mogły konfrontować napływającą wiedzę ze swoim doświadczeniem. PodróŜujący przynosili wraz ze swym przybyciem nową myśl. Zjawiska takie miały miejsce w Europie i Azji, w okresie kształtowania się cywilizacji. Kolejnym etapem na drodze do architektonicznej unifikacji było rozprzestrzenianie się europejskiego stylu budowania w krajach kolonizowanych. ChociaŜ miał on juŜ zasięg globalny, wciąŜ pozostawał w odrębności w stosunku do budownictwa lokalnego, często ponadto, jak to miało miejsce w Australii, Afryce i obu Amerykach, był jedynym kierunkiem świadczącym o postępie i pozwalającym na rozwój na danym terenie. W latach 30. XX wieku zaczął upowszechniać się tzw. styl międzynarodowy nazywany „nowe budownictwo” lub „funkcjonalizm i nowa rzeczywistość” [2]. Dał on początek globalnemu ujednoliceniu architektury w dzisiejszym rozumieniu. Architektura przestała być elementem kultury, a stała się odzwierciedleniem nowoczesnej myśli i świadectwem postępu. Do tego czasu pozostawały jednak jeszcze obszary na Ziemi o wysoko rozwiniętej cywilizacji, które nie przejmowały Zachodnich wzorców i nie korzystały ze współczesnej wiedzy budowlanej. Chiny dopiero po upadku systemu feudalnego i Rewolucji Kulturalnej otworzyły się na nowoczesność i wprowadziły Politykę Otwartych Drzwi. Wraz z partnerskimi kontaktami międzynarodowymi w skali światowej, przepływ wiedzy i informacji osiągnął zasięg globalny, pozwalając rozwijać nowoczesne budownictwo w róŜnych rejonach na Ziemi. 2. Przejawy globalizacji w architekturze Globalizację w architekturze moŜna rozpatrywać w róŜnych aspektach. Analiza miasta, które zerwało z lokalną tradycją budowlaną i gdzie realizowane są projekty światowych biur, sylwetka architekta tworzącego na kilku kontynentach, idea budynku, która rozprzestrzeniła się na cały świat, czy powszechnie stosowany materiał elewacyjny ukazują zmiany zachodzące w architekturze. 1.1. Miasto, które uległo globalizacji – Pekin Dobrym przykładem miasta, które w sposób nieunikniony musiało ulec procesom globalizacyjnym, jest Pekin. W kraju, przez stulecia zamkniętym na wpływy z zewnątrz, po przemianach społecznych i politycznych, w momencie otwarcia się na świat, niezbędna okazała się modernizacja stolicy. 14 Rys. 2. Dzielnica hutongów – tradycyjna architektura Pekinu – i architektura współczesna (fot.: autorka) Nie licząc rezydencji cesarskiej – Zakazanego Miasta, oraz barwnych zespołów świątynnych, Pekin był miastem hutongów – wąskich alejek oddzielających od siebie parterowe zespoły zabudowy jednorodzinnej – siheyuany. Sztywne reguły budowania ustalone w dawnych wiekach oraz zasady feng-shui doprowadziły do powstania jednorodnej przestrzeni miejskiej, która zaczęła ulegać gwałtownej, drastycznej przemianie dopiero w połowie XX wieku (Rys. 2.). Upadek systemu feudalnego i Rewolucja Kulturalna (lata 1966-76) spowodowały zniszczenie tradycyjnego modelu Ŝycia, obracając Ŝywą kulturę w relikt przeszłości. Historyczna tkanka miejska Pekinu, tworzona z niewielkich jednopiętrowych budynków krytych szarą dachówką, zaczęła kurczyć się za sprawą wdroŜenia systemu Weigai [4] – wyburzania obszarów hutongów nie objętych programem ochrony i stawiania w ich miejsce architektury współczesnej oraz przeprowadzania nowych dróg. Dawne zasady – gabaryty, forma i kolorystyka budynków czy lokalizacja wejścia od strony południowej, przestały obowiązywać. Pekin, tworząc swój nowy wizerunek, w znacznym stopniu równieŜ za sprawą organizacji Igrzysk Olimpijskich w 2008 roku, stał się placem budowy, na którym swoje projekty zaczęli realizować architekci z całego świata. Współczesną architekturę Pekinu moŜna podzielić ponadto na kilka kategorii – tę pozbawioną toŜsamości, która mogłaby znaleźć się w kaŜdym innym mieście, architekturę stylizowaną – głównie za sprawą historyzujących form dachów lub kolumn w elewacji, bądź architekturę wywodzącą się stylistycznie z innych rejonów kontynentu eurazjatyckiego oraz tzw. ikony architektury – spektakularne budowle projektowane przez światowe sławy – do których, prócz najwaŜniejszych obiektów olimpijskich, moŜna zaliczyć gmach telewizji CCTV autorstwa Holendra Rema Koolhaasa czy Teatr Narodowy Francuza Paula Andreu. 15 1.2. Architekt „globalny” – Zaha Hadid W epoce szybkiego przepływu informacji i łatwości w przemieszczaniu się powstały międzynarodowe biura architektoniczne, projektujące dla inwestorów z całego świata. Budynki – ikony są zamawiane u gwiazd światowej architektury, a kaŜda z nich firmuje inny, charakterystyczny styl. śycie i praca Zahy Hadid – urodzonej w Bagdadzie, studiującej w Bejrucie i Londynie, której projekty są realizowane w Europie, Azji i Stanach Zjednoczonych (Rys. 3.), składają się na jeden z wielu przykładów architekta „globalnego”. Rys. 3. Lokalizacja projektów Zahy Hadid (opracowanie własne według: [5]) Budynki Zahy Hadid są niezwykle rozpoznawalne. Miękkie formy wymykające się wszelkim definicjom, opływowe kształty brył, stanowią jej znak firmowy. Najsłynniejsza kobieta wśród architektów tworząc swoje wizjonerskie projekty, lekcewaŜy kontekst architektoniczny miejsca i lokalną tradycję. Większość jej realizacji mogłaby stać wszędzie, poniewaŜ nie wchodzi z otoczeniem w Ŝadne przestrzenne relacje (np. Abu Dhabi Performing Arts Centre, wileńskie Guggenheim Hermitage Museum, czy stacja kolejowa w Innsbrucku). Unaocznia to, jak bardzo zmieniło się podejście do roli architektury w kształtowaniu przestrzeni miejskiej. 1.3. Globalna idea – wieŜowiec Pierwsze wieŜowce – budynki biurowe – zaczęły powstawać w Stanach Zjednoczonych (Chicago, Nowy Jork) pod koniec XIX wieku, dając wyraz moŜliwości konstrukcji stalowych. Idea, w której realizowało się typowe dla człowieka pragnienie przekraczania granic w postaci osiągania maksymalnych wysokości, sprawdzania wytrzymałości materiału, szybko rozprzestrzeniła się na cały świat Zachodni, a później na inne rejony globu. Sylwety wysokich budynków zaznaczających się w krajobrazie miasta 16 podkreślały jego prestiŜ, a takŜe świadczyły o potędze inwestora. Wysokość pozwalała ponadto na oszczędność miejsca – tak cennego w centrach zatłoczonych metropolii. Rozpoczął się swoisty światowy wyścig w projektowaniu drapaczy chmur. I tak najwyŜszy obecnie Taipei 101 (Taipei World Finantial Center) na Tajwanie projektu C.Y.Lee&Partners sięgający 509,2m [3] ma być przewyŜszony o ponad 308m przez Dubajską [3] WieŜę w Emiratach Arabskich projektowaną przez amerykańskie biuro Skidmore, Owings, Merrill, w którym powstały teŜ m. in. charakterystyczny wieŜowiec usługowo – mieszkalny The John Hancock w Chicago jak równieŜ warszawski biurowiec Rondo 1 [3]. Rewolucja społeczna i kulturowa, mające swoje odbicie na całym świecie oraz modernizm odzwierciedlający nowy sposób myślenia – pragmatyzm i egalitaryzm, w połączeniu z ideą budynku wysokościowego, pozwoliły stworzyć wieŜowiec mieszkalny. Właściwie jedynym plusem tego rozwiązania jest redukcja powierzchni zabudowy, stało się to jednak na tyle istotne, Ŝe, w połączeniu z szybkością oraz kosztem wykonania, dało efekt w postaci wypełnienia przestrzeni miejskich tzw. blokowiskami. Ten typ zabudowy stał się zwłaszcza popularny w dawnych krajach komunistycznych, jednak osiedla wysokościowców mieszkaniowych buduje się do dziś. Nie noszą one śladów kulturowych, a nadrzędność funkcji oraz determinant w postaci konstrukcji Ŝelbetowej (najczęściej) i elementów prefabrykowanych zredukowały formę do prostopadłościanu. Styl Ŝycia uległ ujednoliceniu na tyle, Ŝe moŜliwe było postawienie niemal identycznych wieŜowców mieszkalnych w róŜnych częściach świata. Niektóre budynki z Chin, Stanów Zjednoczonych, czy Niemiec mogłyby znajdować się w jednym miejscu wzajemnie korespondując, tak są do siebie podobne. 1.4. Globalny materiał – szkło WieŜowce – budynki biurowe, hotele mają często jeszcze inną cechę wspólną, dzięki której, w oderwaniu od kontekstu miejsca, mogłyby stać obok siebie. Jest to materiał elewacyjny, który stał się bardzo popularny w II połowie XX wieku i jest wciąŜ powszechnie stosowany – szkło (Rys. 4.). „Szklane domy” zapełniają centra miast i dzielnice biznesu na całym świecie. UŜycie szkła nie zawsze jest uzasadnione, niekiedy nie sprzyja temu klimat panujący w danym rejonie, jednak przyjęło się, Ŝe świadczy ono o prestiŜu budynku i projektanci chętnie je wykorzystują. Istnienie róŜnych odmian tego materiału (np. szkło płaskie barwione w masie – nazywane przeciwsłonecznym, szkło refleksyjne – przepuszczające światło, ale posiadające duŜy współczynnik odbicia promieniowania podczerwonego czy szkło nieprzeźroczyste [3]), oraz 17 Rys. 4. Szkło elewacyjne – materiał powszechnie stosowany na całym świecie, zdjęcia przedstawiają biurowce w Pekinie i Londynie (fot.: autorka) rosnące moŜliwości jego wykorzystywania (zwiększanie wytrzymałości, wiele metod zdobienia) sprawiają, Ŝe metropolie na całym świecie wypełniają budynki pokryte taflami szkła, mniej lub bardziej odcinające się na tle nieba, ulotne, niedopowiedziane, nowoczesne. 3. Podsumowanie Istnieje zagroŜenie, Ŝe w związku z postępującym zjawiskiem ujednolicania światowej architektury, zniknie jeden z aspektów świadczących o toŜsamości kulturowej, jakim jest lokalne budownictwo. Architekt projektujący dla miast na całym świecie, globalnie występująca idea czy ten sam wszędzie stosowany materiał, prowadzą do zanikania waŜności kontekstu architektonicznego oraz historycznego. Architektura w dobie globalizacji zdaje się być tworzona od nowa, zarówno na poziomie formy, jak teŜ roli, jaką odgrywa w kreowaniu przestrzeni. Literatura [1] M. Czerny: Globalizacja a rozwój. Wybrane zagadnienia geografii społeczno – gospodarczej świata, Wydawnictwo Naukowe PWN, Warszawa 2005. [2] M. Solska: Aksjologiczny aspekt architektury, Teka Kom. Arch. Urb. Stud. Krajobr., OL PAN 2006, s. 164-169. [3] pl.wikipedia.org [4] www.tibetheritagefund.org [5] www.zaha-hadid.com 18 Wpływ trudnego klimatu i ukształtowania terenu Islandii na budowę domów darniowych Paweł Orłowski1 Streszczenie: W artykule przedstawiono problem wpływu surowego klimatu oraz trudnego ukształtowania terenu na architekturę na przykładzie islandzkiego domu darniowego. Opracowanie zawiera zarówno opis sposobów kształtowania takiej zabudowy, jak również charakterystykę warunków środowiskowych, materiałów stosowanych w tego typu budownictwie oraz ewolucję rozwiązań budowlanych na przestrzeni wieków. Słowa kluczowe: architektura, klimat, darń, Islandia 1. Wprowadzenie Architektura od zawsze dyktowana była czynnikami funkcjonalnymi. W pierwotnych lokacjach ulegała nie tylko wymaganiom ich przyszłych użytkowników, w aspekcie łatwości życia i dostępności podstawowych wygód, ale również zewnętrznym czynnikom niezależnych od człowieka. W wielu lokalizacjach ich dysproporcja działa na korzyść budowniczego, jednakże niekiedy to natura decyduje o umiejscowieniu czy kształcie obiektu. Mowa o terenach narażonych na ekstremalne działania klimatyczne i geologiczne. W tym przypadku północnych krańcach Europy, Skandynawii, krajach pierwotnie zasiedlonych przez Wikingów, na potrzeby niniejszego artykułu Islandii. 2. Charakterystyka warunków środowiskowych Islandia to druga, co do wielkości wyspa w Europie, pochodzenia wulkanicznego, leżąca w północnej części Oceanu Atlantyckiego, o powierzchni 103tys. km2. Jej specyfika polega na usytuowaniu dokładnie na Grzbiecie Śródatlantyckim biegnącym wzdłuż granicy płyt Euroazjatyckiej i Amerykańskiej2. Teoria procesów tworzących i rozwijających Ziemię zakłada ciągły dryf płyt tektonicznych, które 1 Politechnika Wrocławska, Wydział Architektury, B. Prusa 53/55, 50-317 Wrocław, [email protected] 2 B. Rudnicki. Podróże Marzeń-Islandia. Biblioteka Gazety Wyborczej, Warszawa 2007 19 wpychane jedna pod drugą tworzą wypiętrzenia lub oddalają się uwalniając magmę i czyniąc teren wulkanicznie aktywnym. Ten drugi proces zachodzi na Islandii – płyty odsuwają się od siebie w tempie 2 cm rocznie. Wyspa pokryta jest również największym europejskim lodowcem Vatnajokull oraz paroma innymi, które topniejąc formują kształt wyspy. Dodatkową uciążliwością w osadnictwie jest surowy klimat. Pomimo, że jedynie skrawek Islandii dociera do granicy koła polarnego (wyspa Grimsey), na północnej części wyspy panuje klimat subpolarny, w południowej umiarkowanie chłodny, przede wszystkim dzięki wpływowi ciepłego prądu zatokowego Golfsztromu. Rys.1 a) i b). Prądy oceaniczne wokół Islandii. Źródło: [6], Średnia temperatura dla Reykjaviku(skala Fahrenheita). Źródło: [7] Wpływ klimatu kontynentalnego na północy jest większy w porównaniu do południa kraju. Skutkuje to bardziej suchymi i słonecznymi latami, ale dużo bardziej srogimi i śnieżnymi zimami. Opady deszczu są słabsze, ale wiatry bardzo porywiste i chłodne. Klimat ten jest bardzo zmienny – w ciągu dnia następować mogą po sobie różne zjawiska atmosferyczne, od gwałtownych opadów deszczu i śniegu, poprzez nawałnicowe porywy wiatru, po okresy słoneczne. Ekosystemem większej części interioru Islandii jest tundra3. Jest to wynik długich, srogich okresów zimowych, krótkich okresów wegetacyjnych oraz opadów atmosferycznych, które jeśli są to głównie śniegu. Powszechne jest zjawisko zmarzliny, która latem częściowo topnieje czyniąc teren bagnistym. 3 R. Mead, Iceland, Globetrotter, 2001 20 3. Materiały budowlane Geograficzne uwarunkowania bezpośrednio wpłynęły na sposoby kształtowania zabudowy. Geologiczna młodość wyspy oznacza brak odpowiedniej warstwy gruntu uprawnego, co w połączeniu ze srogim klimatem powoduje brak wysokiej roślinności, czyli najwygodniejszego budulca, drewna. Wszystkie drewno używane w konstrukcjach jest dryftowym. W takiej sytuacji podstawowym materiałem wykorzystywanym do budowy domostw jest darń, oraz skała lawowa. Ta druga jednak rzadziej stosowana, z nie do końca wyjaśnionych przyczyn. Rys. 2 a) i b). Drewno dryftowe. Źródło: [8], Ściana o konstrukcji darniowej farmy w Þjórsárdalur. Autor: Thomas Ormston Darń, jako najstarszy z materiałów budowlanych jedynie na Islandii zachowała się do dzisiaj. Powszechnie używana była do ok. 1900 r., później również, jednak konstrukcje takie ulegały już wielu modyfikacjom. Popularność zdobyła ze względu na dużą odporność na trudne warunki klimatyczne. Trawa na Islandii rośnie bardzo gęsto, więc darń jest silną kombinacją korzeni i gleby, dzięki czemu mogła wytrwać nawet do stulecia, jako materiał budowlany. Większość ścian farm, złożona była z cienkich „skór” z desek drewnianych z wypełnieniem z grubej warstwy darniowej, co stanowiło dobrą wielostrukturową warstwę izolacyjną. Dachy darniowe musiały być nachylone pod właściwym kątem, aby właściwie odprowadzać wodę. Jeśli dach był zbyt płaski, woda mogła przesiąkać do wnętrza. Jeśli zbyt stromy, darń mogła pękać przy niskiej wilgotności powietrza, co powodowało dalsze uszkodzenia. W XVI wieku najbardziej popularna stała się, według stylu norweskiego, budowa o konstrukcji drewnianej z desek znajdywanych na nabrzeżu. Współcześnie obiekty te kryte są blachą falistą, chroniącą je przed niedogodnościami atmosferycznymi. W wieku XX, dzięki większym możliwościom obróbki, wykorzystuje się powszechnie skałę wulkaniczną oraz inne współczesne materiały importowane z kontynentalnej części Europy. 21 4. Sposoby kształtowania i lokalizowania zabudowy Pierwotnie usytuowanie farm, a później osad, dyktowane było wikińskim zwyczajem wyrzucania ze statku nadpływających osadników drewnianego słupa, który wskazywał miejsce osadnicze, tam gdzie morze wyrzuciło go na brzeg. Tak według podań, Norweg Ingólfur Arnarsson4 ulokował Reykjavik. Praktycznie sytuowano budowle tam gdzie była najlepsza dostępność komunikacyjna oraz żywioły miały najmniejszą siłę działania – u podnóża gór, pod skałami czy w specyficznie ukształtowanych formacjach skalnych, gdzie co najmniej dwie strony osłonięte były przed wiatrem czy opadami. Najwygodniejszym i najbardziej powszechnym sposobem było budowanie domów darniowych. Nierzadko bywały zakopywane częściowo w ziemi, przez co lokowane mogły być na otwartym terenie. Ogradzano je płotem lub parkanem, niekiedy z towarzyszącymi budynkami gospodarczymi lub kaplicą. Rys. 3 a) i b). Schemat konstrukcji domu darniowego. Źródło: [9] Mieszkania średniowiecznych Islandczyków to przeważnie jedna sala, w której ludzie spali, pracowali i jedli. Typ ten jest powszechnie stosowanym w całym regionie Północnoatlantyckim za czasów Wikingów. Pomimo różnych rozmiarów, od 10 do 36 metrów długości, budynki zawsze posiadały podobny i łatwo rozpoznawalny kształt. Wnętrza domostw były ciemne, źródłem światła było palenisko usytuowane w centralnym punkcie chaty, na mocno udeptanej ziemi oraz małe otwory okienne w grubych ścianach i zakryte drewnianymi okiennicami. Odrobinę światła dostarczał również otwór kominowy oraz kaganki oliwne. W bogatszych domostwach stosowano również świece woskowe. Drewniane drzwi wejściowe czasami zdobione rzeźbiarsko zaopatrzone były w kute zamki. Sypialnie lokowane były na chroniących przed zimnem podwyższeniach, często posłane sianem lub chrustem, a w późniejszych okresach w osobnych izbach. 4 B. Rudnicki, Podróże Marzeń-Islandia, Biblioteka Gazety Wyborczej, Warszawa 2007 22 W każdym domostwie istniały warsztaty tkackie użytkowane przez kobiety przez cały rok, oraz w okresie zimy również przez mężczyzn. Wraz z napływem coraz to większej liczby ludności, typ domu zaczął ulegać przemianom. Początkowo tylko w rozmiarze czy proporcjach, później także w kształcie i ilości pomieszczeń, w zależności od potrzeb użytkowników i terenu, na którym się znajdował. Rys. 4 a) i b). Plan farmy Stöng, Doświetlenie domostwa otworem dachowym na przykładzie farmy w Þjórsárdalur. Źródło:[10] W domostwie Stöng z XII wieku, pojawia się dodatkowe pomieszczenie - salon, oddzielone od głównej sali przedsionkiem wejściowym. Farma Gröf w regionie Öræfi z wieku XIV, przedstawia kolejne różnice. Wejście do budynku zostało przeniesione na środek obiektu oraz kuchnia i magazyn mieszczące się na obu końcach wieńczą budynek ścianami szczytowymi. Od wejścia prowadzi korytarz, na którego końcu znajduje się tzw. ‘baðstofa’ - pokój dzienny, w którym stoi piec. Nie ma już centralnej multifunkcjonalnej sali. Na przestrzeni kolejnych wieków, to właśnie aranżacja pomieszczeń będzie w przeciwieństwie do bryły budynku ulegała zmianom. W XVIII wieku, prawie wszyscy mieszkańcy przenoszą swoje legowiska do pokoju dziennego, który ma teraz spełniać podobną rolę jak pierwotna sala – do wspólnego spędzania czasu, jedzenia czy pracy. Powodem tego jest chłód i brak wystarczającej ilości drewna opałowego. Baðstofa lokowany był w miejscu najwyższym budynku i najdalej odsuniętym od wejścia, co czyniło go najcieplejszym pomieszczeniem. Celem lepszego ogrzania przestrzeni mieszkalnej pojawił się dodatkowy typ domostwa, tak zwane Fjósabaðstofur – obory połączone z pomieszczeniami mieszkalnymi znajdującymi się ponad chlewnią. Mieszkanie ze zwierzętami pomimo złych warunków higienicznych było mimo wszystko bardzo preferowane ze względu na wytwarzane przez nie ciepło. Przykładem średniowiecznej farmy zachowanej do dziś jest wspomniane wcześniej domostwo Stöng. Odnalezione ruiny zostały pieczołowicie zrekonstruowane w Þjórsárdalur – „Dolinie Byczej rzeki”, 23 w południowo zachodniej części kraju. Pierwotne gospodarstwo zostało zasypane warstwą popiołu po wybuchu wulkanu Hekla w XIII wieku, dzięki czemu zachowało się w tak dobrym stanie. Odkopany w 1939 roku kompleks mieszkalny składa się z głównej sali, oddzielnej obory dla bydła, ale również kuźni do przerobu miejscowego żelaza bagiennego. Rys. 5 a) i b). Rekonstrukcja farmy Stöng w Þjórsárdalur. Autor: Thomas Ormston Decyzja o utworzeniu repliki Þjóðveldisbærinn została podjęta z okazji obchodów 1100-tnej rocznicy zasiedlenia Islandii w 1974 roku, jako próba ponownego utworzenia dużej farmy z okresu Rzeczpospolitej (930-1262), na co pozwalały zachowane pozostałości Stöng. Literatura [1] Klindt-Jensen. History of Scandinavian Archaeology. Ole, 1975. [2] Thomas Paulsson. Scandinavian architecture: Buildings and society in Denmark, Finland, Norway, and Sweden, from the Iron Age until today. Wydawca: C.T. Bradford Co (1959). [3] Marian C. Donnelly. Architecture in the Scandinavian Countries. The MIT Press, 1991. [4] The Age of the Vikings (ca. 800 - 1050 A.D.). http://www.norway.org.uk/history/upto1814/viking/viking.htm [5] Turf Longhouses in Iceland and Vínland. http://www.valhs.org/history/articles/daily_living/text/Turf_Houses.htm [6] http://www3.hi.is/~oi/climate_in_iceland.htm [7] http://goscandinavia.about.com/od/icelan1/ss/weathericeland.htm [8] http://www.przewodnicy.zakopane.pl/foto/spitsbergen/jalbum/slides/ P8092598.html [9] http://www.thjodveldisbaer.is/ [10] http://www.hurstwic.org/history/articles/daily_living/text/ Turf_Houses.htm [11] http://www.hurstwic.org/history/articles/daily_living/text/ Turf_Houses.htm 24 Projektowanie wnętrz współczesnych sal koncertowych. Układ centralny tarasowy. Joanna Jabłońska1 Streszczenie: W II połowie XX wieku powstał nowatorski układ wnętrza Filharmonii w Berlinie, który akustykom i architektom pozwolił na projektowanie sal koncertowych o dobrej akustyce i pojemnościach widowni powyżej 1800 osób. W ten oto sposób, wprowadzono do kanonu architektury, tzw. układ centralny z tarasami, czyli wnętrze ze sceną położoną w środku i otoczoną ze wszystkich stron tarasową widownią. Słowa kluczowe: sale koncertowe, układ centralny tarasowy, akustyka 1. Wprowadzenie Projektowanie współczesnych sal koncertowych wymaga połączenia ze sobą kilku dziedzin naukowych: architektury, akustyki, budownictwa, informatyki i... psychologii. Dzięki interdyscyplinarnemu podejściu do tego zagadnienia, umożliwiono stworzenie skomplikowanych form przestrzennych, m.in. „układu centralnego tarasowego” 2, który akustykom i architektom pozwolił na zaprojektowanie wielkich sal koncertowych o pojemnościach widowni powyżej 1800 osób, które pomimo swoich dużych gabarytów, posiadają bardzo dobrą akustykę. 1 Politechnika Wrocławska, Wydział Architektury, 50-317 Wrocław, Prusa 53/55, [email protected] 2 Układem centralnym tarasowym – nazywane będzie wnętrze sali koncertowej ze sceną położoną w środku, otoczoną ze wszystkich stron widownią (środek traktowany jest tu nieco umownie, niekoniecznie musi to być bardzo precyzyjnie określony środek geometryczny, czasami jest to położenie asymetryczne w pobliżu środka). Siedziska widowni są pogrupowane i umieszczone na tarasach. Powstałe między tarasami ściany (tzw. fronty tarasów) stanowią dodatkowe płaszczyzny służące do zróżnicowania kierunków odbicia fal akustycznych, zapewnienia dobrego zmieszania dźwięku bezpośredniego z dźwiękiem z pierwszego odbicia bocznego i zapewnienia powstawania intensywnych odbić dźwięku wyższych rzędów. Termin: „układ centralny tarasowy” zaczerpnięty został z literatury anglojęzycznej i stanowi parafrazę określenia „tarasy winnicy” (ang. vineyard terraces). 25 W 1963 roku powstała pierwsza sala koncertowa o układzie centralnym tarasowym. Była to sala główna Filharmonii w Berlinie (rys. 1), wzniesiona wg projektu architekta Hansa Scharouna oraz akustyka Lothara Cremera. Fakt ten zbiegł się z rozpoczęciem intensywnych badań nad dźwiękiem3, co pośrednio przyczyniło się do dynamicznego rozwoju tego układu. Rys. 1. Filharmonia w Berlinie – widok wnętrza [fot. autorka] 2. Układ centralny tarasowy – zasada działania W II połowie XX wieku – w wyniku współpracy akustyków z architektami – zmodyfikowano sposób dystrybucji fali akustycznej we wnętrzu sali koncertowej z pomocą dwóch zabiegów architektonicznych. Pierwszym z nich, było centralne umieszczenie sceny we wnętrzu sali, przez co zmniejszono odległość słuchacza od źródła dźwięku i skrócono drogę dla dźwięku bezpośredniego, w porównaniu do drogi, jaką dźwięk ten musi przebywać od źródła dźwięku do słuchacza, w sali o układzie pudełkowym4, przy porównywalnej pojemności widowni. Drugim zabiegiem było zastosowanie tarasów, w celu „budowania architektury dźwięku”, co umożliwiło precyzyjną modyfikację układu odbić 3 Prace m.in.: Leo Beraneka [lata 60. XX w.], Richarda Bolta [lata 60. XX w.], Roberta Newmana [lata 60. XX w.], Rusella Johnsona [lata 70. XX w.], Harolda Marshalla [lata 70. XX w.]. 4 Układ pudełkowy – nazwany w ten sposób od prostopadłościennego kształtu wnętrza sali koncertowej, przypominającego pudełko od butów, charakteryzującego się prostokątnym rzutem, o znacznej długości w stosunku do szerokości i znacznej wysokości, w proporcjach 1:2:2 [1]. Układ ten znany był w architekturze wnętrz „widowiskowych” od czasów średniowiecza. 26 fal akustycznych i podzielenie wnętrza sali na mniejsze, działające indywidualnie ustroje akustyczne. Sposób dystrybucji dźwięku w salach centralnych tarasowych został zobrazowany na wirtualnym modelu sali koncertowej5 (rys. 2), z umieszczonymi w niej: źródłem dźwięku i słuchaczem. Pierwsza fala wychodząca ze źródła dźwięku napotyka na swojej drodze ścianę tarasu widowni bocznej, odbijając się od niej w sposób idealny – zwierciadlany i dociera do ucha słuchacza z boku. Następna fala, która wyszła ze źródła, odbija się już od dwóch płaszczyzn frontów tarasów i dociera do uszu słuchacza od tyłu. Jako trzecia, została pokazana fala, która odbija się od sufitu. Podobnie zachowywać się będą wszystkie fale emitowane przez źródło. Zakładając, że źródło dźwięku emituje fale akustyczne promieniście we wszystkich kierunkach, przedstawiony schemat należy przyjąć dla wszystkich źródeł dźwięku (instrumentów) znajdujących się na scenie sali koncertowej. Rys. 2. Dystrybucja dźwięku w sali o układzie centralnym tarasowym – widok perspektywiczny [oprac. autorki] Centralne usytuowanie sceny i wprowadzenia tarasów w przestrzeń widowni, pozwoliły na budowanie dużych kubaturowo sal koncertowych, o polu dźwięku wyróżniającym się korzystnymi parametrami akustycznymi, tj: prawidłowym czasem pogłosu, głośnością, przejrzystością, 5 Opracowanie autorki na podst. rzutów i przekrojów wnętrza sali głównej Filharmonii w Berlinie 27 wymieszaniem pola, przestrzennością. barwą, bogactwem, a przede wszystkim – 3. Układ centralny tarasowy – parametry Czas pogłosu6 jest podstawowym parametrem opisującym akustykę sal koncertowych i ma ścisły związek z ich ukształtowaniem architektonicznym, m.in.: kubaturą. Przeskalowywanie wymiarów (znanych do czasów II połowy XX wieku) wnętrz pudełkowych, poza graniczną wartość 1800 miejsc – powodowało nadmierne wydłużanie się czasu pogłosu. Natomiast w salach centralnych tarasowych, poprzez rozłożenie widowni tarasowej wokół sceny, można umieścić większą liczbę słuchaczy w stosunkowo (w relacji do układów pudełkowych) mniejszej kubaturze, przez co uzyskiwany jest optymalny czas pogłosu. Kolejne istotne parametry, to głośność i czystość dźwięku, które zostały poprawione dzięki temu, że w omawianym układzie do większej liczby siedzisk, niż w salach pudełkowych, dociera dźwięk bezpośredni, zmieszany z pierwszym odbiciem, a powierzchnie odbijające – ściany tarasów – są zbliżone do słuchaczy. Na dobrą jakość dźwięku w sali koncertowej wpływa również efekt, tzw.: „wymieszania pola akustycznego”7, który nie został jeszcze opisany w sposób matematyczny8, ale uważa się, że optymalnym rozwiązaniem dla uzyskania pożądanego zmieszania dźwięku jest zastosowanie nieregularnych powierzchni odbijających dźwięk. W salach centralnych tarasowych, w których występuje duża liczba nieregularnych powierzchni, tj.: ścian tarasów, ścian zamykających salę i zróżnicowanych powierzchni sufitów, efekt „wymieszania pola akustycznego” jest łatwy do osiągnięcia. Subiektywne wrażenie zwane „bogactwem tonu”, jest istotne dla odbioru muzyki i powstaje wtedy, gdy we wnętrzu występują tzw. odbicia późne. Są one słabsze niż odbicia wczesne, ale ich wpływ na dźwięk jest zauważalny. Odbicia późne powstają w wyniku wielokrotnego odbijania się fali akustycznej we wnętrzu. Dzięki różnorodności płaszczyzn refleksyjnych zastosowanych w salach centralnych tarasowych i znacznej ich liczbie, uzyskiwane wrażenia słuchowe są ciekawsze niż w układach klasycznych. Oprócz omówionych powyżej parametrów o akustyce sali decyduje szereg innych czynników, a wszystkie one uzyskiwane są dzięki współpracy 6 Czasem pogłosu – nazywamy czas, w którym natężenie dźwięku spada o 60 dB [2] „Wymieszanie dźwięku” ma miejsce we wnętrzach, w których znajdują się elementy rozpraszające fale akustyczne. Przez rozpraszanie fal o różnych częstotliwościach uzyskuje się efekt „miękkiego” dźwięku, który działa korzystnie na ucho ludzkie, powodując subiektywne wrażenie łagodności brzmienia. 8 Obecnie wyznacza się go za pomocą metod graficznych. 7 28 akustyków z architektami, ponieważ każdy detal architektoniczny ma wpływ na pole dźwięku w sali koncertowej. 4. Efekt psychologiczny i architektoniczny Oprócz swoistego architektoniczno-akustycznego ukształtowania9, układ centralny tarasowy wprowadził do projektowania sal koncertowych zagadnienie interakcji psychologicznych. Zakłada się, że interakcje psychologiczne powstają pomiędzy muzykami i słuchaczami oraz między słuchaczami a innymi słuchaczami. W salach o układzie centralnym tarasowym sprzyjają temu: zmniejszenie dystansu między wykonawcami i odbiorcami oraz umieszczenie tych ostatnich we wspólnym okręgu. Możliwość obserwacji reakcji innych uczestników koncertu „face to face”, wzbogaca wrażenia i wzmacnia zainteresowanie występem. Lokalizacja miejsc dla publiczności na tylnym tarasie umożliwia obserwację orkiestry i pracy dyrygenta. Zmienia to podejście widzów, z bycia jedynie „obserwatorem”, „słuchaczem” na bycie „uczestnikiem” koncertu. Układ centralny nawiązuje w sposób bezpośredni, do układów naturalnych i pierwotnych, tj. wspólnego muzykowania przy ognisku, czy występów kameralnych. Nietypowe ukształtowanie wnętrza w konfiguracji winnicowej oferuje ciekawe warunki wizualne, możliwość indywidualnego kreowania architektonicznego przestrzeni. Przykładami takich sal są: Glasgow Royal Concert Hall (rys. 3), Muza w Kawasaki, Oriental Arts Center w Szanghaju, Walt Disney Hall w Los Angeles, Boettcher Concert Hall w Denver, nowo projektowana Elbphilharmonie w Hamburgu. Rys. 3. Glasgow Royal Concert Hall – wnętrze sali [fot. autorka] 9 Układ architektoniczno–akustyczny - pojęcie sformułowane na potrzeby ścisłego wskazania powiązania formy ukształtowania architektury wnętrza i jego akustyki. 29 Dzięki szczególnemu ukształtowaniu architektonicznemu układu centralnego tarasowego uzyskano dodatkowe wartości wizualne, estetyczne, a nawet psychologiczne w salach koncertowych - dzięki połączeniu ze sobą różnorodnych dziedzin nauki i sztuki. 3. Podsumowanie Uzyskanie odpowiedniego efektu akustycznego w sali koncertowej wymaga uwzględnienia wpływu wielu różnorodnych czynników: architektonicznych, akustycznych, konstrukcyjnych, a także czynników z różnych dziedzin, które nie kojarzą sie bezpośrednio z budownictwem. Te relacje są szczególnie widoczne w trakcie projektowania sal o układzie centralnym tarasowym, gdzie niebagatelną rolę odgrywają np.: technologie informatyczne, czy zależności psychologiczne. Podsumowując, uważam, że zespół projektujący salę koncertową o układzie centralnym tarasowym powinien składać się ze specjalistów z różnych branż budowlanych oraz naukowców reprezentujących różne dyscypliny naukowe. Można już teraz określić, że przyszłość rozwoju układu centralnego tarasowego, a także sal koncertowych w ogóle, będzie ściśle związana z tworzeniem interdyscyplinarnych zespołów projektowych oraz rozwijaniem języka specjalistycznego i technologii komputerowych, które ułatwią wzajemną i jednoznaczną komunikację pomiędzy różnorodnymi specjalistami. Literatura [1] Barron M. Auditorium Acoustics and Architectural Design, London 1993. [2] Beranek L. Concert and Opera House. How they sound, Acoustical Society of America, (b.m.) 1996. [3] L., V. Jordan: Acoustical Design of Concert Halls and Theatres. A personal Account. Applied Science Publishers LTD, London 1980 [4]A. Kulowski: Akustyka sal. Wydawnictwo Politechniki Gdańskiej, Gdańsk 2007 [5] Z. Wąsowicz. Kształtowanie Akustyki Pomieszczeń. „Budowlany Informator Techniczny”. 1999 nr 7 (17), s. 61-65. [6] E.Wiśniewski: Die Berliner Philharmonie und Ihr Kammermusiksaal. Der Konzertsaal als Zentralraum. Gebr. Mann Verlag, Berlin 1993. [7]www.acoustics.salford.ac.uk/acoustics_world/concert_hall_acoustics/sha pe.html [8] http://www.zainea.com/The_New_Understanding_of_Acoustics.htm 30 Cz˛eść II Nauki chemiczne Inhibitowanie wzrostu cyjanobakterii przez allelochemiczne związki wydzielane przez makrofity Barbara Macioszek1 Streszczenie: Toksyczne zakwity cyjanobakterii występują w eutroficznych i hipertroficznych jeziorach, rzekach i stawach na całym świecie. Powodują one powstawanie nieprzyjemnego zapachu i smaku wody. Woda taka nie nadaje się do celów rekreacyjnych czy do odłowu ryb. Aby poprawić jakość wód ujmowanych do celów wodociągowych oraz rekreacyjnych konieczne jest znalezienie skutecznej metody kontrolowania zakwitów sinicowych. Słowa kluczowe: zakwity sinicowe, ograniczanie zakwitów 1. Wprowadzenie Masowy rozwój sinic, który bardzo często ma miejsce w wodach ciepłych mórz, jezior i zbiorników zaporowych o wysokiej eutrofizacji, powoduje deficyt tlenu i światła w niższych warstwach, zaburzenie krążenia wody, ponadto sinice wydzielają metabolity wtórne, stanowiące zagrożenie dla zdrowia ludzi i zwierząt. Obecność sinic znacznie pogarsza jakość wody, wpływa na jej zapach, smak i barwę [1]. Rozwój cyjanobakterii uzależniony jest od szeregu czynników biotycznych i abiotycznych, z których decydujący wpływ mają: temperatura wody, naświetlenie oraz dostępność składników mineralnych (głównie związków azotu i fosforu) [2, 3]. Niektóre gatunki sinic posiadają wakuola gazowe, które umożliwiają im przemieszczanie się w toni wodnej, a co za tym idzie lepsze wykorzystanie światła słonecznego oraz składników pokarmowych. Wpływ na wzrost sinic i biosyntezę toksyn mają również jony niektórych metali. Na przykład niskie stężenie jonów żelaza znacznie hamuje rozwój kolonii, ale powoduje wzmożoną syntezę toksyn. Innymi czynnikami, mającymi również wpływ na wzrost sinic i syntezę toksyn są odczyn wody, zawartość rozpuszczonego tlenu oraz twardość wody [4, 5]. Obecność dużej liczby komórek cyjanobakterii w wodzie wywołuje wiele negatywnych skutków, największym jednak zagrożeniem są wydzielane przez nie toksyny [6]. Sinice wytwarzają szereg bioaktywnych 1 Uniwersytet Łódzki, Wydział Chemii, Katedra Chemii Ogólnej i Nieorganicznej, ul. Narutowicza 68, 90-136 Łódź, e-mail: [email protected] 32 związków, które możemy podzielić na kilka grup, przyjmując jako kryterium podziału rodzaj tkanek i narządów ulegających uszkodzeniu oraz mechanizm ich działania [1]. Możemy więc wyróżnić: (a) hepatotoksyny, czyli związki negatywnie wpływające na hepatocyty wątrobowe (należą do nich cykliczne peptydy mikrocystyny i nodularyny), (b) neurotoksyny – substancje, które uszkadzają obwodowy i ośrodkowy układ nerwowy (alkaloidy, wśród których wyróżnić można anatoksynę-a, -a(S), saksytoksyny, cylindrospermopsyny, lyngbiatoksynę-a), (c) toksyny o nie do końca poznanej toksyczności oraz charakterze oddziaływania na organizmy (dilaktony takie jak: aplazjatoksyna i debromoaplazjatoksyna oraz lipopolisacharydy) [7]. Aby poprawić jakość wód nie tylko dla potrzeb stacji uzdatniania wody, ale również w aspekcie ekologicznym, konieczne jest znalezienie skutecznej metody kontrolowania zakwitów sinicowych aby można było podjąć działania prowadzące do ograniczenia masowego występowania sinic. Głównym czynnikiem limitującym wzrost fitoplanktonu jest dostępność nutrientów, a zatem poprzez obniżenie stopnia eutrofizacji można w znacznym stopniu ograniczyć zakwity sinic. Niestety efekty zmniejszenia żyzności wód dostrzegalne są dopiero po wielu latach, dlatego też niezbędne są działania wspomagające. Do działań ograniczających masowe występowanie sinic należą metody fizyczne (destratyfikacja, zmętnienie, napowietrzanie), chemiczne (stosowanie algicydów, traktowanie wody związkami wapnia, żelaza lub miedzi), biologiczne (biomanipulacja, słoma jęczmienna) oraz mechaniczne [7, 8]. Stosowanie dekomponowanej słomy jęczmiennej do ograniczania zakwitów sinicowych zostało rozpowszechnione stosunkowo niedawno. Dotychczas jednak nie zidentyfikowano substancji odpowiedzialnych za hamowanie wzrostu glonów po aplikacji słomy do zbiorników wodnych [9, 10]. Inhibicję wzrostu cyjanobakterii wykazują również związki wydzielane przez niektóre gatunki makrofitów (Egeria densa, Cabomba caroliniana, Myriophyllum spicantum) bądź uzyskane z ich liofilizowanej biomasy [11 - 16]. W prezentowanej pracy opisano badania nad wpływem związków o działaniu allelopatycznym, powstających podczas dekompozycji słomy jęczmiennej lub wydzielanych przez niektóre gatunki makrofitów, na wzrost sinic oraz na ilości syntezowanej mikrocystyny-LR. Do związków, które wybrano do badań należą: kwasy: elagowy, galusowy, p-hydroksybenzoesowy, kwercetyna, floroglucyna, pirogalol i hydroksyhydrochinon. 33 2. Metodyka badań Do badań dotyczących wpływu związków o działaniu allelopatycznym na wzrost sinic i biosyntezę cyjanotoksyn wykorzystano toksyczny szczep Microcystis aeruginosa PCC 7820, który to występuje w zbiornikach wodnych na terenie Polski. Hodowlę badanego szczepu sinic prowadzono w pożywce mineralnej BG11, przy oświetleniu dziennym, w temperaturze 24-25 oC, w kolbach stożkowych o pojemności 750 cm3. Inkubację zawiesin kultur sinic z dodatkiem substancji o działaniu allelopatycznym prowadzono przez 16 dni równolegle z próbami kontrolnymi. Wzrost kolonii był monitorowany poprzez oznaczanie liczby komórek sinic przy pomocy mikroskopu Olympus CX-41 w komorze Fuchsa-Rosenthala. W celu oznaczenia stężenia mikrocystyny-LR w badanych próbach zawiesiny kultur sinicowych były wstępnie zatężane na kolumienkach ekstrakcyjnych (J.T.Baker) z wypełnieniem typu C18. Próbki zatężone metodą SPE rozdzielano metodą wysokosprawnej chromatografii cieczowej w odwróconych fazach (RP-HPLC) (chromatograf HP 1050 z detektorem UV/VIS firmy Hewlett-Packard, USA) [17]. Do badań stosowano kolumnę Spherisorb 5S ODS2 (Hewlett-Packard, USA) oraz pętlę nastrzykową o objętości 20.0 µl. Detekcja była prowadzona przy długości fali 240 nm. Rozdział w układzie izokratycznym z użyciem mieszaniny acetonitrylu i 0,01-molowego roztworu octanu amonu (stosunek objętościowy - 26:74) przy szybkości przepływu 1.0 cm3/min. 3. Wyniki i dyskusja Zmiany liczby komórek sinic hodowanych w obecności: 1,2-dihydroksybenzenu (c = 0,5 mg/dm3), kwasu syryngowego (c=1,8 mg/dm3), kwasu 3,4-dihydroksybenzoesowego (c=3 mg/dm3), kwasu elagowego (c=5 mg/dm3) oraz (+)-katechiny (c=5,5 mg/dm3) przedstawiono na rysunku 1. Natomiast zmiany stężeń mikrocystyny-LR w poszczególnych próbach przedstawiono rysunku 2. Kultura sinic M.aeruginosa wzrastająca w obecności kwasu elagowego o stężeniu 5,0 mg/dm3 wykazywała początkowo szybkość wzrostu podobną jak w próbach kontrolnych. Poczynając zaś od siódmego dnia inkubacji ilości komórek w zawiesinie stopniowo malała i po 16 dniach nastąpiło obniżenie liczebności kultur sinicowych o 53,2% w stosunku do kultur kontrolnych. Ilość mikrocystyny-LR wydzielana przez tę kolonię sinic początkowo zmniejszała, z kolei od dnia siódmego hodowli stężenie toksyny w zawiesinie komórek stopniowo wzrastało osiągając koncentrację 34 32,8 µg/ml, co stanowiło wzrost o odpowiednio 49,1% i o 18,7% w porównaniu ze stanem wyjściowym wyj oraz próbami kontrolnymi. (+)-Katechina Katechina zastosowana w stężeniu st 5,5 mg/dm3 wywołała inhibicję wzrostu kultur tur sinic o około 40% w stosunku do hodowli kontrolnych. Ilość mikrocystyny mikrocystyny-LR początkowo tkowo malała, a następnie nastę stopniowo jej stężenie enie wzrastało. Wydaje si się, iż podobnie jak to miało miejsce w przypadku kwasu elagowego, (+) (+)-katechina katechina reaguje z toksyn toksyną obniżając jej zawartość ść w próbach. Kolonia sinic wzrastająca wzrastaj w obecności ci kwasu syryngowego o stężeniu eniu 1,8 mg/dm3 wykazywała zahamowanie szybkości ci wzrostu średnio rednio o 25%. Natomiast ilo ilość mikrocystyny-LR w początkowych tkowych fazach eksperymentu maleje, zaś za w końcowym etapie ich ilość w zawiesinie cyjanobakterii przewyższa poziom stężenia st enia wykazywany przez hodowlę hodowl kontrolną. Początkowy tkowy spadek ilości ilo ci toksyny spowodowany był prawdopodobnie reakcj reakcją MCYST-LR z zastosowanym związkiem, ązkiem, natomiast wzrost jej stężenia stęż w etapie końcowym owym był efektem wyczerpania się kwasu syryngowego. Kwas 3,4-dihydroksybenzoesowy dihydroksybenzoesowy o st stężeniu 3,0 mg/dm3 dodany do hodowli sinic praktycznie nie wywołuje inhibicji ich wzrostu. Jeśli Jeśli chodzi o ilość MCYST-LR LR wydzielanej przez kulturę kultur cyjanobakterii wzrastaj wzrastające w obecności ci tego kwasu, to ich stężenia st są zbliżone one do oznaczonych w hodowlach kontrolnych 1,2-dihydroksybenzen dihydroksybenzen dodany do hodowli sinic w stężeniu stęż st 0,5 mg/dm3 wywołuje inhibicję inhibicj ich wzrostu o 19%. Ilość MCYST MCYST-LR wydzielanej przez kulturę cyjanobakterii wzrastające w obecności ci badanego związku zku zmniejszyła się si o 11% w stosunku do ilości ci oznaczonych w hodowlach kontrolnych. liczba komórek/ml 2,3E+07 2,0E+07 1,8E+07 1,5E+07 1,3E+07 1,0E+07 0 kontrola k.syryngowy kwas elagowy 1 2 3 4 7 9 11 14 16 czas inkubacji [doba] 1,2-dihydroksybenzen kwas 3,4-dihydroksybenzoesowy (+)-katechina Rys. 1. Zmiany liczby komórek sinic w badanych kulturach 35 stężenie MCYST [µg/ml] 35 30 25 20 15 0 1 2 3 4 7 9 11 14 16 czas inkubacji [doba] kontrola 1,2-dihydroksybenzen kwas syryngowy kwas 3,4-dihydroksybenzoesowy kwas elagowy (+)-katechina Rys. 2. Zmiany stężenia st mikrocystyny-LR w kulturach sinic 4. Podsumowanie Wyniki badańń prezentowane w niniejszej pracy, przedmiotem których było określenie lenie wpływu związków zwi zków o działaniu allelopatycznym na wzrost sinic i syntezęę cyjanotoksyn, prowadzą prowadz do następujących cych wniosków: 1. Kwas 3,4-dihydroksybenzoesowy dihydroksybenzoesowy nie powodu powoduje je zmniejszania si się liczebności ci kultur sinic ani też te ilości wydzielanych toksyn. 2. Spośród ród badanych związków zwi liczbę komórek w zawiesinie sinic znacznie redukowały: kwas elagowy, (+)-katechina (+) katechina oraz katechol. 3. Zmniejszenie się liczby komórek w hodowlach przy równoczesnym ównoczesnym zwiększeniu kszeniu ilości ci toksyn w zawiesinie obserwowany jest dla kultur sinic hodowanych w obecności: obecno ci: kwasu elagowego, syryngowego i 1,2-dihydroksybenzenu. dihydroksybenzenu. Literatura [1]. Codd G.A., 1995, Cyanobacterial toxins: occurrence, properties and biological significance,, Water Science Technology, Technology 32 (4), 149-156. [2]. Sivonen K.,1990, Effects of light, temperature, nitrate, orthophosphate, and bacteria on growth of and hepatotoxin production by Oscillatoria agardhii strains, Appl. Environ. Microbiol., 56, 2658-2666. [3]. Lehtimäki J., Sivonen K., Luukkainen R., Niemelä S.I.,1994, The effects of incubation time, temperature, light, salinity and phosphorus on growth and hepatotoxin production by Nodularia strains, Arch. Hydrobiol., 130, 269-282. [4]. Kadłubowska J.Z., Zarys algologii algologii, PWN, 1975. 36 [5]. Podbielkowski Z., Glony, PZWS, 1967. [6]. Hitzfeld B.C., Höger S.J., Dietrich D.R., 2000, Cyanobacterial toxins, removal during drinking water treatment, and human risk assessment, Environ. Health Perspect, 108, 113 –122. [7]. WHO, Toxic Cyanobacteria in Water, E & FN Spon Press, London, 1999. [8]. O’Melia C.R., 1998, Coagulation and sedimentation in lakes, reservoirs and water treatment plants, Water Science Technology, 37(2), 129-135. [9]. Barrett P.R.F., 1992, Newman J.R., Algal growth inhibition by rotting barley straw, Br. Phycology Journal, 27, 83–84. [10]. Martin D., Ridge I., 1999, The relative sensitivity of algae to decomposing barley straw, Journal of Applied Phycology, 11, 285–291. [11]. Gross E.M., Erhard D., Iványi E., 2003, Allelopathic activity of Ceratophyllum demersum L. and Najas marina ssp. intermedia (Wolfgang) Casper, Hydrobiology, 506–509, 583–589. [12]. Gross E.M., Meyer H., Schilling G., 1996, Release and ecological impact of algicidal hydrolysable polyphenols in Myriophyllum spicatum, Phytochemistry, 41, 133–138. [13]. Hilt S., 2006, Allelopathic inhibition of epiphytes by submerged macrophytes, Aquatic Botany, 85, 252–256. [14]. Leu E., Krieger-Liszkay A, Goussias Ch, Gross E.M., 2002, Polyphenolic allelochemicals from the aquatic angiosperm Myriophyllum spicatum inhibit photosystem II, Plant Physiology, 130, 2011–2018. [15]. Nakai S., Inoue Y., Hosomi M., Murakami A., 1999, Growth inhibition of blue-green algae by allelopathic effects of macrophytes, Water Sci. Technology, 39, (8), 47-53. [16]. Saito K., Matsumoto M., Sekine T., Murakoshi I., Morisaki N., Iwasaki S., 1989, Inhibitory substances from Myriophyllum brasiliense on growth of blue-green algae, Journal of Natural Products, 52, (6), 1221-1226. [17]. Meriluoto J., 1997, Chromatography of microcystins, Analytica Chimica Acta, 352, 277–298. 37 Optymalizacja procesu grawitacyjnego odwadniania osadów organicznych z użyciem polielektrolitów Grzegorz Maliga, Jerzy Składzień, Janusz Szymków Streszczenie: W pracy zaprezentowano wyniki eksperymentów grawitacyjnego zagęszczania komunalnych ścieków pofermentacyjnych zmieszanych z różnymi dawkami flokulanta syntetycznego w postaci polielektrolitu kationowego. Badanie skuteczności odwadniania prowadzono na filtrze laboratoryjnym przy użyciu trzech rodzajów polielektrolitów. Słowa kluczowe: grawitacyjne odwadnianie, flokulacja, optymalizacja, ścieki komunalne, polielektrolit kationowy 1.Wprowadzenie Taśmowe prasy filtracyjne są powszechnie wykorzystywane do procesu odwadniania organicznych osadów ściekowych. Proces ten pozwala zredukować objętość osadu, ułatwia ich transport na miejsce składowania oraz podwyższa wartość kaloryczną, jeżeli istnieje potrzeba wykorzystania osadu jako biopaliwa w procesie współspalania. W porównaniu z termicznym procesem suszenia mechaniczne odwadnianie wymaga znacznie mniejszego nakładu energetycznego. Jednak odwadnianie osadów ściekowych metodą mechaniczną posiada znaczne ograniczenie, ponieważ jak wynika z danych literaturowych, maksymalna zawartość suchej masy jaką można osiągnąć wynosi około 30% [1]. Spowodowane jest to tym, iż w skład osadu organicznego wchodzą głównie mikroorganizmy (bakterie), które tworzą specyficzną biosieć zwaną stadną. Cechą tego typu sieci jest wysoka porowatość oraz fraktalna struktura, wykazująca odmienną budowę w porównaniu z osadami nieorganicznymi. Proces odwadniania organicznych osadów ściekowych na taśmowych prasach filtracyjnych jest wspomagany, środkami zwanymi polimerami. W celu zapewnienia właściwego kontaktu polimerów ze ściekami, poddaje się je procesowi mieszania mechanicznego lub statycznego. Mieszanie zapewnia odpowiednią strukturę przygotowanego ścieku, co bezpośrednio wpływa na efektywność odwadniania, dlatego 38 należy prowadzić je przy optymalnej prędkości obrotowej oraz optymalnym czasie przebywania. Proces mechanicznego odwaniania na prasach taśmowych można podzielić na trzy etapy: zagęszczanie, strefę klina oraz wyciskanie pomiędzy rolkami. W pracy główną uwagę zwrócono na etap zagęszczania. Etap ten jest często pomijany podczas analiz, ponieważ nie wpływa on w takim samym stopniu jak wyciskanie na końcową zawartość suchej masy w placku filtracyjnym. Jednak zagęszczanie grawitacyjne cechuje się najmniejszą energochłonnością jak również jest najtańsze, biorąc pod uwagę nakłady kapitałowe. Jak wynika z danych literaturowych, zawartość suchej masy zaraz po etapie taśmowego zagęszczania wynosi około 6-9%, natomiast jeżeli zaopatrzy się taśmę w jedną lub dwie rolki niskiego ciśnienia, to poziom zawartości suchej masy zaraz po zagęszczeniu może osiągnąć wartość około 10-13% [1]. Zagęszczanie można prowadzić na osobnym urządzeniu lub integralnie na prasie filtracyjnej. Warto zwrócić uwagę na fakt, iż etap ten jest pierwszym jaki zachodzi w całym procesie mechanicznego odwadniania, więc jeżeli będzie on przeprowadzony sprawnie oraz z wysoką efektywnością, to wpłynie on bezpośrednio na wydajność kolejnych etapów, a w efekcie na pracę całej prasy filtracyjnej i końcowy wzrost zawartości suchej masy w osadzie. 2. Modele matematyczne etapu grawitacyjnego odwadniania W literaturze dotyczącej procesu odwadniania osadów organicznych, istnieje wiele modeli matematycznych, które opisują etap grawitacyjnego odwadniania podobny do tego jaki zachodzi na zagęszczaczach taśmowych. Niektóre modele teoretyczne opierają się na prawach filtracji Darcy’ego, które w celu uzyskania korelacji, zostały zmodyfikowane współczynnikiem empirycznie wyznaczalnym. Natomiast inne modele są modelami empirycznymi i zawierają w swojej postaci wiele współczynników. W pracy przedstawiono porównanie dwóch modeli: rów. (3), (4) [1], z wynikami doświadczalnymi. Pierwszy model zakłada, że gęstość pierwotnych ścieków, poddawanych zagęszczaniu jest proporcjonalna do gęstości filtratu i jego różniczkowa postać zapisana jest równaniem: d ( M 0 − M (t )) = −λ (( M 0 − M (t )) − ( M 0 − M ∞ )) 2 , dt (1) gdzie: λ - współczynnik wyznaczalny doświadczalnie, bazujący na zależności: 39 1 1 + b2 . λ = b1 + M0 M0 − M∞ (2) Do celów eksperymentalnych użyteczna jest całkowa postać równania (1), która określa zależność masy filtratu w czasie i zapisana jest w formie: −1 1 . M (t ) = M ∞ − λ ⋅ t + M ∞ (3) Inny model [1] zakłada, że istnieje liniowa zależność pomiędzy masą placka filtracyjnego po nieskończenie długim czasie zagęszczania a zawartością suchej masy w podawanym ścieku i wyraża się zależnością: C (t ) = DS 1 (a1 ⋅ DS + a 2 ) + c1 ⋅ exp(c 2 ⋅ DS ) ⋅ t + M 0 − (a1 ⋅ DS + a 2 ) −1 .(4) Wartości parametrów: a1, a2, b1, b2, c1 oraz c2, zawarte w równaniach modelowych zależą od początkowej zawartości suchej masy. W części eksperymentalnej użyte zostały ścieki, które zawierają 3,1% suchej masy, a wartości współczynników dobrano z [1]. 3. Część eksperymentalna Badania zostały przeprowadzone na laboratoryjnym filtrze grawitacyjnym rys. 1, gdzie jako przegrodę filtracyjną użyto tkaninę syntetyczną SP 031608 KUFFERATH używaną w taśmowych zagęszczaczach grawitacyjnych. Procesowi odwadniania poddawano ściek pofermentacyjny, który pobrany został z komór fermentacyjnych Wrocławskiej Oczyszczalni Ścieków. Badany ściek cechował się pierwotną zawartością suchej masy o wartości DS=3,1% i gęstością ρ=992 kg·m-3. Jako środka flokulacyjnego użyto trzech polielektrolitów kationowych FLOERGER typ: FO o numerach 4650, 4490, 4240, które różnią się kationowością, rys. 2. Proces grawitacyjnego odwadniania prowadzono przez czas 1200 sekund dla różnych stężeń dozowanego flokulanta. Podczas prowadzonego procesu zagęszczania rejestrowano masę filtratu, na 40 podstawie której możliwe było wykreślenie krzywych odwadniania dla każdej dawki polielektrolitu. Rys 1. Stanowisko laboratoryjne do zagęszczania grawitacyjnego. Rys 2. Polielektrolity kationowe służce do flokulacji ścieków organicznych [4]. 4. Wnioski Przedstawione badania potwierdzają możliwość określenia optymalnej wartości dozowanego polielektrolitu. W przypadku zagęszczania grawitacyjnego przyjęto kryterium maksymalnej zawartości suchej masy w placku jak i kryterium czasu zagęszczania. W zakresie czasów zagęszczania do kilku minut wartość optymalnej dawki jest mniejsza niż 41 optymalne dawki przy czasie odwadniania wynoszącym 1200 s. W praktycznym zastosowaniu jednostkowy czas procesu zagęszczania ścieków zawiera się w granicach jednej minuty, stąd optymalizacji grawitacyjnego procesu zagęszczania należy dokonywać przyjmując kryterium czasu. Porównując wyniki eksperymentalne z modelowymi stwierdzono, że dla czasów odwadniania do jednej minuty proces odwadniania dobrze opisuje zależność (4), natomiast w zakresie czasów powyżej jednej minuty dobrą zbieżność uzyskano z modelem opisanym równaniem (3). Zawartość suchej masy po 10 s FO4650 5,5 Sucha masa, % 5,0 4,5 4,0 3,5 3,0 2,5 5 7 9 11 13 15 17 19 21 Dawka polielektrolitu, g/kg Rys. 3. Zawartość suchej masy w zależności od dawki polielektrolitu. Zawartość suchej masy po 1200 s FO4650 7,6 Sucha masa, % 7,4 7,2 7,0 6,8 6,6 6,4 6,2 6,0 5 7 9 11 13 15 17 19 Dawka polielektrolitu, g/kg Rys. 4. Zawartość suchej masy w zależności od dawki polielektrolitu. 42 21 E ksprym e ntalne w g rów . 4 w g rów . 3 Zawartość suchej masy, % 10 9 8 7 6 5 4 3 2 1 0 0 200 400 600 800 1000 1200 C zas, s Rys. 5. Graficzne porównanie modeli matematycznych z danymi eksperymentalnymi. 5. Oznaczenia C - zawartość suchej masy w placku, % DS. - sucha masa zawarta w ścieku, kg M - masa filtratu w czasie, kg M0- masa ścieku poddanego zagęszczaniu, kg M¥- masa filtratu po bardzo długim czasie odwadniania, kg t - czas, s l - kinetyczny współczynnik dla modelu empirycznego, g-1s-1 Literatura [1] J.Olivier, J. Vaxelaire, P. Ginisty: J. Chem. Technol. Biotechnol.79:461467 (2004). [2] B. F. Severin, Collins: Wat. Env. Fed, 65th Conf. , Sept 20-24, pp 205216 (1992). [3] J. Składzień, J. Szymków: Inż. i Ap. Chem.,44, nr 4, 33, 2005. [4] www.snf-group.com/Flocculants.html 43 Usuwanie toksyn sinicowych w procesie uzdatniania wody Dominik Szczukocki1 Streszczenie: Obecność toksyn sinicowych w zbiornikach wodnych, które są źródłem zaopatrzenia w wodę dla dużych ośrodków miejskich, oraz ich bardzo wysoka trwałość i stabilność chemiczna, stanowią problem dla stacji uzdatniania wody oraz laboratoriów zajmujących się analizą jakości wody. Należy jak najszybciej opracować dobrą metodę usuwania tych związków. Słowa kluczowe: toksyny sinicowe, mikrocystyna, uzdatnianie wody 1. Wprowadzenie Woda odgrywa niezastąpioną rolę w gospodarce komunalnej. Jakość wody, zwłaszcza używanej do celów pitnych, musi być bardzo wysoka. Wodom zagraża jednak antropopresja. Efektem jej może być zarówno zubożenie zasobów (zagrożenia ilościowe), jak i niebezpieczeństwo wystąpienia zanieczyszczeń wód (zagrożenia jakościowe). Skażenie naturalnych zbiorników wód przez człowieka przyczynia się do obniżenia stopnia wykorzystania powierzchniowych wód śródlądowych, a także morskich. Coraz częściej naturalne warunki ekologiczne zbiorników wodnych zostają silnie naruszone przez odprowadzanie do rzek ścieków komunalnych i przemysłowych. Wzrost zawartości mineralnych związków odżywczych pochodzących z tych ścieków, jak również spływ składników nawozowych doprowadzają do szybkiej eutrofizacji wód. Zdolność szybkiego rozwoju, jaka cechuje niektóre gatunki fitoplanktonu w korzystnych warunkach temperatury, oświetlenia i koncentracji związków odżywczych, może doprowadzić, zwłaszcza w odniesieniu do sinic, do tak wielkiego ich zagęszczenia w powierzchniowych warstwach wody, że osiągają one nawet 10 milionów komórek w 1 cm3 (Rys. 1) [1]. Niebezpieczeństwem towarzyszącym obfitym zakwitom sinic jest zachwianie równowagi tlenowej w środowisku wodnym, a także wytwarzanie toksyn niebezpiecznych dla zdrowia ludzi i zwierząt. Zakwity sinic tworzą się w okresie późnego lata i wczesnej jesieni, w postaci zielono - niebieskiego kożucha lub piany. 1 Uniwersytet Łódzki, Wydział Chemii, Katedra Chemii Ogólnej i Nieorganicznej, ul. Narutowicza 68, 90-136 Łódź, e-mail: [email protected] 44 Rys. 1. Zakwit sinicowy w jeziorze Balgavies w Szkocji z 1981 r. [1]. Jak donosi światowa literatura z dziedziny chemii, toksykologii środowiska i medycyny, toksyczne zakwity fitoplanktonu są olbrzymim problemem dla ludzi i zwierząt na całym świecie [1-3]. W Polsce zakwity sinic w zbiornikach wody pitnej stanowią poważny problem, szczególnie dla wielkich aglomeracji. Wykrycie obecności toksyn sinic w wodach polskich jezior i zbiornikach zaporowych postawiło nowe problemy przed stacjami uzdatniania wody i laboratoriami zajmującymi się analizą jakości wody pitnej. W latach 90. XX wieku, podczas badań prowadzonych przez zespół Pracowni Analizy Chemicznej i Badań Środowiskowych Uniwersytetu Łódzkiego, stwierdzono występowanie cyjanotoksyn m.in. w Zbiorniku Sulejowskim, który był dotychczas źródłem (i nadal jest potencjalnym źródłem) zaopatrzenia w wodę dla miasta Łodzi. 2. Powstawanie zakwitów sinicowych Sinice (łac.: Cyanobacteria, Cyanophyta; syn.: cyjanobakterie, cyjanofity) to gromada organizmów dawniej uznawanych za glony, według nowszej taksonomii zaliczanych do królestwa Procaryota (bezjądrowe), podkrólestwa Eubacteria. Z racji samożywności i tego, że należą do jednych z najważniejszych producentów w środowisku wodnym, sinice często zaliczane są wraz z glonami do fitoplanktonu. Pojawianie się sinicowych zakwitów wody jest determinowane przez czynniki środowiskowe biotyczne jak i abiotyczne (fizyczne i chemiczne). Poszczególne gatunki sinic charakteryzują się różną zdolnością przystosowawczą do życia w planktonie, jednakże gatunki potencjalnie toksyczne, zdolne do tworzenia zakwitów, wykazują pewne cechy wspólne. Jedną z nich jest obecność wakuol gazowych, których istnienie umożliwia tym organizmom wertykalne przemieszczanie się w toni wodnej. W zbiorniku wodnym sinice koncentrują się w dużych ilościach przy jego powierzchni, co powoduje zmianę barwy wody na niebiesko-zieloną. Mogą 45 one być wtedy w łatwoo spychane przez wiattr do zatok,, gdzie twoorzą postać grubego kożucha k lubb napowierzchniowej piany (Ryss. 2). Z takką sytuacją można byyło spotkać się na plaażach Zatok ki Gdańskieej. W latacch 2001-06 masowy zakwit z Noddularia spuumigena po owodował okresowe zamykanie kąpielisk w rejonie Trójmiasta. •kom mórki sinic rozm mieszczone w caałej objęętości zbio ornika •zagęszczen nie komórek przy powierzchn ni zbiornika •spychanie komó órek sinic przezz wiatr R 2. Powsttawanie kożuccha sinicoweg Rys. go na powierzcchni zbiornikaa. Tokssyny są wyddzielane doo wody w trrakcie całeggo cyklu rozzwojowego sinic, procces ten jednnak wzmaga się podczzas starzenia i rozpaduu komórek. Produkcjaa toksyn związana z jest ze strresowymi dla d danegoo gatunku środowiskkowymi czynnikamii fizyczn nymi (głównie teemperaturą i oświetlenniem), jak również r czyynnikami ch hemicznymi i biologiczznymi. 3. Toksyyny sinicoowe Toksyny sinicoowe (cyjanootoksyny) są s zróżnicoowaną pod względem chemicznyym, jak i toksykologi t cznym grup pą toksyn naturalnych n h. Pomimo tego, że występują w w środowiisku wodny ym okazujee się, że ssą bardziej niebezpiecczne dla ssaków s ląddowych niiż dla florry i faunyy wodnej. Dotychczaasowa wieddza na tem mat działaniia toksyn produkowan p nych przez sinice pocchodzi głow wnie z tesstów na zw wierzętach laboratoryjnych oraz izolowanyych liniach komórek k ssaków. Związki te moożna podzieelić ze wzg ględu na charakter tooksycznego oddziaływ wania na dw wie klasy: biotoksyny y (hepatotokksyny, neurrotoksyny) i cytotokssyny (m.in. dermatotooksyny) oraaz toksyny o nierozpooznanej do końca tokksyczności oraz charaakterze odd działywaniaa na organnizm ludzi i zwierząt. O ichh toksycznności ostrrej może świadczyćć wartość o tak silnej ej trucizny jak cyjanek współczynnnika LD50 niższego o 2-3 rzędy od sodu czy potasu. p należą Heppatotoksyny do naajniebezpiecczniejszych trucizn w przyroddzie. Konsekkwencją osttrego zatruccia tymi subbstancjami jjest szybko postępującca degraddacja wąttroby, powodująca masowe krwotoki wewnątrzw wątrobowe,, co w koonsekwencji prowadzii do śmierrci całego 46 organizmu. Intoksykowane zwierzęta umierają w charakterystycznym letargu, poprzedzonym silnym przekrwieniem wątroby oraz jej silnym obrzękiem a także szokiem krwotocznym. Organotropizm i specyficzność komórkowa tej grupy toksyn wiąże się z selektywnym systemem transportu kwasów żółciowych, występujących tylko w hepatocytach [2]. Długotrwałe spożywanie wody oraz pożywienia skażonego tego typu toksynami może dawać takie objawy kliniczne jak wysypka, gorączka, wymioty i biegunka oraz ostra dysfunkcja wątroby spowodowana jej przewlekłym uszkodzeniem. Istnieją także dowody na genotoksyczność tego typu toksyn, a zatem mogą być one silnymi promotorami raka wątroby, przy długotrwałej ekspozycji na tego typu toksyny, nawet przy niewielkich ich stężeniach w wodzie pitnej i pokarmie. Ta ich aktywność łączona jest z powszechnym występowaniem nowotworów wątroby u mieszkańców niektórych prowincji w Chinach, gdzie woda używana do celów pitnych pobierana jest ze zbiorników powierzchniowych zanieczyszczonych metabolitami cyjanobakterii [3]. Toksyny tej grupy są cyklicznymi oligopeptydami o ciężarze cząsteczkowym w granicach 800-1100 Da i toksyczności ostrej w granicach 30-1000 μg na kilogram masy ciała (LD50). Są one syntezowane za pośrednictwem specyficznych syntetaz peptydowych, których budowa i obecność grup funkcyjnych determinują skład i sekwencję aminokwasów w toksynach, a co za tym idzie ich aktywność biologiczną. Pierwszym wyizolowanym związkiem z tej grupy była mikrocystyna-LR (Rys. 3), której strukturę określił w 1988 r. Rinehart. Rys. 3. Struktura mikrocystyny-LR. Hepatotoksyny są bardzo trwałe, mogą być obecne w zbiorniku wodnym nawet do kilku tygodni po zakwicie. Spadek ich stężenia w środowisku jest spowodowany powolnym rozkładem przez bakterie oraz 47 dzięki mieszaniu i rozcieńczaniu mas wody w zbiorniku. Są związkami stabilnymi w wysokiej temperaturze co oznacza, że gotowanie wody nie powoduje rozpadu ich struktury. Są one również stabilne zarówno przy niskich jak i wysokich wartościach pH, co jest przyczyną ich bardzo wysokiej odporności na działanie soków żołądkowych. Hepatotoksyny przemieszczają się w niezmienionej postaci poprzez system transportu kwasów żółciowych z pomocą komórek okładzinowych jelita cienkiego. Akumulowane są w komórkach wątrobowych, a ich obecność wywołuje wewnątrzwątrobowy krwotok, prowadzący do zmniejszenia objętości krwi krążącej w tym narządzie oraz zmiany morfologiczne. 4. Metody usuwania toksyn sinicowych z wody Do chwili obecnej nie opracowano skutecznej metody, która pozwalałaby na usunięcie śladowych ilości mikrocystyn z wody pitnej. Brakuje również wiedzy na temat produktów rozkładu tych związków w procesach uzdatniania oraz prowadzenia badań w skali technologicznej. Stosowane obecnie metody oczyszczania wód powierzchniowych z toksyn sinicowych można podzielić na trzy grupy: a. metody klasyczne (flokulacja, koagulacja, filtracja piaskowa) b. metody fizykochemiczne (adsorpcja na węglu aktywnym, fotoliza, fotokataliza, procesy membranowe) c. metody chemiczne (chlorowanie, ozonowanie, reakcja z chlorkiem żelaza(III), utlenianie odczynnikiem Fentona). Klasyczne metody uzdatniania wody są nieskuteczne w usuwaniu toksyn sinicowych. Koagulacja może usuwać komórki sinicowe nawet w stu procentach, proces ten jest jednak całkowicie nieprzydatny do usuwania już rozpuszczonych w wodzie toksyn. Fotoliza promieniami UV o długości fali zbliżonej do maksimum absorpcji mikrocystyny daje dość dobre wyniki w skali laboratoryjnej. Naświetlanie wody promieniami o natężeniu 2550 μW/cm2 powoduje całkowity rozpad mikrocystyny-LR po 10 min. Zmiana natężenia lub długości fali powoduje znaczny spadek efektów. Zastosowanie katalizatorów podnosi efektywność uzyskiwaną dla rozkładów fotolitycznych. Podejmowano również próby stosowania procesów membranowych do oczyszczania wody z komórek i toksyn sinicowych. Stwierdzono, że komórki Microcystis aeruginosa mogą być usuwane przez mikrofiltrację prawie w stu procentach. Może tu jednak dochodzić do uszkadzania komórek i uwalniania się dodatkowych porcji toksyn zawartych w cytoplazmie (wtórne skażenie wody). 48 Chemiczne metody uzdatniania wody są najefektywniejsze i najczęściej stosowane w procesie technologicznym. Polegają one na chemicznym utlenianiu ładunku toksyn sinicowych za pomocą różnego typu utleniaczy takich, jak: chlorek żelaza(III), mono- i dichloramina, chlor, ditlenek chloru(IV), ozon. W układach oczyszczania wody ujmowanej ze zbiorników wód zeutrofizowanych stosuje się zwykle wstępne utlenianie. Skuteczność działania utleniaczy zależy od ich rodzaju i dawki, czasu kontaktu z wodą oraz jej odczynu, a także od obecności innych substancji organicznych, z którymi mogą reagować. Zdolności utleniające poszczególnych utleniaczy najczęściej porównuje się biorąc pod uwagę ich potencjały oksydacyjno-redukcyjne, które silnie zależą od pH. Reakcje utleniania podlegają prawu Arrheniusa i ich szybkość maleje ze spadkiem temperatury. Jest to bardzo ważna właściwość, na którą należy zwracać uwagę przy uzdatnianiu wody powierzchniowej w różnych porach roku. Chlorek żelaza(III) stosowany jest w procesie oczyszczania wody na etapie flokulacji. Efektywność reakcji toksyn z jonami żelaza(III) wynosi około 95% po około 60 min., ale przy braku rozpuszczonych substancji organicznych. Reakcja zachodzi w szerokim zakresie pH (2-10), przy czym efektywność jej jest wyższa przy wyższych wartościach pH (przy pH=10 po 30 min. zostaje usunięty prawie cały ładunek toksyn). O ile jednak ten sposób uzdatniania wykonuje się na początku procesu, przed odseparowaniem komórek sinic, może dojść do lizy komórek i wtórnego skażenia wody toksynami. Metoda uzdatniania wody przez chlorowanie jest stosowana od ponad stu lat. Chlor utlenia mikrocystynę-LR przy zastosowaniu odpowiednio dużej dawki - przynajmniej 0,5 mg/dm3, w ciągu 30 min. przy pH poniżej 8. Dlatego chloran(II) sodu lub wapnia, podwyższające wartość pH, są mało efektywne. Mechanizm i produkty utleniania nie zostały jeszcze dokładnie poznane. Chlorowanie jest powszechnie stosowane w procesach uzdatniania wody pomimo, że istnieje niebezpieczeństwo tworzenia się toksycznych produktów w reakcjach częściowego utleniania związków organicznych (a w szczególności toksyn sinicowych) występujących w wodzie. Z tego powodu istnieje obecnie tendencja do zastępowania chloru ditlenkiem chloru(IV). Daje on lepszą efektywność dezynfekcji w szerokim zakresie pH i przy stosowaniu mniejszych dawek, nie wykazuje tendencji do tworzenia chlorowcopochodnych, w tym trihalometanów. Spowalnia on także wtórny rozwój bakterii w sieciach przesyłowych. Inną metodą utleniania mikrocystyn jest traktowanie zanieczyszczonej wody manganianem(VII) potasu. Dawka 1-1,25 mg/dm3 KMnO4 obniża stężenie mikrocystyn poniżej 1 μg/dm3 (granicy wyznaczonej przez WHO dla wody pitnej). Jak do tej pory przeprowadzono tylko badania wstępne, nie są znane produkty utleniania ani ich toksyczność. Należy również 49 ostrożnie dobierać dawki manganianu(VII), żeby nie spowodować lizy komórek sinic znajdujących się w wodzie w wyniku stresu chemicznego. Z danych literaturowych [5] wynika, że efektywność utleniania mikrocystyny-LR za pomocą ozonu jest duża, a ozon okazał się bardziej efektywny w niszczeniu hepatotoksyny niż chlor, peroksotlenek wodoru, czy manganian(VII) potasu. Rezultaty wstępnych badań przeprowadzonych przez Keijola i współpracowników [4] wskazały, że proces uzdatniania wody zawierający etap ozonowania może być najefektywniejszy w eliminowaniu toksyczności powodowanej przez sinice. 5. Podsumowanie Zakwity sinic w Zbiorniku Sulejowskim występują praktycznie od początku jego istnienia. Coraz liczniejsze doniesienia naukowe na temat zagrożeń jakie niosą ze sobą zakwity zbiorników wodnych na świecie, a następnie toczona w mediach od lat 90. XX wieku kampania, zwracająca uwagę na problem toksyczności zakwitów sinicowych w Zbiorniku Sulejowskim spowodowały, że od roku 1995 ZWiK w Łodzi we współpracy z Uniwersytetem Łódzkim jako jedne z pierwszych w Polsce rozpoczęły badanie wody pod tym kątem. Została stwierdzona obecność kilkunastu toksyn sinicowych, wśród których przeważała mikrocystyna-LR. Jej zawartość w wodzie do picia nie przekroczyła nigdy 1 μg/dm3, czyli stężenia normowanego przez WHO. w niektórych okresach w wodzie powierzchniowej stwierdzano jednak przekroczenie normy WHO dla wód rekreacyjnych (5 μg/dm3). Efektywność usuwania mikrocystyny-LR jest uzależniona od obecności materii organicznej, która bardzo znacznie obniża skuteczność procesu ozonolizy. Większa ilość materii organicznej znajduje się w pobieranej do uzdatniania wodzie w okresie zwiększonej wegetacji fitoplanktonu. Dla polskich warunków klimatycznych typowy jest jeden wyraźny okres zakwitu na przełomie sierpnia i września. Uzyskiwana efektywność końcowa usuwania mikrocystyny-LR w procesie uzdatniania wody w ciągu technologicznym Sulejów-Łódź jest bardzo dobra, a stosowane procesy gwarantują skuteczne oczyszczanie wody powierzchniowej z toksyn sinicowych. Stosowanie w okresach silnego zakwitu mieszania uzdatnionej wody powierzchniowej z wodami głębinowymi lub infiltracyjnymi o wysokiej czystości pozwala na rozcieńczenie ewentualnie nieusuniętej do końca toksyny. Po zmieszaniu z wodami głębinowymi uzyskuje się obniżenie stężenia mikrocystyny-LR poniżej 0,38 μg/dm3. Woda uzdatniona w systemie wodociągowym Sulejów-Łódź, pracującym na bazie wód powierzchniowych ze Zbiornika Sulejowskiego, nawet w okresie zakwitów cyjanobakterii spełnia wymogi 50 rozporządzenia Ministra Zdrowia z 19 listopada 2002 r. oraz zalecenia WHO w zakresie stężenia mikrocystyny-LR. Literatura [1] W.W. Carmichael, The Toxins of Cyanobacteria. Scientific American, 270: 78-86, 1994. [2] J. E. Eriksson, D. Toivola, J.A.O. Meriluoto, H. Karaki, Y-G. Han, D. Hartshorne, Microcystic Cyanobacteria Extract Induces Cytoskeletal Disruption and Intracellular Glutathione Alteration in Hepatocytes. Biochem. Biophys. Res. Commun., 1347-1353, 1990. [3] K-I. Harada, M. Oshikata, H. Uchida, M. Suzuki, F. Kondo, K. Sato, Y. Ueno, S-Z. Yu, G. Chen, G-C. Chen, Detection and identification of microcystins in the drinking water of Haimen City, China. Natural Toxins, 4: 277-283, 1996. [4] A.M. Keijola, K. Himberg, A.L. Esala, K. Sivonen, L. Hiisvirta, Removing of Cyanobacterial Toxins from Water in Pretreatment Process: Experiments in Pilot and Laboratory Scale. Toxicity Assesment, 3: 643-656, 1988. [5] J. Rositano, B.C. Nicholson, P. Pieronne, Destruction of Cyanobacterial Toxins by Ozone. Ozone Sci. Eng., 20, 223, 1998. 51 Stabilizacja czy destabilizacja DNA fotochemiczne działanie promieniowania z zakresu bliskiej podczerwieni (NIR) Katarzyna Szymborska1 Streszczenie: Przy pomocy spektroskopii UV-VIS oraz skaningowej kalorymetrii róŜnicowej (DSC) zbadano modyfikacje zachodzące w obrębie DNA pod wpływem naświetlania promieniowaniem z zakresu bliskiej podczerwieni. Zaobserwowano, Ŝe krótki czas ekspozycji na promieniowanie NIR powoduje wzrost stabilności makromolekuły. DłuŜsze czasy naświetlania działają na układ destabilizująco. Słowa kluczowe: promieniowanie NIR, DNA, spektroskopia UV-VIS, skaningowa kalorymetria róŜnicowa (DSC) 1. Wprowadzenie Struktura wody związanej determinuje konformację makromolekuł biologicznych (białek, kwasów nukleinowych, itp.) i decyduje o ich aktywności metabolicznej [5, 21, 22]. Modyfikacja struktury wody wywołana poprzez czynniki chemiczne lub fizyczne wywołuje zmiany strukturalne cząsteczek biologicznych, które mogą modulować ich funkcje i reaktywność. Strukturę wody moŜe zmienić pole elektromagnetyczne, ciśnienie, obecność jonów, temperatura lub kilka tych czynników jednocześnie [1-3, 6-9, 14, 16, 23]. Skutecznym modyfikatorem wody moŜe być równieŜ promieniowanie z zakresu bliskiej podczerwieni (NIR) [12, 13]. Działanie tego promieniowania nie jest w pełni wyjaśnione i wywołuje wiele kontrowersji. Wcześniejsze badania na erytrocytach wyraźnie wskazują na modyfikacje błon biologicznych po ekspozycji na promieniowanie NIR. Przykładowo, ekspozycja na NIR powoduje wzrost gęstości ładunku objętościowego na powierzchni błony erytrocytów, unifikację właściwości osmotycznych naświetlanych erytrocytów. Ponadto NIR chroni erytrocyty przed stresem oksydacyjnym i obniŜa moŜliwość ich agregacji [10, 11]. Wykazano równieŜ, Ŝe promieniowanie z tego zakresu moŜe indukować agregację aminokwasu – fenyloalaniny. Tworzenie dimerów fenyloalaniny zostało 1 Instytut Chemii Fizycznej i Teoretycznej, Politechnika Wrocławska, WybrzeŜe Wyspiańskiego 27, 50-370 Wrocław, [email protected] 52 potwierdzone poprzez badania przy uŜyciu spektroskopii ATR-FTIR oraz obliczeń kwantowo-chemicznych [18-20]. Sugeruje się, Ŝe wszystkie wyŜej wymienione procesy są indukowane zmianami struktury wody. Modyfikacje sąsiadujących struktur wodnych (tzw. wody związanej) na skutek promieniowania NIR pociągają za sobą zmianę protonacji grup polarnych oraz procesy wtórne polegające na agregacji i zmianach konformacyjnych cząsteczek biologicznych. W celu dokładniejszego wyjaśnienia procesów strukturalnych zachodzących pod wpływem tego promieniowania przebadano DNA, którego warstwa hydratacyjna ma pierwszorzędne znaczenie w stabilizacji cząsteczki i dlatego jest intensywnie badana. W niniejszej pracy przedstawiono wyniki badań uzyskane ze spektroskopii UV-VIS. Przy wykorzystaniu tej metody zarejestrowano temperaturowe widma UV, na podstawie których skonstruowano profile denaturacji DNA oraz wyznaczono temperatury topnienia. Badania przeprowadzono dla próbek wystawionych na działanie promieniowania NIR i dla próbek kontrolnych, nie poddanych procedurze naświetlania. Wyniki uzyskane z metod spektroskopowych zostały potwierdzone i wzbogacone rezultatami badań przy uŜyciu skaningowej kalorymetrii róŜnicowej (DSC) 2. Materiały i metody 2.1. Materiał badawczy Do badań uŜyto soli sodowej kwasu deoksyrybonukleinowego (DNA), wyizolowanego ze spermy śledzia. Roztwory DNA o stęŜeniu 50 µg/ml sporządzono poprzez rozpuszczenie DNA w buforze MOPS (kwas 3-Nmorfolinopropanosulfonowy) o stęŜeniu 50 mM, pH = 6. Wszystkie materiały i odczynniki stosowane w doświadczeniach zostały zakupione w firmie Sigma Aldrich. 2.2. Procedura naświetlania Przygotowane wcześniej roztwory DNA umieszczano w zamykanym płasko-wypukłym naczyniu szklanym, zaopatrzonym w mieszadełko magnetyczne. Następnie wstawiano naczynie do komory naświetlania. Źródło światła stanowiła lampa halogenowa o gęstości mocy promieniowania 6,5 mW/cm2. Próbki były naświetlane przez 5, 10 i 20 minut promieniowaniem NIR w zakresie spektralnym 700–2000 nm dzięki zastosowaniu filtru krawędziowego przepuszczającego fale o tych długościach. W celu zabezpieczenia przed przegrzewaniem się próbek wykorzystano system podwójnego chłodzenia płaszczem wodnym i strumieniem powietrza. Próbka była mie53 szana w czasie ekspozycji na promieniowanie NIR. Punkt odniesienia stanowiła próbka kontrolna będąca roztworem DNA w buforze, który nie został poddany procedurze naświetlania. 2.3. Spektroskopia UV-VIS Przy uŜyciu dwuwiązkowego spektrofotometru Unicam UV 300, wyposaŜonego w przystawkę termostatującą Peltiera, wykonano pomiary widm absorpcji UV w zakresie od 200 do 350 nm dla roztworów DNA nienaświetlanych i naświetlanych promieniowaniem NIR. Badania przeprowadzono dla temperatur od 25 do 95 °C. Jako próbę odniesienia uŜyto roztworu wodnego zawierającego 50 mM buforu MOPS. Z uzyskanych widm odczytano wartości absorbancji przy długości fali 260 nm i na ich podstawie skonstruowano profile denaturacji DNA. Z otrzymanych krzywych denaturacji wyznaczono temperatury przejść termicznych zachodzących w makrocząsteczce. Wyniki ze spektroskopii UVVIS przedstawiono równieŜ w postaci zaleŜności hiperchromowości od temperatury. Wartości hiperchromowości obliczono ze wzoru [17] %H = Ax o C − A25 o C ⋅ 100% A25 o C 2.4. Badania kalorymetryczne Badania kalorymetryczne przeprowadzono przy uŜyciu skaningowego kalorymetru róŜnicowego Nano 5200, w zakresie temperatur 25 – 95 ºC, stosując szybkość nagrzewania 20 deg/min. Pomiary DSC wykonano dla roztworów DNA [50 µg/ml] nienaświetlanych i poddanych ekspozycji na promieniowanie z zakresu NIR oraz dla odnośnika. Jako odnośnik zastosowano 50 mM roztwór buforu MOPS w wodzie. Z uzyskanych krzywych DSC wyznaczono temperatury przejść termicznych. 3. Wyniki Na Rysunku 1 przedstawiono profile topnienia DNA dla próbek nienaświetlanych i naświetlonych promieniowaniem z zakresu NIR. Dokonano analizy tych krzywych i stwierdzono, Ŝe w procesie denaturacji DNA moŜna wyodrębnić trzy etapy, charakteryzowane przez trzy temperatury przejść fazowych. Wartości tych temperatur, wyznaczonych z krzywych denaturacji, zgromadzono w Tabeli 1. Wyniki przeprowadzonych badań wskazują, Ŝe promieniowanie z tego zakresu wyraźnie wpływa na kaŜdy etap topnienia makromolekuły. Analiza 54 pierwszego etapu wykazała, Ŝe próbki eksponowane na działanie promieniowania, niezaleŜnie od jego dawki wykazują przyrost absorbancji w temperaturze 25 °C, w odniesieniu do próbki kontrolnej. ZauwaŜono równieŜ róŜnice w przebiegach denaturacji w dwóch pozostałych etapach, Największej modyfikacji uległ etap trzeci, czyli etap właściwej denaturacji makromolekuły. Rys. 1. Krzywe denaturacji DNA w funkcji czasu ekspozycji na promieniowanie NIR W celu zbadania wpływu promieniowania NIR na wydajność procesu denaturacji DNA przeanalizowano zaleŜności hiperchromowości od temperatury dla próbki kontrolnej oraz próbek eksponowanych na promieniowanie (Rys. 2). Analiza tych krzywych wykazała, Ŝe długie czasy naświetlania promieniowaniem NIR zwiększają wydajność denaturacji DNA w porównaniu z próbką nienaświetloną. Zaobserwowano wzrost hiperchromowości o 2 % dla DNA naświetlanego przez 10 minut oraz o 3 % dla DNA naświetlanego 20 minut. Z kolei krótkie czasy ekspozycji na NIR, modyfikują strukturę makrocząsteczki na tyle, Ŝe jej denaturacja jest utrudniona. W tym przypadku widoczny jest spadek hiperchromowości o ok. 3 % w odniesieniu do próbki kontrolnej. 55 Rys. 2. Krzywe denaturacji DNA wyraŜone w postaci zaleŜności hiperchromowści od temperatury dla próbek nienaświetlanych oraz naświetlonych promieniowaniem NIR Trójetapowość procesu topnienia makromolekuły została potwierdzona wynikami z róŜnicowej kalorymetrii skaningowej (DSC). W Tabeli 1 zgromadzono wyznaczone temperatury przejść fazowych makromolekuły (T1, T2, T3) w funkcji czasu naświetlania. Czas naświetlania [min] Temperatury przejść [°C] T1 T2 T3 UV-VIS DSC UV-VIS DSC UV-VIS DSC 0 43 45 61 62 82 83 5 37 35 60 57 72 70 10 40 42 65 64 84 83 20 40 42 65 64 85 86 Tab. 1. Temperatury przejść fazowych w funkcji czasu naświetlania promieniowaniem NIR wyznaczone z krzywych denaturacji (pomiary UV-VIS) oraz z pomiarów DSC. Analiza danych zawartych w Tabeli 1 pokazała, Ŝe krótki czas ekspozycji na promieniowanie NIR (5 minut) powoduje obniŜenie wszystkich trzech temperatur przejść, ale największe róŜnice obserwuje się w przypad56 ku temperatur opisujących etap pierwszy oraz trzeci. Dla próbek naświetlanych przez 10 i 20 minut nie zauwaŜono istotnych zmian w temperaturach przejść w porównaniu z próbką kontrolną. 4. Dyskusja wyników Przeprowadzone eksperymenty pozwalają wnioskować, Ŝe promieniowanie z zakresu NIR modyfikuje strukturę cząsteczki DNA, a wywołane zmiany strukturalne zaleŜą od dawki tego promieniowania. Świadczyć moŜe o tym przyrost absorbancji (w temperaturze 25 °C) po ekspozycji na promieniowane NIR. ZauwaŜono, Ŝe im dłuŜszy jest czas ekspozycji, tym większy wzrost absorbancji. Taki przyrost absorbancji moŜe wskazywać na początek rozpadu nici DNA lub zmianę oddziaływań międzycząsteczkowych w roztworze. Analiza krzywych denaturacji oraz temperatur przejść termicznych pokazuje, Ŝe próbki eksponowane na działanie promieniowania NIR przez 10 oraz 20 minut denaturują według podobnych mechanizmów. DNA. ZauwaŜono, Ŝe długie czasy naświetlania wydajniej denaturują makrocząsteczkę. Zwiększona hiperchromowość oznacza, Ŝe promieniowanie NIR modyfikuje wiązania wodorowe między zasadami, dlatego teŜ po 10 oraz 20 minutach naświetlania większa ilość DNA uległa rozpadowi. Elementem róŜniącym te próbki jest wydajność denaturacji. Okazuje się, Ŝe 20 minutowa ekspozycja na NIR najefektywniej wpływa na proces topnienia DNA. Wydajność denaturacji dla tej próbki okazała się większa w porównaniu z DNA naświetlonym przez 10 minut. Dla próbki naświetlonej przez 5 minut obserwuje się całkowicie odmienny mechanizm topnienia w porównaniu z próbką kontrolną oraz próbkami wystawionymi na działanie promieniowania przez 10 i 20 minut. Krótki czas ekspozycji na NIR spowodował utworzenie struktury o duŜej stabilności termicznej. Denaturacja tak zmodyfikowanego DNA jest utrudniona. Świadczyć moŜe o tym spadek hiperchromowości w porównaniu do próbki nienaświetlonej oraz plateau obserwowane na krzywej topnienia w zakresie temperatur 70 – 90 °C. 4. Podsumowanie Wyniki uzyskane ze spektroskopii UV-VIS oraz róŜnicowej kalorymetrii skaningowej (DSC) pokazują, Ŝe krótkie czasy naświetlania powodują wzrost stabilności DNA, z kolei dłuŜsza ekspozycja na NIR destabilizuje układ. Sugerujemy, Ŝe modyfikacja struktury DNA jest tylko efektem wtórnym naświetlania. Pierwotnym efektem działania promieniowania NIR jest najprawdopodobniej modyfikacja wody otaczającej makromolekułę, która pociąga za sobą zmiany strukturalne cząsteczki biologicznej. 57 Literatura [1] M. C. Bellissent-Funel, Effects of pressure and confinement on liquid water, Journal of Physics: Condensed Matter, maj 2008 [2] O. D. Boner, C. F. Jumper, Effect of ions on water structure, Infrared Physics, sierpień 1973 [3] O. D. Bonner, R.K. Arisman, C.F. Jumper, The effect of ions on water structure II: A reinterpretation of experimental data, Infrared Physics, listopad 1974 [4] L. Chludzinska, E. Ananicz, A. Jaroslawska, M. Komorowska, Nearinfrared radiation protects the red cell membrane against oxidation, Blood Cells, Molecules, and Diseases, marzec 2005 [5] F. Despa, Biological water: Its vital role in macromolecular structure and function, Annals of the New York Academy of Sciences, grudzień 2005 [6] P. Dias-Lalcaca, N.J.C. Packham, H.A. Gebbie, The effect of ultraviolet radiation on water vapour absorption between 5 and 50cm−1, Infrared Physics, wrzesień 1984 [7] G. A. Gaballa; G. W. Nelson, The effect of pressure on the structure of light and heavy water, Molecular Physics, wrzesień, 1983 [8] C. J. Hochanadel, Effects of cobalt γ-radiation on water and aqueous solutions, Journal of Physical Chemistry, maj 1952 [9] O. A. Karim, Simulation of an anion in water: effect of ion polarizability, Chemical Physics Letters, październik 1991 [10] M. Komorowska, Fotoprocesy indukowane promieniowaniem z zakresu bliskiej podczerwieni w erytrocytach i modelach błon biologicznych, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2001 [11] M. Komorowska, A. Cuissot, A. Czarnoleski, W. Bialas, Erythrocyte response to near-infrared radiation, Journal of Photochemistry and Photobiology B: Biology, październik 2002 [12] M. Komorowska, M. Galwa, B. Herter, U. Wesolowska, Hydration effects under near-infrared radiation, Colloids and Surfaces B: Biointerfaces, grudzień 2001 [13] M. Komorowska, J. Lamperski, L. Komorowski, Near-infrared-induced proton transfer studied by electron spin resonance, Chemical Physics, styczeń 1999 [14] W. J. Lamb, D. R. Brown, J. Jonas, Temperature and density dependence of the proton lifetime in liquid water, Journal of Physical Chemistry, czerwiec 1981 [15] R. Leberman, A. K. Soper, Effect of high salt concentrations on water structure, Nature, listopad 1995 [16] Y. A. Mantz, B. Chen, G. J. Martyna, Temperature-dependent water 58 structure: Ab initio and empirical model predictions, Chemical Physics Letters, marzec 2005 [17] N. Nikolis, C. Methenitis, G. Pneumatikakis, Studies on the interaction of altromycin B and its platinum(II) and palladium(II) metal complexes with calf thymus DNA and nucleotides, Journal of Inorganic Biochemistry, czerwiec 2003 [18] S. Olsztynska, N. Dupuy, L. Vrielynck, M. Komorowska, Water evaporation analysis of L-phenylalanine from initial aqueous solutions to powder state by vibrational spectroscopy, Applied Spectroscopy, wrzesień 2006 [19] S. Olsztynska, M. Komorowska, N. Dupuy, Influence of Near-Infrared Radiation on the pKa Values of L-Phenylalanine, Applied Spectroscopy, czerwiec 2006 [20] S. Olsztynska-Janus, K.Szymborska, M. Komorowska, J. Lipinski, Usefulness of spectroscopy for biomedical engineering, październik 2008 [21] J. Teixeira, Can water possibly have a memory? A sceptical view, Homeopathy, maj 2007 [22] J. Teixeira, A. Luzar, S. Longeville, Dynamics of hydrogen bonds: how to probe their role in unusual properties of liquid water, Journal of Physics: Condensed Matter, sierpień 2006 [23] G. E. Walrafen, Raman Spectral Studies of the effects of temperature on water structure, Journal of Chemical Physics, lipiec 1967 59 Cz˛eść III Nauki techniczne System wspomagania wyprzedzania pojazdów wprowadzenie Magdalena Barańska 1 Streszczenie: Niniejsza praca zawiera propozycję uproszczonego systemu wspomagania wyprzedzania pojazdów. Ograniczenia, które zostały podane w pracy umoŜliwiły stworzenie prostego systemu wspomagania wyprzedzania. Proponowany system bazuje na czujnikach radarowych oraz kamerach. Jego zadaniem jest podanie kierowcy informacji czy manewr wyprzedzania moŜe być bezpiecznie wykonany. Informacja o sukcesie, bądź poraŜce wykonania manewru jest przekazywana za pomocą sygnałów świetlnych oraz dźwiękowych. Słowa kluczowe: Algorytm sterowania, czujniki, manewr wyprzedzania 1. Wprowadzenie Wiedząc, Ŝe wyprzedzanie jest jednym z najtrudniejszych i jednocześnie najbardziej niebezpiecznych manewrów drogowych wydaje się zasadne zaproponowanie systemu wspomagającego ten manewr. Manewr ten polega na przejechaniu obok pojazdu lub innego uczestnika ruchu, poruszającego się w tym samym kierunku. W Polsce wyprzedzanie związane jest w większości przypadków ze zmianą pasa ruchu na pas o przeciwnym kierunku. Zaproponowany system ma na celu usprawnienie manewru wyprzedzania, wykorzystując algorytm bazujący na danych pobieranych z czujników oraz kamer. Jego zadaniem jest podanie kierowcy informacji czy manewr wyprzedzania moŜe być bezpiecznie wykonany. Informacja ta jest przekazywana za pomocą sygnałów świetlnych oraz dźwiękowych. Manewr wyprzedzania opisano w publikacji [1]. Na podstawie tego opisu jesteśmy w stanie wyliczyć drogę oraz czas potrzebny do wykonania tego manewru. Natomiast w artykule [2] moŜna znaleźć opis rozmieszczenia czujników oraz kamer, które umoŜliwiają zbadanie obszaru wokół pojazdu, a co za tym idzie zmierzenie odległości pojazdów, znajdujących się w pobliŜu. Większość systemów tworzonych obecnie ma na celu podwyŜszenie bezpieczeństwa uŜytkowników inteligentnych pojazdów. System oceny odległości [4], system nawigacji [6], system 1 Politechnika Wrocławska, WybrzeŜe Wyspiańskiego 27, Wrocław, [email protected] 61 rejestracji danych ruchu pojazdu [3], system ostrzegający o zmianie pasa ruchu [5] są przykładami takich rozwiązań. 2. Wykorzystane czujniki i ich rozmieszczenie W systemie wspomagania manewru wyprzedzania zostanie wykorzystane jedno z dwóch zaproponowanych w [2] rozmieszczeń czujników radarowych oraz kamer, które zostaną umiejscowione jak przedstawia rysunek 1. Pozwala on rozpoznać przestrzeń wokół pojazdu. Rys. 1. Rozmieszczenie czujników i kamer. Rozmieszczenie czujników oraz kamer proponowane powyŜej, umoŜliwia jak najszerszą obserwację otoczenia, co jest związane z bezpieczeństwem wykonania manewru. Dzięki temu moŜna pozyskać wszystkie informacje potrzebne do odpowiedniego zaprojektowania algorytmu sterowania wspomagającego manewr wyprzedzania. Przy pmocy czujników radarowych jesteśmy w stanie odczytać odległości pojazdów (pojazdu wyprzedzanego oraz pojazdu jadącego z naprzeciwka), co za tym idzie ich prędkości. Wszystkie czujniki oraz kamery zostały podłączone do systemu samochodu przy uŜyciu sieci CAN, w celu umoŜliwienia pozyskania dodatkowych parametrów samochodu, m. in. prędkości, połoŜenia pedału gazu i hamulca, wartości obrotów silnika. 3. Algorytm sterowania Do wyznaczenia algorytmu sterowania przyjęto następujące ograniczenia: - pojazd wyprzedzany oraz pojazd jadący z przeciwnej strony nie przyspieszą więcej niŜ o 10% od prędkości posiadanej w momencie rozpoczęcia manewru wyprzedzania, czyli v1 = v1 min + 10% ⋅ v1 min = 110% ⋅ v1 min oraz v3 = v3 min + 10% ⋅ v3 min = 110% ⋅ v3 min , - zakładamy maksymalną długość pojazdu wyprzedzanego jako 18m, 62 - zakładamy, Ŝe w trakcie wykonywania manewru moŜemy zweryfikować długość pojazdu wyprzedzanego na podstawie odczytów z czujników oraz odpowiednich wyliczeń, bazujących na zasadach fizyki (dynamiki). Jeśli pojazd będzie na tyle długi, Ŝe na podstawie wyliczeń nie zdąŜymy go wyprzedzić, zostanie podany komunikat, iŜ naleŜy zrezygnować z manewru i kontynuować jazdę na swoim pasie ruchu, - zakładamy, Ŝe odległość pomiędzy wyprzedzanym, a kolejnym samochodem jest wystarczająca do bezpiecznego przeprowadzenia tego manewru, - odczytując wartości z czujników radarowych tylnych jesteśmy w stanie sprawdzić czy pojazd jadący z tyłu nie rozpoczął wcześniej manewru wyprzedzania. Wiedząc jaka jest zmiana drogi przebytej przez pojazd ∆s w określonym czasie ∆t jesteśmy w stanie wyliczyć jego prędkość ze wzoru v= ∆s ∆t (1) Odczytanie z czujników radarowych przednich zmiany drogi ∆s1 oraz ∆s3 jesteśmy w stanie wyliczyć prędkości pojazdu jadącego przed nami v1 oraz pojazdu jadącego z przeciwnej strony v3 z wzoru (1). Prędkość pojazdu jadącego przed nami wykorzystana zostanie do wyliczenia długości drogi potrzebnej do wykonania bezpiecznego manewru. Przebieg manewru wyprzedzania ze stałym przyspieszeniem i opóźnieniem przedstawiono na rysunku 2. Z tego wykresu wyliczamy długość drogi s w oraz czas t w potrzebne do wyprzedzenia pojazdu znajdującego się przed nami. Znając naszą prędkość i korzystając z załoŜenia, Ŝe samochód jadący przed nami nie przyspieszy więcej niŜ o 10% swojej prędkości, zakładamy, Ŝe nasze przyspieszenie jest równe &x&2 = v2 max − v2 t (2) Zakładamy, Ŝe nasza prędkość po przyspieszeniu będzie równa 120% prędkości początkowej, czyli v 2 max = 120%v 2 . Natomiast opóźnienie będzie równe a 2 = − &x&2 . PoniewaŜ samochód wykonujący manewr wyprzedzania powinien po jego zakończeniu powrócić do wartości prędkości z przed tego manewru, wprowadzamy pojęcie opóźnienia. 63 Rys. 2. Przebieg manewru wyprzedzania ze stałym przyśpieszeniem i opóźnieniem. Długość drogi s w potrzebnej do wykonania bezpiecznego manewru wyliczono wykorzystując wzór (3) na podstawie załoŜeń uwidocznionych na rysunku 2. &x& + a 2 s w = v1 ⋅ 2 ⋅ 2 ⋅ (s 02 + s 01 + l c1 + lc 2 ) + (s 02 + s 01 + l c1 + lc 2 ) (3) &x&2 ⋅ a 2 Czas manewru moŜna wtedy wyliczyć z wzoru (4). &x& + a 2 (4) t w = (v 2 max − v1 ) ⋅ 2 &x&2 ⋅ a 2 Znając czas manewru moŜna wyliczyć drogę, jaką przejedzie pojazd jadący z przeciwnej strony w tym czasie (5). v ⋅t (5) s p = 3 max w 2 W następnym kroku sprawdzamy czy droga potrzebna do wykonania manewru wyprzedzania jest krótsza od róŜnicy początkowego połoŜenia pojazdu jadącego z przeciwnej strony i wyliczonej drogi, którą przejedzie w tym czasie. śeby manewr był bezpieczny, moŜemy załoŜyć, Ŝe droga potrzebna do wyprzedzenia pojazdu będzie o 20% dłuŜsza niŜ wyliczona z zaleŜności (6). (6) s 0 − s p ≤ 120% ⋅ s w PoniŜej przedstawiono blokowy algorytm wspomagania manewru wyprzedzania. 64 Rys. 3. Schemat blokowy algorytmu wspomagania manewru wyprzedzania. 65 4. Podsumowanie W powyŜszej pracy przedstawiono system wspomagania manewru wyprzedzania. Wykorzystane w nim załoŜenia są bardzo restrykcyjne. Zwiększenie niezawodności systemu związane jest z zainstalowaniem lepszej jakości czujników, co pozwoliłoby na pełniejsze zbadanie przestrzeni wokół pojazdu wykonującego manewr wyprzedzania. Wiedząc, Ŝe manewr wyprzedzania naleŜy do najtrudniejszych i najniebezpieczniejszych manewrów wykonywanych w ruchu drogowym oraz przy istnieniu systemów wspomagających prowadzenie samochodu w trudnych warunkach, np. ABS, ESP, ASR wydaje się zasadne powstanie systemu wspomagającego manewr wyprzedzania. Zaproponowane rozwiązanie mogłoby się znacznie przyczynić do zmniejszenia liczby wypadków samochodowych i wzrostu bezpieczeństwa na drodze. Model układu wyprzedzania łącznie z prezentowanym algorytmem jest budowany w oprogramowaniu Matlab i za pomocą badań symulacyjnych, będą przeprowadzone testy. Kolejnym etapem pracy będzie aplikacja w rzeczywistym samochodzie. Literatura [1] S. ARCZYŃSKI, Mechanika ruchu samochodu, Wydawnictwo Naukowo-Techniczne, Warszawa 1993. [2] N. BOURBAKIS, M. FINDLER, Smart Cars as Autonomous Intelligent Agents, IEEE Computer Society, Washington 2001. [3] NGO CHON CHET, Design of black box for moving vehicle warning system, Conference on Research and Development (SCOReD), 2003. [4] J. GOLDBECK, B. HUERTGEN, S. ERNST, L. KELCH, Lane following combining vision and DGPS, Image and Vision Computing, 2000. [5] SUHONG KO, SEONGCHAN GIM, CE PAN, JONGMAN KIM, KIHYUN PYUN, Road Lane Departure Warning using Optimal Path Finding of the Dynamic Programming, SICE-ICASE International Joint Conference, 2006. [6] G. TOULMINET, M. BERTOZZI, S. BOUSSET, A. BENSRHAIR, A. BROGGI, Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis, IEEE Transactions on Image Processing, 2006. [7] Ustawa z dnia 20 czerwca 1997 roku, Prawo o ruchu drogowym, artykuł 24. 66 Badanie możliwości wykorzystania metod analizy dynamiki tworzenia wypowiedzi do celów rozpoznawania mówcy Łukasz Bronakowski1 Streszczenie: Celem prac jest znalezienie prawidłowości w dynamice zmian wypowiedzi danego mówcy na poziomie artykulacji fonemów oraz dłuższych fragmentów wypowiedzi. Jako metodę modelowania na obu płaszczyznach przewiduje się zastosowanie niejawnych modeli Markowa (HMM). Słowa kluczowe: rozpoznawanie mówcy, biometria 1. Wprowadzenie Rozpoznawanie mówcy polega na automatycznym wskazaniu tożsamości osoby mówiącej na podstawie analizy informacji zawartych w sygnale mowy. W zależności od zastosowania, procedura rozpoznawania może mieć na celu identyfikację, bądź weryfikację. Identyfikacja polega na wskazaniu tożsamości mówcy na podstawie wyniku porównania analizowanego głosu z każdym z modeli mówców znajdujących się w bazie. Wynik rozpoznawania określa się na podstawie uzyskanego prawdopodobieństwa. Weryfikacja jest zadaniem łatwiejszym, ponieważ polega na porównaniu cech głosu osoby mówiącej z modelem tylko jednego mówcy, którego tożsamość jest deklarowana przez osobę mówiącą. Wynik rozpoznawania jest pozytywny, jeżeli stopień prawdopodobieństwa przekroczy określony i wcześniej zdefiniowany próg. W zależności od stopnia współpracy osoby mówiącej, procedury rozpoznawania mówcy dzieli się na zależne i niezależne od treści. Jeżeli możemy oczekiwać współpracy, można zastosować rozwiązanie zależne od treści, tzn. takie w którym osoba wypowiada określoną frazę lub słowo kluczowe. Jeżeli jednak nie można liczyć na współpracę ze strony osoby mówiącej (np. sądownictwo, kryminalistyka), odpowiednim rozwiązaniem będzie użycie procedury rozpoznawania niezależnej od treści [3]. Metodologia badań obejmuje identyfikację cech – dobrych deskryptorów mówcy oraz klasyfikację otrzymanych wektorów cech. W standardowym podejściu identyfikacja cech polega na analizie krótkoi długookresowych parametrów sygnału mowy: częstotliwościowych 1 Politechnika Łódzka, Instytut Elektroniki, ul. Wólczańska 211/215, 90-924 Łódź, [email protected] 67 (m.in. częstotliwość tonu podstawowego, formanty), związanych z energią sygnału (globalne, w pasmach), czasowych (m.in. pauzy, mowa dźwięczna/bezdźwięczna), widmowych (Linear Prediction Coefficients - LPC, Mel-Frequency Cepstral Coefficients – MFCC, itp) [1]. Możliwość zastosowania rozwiązania zależnego lub niezależnego od treści implikuje zastosowanie określonych metod klasyfikacji. Implementacje zależne od treści polegają na porównaniu modeli wypowiedzi i najczęściej wykorzystują dynamiczne dopasowanie czasowe (Dynamic Time Warping - DTW) oraz niejawne modele Markowa (Hidden Markow Models – HMM) [4]. Natomiast przy podejściu niezależnym od treści wykorzystywane są różne długookresowe statystyki sygnału mowy. Metodą powszechnie stosowaną w tym podejściu są mikstury modeli gaussowskich (Gaussian Mixture Models - GMM). 2. Głos jako cecha biometryczna Rozpoznawanie mówcy zalicza się do biometrycznych metod weryfikacji tożsamości. Systemy biometryczne bazują na cechach anatomicznych człowieka (np. linie papilarne, cechy charakterystyczne tęczówki oka, geometria dłoni, kształt twarzy) oraz behawioralnych (np. podpis odręczny, dynamika pisania na klawiaturze, sposób chodzenia, sposób mówienia) (Rys. 1). Rys. 1. Przykłady cech biometrycznych Badania ankietowe przeprowadzone na zlecenie firmy Unisys (www.unisys.com) wykazują, że użytkownicy najchętniej korzystaliby z systemów opartych o analizę głosu. Jednak skuteczność rozpoznawania osiągana w obecnie dostępnych systemach wykorzystujących głos nie jest na tyle wysoka, aby mogły one znaleźć zastosowanie w aplikacjach, gdzie bezpieczeństwo danych ma znaczenie krytyczne, np. dostęp do konta bankowego. Zatem uzyskanie nawet kilkuprocentowego zwiększenia skuteczności rozpoznawania mówcy otworzyłoby, z pewnością, szereg dziedzin zastosowań. 68 Zaletą głosu, w porównaniu do innych cech biometrycznych, takich jak np. tęczówka oka, kształt dłoni czy odciski palców, jest łatwość akwizycji (wystarczy jedynie mikrofon) – nie trzeba stosować specjalnych czujników lub skanerów. Głos można zatem traktować jako jedyne medium zdalnej autoryzacji, które daje możliwość tzw. skrytej weryfikacji. Konsekwencją tego jest możliwość zastosowania rozwiązań opartych na analizie głosu w sądownictwie i kryminalistyce, oraz wszędzie tam, gdzie istnieje możliwość braku współpracy osoby, której tożsamość jest poddawana weryfikacji. Ponadto tego typu rozwiązania mogą znaleźć również zastosowanie w różnego rodzaju aplikacjach kontroli dostępu. Konsekwencją tego jest potrzeba stworzenia systemu automatycznego rozpoznawania mówcy, stanowiącego uzupełnienie niezawodnego systemu weryfikacji tożsamości. 3. Proponowane kierunki badań W głosie zawartych jest kilka rodzajów informacji, związanych z przekazywaną treścią, emocjami oraz cechami geno- i fenotypowymi mówcy. Problem badawczy polega na zneutralizowaniu charakterystyk sygnału mowy związanych z treścią oraz emocjami i wyekstrahowanie cech niosących informację o mówcy. Deskryptory mówcy powinny charakteryzować się dużą zmiennością międzyosobniczą i małą zmiennością wewnątrzosobniczą. Rys. 2. Przykłady portretów fazowych wyznaczonych z przebiegów czasowych sygnału mowy dla dwóch mówców Prezentowane prace badawcze polegają na wprowadzeniu do opisu zmienności sygnału mowy nowej grupy deskryptorów, zaczerpniętych z dziedziny analizy układów nieliniowych (np. przekroje Poincaré, rekonstrukcje przestrzeni fazowej (Rys. 2), mapy rekurencyjne, miary fraktalne) [2,5]. Proponowane rozwiązanie polega na poszukiwaniu 69 prawidłowości w dynamice zmian wypowiedzi danego mówcy na poziomie cech segmenalnych i suprasegmentalnych. Jako metodę modelowania na obydwu płaszczyznach przewiduje się zastosowanie niejawnych modeli Markowa, prowadząc do uzyskania hierarchicznych, probabilistycznych modeli mówców. 3. Podsumowanie Proponowany kierunek badań - dynamika sposobu tworzenia wypowiedzi - wydaje się nie być bezpośrednio skorelowany z powszechnie wykorzystywanymi parametrami sygnału mowy. Może stanowić cenne uzupełnienie dla innych metod. Planowanym efektem badań jest opracowanie biometrycznej metody rozpoznawania, bazującej na analizie głosu, której oryginalnymi elementami będą zestawy nowych deskryptorów sygnału mowy oraz wykorzystanie do ich klasyfikacji hierarchicznych modeli Markowa. Stypendysta projektu "Innowacyjna dydaktyka bez ograniczeń - zintegrowany rozwój Politechniki Łódzkiej - zarządzanie uczelnią, nowoczesna oferta edukacyjna i wzmacnianie zdolności do zatrudniania, także osób niepełnosprawnych" współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. Literatura [1] J.P. Campbell, „Speaker Recognition: A Tutorial”, Proceedings of the IEEE, Vol. 85, NO. 9, pp.1437-1462, 1997 [2] I. Kokkinos, P. Maragos, „Nonlinear Speech Analysis Using Models for Chaotic Systems“, IEEE Transactions On Speech And Audio Processing, Vol. 13, No. 6, 1098-1109, 2005 [3] J. Ortega-Garcia, J. Gonzslez-Rodriguez, S. Cruz-Llanas, „Speech Variability in Automatic Speaker Recognition Systems for Commercial and Forensic Purposes”, IEEE AES Systems Magmine, pp. 27-32, 2000 [4] L.R. Rabiner, „A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition“, Proceedings Of The IEEE, Vol. 77, 257-286, 1989 [5] H.G. Schuster, W. Just „Deterministic Chaos”, Wiley-VCH, 2005 70 Realizacja pamięci w sekwencyjnych algorytmach sterowania Łukasz Dworzak1, Tadeusz Mikulczyński1 Streszczenie: Synteza równania schematowego, reprezentującego program użytkowy sterownika PLC, w przypadku procesów sekwencyjnych, wymaga realizacji pamięci. Opracowana metoda pozwala na wyznaczenie w szybki i łatwy sposób postaci pamięci i w efekcie równania schematowego. Liczba komórek pamięci jest zdecydowanie mniejsza niż w innych metodach. Słowa kluczowe: proces, automatyzacja, metoda Grafpol, PLC 1. Wprowadzenie Podstawowe procedury algorytmów dyskretnych procesów produkcyjnych stanowią procedury sekwencyjne, sterowane przez sekwencyjne układy sterowania. Podstawową cechą charakterystyczną układów sekwencyjnych jest to, że są to układy z pamięcią. Wynika to z faktu, że układy sekwencyjne generują stan wyjść nie tylko na podstawie aktualnego stanu wejść ale także na podstawie stanu wejść w poprzednich chwilach czasu (rys. 1). Cecha ta powoduje duże trudności podczas syntezy tego typu układów. W przypadku programowania sterowników PLC (ang. Programmable Logic Controller), będących obecnie podstawowym narzędziem automatyzacji, dotyczy to syntezy równania schematowego stanowiącego podstawę zapisu programu użytkownika. Trudność dotyczy określania liczby elementarnych komórek pamięci, które należy użyć oraz warunków ich zapisu i kasowania. Trudność została wyeliminowana dzięki metodzie Grafpol 2.0, która pozwala w sposób prosty i jednoznaczny zrealizować pamięć sekwencyjnego algorytmu sterowania, a w efekcie określić równanie schematowe. Rys. 1. Schemat blokowy układu automatycznego sterowania: proces - układ sterowania 1 Laboratorium Podstaw Automatyzacji, Politechnika Wrocławska, ul. I. Łukasiewicza 5, 50-371 Wrocław, [email protected], [email protected] 71 2. Zapis, kasowanie oraz użycie informacji zawartych w komórkach pamięci Modelowanie i programowanie procedur sekwencyjnych składa się z pięciu etapów przedstawionych na rys. 2. Rys. 2. Etapy modelowania i programowania procedur sekwencyjnych [3] Realizację poszczególnych etapów zilustrowano na poniżej zamieszczonym przykładzie. Na rysunku 3 zaprezentowano schemat funkcjonalny urządzenia podającego elementy A i B z zasobników zgodnie z sekwencją zawartą w opisie słownym. Rys. 3. Schemat funkcjonalny procesu podawania elementów A i B Opis słowny automatyzowanego procesu: ETAP E1: *podanie elementu A* Realizacja: 1A+ (1Y2+) Sygnalizacja: 1S2 ETAP E2: *wycofanie podajnika elementu A* Realizacja: 1A- (1Y1+) Sygnalizacja: 1S1 72 ETAP E3: *podanie elementu B* Realizacja: 2A+ (2Y2+) Sygnalizacja: 2S2 ETAP E4: *wycofanie podajnika elementu B* Realizacja: 2A- (2Y1+) Sygnalizacja: 2S1 Na podstawie schematu funkcjonalnego i opisu słownego wyznaczono algorytm procesu (rys. 4a i 4b) oraz algorytm sterowania (rys. 4c) Rys. 4. Algorytm procesu zapisany w postaci: a) sieci operacyjnej, b) sieci Grafpol GP; Algorytm sterowania: c) sieć Grafpol GS, d) sieć Grafpol GS z uwzględnioną pamięcią W etapie 4 zrealizowano pamięć stosując następujące zasady: Zasada 1 Liczba elementarnych komórek pamięci użytych do realizacji automatyzowanego procesu jest równa L i określa ją zależność: L= Sn , 2 gdzie: Sn - liczba kroków algorytmu sterowania 73 (1) Zasada 2 Zapis komórek pamięci (archiwizacja informacji o zdarzeniach) następuje po zakończeniu wykonania pierwszego ruchu napędu pneumatycznego lub hydraulicznego z pozycji wyjściowej. Stany te opisują tranzycje ti, które sygnalizują zakończenie wykonania kroku Si . Zależności opisujące zapis elementarnych komórek pamięci mają następujące postaci: M 1 S =t 1 , M j S =t i⋅M j −1⋅t i−1 , dla j=2 ... L , i=2 ... n−1 , (2) (3) gdzie: Mj - elementarna komórka pamięci, Mj - sygnał wyjściowy elementarnej komórki pamięci, Zasada 3 Kasowanie wszystkich elementarnych komórek pamięci (utrata informacji o zdarzeniach) następuje w ostatnim stanie algorytmu sterowania. Zależność opisującą kasowanie wszystkich elementarnych komórek pamięci ma postać: M 1... L R=t n⋅M L , (4) Zasada 4 Do wyznaczenia funkcji zmiennych wyjściowych algorytmu sterowania (sygnałów wyjściowych układu sterowania) konieczne jest określenie zależności ti*, czyli tranzycji algorytmu sterowania z uwzględnionymi pamięciami. Tranzycja ti* określa rozpoczęcie i-tego kroku algorytmu sterowania. Stanowi ją iloczyn: • warunku ti wynikającego z algorytmu procesu, • sygnału pamięci M j lub zanegowanego sygnału pamięci M j . Postać sygnału pamięci M j ustalamy na podstawie algorytmu sterowania (rys. 4c) i wówczas: • zanegowane sygnały pamięci M j występują we wszystkich tranzycjach poprzedzających tranzycję w której nastąpił zapis pamięci M j, do tranzycji t0 lub tranzycji w której zapisywana jest poprzednia elementarna komórka pamięci (M j-1) włącznie. • niezanegowane sygnały pamięci M j występują we wszystkich tranzycjach następujących po tranzycji w której nastąpił zapis pamięci M j do tranzycji tn-1 lub tranzycji w której następuje zapis kolejnej elementarnej komórki pamięci (M j+1) włącznie. 74 W wyniku takiego postępowania otrzymujemy algorytm sterowania uwzględniający zrealizowaną pamięć przedstawiony za pomocą sieci Grafpol GS (rys. 4d). Na jego podstawie możliwe jest otrzymanie równania schematowego, stanowiącego sumę funkcji wszystkich zmiennych wyjściowych i elementarnych komórek pamięci. F Y , M =∑ { St⋅2S1⋅M 1⋅Y 1 , 1S2⋅M 2⋅Y 2 , 1S1⋅M 1⋅M 2⋅Y 3 , 2S2⋅M 1⋅Y 4 , (5) 1S2⋅M 1 S , 2S2⋅M 1⋅1S1⋅M 2 S , 2S1⋅M 2⋅[ M 1 RM 2 R] Rys. 5. Przyporządkowanie sygnałów wyjściowych procesu do wejść układu sterowania i sygnałów wyjściowych układu sterowania do wejść procesu Po uwzględnieniu adresów sygnałów wejściowych i wyjściowych (rys. 5) sterownika PLC równanie schematowe przyjmuje następującą postać: F Y , M =∑ { I0.6⋅I0.2⋅M1.0⋅O0.1 , I0.1⋅M2.0⋅O0.0 , I0.0⋅M1.0⋅M2.0⋅O0.3 , I0.3⋅M1.0⋅O0.2 , (6) I0.1⋅M1.0 S , I0.3⋅M1.0⋅I0.0⋅M2.0 S , I0.2⋅M2.0⋅[ M1.0 RM2.0 R] Równanie schematowe (6) stanowi podstawę do zapisu programu użytkowego. Zapis za pomocą języka LD przedstawiono na rys. 6. 75 Rys. 6. Zapis równania schematowego jako program użytkowy sterownika PLC za pomocą języka LD 3. Podsumowanie Opracowana metoda Grafpol 2.0 pozwala na szybkie i proste, w porównaniu z dotychczas istniejącymi metodami, wyznaczenie warunków zapisu, kasowania i użycia komórek pamięci w algorytmie sterowania. Metoda ta jest uniwersalna dzięki możliwości zapisu równania schematowego w sterowniku PLC za pomocą dowolnego języka programowania określonego w normie IEC 61131-3. Do jej zalet zaliczyć należy ponadto minimalną postać równania schematowego oraz możliwość użycia mniejszej liczby komórek pamięci w porównaniu do metody Grafcet lub SFC. Literatura [1] Z. Banaszak, A. Drzazga, J. Kuś: Metody interakcyjnego modelowania i programowania procesów dyskretnych, Wydawnictwo Politechniki Wrocławskiej, Wrocław 1993. [2] J. Kasprzyk: Programowanie sterowników przemysłowych, WNT, Warszawa 2007. [3] T. Mikulczyński: Automatyzacja procesów produkcyjnych, WNT, Warszawa 2006. [4] T. Mikulczyński, Z. Samsonowicz, K. Naplocha: Zastosowanie metody MTS do programowania sterowników PLC, VIII Konferencja PNEUMA'94, Wrocław 1994. [5] J. Siwiński: Układy przełączające w automatyce, Wydawnictwa Naukowo-Techniczne, Warszawa 1980. 76 Zastosowanie rezystancyjnych czujników gazów do pomiarów lotnych związków organicznych. Barbara Flisowska-Wiercik1 Streszczenie: Lotne związki organiczne stanowią realne zagroŜenie dla organizmów Ŝywych. W związku z tym, zachodzi potrzeba ciągłej kontroli ich emisji. DuŜą szansą na szybki i precyzyjny pomiar par lotnych związków organicznych w powietrzu są matryce czujnikowe zbudowane w oparciu o rezystancyjne czujniki gazów. Słowa kluczowe: lotne związki organiczne, czujniki gazów 1. Wprowadzenie Wśród zanieczyszczeń powietrza atmosferycznego, powszechną uwagę skupiały dotychczas głównie związki nieorganiczne, takie jak: ditlenek siarki, tlenki azotu, tlenki węgla, ozon, czy pyły. Obecnie duŜo mówi się o emisji zanieczyszczeń organicznych, równie niebezpiecznych i uciąŜliwych dla środowiska jak substancje nieorganiczne. Szczególną uwagę poświęca się lotnym związkom organicznym, które ze względu na swoje właściwości, stanowią powaŜne zagroŜenie dla organizmów Ŝywych i środowiska. Ze względu na duŜe ryzyko, jakie niesie za sobą wzmoŜona emisja tych substancji, niezbędna jest ciągła kontrola jej wielkości. Monitoring lotnych związków organicznych w środowisku moŜe być realizowany na szereg róŜnych sposobów. Nie mniej ciągle poszukuje się metod, które pozwolą na szybki i precyzyjny pomiar stęŜenia przy moŜliwie niskich kosztach. DuŜą nadzieją w dziedzinie oznaczania lotnych związków organicznych w powietrzu są matryce czujnikowe zbudowane w oparciu o rezystancyjne czujniki gazów [1, 5]. 1 Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska, Politechnika Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław, [email protected] 77 2. Lotne związki organiczne- definicje Związki organiczne emitowane do powietrza atmosferycznego, w tym m.in.: - węglowodory (parafiny, węglowodory aromatyczne), - tlenowe związki organiczne (alkohole, ketony, kwasy, estry), - halogenowe związki organiczne, określa się wspólnym mianem Lotnych Związków Organicznych (LZO). Amerykańska Agencja Ochrony Środowiska (EPA; Environmental Pollution Agency- USA) definiuje LZO jako: „dowolny związek węgla, za wyjątkiem CO, CO2, kwasu węglowego, węglików metali lub węglanów, który bierze udział w reakcjach fotochemicznych w atmosferze”. Według Ministra Gospodarki i Pracy w Rozporządzeniu z dnia 20.10.2005r. za LZO uwaŜa się: „związki organiczne o początkowej temperaturze wrzenia mniejszej lub równej 250˚C, mierzonej w warunkach ciśnienia normalnego 101,3 kPa”. [4] 3. Lotne związki organiczne- właściwości i źródła emisji UciąŜliwość lotnych związków organicznych wynika z ich specyficznych właściwości. Znaczna część tych substancji charakteryzuje się bowiem wysoką toksycznością wobec organizmów Ŝywych. Wiele z nich to związki o właściwościach mutagennych i kancerogennych, w związku z tym mogą przyczyniać się do powaŜnych uszkodzeń organizmów lub powodować ich śmierć. Substancje te są szczególnie niebezpieczne w zamkniętych, źle wentylowanych pomieszczeniach, gdzie człowiek spędza znaczną część swojego Ŝycia. Ich wzmoŜona emisja do powietrza wewnętrznego powoduje pogorszenie się warunków Ŝycia w mieszkaniach oraz w środowiskach pracy. W trakcie wieloletnich badań stwierdzono, Ŝe ekspozycja na szkodliwe czynniki chemiczne, w tym LZO, w pomieszczeniach nieprodukcyjnych wpływa niekorzystnie na zdrowie ludzi. Efekty naraŜenia pracowników na emisję tych substancji skutkują szerokim spektrum dolegliwości i objawów, które określa się mianem chorób związanych z budynkiem (BRI-Building Related Illness). Lotne związki organiczne biorą równieŜ udział w wielu procesach zachodzących w środowisku. W wyniku reakcji z ozonem stratosferycznym przyczyniają się do niszczenia warstwy ozonowej. Są równieŜ odpowiedzialne za zaburzanie cyklu fotolitycznego NOx oraz tworzenie wtórnych zanieczyszczeń powietrza, które definiuje się jako smog letni. Lotne związki organiczne emitowane są z wielu źródeł, zarówno naturalnych (wegetacja, wybuchy wulkanów), jak i antropogenicznych. Klasyfikację głównych źródeł LZO w atmosferze przedstawiono na Rys.1. 78 Rys.1. Klasyfikacja źródeł emisji Lotnych Związków Organicznych Ze względu na duŜe ryzyko, jakie niesie za sobą wzmoŜona emisja tych substancji, niezbędne jest ciągłe nadzorowanie jej wielkości. Wynikiem takiej kontroli powinna być informacja o charakterze ilościowojakościowym. W tym celu wykorzystuje się m.in. metody sensoryczne, a takŜe obliczeniowe. Najbardziej wiarygodne informacje uzyskujemy jednak przy uŜyciu metod pomiarowych, a wśród nich duŜym zainteresowaniem cieszą się techniki czujnikowe. W analizie ochrony powietrza najszersze zastosowanie znalazły chemiczne czujniki gazów. [1] 3. Chemiczne czujniki gazów - definicja, klasyfikacja Według IUPAC (International Union of Pure and Applied Chemistry) pod pojęciem czujnika chemicznego rozumiemy urządzenie, w którym chemiczny sygnał wejściowy przetwarzany jest na mierzalny i uŜyteczny w analizie sygnał wyjściowy. KaŜdy czujnik chemiczny składa się z przynajmniej dwóch części: elementu receptorowego oraz przetwornikowego. Wskutek działania czynnika chemicznego receptor odbiera i przekształca niesioną informację na energię, w wyniku czego zmianie ulegają jego parametry. Wygenerowane zmiany konwertowane są na mierzalny sygnał wyjściowy za pomocą przetwornika. 79 Ze względu na wykorzystywaną zasadę pomiaru czujniki chemiczne moŜna podzielić na: - grawimetryczne (masowe), - termiczne, - optyczne, - elektrochemiczne, - elektroniczne (półprzewodnikowe) [1], [5, 6]. Z doniesień literaturowych wynika, Ŝe w badaniach dotyczących zanieczyszczenia powietrza atmosferycznego najczęściej wykorzystywanymi czujnikami półprzewodnikowymi są rezystancyjne czujniki gazów. 5. Rezystancyjne czujniki gazów- budowa i zasada działania Rezystancyjny czujnik gazu składa się z: - elementu receptorowo-przetwornikowego, - podłoŜa, - elektrod; - grzejnika. Schemat konstrukcji komercyjnego czujnika TGS japońskiej firmy FIGARO zaprezentowano na Rys.2. Rys.2. Schemat konstrukcji czujnika TGS serii 2000 firmy FIGARO Podstawą działania rezystancyjnych czujników gazów jest zmiana rezystancji półprzewodnikowego materiału tlenkowego, która zaleŜy od składu powietrza w otoczeniu chemicznie czułej warstwy sensora. [5, 6] 80 5. Rezystancyjne czujniki gazów- budowa i zasada działania Rezystancyjne czujniki gazów charakteryzują się szeregiem cech, które przemawiają za ich powszechnym stosowaniem. Wśród niewątpliwych zalet tego typu przyrządów moŜemy wymienić m.in.: - niski koszt zakupu, - prostota i wytrzymałość konstrukcji, - niewielkie gabaryty i cięŜar, - wieloletni czas uŜytkowania, - szeroki zakres temperaturowy pracy, - łatwość obsługi. NaleŜy jednak zauwaŜyć, Ŝe przyrządy te nie spełniają w pełni stawianych im wymagań. Zakłada się bowiem, Ŝe dobrze pracujący czujnik powinien być selektywny, czyli reagować tylko na wybrany gaz lub na pewną określoną grupę gazów. Obecność innych związków chemicznych w badanym powietrzu nie powinna wpływać na jego odpowiedź. Natomiast jedną z wad rezystancyjnych czujników gazów jest właśnie mała selektywność. Cecha ta w znaczny sposób ogranicza obszar zastosowań rezystancyjnych czujników gazów. 6. Matryce czujnikowe do pomiarów gazów Nieselektywne działanie chemicznie czułych rezystorów moŜe okazać się cechą bardzo przydatną w urządzeniach zwanych matrycami czujnikowymi. Za ich pomocą moŜna dokonywać ilościowo-jakościowej analizy mieszanin róŜnych gazów. Takie podejście do problemu oznaczania substancji chemicznych w powietrzu rozszerza moŜliwości zastosowania rezystancyjnych czujników gazów. Matryce czujnikowe mogą składać się z róŜnej liczby sensorów. KaŜdy z nich pracuje niezaleŜnie od reszty i reaguje róŜnie na badane gazy, a wyniki takich indywidualnych oznaczeń podlegają wspólnej analizie. W odpowiedziach matrycy zawarte są zatem informacje o wielu składnikach analizowanej mieszaniny. Praktyczne zastosowanie matryc czujnikowych wiąŜe się z koniecznością wykorzystania metod i narzędzi pozwalających na analizę danych pochodzących z zestawu pomiarowego. W tym celu powszechnie stosuje się m.in. metody statystyczne, w tym analizę regresji, czy teŜ analizę czynników głównych. DuŜym zainteresowaniem w temacie analizy danych, które znalazły zastosowanie we współpracy z matrycami czujnikowymi, są metody z obszaru sztucznej inteligencji. Z przeprowadzonych badań wynika, Ŝe bardzo dobre wyniki analiz moŜna uzyskać stosując do tego typu danych sieci neuronowe. [2, 3] 81 7. Podsumowanie WzmoŜona emisja lotnych związków organicznych stanowi powaŜne zagroŜenie dla środowiska i organizmów Ŝywych. Niezbędna jest zatem ciągła kontrola jej wielkości. Matryce czujnikowe zbudowane w oparciu o rezystancyjne sensory gazów realizują potrzebę szybkiego, taniego i jednocześnie precyzyjnego pomiaru zanieczyszczeń gazowych. W sprzęŜeniu z nowoczesnymi technikami analizy danych oferują pełne ilościowo-jakościowe oznaczenia niebezpiecznych substancji. Mogą słuŜyć zatem jako przystępne narzędzie w walce z nadmierną emisją lotnych związków organicznych. Literatura [1] Flisowska B., Zastosowanie analizy dyskryminacyjnej do rozróŜniania związków chemicznych emitowanych w przemyśle farb i lakierów, praca magisterska, Politechnika Wrocławska, Wrocław 2008. [2] Gantar E., Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe PWN, 2001. [3] Owsiński J.W., Wykłady z metod analizy danych, WyŜsza Szkoła Informatyki Stosowanej i Zarządzania, 2003. [4] Rozporządzenie Ministra Gospodarki i Pracy w sprawie szczegółowych wymagań dotyczących ograniczenia emisji lotnych związków organicznych powstających w wyniku stosowania rozpuszczalników organicznych w niektórych farbach, lakierach, preparatach do odnawiania pojazdów, 20. października 2005r. [5] Szczurek A., Pomiary lotnych związków organicznych rezystancyjnymi czujnikami gazów, Oficyna Wydawnicza Politechniki Wrocławskiej, 2006. [6] Tetrycz H., Grubowarstwowe chemiczne czujniki gazów na bazie dwutlenku cyny, Oficyna Wydawnicza Politechniki Wrocławskiej, 2005. 82 Rozwój układów bezpieczeństwa czynnego w pojazdach uŜytkowych. Arkadiusz Gierczak Streszczenie: Artykuł poświęcony układowi ABS oraz systemom bezpieczeństwa zapobiegającym wypadkom w pojazdach m.in. ESP i ASR. Przedstawienie pierwszych układów hydraulicznych w układach ABS opatentowanych przez firmę BOSCH w 1978 roku. Słowa kluczowe: Systemy bezpieczeństwa ABS, ASR i ESP. 1. Wprowadzenie ABS obecnie nie jest juŜ techniczną rewolucją poniewaŜ juŜ w latach 20-stych ubiegłego stulecia, w poradniku samochodowym Bussiena z roku 1941 wydanie 14 czytamy: „ W próbach są urządzenia (regulatory Piganeau), które przeciwdziałają niebezpiecznemu blokowaniu hamulców. Regulator, który czyni hamulce moŜliwymi do wykorzystania w kaŜdych warunkach, jest wielkim postępem na drodze do podniesienia bezpieczeństwa ruchu samochodowego." Pierwsze seryjne auto z ABS-em zjechało z taśmy produkcyjnej w grudniu 1978 roku. Był to Mercedes klasy S serii W116 [1]. Jednak pierwsze urządzenie mające zapobiegać blokowaniu kół przy hamowaniu zastosowano znacznie wcześniej, bo juŜ w latach 40-tych. w samolotach lądujących (np. Dunlop Maxaret-AntiSkid) na lotniskowcach. Chodziło tu głównie o uniknięcie uszkodzenia opon w czasie lądowania, wskutek nadmiernych ilości ciepła wydzielających się z blokowanych kół. Generalnie systemy bezpieczeństwa w pojazdach uŜytkowych moŜemy podzielić na bezpieczeństwo czynne i bierne. Zastosowaniem czynnego bezpieczeństwa jest juŜ wcześniej wspomniany układ przeciwblokujący się kół ABS (niem. Antiblockiersystem; ang. Anti-Lock Braking System), ESP (niem. Elektronisches Stabilitätsprogramm; ang. Electronic Stability Program), ASR (ang. Acceleration Slip Regulation) [4]. Układy i urządzenia zwiększające bezpieczeństwo bierne słuŜą do ochrony pasaŜerów przed powaŜnymi obraŜeniami. Zmniejszają urazy i łagodzą skutki wypadków. Przykładami biernego zabezpieczenia są m.in.: poduszki powietrzne, pasy bezpieczeństwa, napinacze pasów, aktywne zagłówki, lusterka. 83 2. Zasada działania i budowa układu ABS. ABS jest systemem zapobiegający blokowaniu się kół. Zadaniem układu jest kontrola i modyfikacja systemu hamowania w celu uniknięcia blokady kół we wszystkich warunkach pogodowych. Obecnie blisko trzy czwarte wszystkich produkowanych na świecie pojazdów jest wyposaŜonych w ABS. Na mocy porozumienia koncernów motoryzacyjnych zrzeszonych w Europejskim Związku Producentów Samochodów (ACEA), od lipca 2004 roku wszystkie nowo sprzedawane na terytorium Wspólnoty Europejskiej pojazdy o dopuszczalnym cięŜarze całkowitym nieprzekraczającym 2,5 tony, muszą być seryjnie wyposaŜone w ABS. Polska przystąpiła do porozumienia w 2006 roku [3]. Zastosowanie układu ma na celu zwiększenia bezpieczeństwa jazdy, dzięki temu rozwiązaniu kierowca ma pełną kontrolę nad pojazdem podczas hamowania awaryjnego na nawierzchniach o małej przyczepności. Wynika to z faktu, Ŝe ABS daje moŜliwość zmiany kierunku jazdy pojazdu w celu ominięcia przeszkody. NaleŜy pamiętać, Ŝe w przypadku zablokowania kół wszelkie zmiany toru jazdy mogą okazać się bezowocne, a samochód będzie poruszał się w kierunku zgodnym z jego osią wzdłuŜną; najgorszym scenariuszem jest wypadnięcie z drogi. System ABS nie skraca drogi hamowania a jedynie zapobiega blokadzie kół podczas poślizgu. Droga hamowania auta zaleŜy między innymi od następujących parametrów: najwaŜniejsze jest poprawne działanie układu hamulcowego oraz przyczepność między kołami a nawierzchnią drogi [2]. Rys. 1. Hamowanie z układem ABS i bez układu ABS [2]. 84 Elementy składowe układu ABS: elektroniczny zespół sterujący, hydrauliczny zespół sterujący, czujniki, alternator, czujnik połoŜenia pedału hamulca, pompa hamulcowa, czujnik prędkości kół, przekaźnik, akumulator. Rys. 2. Zespół elektrohydrauliczny. W skład zespołu elektrohydraulicznego wchodzą: elektryczna, 2 modulator ciśnienia, 3 sterownik elektryczny. 85 1 pompa Rys. 3. schemat hydrauliczny układu. Układ hydrauliczny tworzą następujące elementy: 1 pompa hamulcowa, 2 serwo – urządzenie wspomagające, 3,4 akumulatory wysokiego, 5,6,7 pompy wtórnego obiegu, 8,9 akumulatory niskiego ciśnienia, 10 zawory szybkiego zmniejszania ciśnienia, 11...18 elektrozawory, 19…22 zaciski hamulcowe. 86 3. Zachowanie optymalnego hamowania Standardowe układy hamulcowe, jeśli nawet są wyposaŜone w zespół wspomagania hamowania, nie dają kontroli nad przebiegiem procesu hamowania. Czynnikiem decydującym o chwilowym zachowaniu się pojazdu w momencie hamowania jest poślizg koła. Wielkość ta wynika z zaleŜności pomiędzy prędkościami liniowymi toczącego się koła. ZaleŜności te przedstawiono na rys. 4. Rys. 4. Rozkład prędkości na kole [3]. S= v − vo ∗ 100% v (1) We wzorze (1) S jest wartością poślizgu w %, v prędkość liniowa środka koła (prędkość pojazdu), v o prędkość obwodowa koła. JeŜeli koło obraca się z prędkością obwodową równą prędkości pojazdu (jest to czysto teoretyczne), wówczas mówimy o poślizgu zerowym. Najczęściej przyjmuje się, Ŝe najlepsze warunki dla przebiegu procesu hamowania występują gdy poślizg koła osiąga wartość pomiędzy 10 a 30%. Układy zapobiegające blokowaniu kół zostały skonstruowane w taki sposób, aby kontrolować proces hamowania i aby kontrola to mogła przebiegać w sposób automatyczny [3]. 4. Podsumowanie Wraz ze wzrostem rozwoju osiąganej prędkości przez samochody wzrosła liczba wypadków w tym równieŜ wypadków ze skutkiem śmiertelnym. Konstruktorzy musieli zacząć projektować układy zwiększające bezpieczeństwo i takimi układami są m.in. wyŜej wymienione ABS, ESP oraz ASR. W dalszej perspektywie moŜna się spodziewać, Ŝe systemy zapobiegające wypadkom ulegną dalszemu progresowi. 87 Literatura [1] „Systems of Safety a Vehicle” Bosch Stuttgart 2002 [2] Anna Tylusińskaa- Kowalska „ABS Układy zapobiegające blokowaniu kół”- wydawnictwo AUTO Warszawa. [3] Ciastoń Adam „Kinematyka i dynamika” 1977 [4] „Technische Information über ESP“ Bosch Stuttgart 2004 [5] http://www.bosch.pl [6] http://www.roadlook.pl/technika/bosch-abs-wczoraj-i-dzis.html [7] http://www.samarins.com/glossary/abs.html 88 Modyfikacja geometrii i analiza zmęczeniowa tłumika pulsacji spręŜarki śrubowej schładzacza cieczy Piotr Harnatkiewicz 1 Streszczenie: Przedstawiono wybrane zagadnienia szacowania trwałości tłumika pulsacji spręŜarki śrubowej schładzacza cieczy. Obliczenia zmęczeniowe wykonano wykorzystując kryterium płaszczyzny krytycznej. Lokalny wieloosiowy stan napręŜenia i odkształcenia został wyznaczony na podstawie prawa Hooke-a, przy jednoczesnym uwzględnieniu nieliniowości kinematycznej umocnienia materiału zgodnie z modelem Jiang-a. Słowa kluczowe: pęknięcia zmęczeniowe, tłumik pulsacji, optymalizacja, MES, kod Falancs 1. Wprowadzenie Zniszczenie zmęczeniowe materiałów jest zjawiskiem niezwykle groźnym dla bezpieczeństwa konstrukcji inŜynierskich, części maszyn i urządzeń. Zjawisko degradacji własności mechanicznych materiałów postępującą w czasie eksploatacji urządzenia prowadzi do obniŜenia rezydentalnej wytrzymałości urządzenia i maszyny. Zmiany struktury materiału tj. poślizgi defektów sieci krystalicznej, koncentracje defektów w miejscach, gdzie napotkają one przeszkody uniemoŜliwiające im dalsze przemieszczenia, pasma poślizgu, transformacje fazowe wywołane napręŜeniami lub zmianą temperatury, są najczęstszą przyczyną powstawania pęknięć zmęczeniowych. Finalnym efektem ww. zjawisk jest nukleacja (inicjacja mikropęknięcia), wzrost mikropęknięć, uformowanie w materiale szczeliny dominującej (mikropęknięcia), a w końcowej fazie procesu zniszczeni jej niekontrolowana propagacja i zniszczenie konstrukcji lub urządzenia. 1 Wydział Mechaniczny Politechniki Wrocławskiej, ul. Łukasiewicza 7/9,Wroclaw 50-37, email. [email protected] 89 2. PROBLEM BADAWCZY Obiektem prowadzonych badań był tłumik pulsacji spręŜarki śrubowej schładzacza cieczy rys. 1. Badany obiekt ulegał częstym awariom, które miały charakter zmęczeniowy. Uszkodzenia następowały w górnej części tłumika pulsacji, co zostało przedstawione na rys. 2. Przełamania pokrywki następowały w róŜnych miejscach i po róŜnym czasie eksploatacji, w związku z tym nie moŜna było w sposób jasny określić przyczyny zniszczenia elementu [1]. Rys. 1. Schemat budowy tłumika pulsacji spręŜarki śrubowej schładzacza cieczy. Rys. 2. Miejsce występowania pęknięć. Pokrywka ulegająca uszkodzeniom wchodzi w skład mufler'a tłumika pulsacji. Tłumik ten jest zamontowany na wyjściu ze spręŜarki śrubowej schładzacza cieczy. PrzybliŜona wydajność objętościowa spręŜarki wynosi 360 m3/godz. Czynnikiem roboczym jest freon chłodniczy o symbolu R134A. Głównym celem analizowanego obiektu jest tłumienie pulsacji czynnika chłodzącego. Pulsacje te powodują niepoŜądany hałas w systemie. Na podstawie analizy schematu montaŜu domniemywa się, iŜ umiejscowienie, sposób wykonania kompensacji rurociągu, jak równieŜ sposób zamontowania spręŜarki moŜe wywoływać dodatkowe obciąŜenie tłumika pulsacji siłą poprzeczną. Dodatkowo obwód odzysku ciepła moŜe powodować chwilowe obciąŜenia o charakterze pulsacyjnych uderzeń [1]. 90 3. ANALIZA WYTRZYMAŁOŚCIOWA I OPTYMALIZACJA GEOMETRII Pokrywka tłumika pulsacji została wykonana ze stali oznaczonej symbolem materiału: DD13. Materiał DD13 jest oznaczany w normie EN 10111 jako – 1,0335 / DD13 / StW24 /. Do przeprowadzenia analiz wykorzystano następujące dane materiałowe - ReH 256 [MPa], Rm 333 [MPa], A 33,49% [2]. Zostały one wykorzystane do stworzenia nieliniowego, binarnego modelu materiału [3]. Do przeprowadzenia analizy wytrzymałościowej wykorzystano kod ABAQUS bazujący na metodzie elementów skończonych. zbudowano model geometryczny obiektu. W pierwszym etapie przygotowano model geometryczny pękającego tłumika pulsacji [przed optymalizacją] w trakcie eksploatacji. Zbudowano go w celu określenia przestrzennego stanu napręŜenia. Jest to model objętościowy, który w dokładny sposób odwzorowuje rzeczywistą geometrię pokrywki tłumika pulsacji. Podczas przygotowywania modelu szczególny nacisk połoŜono na poprawne odzwierciedlenie miejsca połączenie spoiną pachwinową wylotu tłumika z jego korpusem. Model ten w bardzo dokładny sposób odzwierciedla rzeczywisty obiekt, co w znaczący sposób wpłynęło na dokładność prowadzonych obliczeń. Na rys. 3 przedstawiono widok modelu geometrycznego pokrywki tłumika pulsacji. b) a) Rys. 3. Model geometryczny tłumika pulsacji przed optymalizacją – a) widok ogólny, b) widok przekroju Pokrywka tłumika pulsacji wraz z tłumikiem jest zamontowana na wyjściu ze spręŜarki śrubowej schładzacza cieczy. Głównym celem analizowanego obiektu jest tłumienie pulsacji czynnika chłodzącego. Pulsacje te powodują niepoŜądany hałas w systemie. Na podstawie analizy procesu montaŜu i eksploatacji stwierdzono, iŜ sam sposób montaŜu ma wpływ na trwałość tłumika [1]. Umiejscowienie, sposób wykonania 91 kompensacji rurociągu, jak równieŜ sposób zamontowania spręŜarki moŜe wywoływać dodatkowe obciąŜenie tłumika pulsacji siłą poprzeczną. Na podstawie powyŜszych informacji zdefiniowano pięć podstawowych przypadków obciąŜeń, które zostały wykorzystane, jako dane wejściowe do modelu numerycznego. Jako najbardziej krytyczny przypadek obciąŜenia elementu określano kompilację obciąŜenia układu maksymalnym ciśnieniem roboczym o wartości 21 Bar i jednoczesne zadanie przemieszczenia całkowitego wylotowi pokrywy tłumika pulsacji o 0,05 mm. W celu identyfikacji przyczyn powstawania pęknięć w pokrywce tłumika pulsacji przed modyfikacją geometrii przeprowadzono analizę numeryczną z wykorzystaniem metody elementów skończonych. Wykonano analizę statyczną, przy załoŜeniu nieliniowości geometrii i nieliniowego, binarnego modelu materiału. Obliczenia przeprowadzono wykorzystując metodą bezpośrednią z uŜyciem algorytmu Newtona [3]. Wyniki w postaci pól napręŜeń pochodzących od działania maksymalnego ciśnienia roboczego i jednoczesnego działania maksymalnego przemieszenia wylotu tłumika pulsacji przedstawiono na rys. 4. b) a) Rys. 4 Warstwice napręŜeń zredukowanych wg hipotezy HMH w MPa – działanie maksymalnego ciśnienia roboczego i jednoczesnego przemieszczenia wylotu tłumik - a] widok ogólny, b] widok na miejsca powstawania pęknięć Miejsce koncentracji napręŜeń potwierdza się, z obszarem występowania uszkodzeń na obiekcie rzeczywistym. Maksymalne wartości napręŜeń zanotowano na pokrywce tłumika pulsacji przed modyfikacją dla maksymalnego ciśnienia roboczego 21 Bar i przemieszczenia poprzecznego wylotu. Wynoszą one 303 MPa wg hipotezy HMH, przy uwzględnieniu nieliniowości materiału i geometrii oraz 367 MPa wg hipotezy HMH w zakresie liniowym. Na podstawie przeprowadzonych obliczeń numerycznych stwierdzono, iŜ nie spełniono warunku wytrzymałości doraźnej w miejscu występowania pęknięć. 92 Niespełnienie warunku wytrzymałości zmęczeniowej przez pokrywkę tłumika pulsacji przed modyfikacją, został potwierdzony po przeprowadzeniu numerycznej analizy zmęczeniowej przy wykorzystaniu kodu FALANCS [4]. Do wyznaczenia trwałości zmęczeniowej tłumika wykorzystano wieloosiowy model materiału Jiang-a [4]. Model ten wykorzystuje kryterium płaszczyzny krytycznej. W modelu tym zapoczątkowanie, inicjacji pęknięcia i akumulacji zniszczenia następuje wzdłuŜ płaszczyzny krytycznej (5). Tensor napręŜenia i odkształcenia dla tego kryterium opisany został na rys. 5. NapręŜenia w lokalnym układzie współrzędnych opisać moŜna następująco: σN − 1 (σ x + σ y ) + 1 (σ x − σ y ) ⋅ cos(2ϕ ) + τ xy ⋅ sin (2ϕ ) 2 2 τ S = − (σ x +σ y ) ⋅ sin (2ϕ ) + τ xy ⋅ cos(2ϕ ) 1 2 [1] [2] Definicja napręŜeń w lokalnym układzie współrzędnych wg kryterium planu krytycznego została przedstawiona na rys. 6. Rys. 5. Opis tensora napręŜenia i odkształcenia wg. kryterium planu krytycznego Rys. 6. Definicja napręŜeń w lokalnym układzie współrzędnych wg. kryterium planu krytycznego Na rys. 7 i 8 przedstawiono rozkład uszkodzenia zmęczeniowego dla jednego cyklu przy załoŜeniu nieliniowej charakterystyki materiału (Max Damage according to the Miner Sum, Max Blocks to Damage according to the Max. Absolute Stress) [6]. Polami oznaczonymi kolorem czerwonym zostały wyróŜnione miejsca, dla których wartość uszkodzenia zmęczeniowego dla jednego cyklu osiągnęła wartość krytyczną. Niespełnienie warunku wytrzymałości zmęczeniowej przez pokrywkę tłumika pulsacji przed modyfikacją o charakterystyce nieliniowej materiału zostało równieŜ potwierdzone przez obliczenia analityczne. W obliczeniach zmęczeniowych przyjęto, jako poprzednio [tłumik pulsacji po modyfikacji geometrii] wartość amplitudy napręŜeń granicznych wytrzymałości zmęczeniowej dla materiału rodzimego równą odpowiednio 233 MPa dla jednostronnego zginania i 149 MPa dla dwustronnego zginania. 93 Z punktu widzenia wytrzymałości zmęczeniowej trwałość komponentu jest zachowana. Wartość zmęczeniowego współczynnika przeciąŜeniowego dla obciąŜenia ciśnieniem roboczym 21 Bar i jednoczesnego działania przemieszczenia poprzecznego wlotu tłumika wynosi odpowiednio 0,76 dla jednostronnego zginania i 0,46 dla dwustronnego zginania. Dlatego teŜ przyjmuję się, iŜ przeciętny czas Ŝycia produktu, dla wyŜej przedstawionych warunków eksploatacji ma charakter mocno ograniczony. Rys. 7. Rozkład uszkodzenia zmęczeniowego tłumika pulsacji przed modyfikacją dla jednego cyklu (Max Damage according to Miner Sum) Rys. 8. Rozkład uszkodzenia zmęczeniowego tłumika pulsacji przed modyfikacją dla jednego cyklu (Max Blocks to Damage according to the Max. Absolute Stress) W związku z tym, iŜ obiekt nie spełniał warunku wytrzymałości doraźnej i wytrzymałości zmęczeniowej dla skrajnych warunków eksploatacji, zoptymalizowano geometrię obiektu. Obiekt modyfikowano wielokryterialnie. Pierwszym kryterium było obniŜenie napręŜenia wg hipotezy HMH do wartości 75 MPa poprzez optymalizację kształtu. Drugim kryterium było zachowanie masy obiektu. Optymalizację wykonywano w sposób iteracyjny, poddając kaŜdą opracowaną koncepcję geometrii obiektu analizie numerycznej. Finalny kształt tłumik pulsacji otrzymał przy 4 iteracji. Na rys. 9 przedstawiono kształt tłumika pulsacji po modyfikacjach. Przeprowadzono obliczenia statyczne uwzględniającą nieliniowość materiału. Do obliczeń wykorzystano kod ABAQUS. Przeprowadzono obliczenia uwzględniające wartość obciąŜenia pochodzącego od maksymalnego ciśnienia roboczego 21 Barów i przemieszczenia 0,05 mm. Po przeprowadzeniu obliczeń dla w/w obciąŜenia uzyskano przestrzenne pole napręŜeń oraz deformacji modelu. Wyniki w postaci warstwic napręŜeń pochodzących od działania maksymalnego ciśnienia roboczego przedstawiono na rys. 10. 94 b) a) Rys. 9. Model geometryczny pokrywki tłumika pulsacji po modyfikacji – a) widok ogólny, b) widok przekroju Rys. 4 Warstwice napręŜeń zredukowanych wg hipotezy HMH w MPa – działanie maksymalnego ciśnienia roboczego i przesunięcia wlotu tłumika o 0,05 mm – a) widok ogólny, b) rejon karbu W obliczeniach zmęczeniowych przyjęto wartość amplitudy napręŜeń granicznych wytrzymałości zmęczeniowej dla materiału rodzimego równą jak poprzednio 233 MPa dla jednostronnego zginania, 149 MPa dla dwustronnego zginania [7]. Wartość maksymalnych zakresu napręŜeń po analizie napręŜeń wg hipotezy HMH wynosi 73 MPa [oddziaływanie na pokrywkę ciśnienia roboczego 21 Bar i przemieszczenia 0,05 mm. Z punktu widzenia wytrzymałości zmęczeniowej trwałość komponentu jest zachowana [2]. Wartość zmęczeniowego współczynnika przeciąŜeniowego dla obciąŜenia ciśnieniem roboczym 21 Bar i jednoczesnego działania przemieszczenia poprzecznego wlotu tłumika wynosi odpowiednio 7,1 dla jednostronnego zginania i 4,6 dla dwustronnego zginania [7]. Zgodnie z powyŜszym przyjmuję się, iŜ przeciętny czas Ŝycia produktu, przy jego prawidłowym uŜytkowaniu dla obciąŜenia nieprzekraczającego 21 Bar ciśnienia roboczego będzie spełniał postawiony wymóg pracy 100 000 godzin pracy [1]. 95 3. Podsumowanie Przedstawiono wyniki przeprowadzonych analiz numerycznych identyfikujących rozkładu pół napręŜeń, pól przemieszczeń. Przedstawiono model matematyczny i numeryczny wykorzystany do wyznaczenia trwałości zmęczeniowej w tłumiku pulsacji w wersji pierwotnej i po jego modyfikacji. W prowadzonych badaniach zwrócono szczególną uwagę na rozkład pól napręŜeń na pokrywce tłumika pulsacji, w miejscach wskazanych, jako szczególnie zagroŜone na powstanie pęknięć. Po przeprowadzonych analizach, stwierdza się, iŜ tłumik pulsacji po modyfikacji nawet przy krytycznym obciąŜeniu tj. maksymalnym ciśnieniu roboczym 21 Bar, spełnia warunek wytrzymałości doraźnej i wytrzymałości zmęczeniowej. Przedstawione podejście wskazuje na nowe spojrzenie do problemu analizy wytrzymałościowej i zmęczeniowej produktów, ze szczególnym zwróceniem uwagi na wirtualne metody prototypowania i numeryczne metody szacowania trwałości zmęczeniowej. Literatura [1]. E. Rusiński, P. Moczko, B. Yakhno, P. Harnatkiewicz,. Analiza zmęczeniowa pokrywy tłumika pulsacji. Wrocław : Oficyna Wydawnicza Politechniki Wrocławskiej, 2008. Raport serii SPRAWOZDANIA. [2]. Guideline, FKM –. Analytical Strength Assessment Of Components In Mechanical Engineering. Norma . Frankfurt/Main : Forschungskuratorium Maschinenbau [FKM], 2003. Tom 5th revised edition. [3]. Rusiński E., Czmochowski J., Smolnicki T. Zaawansowana metoda elementów skończonych w konstrukcjach nośnych. Wrocław : Oficyna Wydawnicza Politechniki Wrocławskiej, 2000. [4]. LMS International. LMS Falancs Theory Monual. 2002. Tom LMS Falancs Documentation. [5]. T., Łagoda. Energetyczne modele oceny trwałości zmęczeniowej materiałów konstrukcyjnych w warunkach jednoosiowych i wieloosiowych obciąŜeń losowych, Studia i Monografie z. 121. Opole : Oficyna Wydawnicza Politechniki Opolskiej, 2001. [6]. LMS International. LMS Virtual.Lab Durability. User Monual. brak miejsca : LMS INternational, 2008. Rev. 7B. [7]. S., Kocańda. Zmęczeniowe pękanie metali. Warszawa : Wydawnictwo Naukowo- Techniczn, 1985. 96 Metoda energooszczędnego procesu ładowania ośrodka rozdrobnionego Radosław Ilnicki1 Streszczenie: Artykuł stanowi krótkie wprowadzenie do procesu ładowania urobku rozdrobnionego przy wykorzystaniu ładowarki łyŜkowej oraz przedstawia główne cele rozprawy doktorskiej. Opisuje niezbędne do wykonania badania, krótko odnosi się do obiektu fizycznego, na którym praca będzie wykonana oraz przewidywanych korzyści. Słowa kluczowe: ładowarka łyŜkowa, procesy ładowania, automatyzacja. 1. Cele Celem jest zbadanie zjawisk występujących podczas ładowania urobku rozdrobnionego oraz znalezienie i zaimplementowanie na fizycznym obiekcie algorytmów zapewniających energooszczędne ładowanie ośrodków rozdrobnionych. 2. Proces ładowania przy pomocy ładowarki łyŜkowej Ładowanie jest procesem zaczerpywania ośrodka ziarnistego, zwykle ze zwału, do naczynia i przenoszenia go do miejsca przeznaczenia, lub nagarnianie go na urządzenie odbierające. Proces ładowania wykonywać moŜna z wykorzystaniem wielu róŜnych maszyn roboczych. W moim przypadku zajmę się ładowaniem ośrodka ładowarką łyŜkową. Maszyny te są dziś powszechnie stosowane. Proces napełniania łyŜki urobkiem wykonuje się za pomocą ruchu prostoliniowego związanego z przemieszczeniem całej maszyny oraz ruchu w przybliŜeniu prostopadłego do podłoŜa, związanego z obrotem łyŜki, lub podnoszeniem wysięgnika. Napełnianie łyŜki moŜe być prowadzone trzema zasadniczymi sposobami. - Napełnianie jednostopniowe polega na jednorazowym zagłębianiu łyŜki w zwał ośrodka a następnie obrocie łyŜki, ze zgromadzonym w jej wnętrzu urobkowi do pozycji transportowej. Sposób ten 1 Instytucja Konstrukcji i Eksploatacji Maszyn, 50-371 Wrocław, ul. I. Łukasiewicza 7/9, e-mail: [email protected] 97 moŜna stosować do ośrodków łatwo ładowalnych, gdyŜ ogólnie wymaga ogromnych sił naporu i duŜego momentu do obrotu łyŜki. - Napełniane „złoŜone” wielostopniowe polega na tym, iŜ po wprowadzeniu łyŜki w zwał na pewną głębokość następuje obrót łyŜki o mały kąt, lub jej minimalne podniesienie, w celu naruszenia równowago statycznej ośrodka, co bez zmiany siły naporu umoŜliwia dalsze zagłębianie. Powtarzanie tego cyklu umoŜliwia całkowite napełnienie łyŜki. Zakończenie polega na ostatecznym obrocie łyŜki do pozycji transportowej. Ten sposób stosuje się najczęściej, poniewaŜ moŜna nim ładować grunty nawet o duŜej granulacji i duŜym oporze. - Napełnianie „złoŜone” ciągłe polega na wstępnym zagłębianiu łyŜki, po czym bez przerwania zagłębiania następuje powolny ciągły obrót łyŜki. Taki sposób napełniania wymaga automatyzacji, poniewaŜ jest kłopotliwy. Jeśli obrót łyŜki jest za wolny moŜe dojść do częstego powstawanie stanu równowagi i duŜego zuŜycia energii. Za szybki obrót łyŜki, w stosunku do prędkości jej wciskania w pryzmę, spowoduje częściowe napełnienie. Urobek moŜe być wyładowany z przodu ładowarki, z boku ładowarki (przez człon obrotowy), lub z tyłu (zasięrzutny). W procesie ładowania mamy do czynienia z duŜym oporem napełniania łyŜki. Na opór ten ma wpływ opór zagłębiania łyŜki w pryzmę ośrodka rozdrobnionego, opór związany z jej obrotem. Nie bez znaczenia jest teŜ stopień stępienia krawędzi łyŜki i jej kształt. Największy opór występuje na samym początku ruchu obrotowego i maleje wraz ze wzrostem kąta obrotu. Istotnym czynnikiem określającym jakość procesu ładowania danym urządzeniem jest wydajność tego procesu. Teoretyczna wydajność maszyny roboczej w cyklicznej pracy określa stosunek pojemności naczynia do czasu cyklu pracy. W eksploatacji porównawczą wielkością jest natomiast wydajność techniczna, która jest równa: Qt = Vz K n Tc k s (1) gdzie: Qt – wydajność techniczna, Vz – pojemność łyŜki, Tc – czas cyklu pracy, K n – współczynnik napełnienia łyŜki (0.6-1.1), k s – współczynnik spulchniania. 98 3. Badania Wyznaczenie energooszczędnego procesu ładowanie ośrodków rozdrobnionych wymagać będzie przeprowadzenia wielu badania porównujących róŜnych sposobów ładowania. Niezbędne będzie zbadanie wpływu podnoszenia i obrotu łyŜki na efektywność jej napełniania dla róŜnych gruntów. Badania zachowania sił i momentów sił, podczas cyklu pracy napełniania modelu łyŜki ładowarki Fadroma Ł220 (w skali 1:3,5) drobnym tłuczniem oraz nad wpływem elementarnych obrotów na napełnienie łyŜki, prowadzone były juŜ wcześniej w Instytucie Konstrukcji i Eksploatacji Maszyn Politechniki Wrocławskiej. Badania nie umoŜliwiały przeanalizowania kilku bardzo istotnych aspektów procesu ładowania, na których skupię się w rozprawie doktorskiej. Po pierwsze nie umoŜliwiały zbadania wpływu elementarnego podrywania łyŜki (bez lub z jednoczesnym obrotem) na efektywność jej napełniania. Po drugie moment wykonania elementarnego obrotu był przyjmowany arbitralnie. Nie miała tu miejsca analiza aspektu pojawienia się poślizgów kół ładowarki w momencie przekroczenia przez siły oporu sił napory maszyn roboczej. Wystąpienie poślizgu jest najbardziej intuicyjnym momentem wykonania elementarnych ruchów w celu naruszenia stanu równowagi, gdyŜ umoŜliwia całkowite wykorzystanie siły naporu maszyny. Ponadto z powodu prostego układu sterowania pominięto ,,złoŜony'' ciągły proces ładowania. Zaaplikowanie na ładowarce adaptacyjnych algorytmów pozwoli na sprawdzenie, czy ten sposób ładowania jest zauwaŜalnie wydajniejszy niŜ powszechny sposób „złoŜony” wielostopniowy. Pozyskane wyniki zostaną odniesione do energii zuŜywanej przez maszynę roboczą podczas całego procesu. Ostatecznie zaproponowany zostanie sposobu ładowania urobku, który maksymalizuje kryterium jakości. Kryterium tym jest stosunek masy nabranego urobku do całkowitej zuŜytej energii podczas procesu jego ładowania Ef = M u / E z . (2) 4. Obiekt fizyczny i czujniki Badania wykonywane będą na ładowarce łyŜkowej firmy Fadroma, model Ł220 (rys.1). Mechanizm podnoszenia i obrotu łyŜki jest przestrzennym mechanizmem typu Z zapewniającym zachowanie zadanego kąta połoŜenia łyŜki podczas podnoszenie jej. Podnoszenie wysięgnika 99 wykonywane jest za pomocą dwóch siłowników hydraulicznych. Dodatkowe dwa wykonują obrót. Ładowarka otrzyma niezbędny zestaw czujników i sterowników. Do badania występowania poślizgów wykorzystane zostaną czujniki prędkości obrotowej umieszczone na kołach. O wystąpieniu poślizgu będzie informować znaczne róŜnice pomiędzy prędkościami obrotowymi kół. Sworznie pomiarowe zamontowane w miejscu mocowania łyŜki do wysięgnika pozwolą nam określić siły i momenty działające na łyŜkę. To z kolej moŜe okazać się pomocne do wyznaczania kryteriów jakości. Niezbędny będzie równieŜ inklinometr badający orientację łyŜki względem układu odniesienia związanego z ziemią. Dodatkowe czujniki będą potrzebne do wyznaczania masy naładowanego urobku oraz energii zuŜytej podczas tego procesu. Sterowanie procesem efektywnego energetycznie ładowania urobku wykonane będzie przy pomocy algorytmów zaimplementowanych w sterowniku Plus+1 firmy Sauer-Danfoss. Rys. 1. Ładowarka FADROMA Ł220 3. Podsumowanie Wyniki pracy przyniosą spore korzyści w przyszłości związane zarówno z kosztami, jaki i aspektem ludzkim. Energooszczędność spowoduje zmniejszenie kosztów wynikających głównie z mniejszego zuŜycia paliwa, oraz efektywniejszego jego wykorzystania. Ponadto automatyzacja procesu ładowania odciąŜy operatora. Zmniejszy to zarówno jego wysiłek fizyczny, jak i psychiczny. Literatura [1] K. Pieczonka, InŜynieria maszyn roboczych. Część I. Podstawy urabiania, jazdy i obrotu, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2007. [2] www.fadroma.pl [3] www.sauer-danfoss.pl 100 Wymiana ciepła w wymienniku krzyŜowym w systemach wentylacji i klimatyzacji Andrzej Jedlikowski, Maciej Skrzycki1 Streszczenie: W artykule przeanalizowano proces wymiany ciepła i masy w wymienniku krzyŜowym. Opisano problemy związane z eksploatacją urządzenia w warunkach zewnętrznych temperatur obliczeniowych. Przedstawiono model wymiany ciepła i masy. Słowa kluczowe: rekuperator, wymiana ciepła i masy, model 1. Wprowadzenie Uzdatnianie strumienia powietrza wentylującego lub klimatyzacyjnego wymaga znacznych ilości energii. W celu ograniczenia zuŜycia energii stosowany jest odzysk ciepła, który ma za zadanie przygotować świeŜe powietrze do stanu zbliŜonego do komfortu cieplnego przy znacznym oszczędzeniu energii. Oszczędność energii wymuszona jest przepisami prawa [5]. Obowiązek ten zapisano § 151 Rozporządzenia w sprawie warunków technicznych, jakim powinny odpowiadać budynki i ich usytuowanie [3] wraz z późniejszymi zmianami [4]. Zasada działania polega na wykorzystaniu ciepła zawartego w powietrzu wywiewanym i przeznaczeniu go do wstępnego podgrzania powietrza nawiewanego. Istotna jest róŜnica temperatur między dwoma strumieniami powietrza. Niekiedy wykorzystuje się zjawiska kondensacji i absorpcji wilgoci [2]. Celem prowadzonych badań jest podwyŜszenie skuteczności odzysku ciepła. WaŜnym kryterium wyboru danego rozwiązania jest zapewnienie bezpiecznej pracy urządzenia podczas ujemnych zewnętrznych temperatur. Jednym ze sposobów podwyŜszenia skuteczności odzysku ciepła jest racjonalne wykorzystanie ciepła kondensacji. Podczas zwilŜenia powierzchni przegród wymiennika istnieje niebezpieczeństwo powstawania szronu. Na ogół przy niskich temperaturach powietrza zewnętrznego przeprowadza się działania mające na celu ograniczenie strumienia przepływu. Na przebieg procesów wymiany ciepła ma równieŜ wpływ 1 Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska, Politechnika Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław, [email protected], [email protected] 101 struktura wypełnienia. Procesy dodatkowo komplikują elementy oŜebrowane wymiennika. Bezpieczna praca ma miejsce zwykle w warunkach suchej wymiany ciepła. W przypadku pojawienia się kondensacji, powstała ciecz nagrzewa powierzchnię przegrody wymiennika. Prowadzi to do wydzielenia się ciepła utajonego. W przypadku powierzchni oŜebrowanej powstająca ciecz nagrzewa elementy dystansujące, które równieŜ uczestniczą w procesach wymiany ciepła. Istnieje granica określająca obszary Ŝebra, w których odbywa się wymiana ciepła jawnego i utajonego. Jej wartość jest zdeterminowana przez temperaturę punktu rosy. Pod wpływem kondensacji następuje podgrzanie powierzchni Ŝebra, co w konsekwencji moŜe spowodować obniŜenie wymienionej granicy. Uzasadnione jest zatem rozpatrzenie procesów wymiany ciepła i masy w tym urządzeniu, w celu określenia warunków jego racjonalnego wykorzystania. 2. Model fizyko-matematyczny W literaturze moŜna znaleźć wiele modeli wymiany ciepła i masy stosowanych w celu analizy pracy wymienników krzyŜowych. Zwykle do opisu zagadnień związanych z procesami zachodzącymi podczas uzdatniania powietrza w wymiennikach wykorzystywane są równania róŜniczkowe. W praktyce moŜna wyodrębnić trzy rodzaje konstruowanych modeli opartych na równaniach [1]: - Reynoldsa - warstwy granicznej (przyściennej) - jednowymiarowego przenoszenia (ε, NTU) Modele skonstruowane na podstawie równań Reynoldsa lub warstwy granicznej pozwalają na uzyskanie bardzo szczegółowych informacji o warunkach temperaturowych i wilgotnościowych w kaŜdym obszarze rozpatrywanego układu. Opis parametrów systemu za pomocą równań róŜniczkowych nieliniowych jest dość trudny, gdyŜ wymaga określenia turbulentnych charakterystyk przepływu. Dlatego w przypadku braku konieczności otrzymania tak dokładnych informacji moŜna wykorzystać model jednowymiarowego przenoszenia. W wielu zagadnieniach inŜynieryjnych nie jest waŜny rozdział parametrów termodynamicznych w przekrojach poprzecznych kanałów, lecz ich średnie całkowe wartości. Dlatego teŜ przy opisie matematyczno-fizycznym procesów wymiany ciepła i masy w płytowych rekuperatorach do odzysku ciepła stosowany jest model jednowymiarowego przenoszenia. Ruch powietrza w kanałach rozpatrywany jest jako strumień cieczy ze stałą wzdłuŜ jego poprzecznego 102 przekroju prędkością, temperaturą oraz zawartością wilgoci, które równe są średnim tych wartości. Na rysunku 1 przedstawiono schemat ideowy krzyŜowego wymiennika ciepła, który posłuŜył do napisania równań bilansu wymiany ciepła i masy. Dodatkowo zaznaczono strefy naraŜone na moŜliwość powstawania kondensacji oraz szronu. ZałoŜenia do konstrukcji modelu: - strumień powietrza jest idealną mieszaniną gazu, zawierającą suche powietrze i parę wodną, - siłą napędową przenoszenia masy jest gradient zawartości wilgoci (ciśnień cząstkowych pary wodnej); - charakterystyki kinetyczne strumienia powietrza i warstwy granicznej wody przyjmuje się jako stałe i równe średnim całkowym wartościom w przekroju poprzecznym kanału, - wzdłuŜna dyfuzja molekularna pary wodnej w powietrzu, jak równieŜ wzdłuŜne przewodzeRys. 1. Schemat ideowy krzyŜowego nie ciepła są nieznaczne, wymiennika ciepła - podczas kondensacji wilgoci na powierzchni ścianek kanału, przyjęto temperaturę płyty równą temperaturze warstwy kondensatu t Z SC = tW SC = t SC , - wydzielające się ciepło kondensacji w całości zuŜywane jest do podgrzewania strumieni powietrza; brak akumulacji w wypełnieniu, - temperatura ścianek kanałów (kondensatu) zmienia się wraz z kierunkiem ruchu powietrza i zaleŜy od warunków przebiegu procesów wymiany ciepła w kanałach. Równania fizyko-matematycznego modelu procesów wymiany ciepła i masy w rozpatrywanym urządzeniu realizowane są w kartezjańskim układzie współrzędnych. Obie osie skierowane są równolegle do kierunków przepływających strumieni powietrza. Odpowiednio osie dotyczą parametrów powietrza X (odciętych) nawiewanego, Y (rzędnych) wywiewanego. Oś Z jest prostopadła do powierzchni przegród wymiennika. Na podstawie przyjętych załoŜeń modelu wymiana ciepła i masy dla wymiennika krzyŜowego opisana jest za pomocą równań bilansów ciepła i wilgoci dla strumieni powietrza zewnętrznego i wywiewanego oraz dla ścianki wymiennika. 103 ∂t Z = NTU Z t Z SC − t Z ∂ X ∂t c ∂xW W t = NTUW tW SC − tW + pw −t c p ∂Y W SC W ∂Y W ∂xW = NTUW σ xW SC − xW Le W ∂Y ( ) ( ) ( ( WZ WW ∂t Z ∂tW ∂xW + + ∂Y ∂ X ∂Y (1) ) ) q o c pw tW SC − tW − c p W c p W ( ) = 0 (2) W układzie równań wprowadzono bezwymiarowe oznaczenia: Le = α ( β c p ) NTU = ( α F ) W W = G cp (3) Dla równań (1)–(2) podano warunki brzegowe określające wielkości parametrów termodynamicznych strumieni powietrza na wejściach odpowiednich kanałów wypełnienia: tW = tW we t Z = t Z we xW = xW we X =0 X = 0 −1 X = 0 −1 Y = 0 −1 Y =0 Y =0 (4) Zjawisko kondensacji oraz powstawania szronu określają warunki: σW = 1 σW = 0 (5) tW SC ≤ tWr tW SC > t r W q o = r + qice qo = r xW SC = xW tW SC > t r W tW SC ≤ tWr tW SC ≤ tWr tW SC > 0 tW SC ≤ 0 xW SC = xW SC sat tW SC ≤ tWr (6) Oznaczenia indeksów: Z – powietrze zewnętrzne, W – powietrze wywiewane, SC – ścianka wymiennika, we – wejście do wymiennika, wy – wyjście z wymiennika, r – punkt rosy, sat – stan nasycenia, ice – powstawanie szronu. Dla powietrza zewnętrznego temperatura na wejściu wymiennika jest stała wzdłuŜ osi rzędnych i moŜe się zmieniać w kierunku przepływu powietrza w zakresie przyjętej powierzchni elementarnej 0÷1. Analogicznie proces przebiega dla powietrza wywiewanego, z dodatkowym uwzględnieniem zmian zawartości wilgoci. Oznaczenie σ określa współczynnik przełączający związany z moŜliwością wystąpienia min kondensacji. Warunek σ=0 oznacza suchą wymianę ciepła t SC > tWr we . min W przeciwnym przypadku t SC ≤ tWr we gdy temperatura ścianki wymiennika 104 jest mniejsza od temperatury punktu rosy istnieje moŜliwość kondensacji i wartość współczynnika σ=1. Wymienniki wyposaŜone w elementy dystansujące charakteryzują się wyŜszą skutecznością odzysku ciepła. Kształt Ŝeber jak równieŜ sposób umieszczenia odgrywają istotną rolę w procesach wymiany ciepła i masy. Na rysunku 2 przedstawiono procesy wymiany ciepła i masy w obu kanałach przepływającego powietrza z moŜliwością wystąpienia kondensacji na powierzchni oŜebrowanej w kanale powietrza wywiewanego. Opis przemian termodynamicznych zapisano w postaci równań (7) – (8). Rys. 2. Wymiana ciepła i masy w kanałach rekuperatora z oŜebrowaniem prostokątnym ∂t * Z = NTU Z t Z SC − t Z ∂ X ∂t c ∂xW * W t = NTUW tW* SC − tW + pw −t c p ∂Y W SC W ∂Y W ∂xW = NTU*W σ xW* SC − xW ∂Y Le W ( ) ( ) ( WZ WW ∂t Z ∂tW ∂xW + + ∂Y ∂ X ∂Y ( ) (7) ) q o c − pw tW* SC − tW c p W c p W ( ) = 0 (8) Oznaczenia indeksów: * – wartość uśredniona wyznaczona z uwzględnieniem oŜebrowania. PoniŜej będzie rozpatrywane przewodzenie ciepła przez płaskie Ŝebro o wymiarach geometrycznych jak na rysunku 3. Dodatkowo przedstawiono schematy wymiany ciepła i masy podczas eksploatacji wymiennika z kanałem oŜebrowanym. Zaznaczono obszary suchej wymiany ciepła, związane z wystąpieniem kondensacji oraz naraŜone na powstawanie szronu. Granicą określającą zjawisko kondensacji jest temperatura punktu rosy. Przy temperaturze powierzchni wymiany ciepła poniŜej 0°C obserwowany jest proces zamarzania. 105 RozwaŜania będą prowadzone przy następujących załoŜeniach [6]: - temperatura Ŝebra u nasady ma stałą wartość równą temperaturze ścianki Ŝebra tŜ, - współczynnik przejmowania ciepła α od Ŝebra do ośrodka otaczającego ma stałą wartość, - przewodzenie ciepła w Ŝebrze jest jednowymiarowe w kierunku osi Z, temperatura w dowolnym przekroju Ŝebra ma stałą wartość tz, Rys. 3. Schematy wymiany ciepła i masy w kanale oŜebrowanym Rozkład temperatur wewnątrz Ŝebra moŜna przedstawić za pomocą równania róŜniczkowego przekazywania ciepła: d 2t ś qo σ = m 2 (tO − t P ) + (xO − xP ) ; 2 dZ c p Le m= 2α λś δ ś (9) Dla przedstawionego równania (9) określono warunki graniczne: t ś = const = t SC Z =0 ; tP = tś tś > tr ∪ 0 < tś < tr dt ś dZ = 0 ; Z = hś 2 ; t P = t SZR tś < tr < 0 (10) gdzie: α – współczynnik przejmowania ciepła, W/(m2 K); cp – ciepło właściwe powietrza, kJ/(kg K); δś – grubość Ŝebra, m; hś – wysokość Ŝebra, m; lś – długość Ŝebra, m; λś – współczynnik przewodności cieplnej Ŝebra, W/(m K); K; Le – liczba Lewisa; tO – temperatura strumienia przepływającego powietrza, K; tP – temperatura powierzchni wymiany ciepła i masy, K; tr – temperatura punktu rosy powietrza, K; tSC – temperatura ścianki wymiennika, K; tSZR – temperatura powierzchni szronu, K; tś – temperatura Ŝebra w dowolnym przekroju, K; xO – zawartość wilgoci w strumieniu przepływającego powietrza, kg/kg; xP – lokalna zawartość wilgoci w powietrzu nasyconym warstwy przygranicznej nad powierzchnią szronu, kg/kg; qo – ciepło przejścia fazowego, kJ/kg; σ – bezwymiarowy współczynnik przełączający określający moŜliwość wystąpienia lub brak wymiany masy. 106 Równanie (9) pozwala na określenie temperatur oraz wyznaczenie stref wymiany ciepła i masy na powierzchni Ŝebra. Przeprowadzone obliczenia wykorzystane zostaną do określenia średniej temperatury ścianki oŜebrowanej. Następnie uzyskane wartości wprowadzone do równań (7) – (8) pozwolą na rozwiązanie opisanego zagadnienia. 3. Wyniki obliczeń Na podstawie przeprowadzonych badań numerycznych wykazano wpływ kondensacji na przebieg procesów wymiany ciepła i masy. Wykroplenie cieczy moŜe wystąpić na ściankach wymiennika oraz doprowadzić do częściowego zwilŜenia powierzchni oŜebrowanej. Powstają w ten sposób obszary w których ma miejsce wydzielenie ciepła jawnego i utajonego. Przeprowadzona analiza wymiany ciepła i masy dla Ŝeber płaskich wykazała, iŜ podobnie jak w kanałach rekuperatora moŜna wyodrębnić strefy suchej wymiany ciepła i naraŜone na kondensację oraz zamarzanie. Granicą określającą obszary wymiany ciepła na powierzchni Ŝeber jest temperatura punktu rosy. Jej wartość nie utrzymuje się na stałym poziomie, poniewaŜ zjawisko kondensacji nagrzewa element Ŝebra. 0 temperatura termometru suchego, °C 24 22 20 18 16 14 12 10 8 6 4 2 0 -2 -4 -6 -8 -10 -12 -14 -16 -18 1 zawartość wilgoci, g/kg 2 3 4 5 6 7 8 X=0,0-1,0 X=0,0 X=0,2 X=0,4 X=0,6 X=0,8 X=1,0 Średnia Rys. 4. Przebieg zmian stanu parametrów powietrza w rekuperatorze na wykresie i-x 107 9 Na rysunku 4 przedstawiono wyniki pracy wstępnej wersji programu skonstruowanego na podstawie opisanego modelu. Wykres został utworzony dla warunków zewnętrznych obliczeniowych II strefy klimatycznej. Parametry powietrza w pomieszczeniu załoŜono tp=20°C, ϕp=60%. W przeprowadzonej symulacji na powierzchni przegród wymiennika powstawały dodatkowo ciecz oraz szron. Charakter przemian stanu powietrza wywiewanego w zaleŜności od powierzchni elementarnej świadczy o istnieniu róŜnej temperatury powierzchni ścianek wymiennika. 4. Podsumowanie - Przedstawiono i sformułowano fizyko-matematyczny model procesów wymiany ciepła i masy w rekuperatorze. - Opracowano numeryczną metodę obliczeń podstawowych parametrów wymiany ciepła i masy w wymienniku krzyŜowym. - Na podstawie przeprowadzonej analizy określono charakter procesów wymiany ciepła i masy w kanałach rekuperatora. - Dalsze obliczenia optymalizacyjne pozwolą na określenie zakresu zmian roboczych parametrów wymiennika ciepła oraz umoŜliwią ocenę moŜliwości jego racjonalnego wykorzystania w zaleŜności od warunków klimatycznych. Literatura [1] Богословский В.Н., Поз М.Я., Теплофизика аппаратов утилизации систем отопления, вентиляции и кондиционирования воздуха. М., Стройиздат, 1983. [2] Pawiłojć A., Targański W., Bonca Z., Odzysk ciepła w systemach wentylacyjnych i klimatyzacyjnych, Wyd. IPPU MASTA sp. z o.o. Gdańsk 1999. [3] Rozporządzenie Ministra Infrastruktury z dnia 12 kwietnia 2002 r. w sprawie warunków technicznych, jakim powinny odpowiadać budynki i ich usytuowanie. Dz. U. nr 75, poz. 690. [4] Rozporządzenie Ministra Infrastruktury z dnia 6 listopada 2008 r. zmieniające rozporządzenie w sprawie warunków technicznych, jakim powinny odpowiadać budynki i ich usytuowanie. Dz. U. nr 201, poz. 1238. [5] Staniszewski D., Targański W., Odzysk ciepła w instalacjach chłodniczych i klimatyzacyjnych, Wyd. IPPU MASTA sp. z o.o. Gdańsk 2007. [6] Werszko D., Wybrane zagadnienia z techniki cieplnej. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2003. 108 Wymiana ciepła w regeneracyjnych obrotowych wymiennikach ciepła w systemach wentylacji i klimatyzacji Andrzej Jedlikowski, Maciej Skrzycki1 Streszczenie: W artykule opisano podstawy teoretyczne dotyczące regeneracyjnych obrotowych wymienników ciepła w instalacjach wentylacyjnych i klimatyzacyjnych. Przedstawiono charakterystyki geometryczne wypełnienia wymiennika oraz modele fizyko-matematyczne wymiany ciepła wraz z komentarzem. Słowa kluczowe: wymiennik obrotowy, wymiana ciepła, model matematyczny 1. Wprowadzenie Obrotowe wymienniki ciepła są stosowane w systemach wentylacji i klimatyzacji w celu obniŜenia wymaganych mocy urządzeń grzewczych oraz/lub chłodniczych. Zastosowanie urządzeń do odzyskiwania energii z powietrza wywiewanego niesie ze sobą szereg korzyści, ogólną redukcja kosztów eksploatacyjnych oraz zmniejszenie emisji do atmosfery substancji szkodliwych, które powstają w trakcie procesów przetwarzania paliw pierwotnych. Jednym z typów urządzeń do odzyskiwania energii w systemach wentylacji i klimatyzacji są urządzenia regeneracyjne. Zasada działania polega na naprzemiennym omywaniu tej samej powierzchni wypełnienia wymiennika przez strumień powietrza wywiewanego i zewnętrznego. Strumień powietrza wywiewanego przekazuje energię Rys. 1. Przepływ powietrza przez do omywanej powierzchni wymiennik obrotowy a strumień powietrza zewnętrznego odbiera 1 Katedra Klimatyzacji i Ciepłownictwa, Wydział InŜynierii Środowiska, Politechnika Wrocławska, ul. Norwida 4/6 budynek C-6 50-373 Wrocław, [email protected], [email protected] 109 zakumulowaną w niej energię. Dodatkowo wymieniana jest takŜe masa. Podstawowym elementem obrotowego wymiennika ciepła jest obracająca się masa akumulacyjna (rotor) [1]. Rotor wymiennika zbudowany jest w formie bębna z ułoŜonymi centrycznie taśmami ze stali nierdzewnej, aluminium, tworzyw sztucznych lub innych materiałów. Dwie sąsiadujące ze sobą taśmy tworzą kanał, przez który przepływa powietrze. Rozstaw taśm zaleŜy od dopuszczalnego oporu na wymienniku, od wielkości spodziewanych zanieczyszczeń. Taśmy ułoŜone są w taki sposób, aby moŜliwy był przepływ laminarny powietrza, co ogranicza opory przepływu, ale jednocześnie zmniejsza przejmowanie ciepła przez powietrze. Do analizy pracy wymiennika przyjęto następujące załoŜenia [1]: − wymiennik pracuje w warunkach quasi-ustalonych (tj. przy stałym przepływie i temperaturach na wlocie dla obydwu strumieni powietrza), − straty i zyski ciepła do i z otoczenia są pomijalnie małe, − nie ma Ŝadnych źródeł energii lub upustów wewnątrz dla obracającej się masy akumulacyjnej oraz strumieni powietrza, − prędkości i temperatury strumieni powietrza na wlocie są jednolite w całym przekroju przepływu powietrza i są stałe w czasie, − współczynniki przejmowania ciepła pomiędzy wypełnieniem wymiennika a strumieniami powietrza są stałe w całym wymienniku, − temperatura w całej grubości wypełnienia jest stała a opór cieplny jest traktowany, jako zerowy dla przewodnictwa poprzecznego wypełnienia, − brak wycieków oraz obejścia dla obydwu strumieni powietrza, − wymiana ciepła na drodze promieniowania jest niewielka w porównaniu do konwekcji ciepła, − czas przebywania powietrza w wypełnieniu jest relatywnie mały do czasu przepływu, 2. Geometryczne właściwości wypełnienia wymiennika Wypełnienie wymiennika (rotor) jest symetryczne i zrównowaŜone, czołowy przekrój poprzeczny, obszar swobodnego przepływu powietrza (ciepła oraz masy) po obu stronach dla przepływu powietrza, zarówno wywiewanego, jak i zewnętrznego jest taki sam [3]. Czołowa powierzchnia rotora: 2 2 α πd rot πd rot Aw = = ; m2 8 100 4 Przekrój poprzeczny przepływu powietrza przez rotor: 110 (1) 2 2 α πd rot ϕπd rot ( ) ϕ Ag = = ; m2 8 100 4 (2) Przekrój poprzeczny rotora: 2 πd 2 (1 − ϕ )πd rot α Ag = ; m2 (1 − ϕ ) rot = 8 100 4 (3) gdzie: drot – średnica rotora [mm], φ – porowatość, α – podział rotora (ok. 50%) Porowatość wypełnienia (rotora) jest stosunkiem strumienia objętości powietrza Vp do całkowitej objętości (strumień objętości powietrza Vp + objętość wypełnienia Vrot): ϕ= Vp Vcała = Vg V p + Vrot lub Vrot = 1−ϕ Vrot + V p (4) Porowatość wypełnienia wskazuje, ile jest moŜliwej powierzchni przestrzeni As do wymiany ciepła oraz masy. Gęstość obszaru lub powierzchnia właściwa definiowana, jako As / Vcałk i jest uŜywana do określania zwartości rotora: πd f Lrot As 4 = = ; m −1 2 Vrot πd f df Lrot 4 (5) gdzie: df – średnica nawinięcia taśmy wypełnienia rotora [mm], Lw – szerokość rotora wymiennika [mm] MoŜliwa przestrzeń do wymiany ciepła i masy w rotorze wynosi: As = (1 − ϕ )πd rot2 Lrot 2d f 111 ; m2 (6) 3. Model matematyczno-fizyczny wymiany ciepła Ruch energii wewnątrz wypełnienia wymiennika odbywać się moŜe w trzech kierunkach: wzdłuŜnie, poprzecznie oraz zgodnie z ruchem rotacyjnym wypełnienia. Schematycznie przepływ energii przedstawiono na rysunku 2. Zgodnie z rys. 2 taka sama ilość ciepła wpływa do elementarnej cząstki wypełnienia wymiennika i taka sama z niej wypływa, spełniając zasadę bilansu cieplnego. Część ciepła przekazywana jest do/od strumienia powietrza, część Rys. 2. Przepływ energii przez strukturę wymiennika przenoszona jest do/od wypełnienia a część ciepła transportowana jest wewnątrz wypełnienia, zgodnie z rys 2. Ilość transportowanego ciepła zaleŜy od właściwości przepływającego gazu. PoniewaŜ dwie wartości temperatur są nieznane, naleŜy je wyznaczyć dla kaŜdego z obliczeniowych punktów: temperatury wypełnienia wymiennika oraz temperatury powietrza za wymiennikiem. Zagadnienie to moŜna wyznaczyć iteracyjnie. Model matematyczny opisujący zjawisko wymiany ciepła w regeneracyjnym obrotowym wymienniku ciepła oparty jest na bilansie energetycznym dla elementarnej cząstki wypełnienia wymiennika oraz dla przepływu strumieni powietrza. W przypadku znajomości temperatur, zarówno na wlocie do wymiennika, jak i wylocie korzysta się metody temperatur logarytmicznych. Temperatury te moŜna równieŜ wyznaczyć na podstawie bilansu energetycznego. W przypadku, gdy temperatury te pozostają niewiadomymi metoda temperatur logarytmicznych wymaga zastosowania procedur iteracyjnych. W celu wyznaczenia efektywności wymienników ciepła, pojawia się konieczność wprowadzenia pojęcia maksymalnego strumienia być cieplnego, który moŜe wymieniony, tj. o nieskończonej długości. W przeciwnym przypadku naleŜy posiłkować się metodą liczb jednostek przenikania ciepła, tzw. metodą NTU (ang. NTU – Rys. 3. Układ współrzędnych i nomenklatura dla Number of Transfer Units). regeneracyjnego obrotowego wymiennika ciepła 112 Rys. 4. Przekazywanie energii w kanalikach wypełnienia wymiennika obrotowego Zmienne bezwymiarowe: X* = τ w* = x L (7) τw τ z* = Pw τz (8) Pz gdzie: x – odnosi się do kierunku przepływu strumieni powietrza, L – szerokość wypełnienia wymiennika [mm], τw, τz – czas przebywania odpowiednio strumienia powietrza wywiewanego oraz zewnętrznego [s], Pw, Pz – czas przepływu odpowiednio strumienia powietrza wywiewanego oraz zewnętrznego [s]. Bezwymiarowe temperatury dla rozpatrywanego układu wymiennika obrotowego: t w* = t w − t z , wl t w, wl − t z , wl t z* = t z − t z , wl t w, wl − t z , wl t sc* = t sc − t w, wl t sc , wl − t w, wl (9) gdzie: tw – temperatura powietrza wywiewanego [°C], tz,wl – temperatura powietrza zewnętrznego na wlocie do wymiennika [°C], tw,wl – temperatura powietrza wywiewanego na wlocie do wymiennika [°C], tsc – temperatura powierzchni wypełnienia [°C], Parametry bezwymiarowe zdefiniowano, jako: NTU w = (UA)w Cw NTU z = (UA) z Cz (10) gdzie wartości Cw oraz Cz oznaczają pojemność cieplną, odpowiednio dla strumienia powietrza wywiewanego oraz zewnętrznego. Wielkości te zdefiniowano, jako: 113 Cw = (mC p )w = (ρVC p )w C z = (mC p )z = (ρVC p )z C r*, w = C r ,w Cr*, z = Cw (11) Cr , z (12) Cz Po uwzględnieniu temperatur poszczególnych strumieni powietrza oraz ścianek wymiennika, zaleŜności zredukowano do następujących postaci: ∂t w* ∂X ∂t sc* * ∂τ * w ( = NTU w t sc* − t w* = NTU w C * r ,w (t * w ) (13) ) (14) − t sc* ∂t z* = NTU z t sc* − t z* ∂X * ∂t sc* NTU z * * = t z − t sc ∂τ z* C r*, z ( ) ( (15) ) (16) Warunki brzegowe oraz okresowe warunki równowagi z uwzględnieniem bezwymiarowych temperatur układu, parametrów bezwymiarowych oraz pojemności cieplnych strumieni powietrza: ( ) dla 0 ≤ τ ≤ 1 (1, τ ) = 0 dla 0 ≤ τ ≤ 1 (X , τ = 1) = t (X , τ = 0) (X , τ = 0) = t (X , τ = 1) t w* 0, τ w* = 1 * w t z* * z * t * sc , w t * sc , w * z * * * w * sc , z * w * sc , z * (17) (18) * z dla 0 ≤ X ≤ 1 (19) * z dla 0 ≤ X ≤ 1 (20) * * Temperatury strumieni powietrza oraz wypełnienia są funkcjami następujących składowych: ( t w* , t z* , t sc* = φ X * , τ w* , τ z* , NTU w , NTU z , C r*, w , C r*, z ) (21) Temperatury strumieni powietrza na wylocie z wymiennika, zarówno wywiewanego, jak i zewnętrznego, są funkcjami następujących składowych: ( t w* , wyl , t z*, wyl = φ NTU w , NTU z , C r*, w , C r*, z ) (22) Temperatury powietrza na wylocie z wymiennika są wyraŜone przez efektywność wymiennika, określaną jako zaleŜność ε=q/qmax. Wykorzystując temperatury wylotowe z wymiennika moŜna zdefiniować wielkość strumienia ciepła: 114 q = C w (t w, wl − t w, wyl ) = C z (t z , wyl − t z , wl ) (23) Aby móc ustalić wartość qmax, naleŜy zdefiniować pojęcie wymiennika idealnego, tzn. takiego, który ma nieskończoną powierzchnię, przewodzenie wzdłuŜne wypełnienia wynosi zero oraz nie występuje jakiekolwiek przenikanie jednego strumienia powietrza do drugiego a temperatury wlotowe są jednakowe, jak w rzeczywistym regeneratorze. Właściwości powietrza są stałe dla obydwu wymienników. W związku z powyŜszym, wartość qmax odniesiona do wymiennika idealnego wyniesie: q max = C min (t w, wl − t z , wl ) (24) w którym wartość pojemności cieplnej Cmin odnosi się do mniejszej ze strumieni powietrza o wartości Cw lub Cz. ε= q q max = C w (t w, wl − t w, wyl ) C min (t w, wl − t z , wl ) = C z (t z , wyl − t z , wl ) C min (t w, wl − t z , wl ) (25) ε = φ (NTU w , NTU z , Cr*, w , Cr*, z ) (26) W związku z tym, iŜ współczynniki przejmowania ciepła lub powierzchnie wymiany ciepła od strony powietrza wywiewanego lub zewnętrznego mogą się róŜnić pomiędzy sobą, moŜna to przedstawić, jako [4]: 1 1 NTU o = 1 C min 1 (UA) + (UA) w z (27) Gdy powierzchnie wymiany ciepła są takie same dla współczynników przejmowania ciepła od strony powietrza wywiewanego oraz zewnętrznego forma poprzedniej zaleŜności będzie następująca: NTU o = (UA) z 2C min = C min C max C Cr* = r Cmin NTU 2 (28) C* = (29) (30) ( ε = φ NTU wyl , C * , Cr* , (UA)* 115 ) (31) 4. Wnioski − − przedstawiono charakterystyki geometryczne dotyczące wypełnienia wymiennika obrotowego (rotora) oraz uzasadniono model fizyko – matematyczny procesów wymiany ciepła i masy w wymienniku obrotowym, zaprezentowane równania wymiany ciepła umoŜliwią rozwinięcie modeli wymiany ciepła oraz masy w regeneracyjnych obrotowych wymiennikach ciepła, co umoŜliwi opracowanie zaleŜności pracy urządzenia od liczby obrotów oraz od warunków obliczeniowych, Literatura [1] Drobnič B., Oman J., Tuma O., A numerical model for the analyses of heat transfer and leakages in a rotary air preheater, International Journal of Heat and Mass Transfer 49/2006 [2] Shah Ramesh K., Sekulic Dušan P., Fundamentals of heat exchanger design, John Wiley & Sons Inc. New Jersey 2003 [3] Al-Ghamdi A. S., Analysis of air-to-air rotary energy wheels, Russ College of Engineering and Technology of Ohio University, Ohio 2006 [4] Simonson J. C., Heat and moisture transfer in energy wheels, Department of Mechanical Engineering, University of Saskatchewan, Saskatoon 1998 116 Kryterium doboru własności wytrzymałościowych połączeń profili cienkościennych obciąŜonych udarowo Paweł Kaczyński1 Streszczenie: W pracy skupiono się na analizie moŜliwości zastosowania połączeń przetłaczanych (ang. clinching) do łączenia profili cienkościennych, rozpatrując przy tym aspekty wytrzymałości połączenia oraz jego wpływ na energochłonność konstrukcji. Pod rozwagę poddano moŜliwość utworzenia modelu zastępczego połączenia przetłaczanego, którego wykorzystanie na etapie budowy modelu dyskretnego gwarantowałoby jego uproszczenie i skrócenie czasu analizy numerycznej, zachowując przy tym zgodność wyników z rzeczywistym doświadczeniem. Słowa kluczowe: MES, profile cienkościenne, obciąŜenia udarowe 1. Wprowadzenie Elementy cienkościenne są najczęściej stosowanymi elementami konstrukcyjnymi w ustrojach nośnych pojazdów samochodowych, ale takŜe w innych dziedzinach przemysłu. Zgrzewanie punktowe jest, z powodu jego wieloletniego zastosowania i ciągłego rozwoju, nadal najszerzej rozpowszechnioną technologią łączenia cienkościennych elementów z blach i kształtowników. Technologia ta, mimo wielu zalet takich jak łatwość automatyzacji, stwarza wiele trudności technologicznych. NajwaŜniejsze spośród nich to: - problem przy łączeniu materiałów z pokryciami ochronnymi metalicznymi oraz z powłokami niemetalicznymi takimi jak pokrycia ceramiczne wykazujące duŜą oporność elektryczną, - stosowanie materiałów róŜnoimiennych na elementy konstrukcyjne, - oddziaływanie termiczne na łączone materiały, powodujące rozrost ziaren w strefie wpływu ciepła i pogorszenie własności mechanicznych. Jest ono szczególnie niekorzystne przy nowoczesnych stalach o wysokiej granicy plastyczności typu HSS (High Strength Steel) oraz AHSS (Advanced High Strength Steel). 1 Politechnika Wrocławska, WybrzeŜe Wyspiańskiego 27, [email protected] 117 Istnieje wiele innych przesłanek za wykorzystaniem metod łączenia innych niŜ zgrzewanie. W przemyśle samochodowym najwaŜniejszą spośród nich jest stale rosnący udział stali o podwyŜszonej wytrzymałości i stali superwytrzymałych (rys. 1). Rys. 1. Stale stosowane w przemyśle samochodowym Udział tego rodzaju materiałów w budowie ustrojów nośnych pojazdów wynosił w Polsce w 1991 roku około 10%, w roku 1998 wzrósł do 30%, zaś w 2002 roku osiągnął poziom 65% [4]. Ich zastosowanie pozwala na redukcję grubości stosowanych profili przy jednoczesnym zachowaniu dotychczasowych własności wytrzymałościowych. Zabieg ten umoŜliwia redukcję masy własnej pojazdu, co pozwala na zmniejszenie zuŜycia paliwa. 2. Łączenie za pomocą przetłaczania Z powodu ograniczeń dotychczas stosowanych połączeń technologowie zmuszeni są do poszukiwania alternatywnych metod łączenia materiałów jak np. przetłaczanie (ang. clinching). Metoda ta polega na mechanicznym odkształceniu dwóch blach przy uŜyciu stempla i matrycy jak pokazano na rys 2. Rys. 2. Proces tworzenia połączeń przetłaczanych Mimo wielu niewątpliwych zalet jak niskie koszty narzędzi, stosunkowo niskie siły łączenia, korzystny wygląd połączenia i moŜliwość 118 automatyzacji procesu oraz braku wad połączeń zgrzewanych (pogarszanie własności mechanicznych w strefie wpływu ciepła), technika ta nie jest dokładnie zbadana. Zgrzeiny punktowe nie wykazują, podczas badań elementów energochłonnych na młocie spadowym, skłonności do niszczenia, a profile połączone za pomocą tej metody nie ulegają wyboczeniu. Tendencję tą potwierdził w pracy [2] dr Kopczyński. W przypadku połączeń klinczowych naleŜy rozwaŜyć moŜliwość rozdzielenia złącza i zastanowić się nad przyczynami tego zjawiska. W literaturze zagranicznej istnieje szereg prac poświęconych temu zagadnieniu [1, 5]. W pracy [3] dr Polak doszedł do wniosku, Ŝe główną przyczyną rozwarstwiania się klinczowanych elementów cienkościennych moŜe być niewystarczająca wytrzymałość złącz. 4. Wykorzystanie metod numerycznych Ze względu na czasochłonność badań połączeń naleŜy rozwaŜyć wykorzystanie metod numerycznych do przeprowadzenia wirtualnych badań na modelach matematycznych. Jak wcześniej wspomniano, materiał połączony za pomocą połączeń klinczowych moŜe podczas dynamicznego zgniatania ulec rozerwaniu. NaleŜy opracować model połączenia, uwzględniający to zjawisko. PoniewaŜ złącze moŜe zostać zniszczone na dwa sposoby (rys. 2), tj. przez ścięcie i rozłączenie model matematyczny połączenia powinien umoŜliwić wprowadzenie sił w dwóch róŜnych kierunkach powodujących jego niszczenie. Opracowany model pozwoli na skrócenie czasu modelowania i obliczeń oraz wykonanie wielu crash-testów. Wynikiem obliczeń będzie uzyskanie minimalnych wartości sił jakie musi przenieść połączenie, aby cała próbka podczas obciąŜenia udarowego symulującego zderzenie samochodu z przeszkodą zgniotła się w sposób poprawny, bez globalnego wyboczenia. a) b) Rys. 2. Testy złącz przetłaczanych; a) test krzyŜowy b) test na ścinanie Uniwersalność opisanego algorytmu polega na tym, iŜ do wstępnych obliczeń nie jest potrzebna wiedza o technologii wykonania połączenia (połączenia zgrzewane, klejone przetłaczane narzędziami okrągłymi i prostokątnymi). Dobranie technologii wykonania złącza jest kolejnym 119 etapem. Polega on na wyborze kształtu złącza, średnicy stempla i matrycy oraz głębokości przetłoczenia. Kryterium doboru tych parametrów jest przeniesienie przez złącze obliczonych uprzednio sił. 5. Wnioski Utworzony model matematyczny ma za zadanie uprościć modelowanie połączeń profili cienkościennych. Pozwoli on ponadto na skrócenie czasu potrzebnego na wykonanie analizy numerycznej, a w konsekwencji na przeprowadzenie znacznie większej ilości eksperymentów niŜ w przypadku tradycyjnego eksperymentu. Wyniki uzyskane na drodze rzeczywistego eksperymentu i analizy numerycznej powinny być ze sobą skonfrontowane w celu wykluczenia błędu grubego w modelu matematycznym złącza. W przypadku uzyskania zgodności, świadczącej o poprawnie utworzonym modelu złącza, moŜna przystąpić do analizy uzyskanych wyników. Opracowany model pozwoli na wielokrotnie szybsze wykonywanie analizy bez konieczności przeprowadzania rzeczywistego eksperymentu i wnioskowanie na podstawie jej wyników. Literatura [1] M. Carboni, S. Beretta, M. Monno, Fatigue behaviour of tensile-shear loaded clinched joints, Engineering Fracture Mechanics Volume 73 Issue 2 January 2006 p. 178-190 [2] A. Kopczyński, Model pochłaniania energii przez profile cienkościenne połączone zgrzeinami punktowymi, Politechnika Wrocławska, Wydział Mechaniczny, Instytut Konstrukcji i Eksploatacji Maszyn, praca doktorska [3] S. Polak, Zastosowanie metod przetłaczania do łączenia profili cienkościennych absorbujących energię podczas zderzenia, Politechnika Wrocławska, Wydział Mechanicznych, Instytut Technologii Maszyn i Automatyzacji, praca doktorska [4] A. Ulewski, Analiza doboru parametrów geometrycznych I technologii połączenia cienkościennych profile podłuŜnic w samochodach osobowych, Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, Wrocław 2006 [5] J. P. Varis, The suitability of clinching as a joining method for high-strength structural steel, Journal of Materials Processing Technology, Volume 132 Issue 1-3 January 2003 p. 242-249 120 MoŜliwość zastosowania ultrafiltracji do separacji barwników organicznych z roztworów wodnych Joanna Kawiecka-Skowron1, Katarzyna Majewska-Nowak2 Streszczenie: Zbadane zostały separacyjne właściwości ceramicznych membran ultrafiltracyjnych w stosunku do barwników organicznych o róŜnych masach cząsteczkowych. Określono wpływ wartości ciśnienia transmembranowego na skuteczność usuwania barwnika oraz na wielkość uzyskiwanego strumienia permeatu. Najlepsze efekty oczyszczania uzyskano dla barwnika o największej masie cząsteczkowej stosując najniŜsze ciśnienie transmembranowe.. Słowa kluczowe: barwniki organiczne, ultrafiltracja, membrany ceramiczne 1. Wprowadzenie Barwniki są to związki chemiczne posiadające zdolność intensywnej absorpcji promieniowania elektromagnetycznego w obszarze widzialnym, bliskiego nadfioletu oraz bliskiej podczerwieni. Znajdują one zastosowanie do nadawania tej własności innym substancjom. Wykorzystuje się je do barwienia między innymi włókien naturalnych, włókien chemicznych, tworzyw sztucznych, Ŝywności, papieru, skóry [2]. Zabarwienie nadane materiałom jest odporne na działanie czynników zewnętrznych, takich jak podwyŜszona temperatura, promieniowanie słoneczne, substancje chemiczne. Ścieki zawierające barwniki są wytwarzane przez róŜne gałęzie przemysłu (m.in. farbiarski, poligraficzny, włókienniczy, papierniczy, spoŜywczy, fotograficzny). Odprowadzanie ich od odbiornika powoduje zmianę barwy wody, co pogarsza nie tylko jego cechy wizualne, ale takŜe niekorzystnie wpływa na przepuszczalność światła, a w efekcie na zdolność samooczyszczania się wód odbiornika. Barwniki naleŜą do substancji trudnobiodegradowalnych, wpływają one bardzo niekorzystnie na florę i faunę odbiornika [4]. Badania wykazały, iŜ barwniki toksycznie oddziaływają na bakterie ściekowe. Poza tym niektóre barwniki powodują śnięcie ryb [5] a barwniki anilinowe, nawet w małych stęŜeniach, akumulują się w organizmach ryb i mogą zabarwiać ich mięso [4]. 1 Instytut InŜynierii Ochrony Środowiska Politechniki Wrocławskiej, [email protected] 2 Instytut InŜynierii Ochrony Środowiska Politechniki Wrocławskiej, [email protected] 121 Do konwencjonalnych metod oczyszczania ścieków zawierających barwniki naleŜą: chemiczne strącanie, utlenianie, adsorpcja na węglu aktywnym oraz metody biologiczne. Procesy te stosowane do oczyszczania ścieków barwnych posiadają wiele wad. Jest to spowodowane przede wszystkim przez zróŜnicowanie składu tych ścieków, które prócz barwników mogą zawierać sole, kwasy, zasady, substancje powierzchniowo czynne, środki klejące czy środki zwilŜające [6]. Obecność tych substancji znacznie obniŜa skuteczność konwencjonalnych metod oczyszczania ścieków, a takŜe zwiększa konieczne dawki reagentów oraz wymagane czasy kontaktu. Z powodu licznych ograniczeń konwencjonalnych metod oczyszczania ścieków pochodzących z przemysłu barwników, coraz więcej uwagi poświęca się metodom membranowym. Procesy te polegają na separacji określonych składników dzięki zastosowaniu bariery w postaci membrany, przez którą transport zachodzi przy zastosowaniu odpowiedniej siły napędowej (róŜnica stęŜeń, ciśnień, potencjałów lub temperatury po obu stronach membrany). Do oczyszczania ścieków barwnych wykorzystywane są najczęściej procesy, których siłę napędową stanowi róŜnica ciśnień po obu stronach membrany. Badania [1, 3, 6] nad moŜliwością zastosowania procesu odwróconej osmozy do usuwania barwników wykazują, iŜ proces ten jest bardzo skuteczny w stosunku do wszystkich barwników. ZauwaŜana jest duŜa korelacja pomiędzy stosowanym ciśnieniem transmembranowym oraz skutecznością procesu. W związku z duŜym ciśnieniem wymaganym w procesie odwróconej osmozy, bardziej atrakcyjnym procesem wydaje się być proces nanofitracji, który wymaga nieco mniejszej róŜnicy ciśnień po obu stronach membrany. Przeprowadzone badania [8, 9] wykazują, iŜ równieŜ nanofiltracja moŜe być z duŜą skutecznością stosowana do usuwania substancji barwnych ze ścieków. Wysokociśnieniowe procesy membranowe są niewątpliwie bardzo atrakcyjną metodą separacji barwników z roztworów wodnych. Jednak wymagane w nich wysokie wartości ciśnienia transmembranowego, powodują wysokie koszty energii. W związku z tym celowe jest podjęcie badań nad moŜliwością zastosowania równieŜ niskociśnieniowych procesów membranowych do barwników z roztworów wodnych. 2. Metodyka i materiały badawcze W badaniach wykorzystano membranę ceramiczną firmy CeRAM INSIDE (Tami) o granicznej rozdzielczości (cut-off) 15 kDa. Do badań uŜyto siedmiu barwników o róŜnej masie cząsteczkowej. StęŜenie barwników w roztworze modelowym wynosiło 100g/m3. Właściwości barwników przedstawiono w tabeli 1. 122 Nazwa barwnika OranŜ metylowy Czerwień indygo Czerń amidowa śółcień tytanowa Zieleń bezpośrednia Błękit helionowy Czerń bezpośrednia λmax nm 465 610 618 399 370 Masa cząsteczkowa Da 327 466 616 695 878 C14H14N3O3SNa C16H8N2Na2O8S2 C22H14N6Na2O9S2 C28H19N5Na2O6S4 C36H32N8Na2O12S2 577 480 980 1060 C42H21N7Na4O13S4 C34H25N9O7S2Na2 Wzór sumaryczny Tabela 1 Charakterystyka barwników StęŜenie barwników w badanych roztworach określano na podstawie pomiaru absorbancji przy danej, określonej dla kaŜdego barwnika, długości fali (λmax) odpowiadającej maksymalnej absorbancji. W oznaczeniach wykorzystywano spektrofotometr UVMINI-1240 firmy Shimadzu. 3. Przebieg badań Badania właściwości transportowych i separacyjnych membran prowadzono na instalacji ProFlux M12. Wykorzystano membranę ceramiczną jednokanałową o długości 0,25 m i powierzchni 0,0042 m2. Średnica wewnętrzna kanału wynosiła 6 mm natomiast średnica zewnętrzna 10 mm. W celu utrzymania stałego stęŜenia roztworu zasilającego zastosowano recyrkulację permeatu do zbiornika zasilającego. Proces ultrafiltracji przeprowadzono w zakresie ciśnień transmembranowych 0,03-0,09 MPa. KaŜda seria badań była poprzedzona wpracowaniem membrany. Właściwości transportowe oraz separacyjne membrany badano w stosunku do roztworów barwników. Do oceny właściwości transportowych oraz separacyjnych membrany wykorzystywano następujące parametry: - strumień objętościowy permeatu (Jv, m3/m2d), określony zaleŜnością Jv = V A⋅t w której: - V – objętość permeatu [m3], - A – powierzchnia membrany [m2], - t – czas pomiaru [d]. 123 (1) - skuteczność usuwania barwnika (R, %),określona zaleŜnością R= C 0 − C1 ⋅ 100% C0 (2) w której: - C0 – stęŜenie barwnika w roztworze zasilającym [g/m3], - C1 – stęŜenie barwnika w permeacie [g/m3]. 4. Dyskusja wyników J, m 3/m 2d Wyniki otrzymane podczas badań ultrafiltracji roztworów barwników organicznych przedstawiono na rysunku 1. 0,5 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 ORANś METYLOWY CZERWIEŃ INDYGO CZERŃ AMIDOWA śÓŁCIEŃ TYTANOWA ZIELEŃ BEZPOŚREDNIA BŁĘKIT HELIONOWY CZERŃ BEZPOŚREDNIA 0,03 0,06 0,09 CIŚNIENIE TRANSMEMBRANOWE, MPa 100 R, % 80 ORANś METYLOWY 60 CZERWIEŃ INDYGO 40 CZERŃ AMIDOWA śÓŁCIEŃ TYTANOWA 20 ZIELEŃ BEZPOŚREDNIA 0 BŁĘKIT HELIONOWY 0,03 0,06 0,09 CZERŃ BEZPOŚREDNIA CIŚNIENIE TRANSMEMBRANOWE, MPa Rysunek 1. Wpływ wysokości ciśnienia transmembranowego na: a) skuteczność usuwania barwnika; b) strumień objętościowy permeatu 124 Najlepsze właściwości separacyjne membrany zaobserwowano stosując najmniejszą róŜnicę ciśnień po obu stronach membrany, przy czym wpływ masy barwnika na skuteczność jego usuwania jest znaczny. Najlepiej usuwane były barwniki o największej masie cząsteczkowej, których cząsteczki są duŜe, w związku z czym mniejsza ich ilość przedostaje się przez pory w membranie. Z największą skutecznością przy kaŜdym ciśnieniu transmembranowym separowana była czerń bezpośrednia. Obserwowano niewielkie wahania skuteczności separacji tego barwnika, która w kaŜdym przypadku wynosiła około 99%. Natomiast najmniejszą skuteczność procesu obserwowano w stosunku do roztworu oranŜu metylowego. W przypadku tego barwnika róŜnice w skuteczności procesu w zaleŜności od ciśnienia transmembranowego były znaczne i wynosiły nawet 10%. Największy strumień filtratu otrzymywano stosując najwyŜsze ciśnienie transmembranowe, poniewaŜ większa róŜnica ciśnień wymusza ruch większej ilości cieczy przez membranę. Największą ilość permeatu otrzymano w procesie oczyszczania roztworu oranŜu metylowego, poniewaŜ najmniejszy barwnik przechodzi przez pory membrany z największą łatwością. Bardzo dobre efekty transportowe i separacyjne membrany obserwowano podczas oczyszczania roztworu Ŝółcieni tytanowej. Skuteczność separacji tego barwnika wynosiła w granicach 99%, a ilość permeatu przekraczała 0,4 m3/m2d. 5. Podsumowanie Skuteczność usuwania barwnika w procesie ultrafiltracji zaleŜy w duŜym stopniu od jego masy cząsteczkowej. Barwniki o większej masie usuwane są ze znacznie większą skutecznością. Właściwości transportowe membrany takŜe w duŜym stopniu zaleŜą od masy cząsteczkowej barwnika. Barwniki o mniejszej masie łatwiej przechodzą przez membranę dając większe ilości permeatu o gorszej jakości. Barwniki o większych masach cząsteczkowych (takie jak czerń bezpośrednia i Ŝółcień tytanowa) zostały usunięte w niemal 100% niezaleŜnie od ciśnienia transmembranowego. Literatura [1] Al-Baski Nader, Removal of methyl orange dye and Na2SO4 salt from syntetic waste water using reverse osmosis, Chemical Engineering and Processing 43 (2004) 1561-1567, [2] Gronowska J., Podstawy fizykochemii barwników, Wydawnictwo Uniwersytetu Mikołaja Kopernika, Toruń 1997, 125 [3] Kim T., Park C., Kim S., Water recycling from desalination and purification process of reactive dye manufacturing industry by combined membrane filtration, Journal of Cleaner Production 13 (2005) 779-786, [4] Koziorowski B., Oczyszczanie ścieków przemysłowych, Wydawnictwo Naukowo-Techniczne, Warszawa 1975, [5] Meinck F., Stooff H., Kohlschütter H. Ścieki przemysłowe, Arkady, Warszawa 1975, [6] Sostar-Turk S., Simonic M., Petrinic I., Wastewater treatement after reactive printing, Dyes and Pigments 64 (2005) 147-152, [7] Sójka-Ledakowicz J., Gajdzicki B., Mochnowski W., śyłta R., Lewartowska J., Grzywacz K., Strzelecka-Jastrząb E.: „Charakterystyka technologiczna przemysłu włókienniczego w Unii Europejskiej”, Ministerstwo Środowiska, Warszawa 2003, [8] Sungpet A., Jiraratananon R., Luangsowan P., Treatment of effluents from textile-rinsing operations by thermally stable nanofiltration membranes, Desalination 160 (2004)75-81, [9] Van der Bruggen B., Daems B., Wilms D., Vandecasteele C., Mechanism of retention and flux decline for the nanofiltration of dye baths from the textile industry, Separation and Purification Technology 22-23 (2001) 519-528. 126 Usuwanie jonów bromianowych za pomocą dializy Donnana Sylwia Kliber1, Jacek Wiśniewski2 Streszczenie: Zbadano moŜliwość zastosowania procesu dializy Donnana z membraną anionowymienną Selemion AMV do usuwania jonów bromianowych z roztworów wodnych. Stwierdzono, Ŝe wraz ze wzrostem stęŜenia soli w roztworze odbierającym wzrasta skuteczność usuwania bromianów oraz anionów towarzyszących (NO3-, HCO3-). Słowa kluczowe: wymiana anionów, membrana, bromiany 1. Wstęp Ozon jest silnym utleniaczem i dezynfektantem stosowanym w procesach oczyszczania wody. Podczas procesu ozonowania następuje inaktywacja mikroorganizmów patogennych, utlenianie związków powodujących barwę, smak i zapach oraz utlenianie syntetycznych związków organicznych [8]. Ozon pozwala ograniczyć powstawanie związków halogenowych oraz powoduje inaktywację mikroorganizmów np. oocysty Cryptosporidium parvum, odpornych na działanie powszechnych dezynfektantów (chlor, dwutlenek chloru) [4, 5]. Jednak ozon powoduje takŜe powstawanie ubocznych produktów utleniania. Najbardziej charakterystycznym nieorganicznym produktem ozonowania są jony bromianowe (BrO3-) mające charakter kancerogenny i mutagenny. Bromiany powstają podczas ozonowania wody zawierającej w swym składzie jony bromkowe [2]. Ze względu na szkodliwe działanie bromianów, ich stęŜenie jest regulowane prawnie. Dyrektywa Rady Unii Europejskiej określiła stęŜenie dopuszczalne dla bromianów na poziomie 10 µg/dm3 [3]. Spośród kilku metod usuwania jonów bromianowych z wody, duŜo uwagi poświęca się adsorpcji na granulowanym węglu aktywnym [1, 7]. W procesie tym, grupy funkcyjne znajdujące się na powierzchni granulowanego węgla aktywnego powodują redukcję bromianów (BrO3-), przez jony podbrominowe (OBr-), do bromków (Br-). JednakŜe redukcja 1 Politechnika Wrocławska, Instytut InŜynierii Ochrony Środowiska, WybrzeŜe Wyspiańskiego 27, 50-370 Wrocław, [email protected] 2 Politechnika Wrocławska, Instytut InŜynierii Ochrony Środowiska, WybrzeŜe Wyspiańskiego 27, 50-370 Wrocław, [email protected] 127 bromianów (wynosząca początkowo ok. 60%) po około 2 miesiącach ulega obniŜeniu, natomiast po 3 miesiącach – całkowicie zanika. Efekt ten jest spowodowany stopniowym przejściem granulowanego węgla aktywnego w biologicznie aktywny węgiel, który z kolei jest pozbawiony grup funkcyjnych. Oznacza to, Ŝe biologicznie aktywny węgiel nie posiada predyspozycji do redukcji bromianów. Zbadano takŜe moŜliwość zastosowania innych procesów do usuwania bromianów z wody. Wykorzystanie promieniowania UV pozwoliło osiągnąć skuteczność usunięcia bromianów na poziomie 19% przy bardzo wysokiej dawce UV (ponad 10-krotnie większej niŜ dawka UV stosowana podczas dezynfekcji wody) [11]. Z kolei, w procesie koagulacji siarczanem glinu uzyskano 26% usunięcie bromianów z wody [12]. Bardzo dobre wyniki otrzymano przy zastosowaniu procesów membranowych [6]. Odwrócona osmoza pozwoliła usunąć bromiany w 96%, natomiast elektrodializa odwracalna na poziomie 64%, przy jednoczesnym odsoleniu oczyszczanej wody w wysokości 98%. W niniejszej pracy zbadano moŜliwość wykorzystania procesu dializy Donnana z membraną anionowymienną do usuwania bromianów z roztworów wodnych. Dializa Donnana jest bezprądową techniką membranową, która polega na wymianie jonów tego samego znaku pomiędzy dwoma roztworami rozdzielonymi membraną jonowymienną. Siłą napędową procesu jest gradient potencjałów chemicznych roztworów po obu stronach membrany. Membrana rozdziela dwa roztwory, róŜniące się zarówno składem jak i stęŜeniem: roztwór zasilający (czyli roztwór oczyszczany, zawierający jony które naleŜy usunąć) i roztwór odbierający (nazywany równieŜ koncentratem). Koncentrat jest zwykle roztworem prostej soli lub kwasu o relatywnie wysokim stęŜeniu – do 1 mol/ dm3. W procesie dializy Donnana z membraną anionowymienną, obecne w koncentracie aniony dyfundują do roztworu zasilającego w celu wyrównania stęŜeń. Dla zachowania elektroneutralności roztworów, zostaje wymuszony równowaŜny przepływ anionów w kierunku przeciwnym, z roztworu zasilającego do roztworu odbierającego. Proces wymiany jonów trwa tak długo aŜ ustali się pomiędzy roztworami równowaga donnanowska [13]. W ten sposób moŜna usunąć z wody zarówno aniony szkodliwe dla zdrowia człowieka (azotany) oraz aniony uciąŜliwe (wodorowęglany), które utrudniają proces odsalania wody [14]. 2. Metodyka Proces dializy Donnana prowadzono w laboratoryjnej instalacji do dializy Goemasep 136 wyposaŜonej w 20 par komór z membranami anionowymiennymi typu Selemion AMV. Całkowita powierzchnia 128 membran wynosiła 0,1404 m2. Badaniom poddano roztwory wieloskładnikowe (jako roztwory zasilające), które zawierały następujące składniki: NaNO3, NaHCO3, NaCl o stęŜeniu 3 mM kaŜdy oraz NaBrO3 o stęŜeniu 200 µg/dm3. Roztworem odbierającym był roztwór NaCl o stęŜeniu 50, 100, 200 lub 300 mM. Stosunek objętości roztworu zasilającego i odbierającego wynosił 10 dm3 : 2,5 dm3. Proces dializy Donnana prowadzano z recyrkulacją obu roztworów (tzw. batch system) do momentu ustalenia się stęŜenia równowagowego jonów BrO3- w roztworze zasilającym. W trakcie procesu mierzono stęŜenie anionów w roztworze zasilającym. StęŜenie azotanów badano za pomocą spektrofotometru DREL 2000. StęŜenie chlorków i wodorowęglanów określano poprzez miareczkowanie, odpowiednio, roztworem AgNO3 lub roztworem HCl. Natomiast stęŜenie bromianów mierzono przy uŜyciu spektrofotometru UV mini 1240 (Shimadzu), stosując jodek 3,3’– dimetylonaftydyny [9]. 3. Wyniki badań i dyskusja Rys. 1 przedstawia skuteczność usuwania anionów (bromianów, azotanów i wodorowęglanów) z roztworu zasilającego. skuteczność usuwania anionu, % 100 90 80 70 60 50 40 30 20 10 0 bromiany azotany wodorowęglany Rys. 1. Skuteczność usuwania bromianów, azotanów i wodorowęglanów z wieloskładnikowego roztworu zasilającego (CNaCl = 200 mM) MoŜna zaobserwować, Ŝe najskuteczniej usuwane są azotany (85,6%), usunięcie bromianów jest mniej skuteczne (75,5%), natomiast z najmniejszą skutecznością usuwane są wodorowęglany (73,3%). Przyczyną tego efektu są róŜnice w rozmiarze jonów: promień zhydratyzowanego jonu NO3wynosi 0,335 nm, promień jonu BrO3- – 0,353 nm, natomiast promień jonu 129 HCO3- jest największy spośród badanych i przekracza 0,394 nm [10]. Oznacza to, Ŝe azotany, jako jony najmniejsze, usuwane są z najwyŜszą skutecznością, natomiast wodorowęglany, jako jony największe, usuwane są najmniej efektywnie. Istotne znaczenie na przebieg procesu ma równieŜ szybkość transportu jonów przez membranę (rys. 2). 250 3,5 3,0 200 150 2,0 1,5 100 NO 3-, HCO 3-, mM BrO 3-, µg/dm 3 2,5 1,0 50 0,5 0 0,0 0 0,5 1 1,5 2 2,5 3 czas, h BrO3- NO3- HCO3- Rys. 2. Spadek stęŜenia bromianów, azotanów i wodorowęglanów w wieloskładnikowym roztworze zasilającym (CNaCl = 200 mM) Wyraźnie widać, iŜ jony NO3- usuwane są najszybciej z roztworu zasilającego do roztworu odbierającego. Średni strumień tych jonów do osiągnięcia stęŜenia równowagowego wynosi 0,072 mol/m2·h. Azotany jako jony najmniejsze są transportowane przez membranę najszybciej, jednocześnie z wysoką skutecznością. Wolniej usuwane są z roztworu zasilającego wodorowęglany – ich średni strumień do ustalenia się stęŜenia równowagowego wynosi 0,055 mol/m2·h, co naleŜy wiązać z relatywnie duŜym rozmiarem jonu. Natomiast najwolniej przenoszone są przez membranę jony bromianowe – średni strumień jonów BrO3- do stanu równowagi wynosi 0,036·10-3 mol/m2·h. Przyczyną jest stosunkowo niskie stęŜenie początkowe bromianów w roztworze zasilającym w porównaniu ze stęŜeniami początkowymi pozostałych jonów (NO3-, HCO3-). Pomimo, iŜ bromiany charakteryzują się mniejszym rozmiarem niŜ wodorowęglany, są przenoszone przez membranę zdecydowanie wolniej ze względu na ich stęŜenie początkowe, które jest o 3 rzędy wielkości mniejsze w porównaniu ze stęŜeniem azotanów i wodorowęglanów. Zatem udział jonów 130 skuteczność usuwania BrO 3, % bromianowych w całkowitym strumieniu anionów transportowanych przez membranę z roztworu zasilającego do roztworu odbierającego (tj. koncentratu) jest niewielki. Rys. 3, 4 i 5 przedstawiają wpływ stęŜenia soli (NaCl) w roztworze odbierającym (koncentracie) na skuteczność usuwania, odpowiednio azotanów, bromianów i wodorowęglanów z roztworu zasilającego. 100 90 80 70 60 50 40 30 20 10 0 50 mM 100 mM 200 mM 300 mM stęŜenie NaCl w koncentracie Rys. 3. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania bromianów z roztworu zasilającego skuteczność usuwania NO 3, % 100 90 80 70 60 50 40 30 20 10 0 50 mM 100 mM 200 mM 300 mM stęŜenie NaCl w koncentracie Rys. 4. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania azotanów z roztworu zasilającego 131 skuteczność usuwania HCO 3, % 100 90 80 70 60 50 40 30 20 10 0 50 mM 100 mM 200 mM 300 mM stęŜenie NaCl w koncentracie Rys. 5. Wpływ stęŜenia NaCl w koncentracie na skuteczność usuwania wodorowęglanów z roztworu zasilającego Analizując przedstawione dane moŜna zauwaŜyć, Ŝe wraz ze wzrostem stęŜenia soli w koncentracie (czyli wzrostem stęŜenia jonów Cl-), wzrasta skuteczność usuwania wszystkich anionów. Przyczyną tego zjawiska jest wyŜszy gradient stęŜeń jonów napędowych (tj. jonów Cl-) i wynikający stąd wyŜszy strumień jonów chlorkowych z roztworu odbierającego do roztworu zasilającego. W efekcie, w celu zachowania elektroneutralności roztworów, wymuszony zostaje relatywnie wysoki strumień usuwanych jonów w kierunku przeciwnym, z roztworu zasilającego do koncentratu. NaleŜy zaznaczyć, Ŝe wysoki gradient stęŜeń jonów chlorkowych powoduje przepływ bromianów, azotanów i wodorowęglanów do roztworu odbierającego przeciwko rosnącemu, podczas trwania procesu, gradientowi stęŜeń. W wyniku zachodzącej podczas procesu wymiany anionów, istotnej zmianie ulega skład jonowy roztworu surowego (rys. 6). Po dializie Donnana udział molowy jonów chlorkowych zwiększa się z 33,3 do 87,6 %. Natomiast zmniejszeniu ulega udział molowy azotanów – z 33,3 do 7,6 %, wodorowęglanów – z 33,3 do 4,8 % i bromianów – z 0,02 do 0,005 %. 132 0,02 0,005 4,8 7,6 100% 33,3 udział molowy, % 80% 60% 33,3 87,6 40% 33,3 20% 0% roztwór surowy chlorki roztwór po dializie Donnana azotany wodorowęglany bromiany Rys. 6. Skład jonowy roztworu surowego oraz roztworu po procesie dializy Donnana (CNaCl = 200 mM) 4. Wnioski • • Proces dializy Donnana z membraną anionowymienną Selemion AMV pozwala obniŜyć stęŜenie szkodliwych anionów (azotanów i bromianów), a takŜe anionów uciąŜliwych ze względu na odsalanie (wodorowęglanów), zastępując je jonami neutralnymi (tj. chlorkami). Szybkość i skuteczność usuwania anionów z roztworu zasilającego zaleŜy od rozmiaru i stęŜenia początkowego jonu oraz stęŜenia soli w koncentracie. StęŜenie soli w roztworze odbierającym ma istotny wpływ na skuteczność usuwania anionów z roztworu zasilającego. Wraz ze wzrostem stęŜenia soli w koncentracie, wzrasta skuteczność usuwania anionów z wody. Przy stęŜeniu soli w koncentracie równym 200 mM NaCl uzyskano 75,5% usunięcie bromianów, 85,6% usunięcie azotanów i 73,3% usunięcie wodorowęglanów. PodwyŜszenie soli w roztworze odbierającym do 300 mM pozwala na całkowite usunięcie bromianów, 89.% usunięcie azotanów i 83,3.% usunięcie wodorowęglanów. 133 Literatura [1] M. Asami, T. Aizawa, T. Morioka, W. Nishijma, A. Tabata, Y. Magara. Bromate removal during transition from new granular activated carbon (GAC) to biological activated carbon (BAC). Water Research 1999, vol. 33, pp. 2797-2804. [2] T.P. Bonacquisti. A drinking water utility’s perspective on bromide, bromate and ozonation. Toxicology 2006, vol. 221, pp. 145-148. [3] Dyrektywa Rady 98/83/WE z dnia 3 listopada 1998r. W sprawie jakości wody przeznaczonej do spoŜycia przez ludzi. [4] A. Gierak, R. Leboda. Analiza azotanów i bromianów powstających podczas dezynfekcji wody ozonem. Ochrona Środowiska 1999. [5] U. von Gunten. Ozonation of drinking water: Part II. Disinfection and by-product formation in presence of bromide, iodide or chlorine. Water research 2003, vol. 37, pp. 1469-1487. [6] J.P. van der Hoek, D.O. Rijnbende, C.J.A. Lokin, P.A.C. Bonne, M.T. Loonen, J.A.M.H. Hofman. Electrodialysis as an alternative for reverse osmosis in an integrated membrane system. Desalination 1998, vol. 117, pp. 159-172. [7] W.J. Huang, Y.L. Cheng. Effect of characteristics of activated carbon on removal of bromate. Separation Purification Technology 2008, vol. 59, pp. 101-107. [8] A. Kowal, M. Świderska-BróŜ. Oczyszczanie wody. Wydawnictwo Naukowe PWN, Warszawa-Wrocław 1998. [9] Merck applications: Bromate in water and drinking water. Photometric determination with 3,3’-Dimethylnaftidin and iodine. [10] E.R. Nighitingale. Phenomenological theory of ion solvation. Effective radii of hydrated ions. J. Phys. Chem. 1959, vol. 63, pp. 1381-1387. [11] S. Peldszus, S.A. Andrews, R. Souza, F. Smith, I. Douglas, J. Bolton, P.M. Huck. Effect of medium-pressure UV irradiation on bromate concentrations in drinking water, a pilot-scale study. Water Research 2004, vol. 38, pp. 211-217. [12] H. Selcuk, Y. Vitosoglu, S. Ozaydin, M. Bekbolet. Optimization of ozone an coagulation processes for bromate control in Istanbul drinking waters. Desalination 2005, vol. 176, pp. 211-217. [13] J. Wiśniewski. Ion exchange by means of Donnan dialysis as a pretreatment process before elektrodialysis. Environment Protection Engineering 2006. [14] J. Wiśniewski, A. RóŜańska. Donnan dialysis with anion-exchange membranes as a pretreatment step before electrodialytic desalination. Desalination 2006, vol. 191, pp. 210-218. 134 Problemy przenoszenia energii w układach mikrohydrauliki. Grzegorz Łomotowski 1 Streszczenie: Referat poświęcono dość innowacyjnej dziedzinie techniki jaką jest mikrohydraulika. Skoncentrowano się na zminiaturyzowanych elementach oraz układach hydraulicznych mogących przenosić nierzadko bardzo duże gęstości mocy. W referacie wskazano różnice między klasyczną, a zmniaturyzowaną hydrauliką siłową i wynikające z tego nowe problemy badawcze. Podano także przykłady zastosowań mikrohydrauliki. Słowa kluczowe: mikrohydraulika, miniaturyzacja hydrauliki siłowej, gęstość mocy 1. Wprowadzenie Szybki rozwój elektroniki i mikromechaniki dał nowe możliwości do rozwoju mikrohydrauliki. Elektronika sterując mikroelementami mechanicznymi, może nadawać płynącemu medium wymagane parametry. Układy mikrohydrauliczne można podzielić ze względu na pełnioną funkcję na dwie grupy. Do pierwszej zaliczyć można układy, w których płynąca ciecz wykorzystana jest do wykonania pracy mechanicznej. Układy te mają zastosowanie w napędach i sterowaniu małych maszyn, urządzeń lub przyrządów. Ciśnienia w tych układach dochodzą nawet do 40MPa. Drugą grupę stanowią układy, w których celem samym w sobie jest jedynie nadanie określonych parametrów cieczy – ciśnienia lub przepływu. Przykładowym zastosowaniem tego typu układów jest precyzyjne dozowanie płynów. Można tu podać takie przykłady jak dozowanie atramentu w drukarce atramentowej, dozowanie leków (bezinwazyjne zastrzyki z użyciem mikroigieł wprowadzających lek nie do żył lecz do naczyń włosowatych), dozowanie substancji do reakcji chemicznych, dozowanie paliwa. Ciśnienia w tych układach przeważnie bliskie są atmosferycznemu. Funkcje te warunkują wymiary elementów mikrohydraulicznych. W pierwszym przypadku wymiary nominalne elementów nie są przeważnie mniejsze od jednego milimetra. Układy te są także nazywane hydrauliką zminiaturyzowaną. W drugim przypadku wymiary elementów są zwykle w skali mikrometrów, a nawet mniejszych. Niniejszy referat obejmuje tylko pierwszą grupę mikrohydrauliki. 1 Instytut Konstrukcji i Eksploatacji Maszyn I-16 Politechnika Wrocławska, 50-371 Wrocław, ul. I. Łukasiewicza 7/9, e-mail: [email protected] 135 2. Miniaturyzacja hydrauliki siłowej Przepływająca ciecz idealnie nadaje się do przenoszenia energii i ma szerokie zastosowanie w układach napędowych. Napęd hydrauliczny możemy podzielić na napęd hydrostatyczny oraz napęd hydrokinetyczny w zależności od tego czy kluczową rolę w przenoszeniu energii odgrywa ciśnienie, czy prędkość płynącej cieczy. Niniejszy referat będzie się odnosił tylko do napędów hydrostatycznych. Ten rodzaj napędu doskonale nadaje się do wykonywania pracy, szczególnie jeśli przenoszone siły są duże. Chodzi tutaj nie tylko o pracę wykonywaną w wyniku ruchu obrotowego, ale przede wszystkim o pracę wykonywaną ruchem postępowo zwrotnym. Napęd hydrostatyczny cieszy się bardzo dużym powodzeniem w maszynach roboczych ciężkich (np. koparki, ładowarki) oraz w maszynach przemysłowych (np. prasy hydrauliczne). Napęd hydrostatyczny ma wiele zalet takich jak: łatwość automatyzacji, duża dokładność pozycjonowania elementów wykonawczych, łatwość zabezpieczenia przed przeciążeniem, możliwość eliminacji hamulców mechanicznych, czy też możliwość użycia elastycznych przewodów hydraulicznych i dowolnego rozmieszczania elementów hydraulicznych w przestrzeni. Jednak największą zaletą napędu hydrostatycznego jest możliwość uzyskiwania wyjątkowo dużej gęstości strumienia przekazywanej mocy, to znaczy małej masy na jednostkę generowanej lub przenoszonej mocy. Przykładowo gęstość mocy dla pomp i silników hydrostatycznych może dochodzić nawet do 10kW/kg, podczas gdy gęstość mocy przeciętnych silników elektrycznych wynosi od 0,1 do 0,15 kg/kW, [8]. Obecnie obserwujemy powszechny trend miniaturyzacji. Chociaż najbardziej wyraźny był on ostatnio w dziedzinie jaką jest elektronika, to możemy zaobserwować go także w mechanice. Warto tu zauważyć, że układy hydrostatyczne cechujące się wysoką gęstością mocy pasują idealnie do trendu miniaturyzacji. Mogą one przenosić duże ilości energii posiadając zwartą, małogabarytową oraz lekką budowę, w czym mają przewagę nad napędami elektromechanicznymi i pneumatycznymi. Ponadto mała masa elementów wpływa na małą bezwładność tych elementów. Wiąże się to z możliwością szybkiego rozwijania oraz zmiany prędkości odbiornika hydraulicznego, jakim jest siłownik lub silnik. Układy hydrostatyczne mają tym większą gęstość przenoszonej energii im wyższe są ciśnienia robocze. Podejmując temat przenoszonej energii nie sposób nie poruszyć tematu sprawności. Należy pamiętać, że napęd hydrostatyczny korzysta z zewnętrznego źródła energii jakim może by silnik elektryczny lub spalinowy. Z tego względu sprawność układu hydrostatycznego powinna być jak największa. Moc jest iloczynem ciśnienia i natężenia przepływu, 136 dlatego też straty energii możemy podzielić na hydrauliczne dotyczące spadku ciśnienia w wyniku oporów przepływu oraz objętościowe dotyczące zmniejszenia przepływu w wyniku przecieków. Straty hydrauliczne zależą w dużym stopniu od liczby Reynoldsa (1). We wzorze tym v jest prędkością cieczy, d jest charakterystycznym wymiarem liniowym, a ν jest lepkością kinematyczną cieczy. Re = vd (1) ν Jeżeli liczba Reynoldsa jest mniejsza od krytycznej wtedy przepływ jest laminarny, a jeśli jest większa wtedy przepływ jest burzliwy. Krytyczna liczba Reynoldsa zależna jest przede wszystkim od kształtu elementu przez który przepływa ciecz. Baczniej przyglądając się wzorowi (1) można zauważyć, że przy miniaturyzacji elementów należy liczyć się ze spadkiem liczby Reynoldsa. Jeżeli więc w skali makro będzie występował gdzieś w układzie przepływ turbulentny to po pomniejszeniu tego układu zachodzi ryzyko wystąpienia przepływu laminarnego. W klasycznej hydraulice zakłada się z dużą poprawnością, że w przewodach występuje przepływ laminarny, który można opisać wzorem Hagena- Poiseuille’a (2). We wzorze tym ∆p jest spadkiem ciśnienia na przewodzie, µ jest lepkością dynamiczną, l jest długością przewodu, Q przepływem, d średnicą przewodu. ∆p = 128µQl πd 4 (2) Tak więc można przyjąć, że przy obliczeniach strat w mikroprzewodach należy korzystać tych samych zależności co w przewodach w klasycznej hydraulice, gdyż w obu przypadkach występują przepływy laminarne. Nieco inaczej przedstawia się problem miejscowych oporów przepływu. W elementach hydraulicznych oraz wszelkiego rodzaju kolankach zwężkach, zmianach przekroju itp. zakłada się z dużą poprawnością, że liczby Reynoldsa są większe od krytycznej, tak więc występuje przepływ burzliwy elementów określony wzorem (3). We wzorze tym v jest średnią prędkością przepływu cieczy, ρ jest gęstością cieczy, a ξ jest stałym współczynnikiem zależnym jedynie od kształtu elementu przez który przepływa ciecz. ∆p = ξ ρ 2 v2 (3) Po miniaturyzacji w elementach hydraulicznych może wystąpić więc przepływ laminarny, co wiąże się z innym podejściem do projektowania układu hydraulicznego. W elementach zależności związane z przepływem 137 laminarnym są z inżynierskiego punku widzenia nieco bardziej skomplikowane niż zależności związane z przepływem turbulentnym. Współczynnik ξ nie jest wtedy stały, ale jest funkcją liczby Reynoldsa – różną dla różnych kształtów elementów. Analiza strat objętościowych jest dosyć skomplikowanym zagadnieniem. Aby sprawności objętościowe w skali makro i mikro były takie same, przecieki przy bardzo małych przepływach powinny mieć taką samą względną procentową wartość jak przy przepływach obecnych w tradycyjnej hydraulice. Wartości luzów między ruchomymi elementami powinny więc zmniejszać się proporcjonalnie wraz ze zmniejszaniem wszystkich pozostałych wymiarów geometrycznych, przy jednoczesnym zapewnieniu tych samych oporów tarcia oraz stabilności pracy ruchomych elementów. Wiąże się to z koniecznością zapewnienia bardzo dużej dokładności wykonania, co przy użyciu tradycyjnych technik wytwarzania może być niemożliwe. Dlatego też koniecznym może być wykorzystanie innych materiałów konstrukcyjnych oraz użycie innych technologii wykonania niż przy klasycznej hydraulice. Elementy hydrauliczne są bardzo wrażliwe na zanieczyszczenia czynnika roboczego, dostające się do cieczy roboczej z zewnątrz lub w wyniku ściernego zużycia się jego ruchowych elementów. Nietrudno zauważyć, że przy miniaturyzacji układów hydraulicznych filtracja musi być dużo dokładniejsza. Cząstki zanieczyszczeń, których znaczenie jest pomijalne w klasycznej hydraulice, mogą zaburzać w wyraźny sposób pracę układu i powodować szybkie zużycie się elementów. Należy liczyć się także z niebezpieczeństwem zjawiska obliteracji, czyli stopniowego zamykania się drogi przepływu, w wyniku osadzania się cząstek zanieczyszczeń. Opracowanie nowoczesnego systemu filtracji przeznaczonego dla mikroukładów hydraulicznych jest ciekawym polem do badań naukowych. Powyższe porównanie mikrohydrauliki z hydrauliką klasyczną bazowane są na twierdzeniu, że w skali mikro będą zachodzić zjawiska takie same jak w skali makro. Należy jednak liczyć się z występowaniem szeregu zjawisk pomijalnych w klasycznej hydraulice a które mogą mieć decydujący wpływ na zachowanie się układu mikrohydraulicznego. Z tego względu próba miniaturyzacji układów hydraulicznych może napotkać wiele problemów. Mimo tych obaw niezaprzeczalnym staje się fakt, że mikrohydraulika jest dziedziną dającą wiele nowych możliwości nieobecnych w klasycznej hydraulice. Pierwszym takim obszarem w mikrohydraulice, gdzie można wprowadzać innowacyjne technologie jest sterowanie mikrozaworami. W klasycznej hydraulice najpopularniejsze obecnie jest sterowanie elektryczne, w którym prąd podawany na elektromagnes lub silnik momentowy zamieniany jest na sygnał mechaniczny siły lub przesunięcia, 138 który z kolei przetwarzany jest na sygnał hydrauliczny jakim jest ciśnienie, bądź natężenie przepływu. Zawory można podzielić na zawory jednostopniowe oraz dwustopniowe. W tych pierwszych sygnał mechaniczny jest zamieniany bezpośrednio na sygnał hydrauliczny o znacznie większej mocy. W drugich natomiast sygnał mechaniczny zamieniany jest na sygnał hydrauliczny małej mocy w pierwszym stopniu (zwanym pilotem), a dopiero w drugim stopniu następuje wzmocnienie sygnału hydraulicznego. Rozsądnym wydaje się, że mikrozawory jednostopniowe oraz stopień główny mikrozaworów dwustopniowych mogą mieć jeszcze klasyczną konstrukcję. Mają one wymiary takie same bądź niewiele mniejsze niż wymiary elementów stopnia wstępnego w klasycznej hydraulice. Różnią się ona natomiast ich przeznaczeniem. Pilot ma za zadanie jedynie doprowadzenie cieczy o odpowiednich parametrach do drugiego stopnia zaworu, a mikrozawór hydrauliczny odpowiada za sterowanie całym układem mikrohydraulicznym. Dlatego też mikrozawory oparte na konstrukcjach takich jak piloty klasycznej hydrauliki powinny zostać dokładnie przebadane. Natomiast stopień wstępny mikrozaworów dwustopniowych może stanowić doskonałe pole do wprowadzania nowoczesnych konstrukcji i rozwiązań. Zamiast klasycznych elektromagnesów i silników momentowych można zastosować najróżniejsze obecnie bardzo dynamicznie rozwijane mikroprzetworniki elektromechaniczne wykorzystujące zjawiska piezoelektryczne, elektromagnetyczne, elektrostatyczne, elektrotermopneumatyczne, termicznie, magnetostrykcyjne itp. Ponadto jeżeli w pierwszym stopniu mikrozaworu obecne są małe ciśnienia można zastosować specjalne konstrukcje z elastyczną membraną, która ma szereg zalet takich jak duża szczelność oraz mała masa, co wpływa na szybkość działania zaworu. Więcej informacji o niekonwencjonalnych sposobach sterowania elementów mikrohydraulicznych znajduje się w źródłach [2, 6, 7]. Ciekawym zagadnieniem może być praca nad rodzajem czynnika roboczego. Powinien być on traktowany jako kluczowy element układu mikrohydraulicznego, gdyż właśnie on odpowiada za przenoszoną moc. Idealne medium robocze to takie, które miałoby małą ściśliwość (większa jest wtedy dokładność pozycjonowania), optymalną lepkość (im mniejsza lepkość tym mniejsze opory przepływu, ale mogą wystąpić większe przecieki), dobre własności smarne, dużą przewodność cieplną oraz wysokie ciepło właściwe. W mikrohydraulice cieczy jest mniej niż w hydraulice klasycznej, tak więc może być droższa. Ponadto należy zwrócić uwagę na to, że jeśli ciecz ma mieć zastosowania w mikroukładach hydraulicznych stosowanych w medycynie musi ona spełniać dodatkowy warunek: nieszkodliwości medium dla człowieka. 139 W samych konstrukcjach elementów oraz układów mikrohydraulicznych również można stosować niekonwencjonalne rozwiązania niemożliwe do użycia w klasycznej hydraulice. Jako przykład zostanie przedstawiony zintegrowany układ mikrohydrauliczny wykorzystywany w narzędziach ręcznych takich jak kombinerki, czy też narzędzia służące do przecinania materiałów. Kombinerki, w których użyto tego właśnie układu przedstawiono na rysunku 1. Rys. 1. Kombinerki zasilane jedynie energią ludzkiej dłoni, w których wykorzystano innowacyjny mikroukład hydrostatyczny; [13] Kombinerki zasilane są jedynie energią pochodzącą z ludzkiej dłoni i nie mają żadnego zewnętrznego źródła zasilania. Zintegrowany układ mikrohydrauliczny znajdujący się wewnątrz kombinerek składa się z pompy tłokowej, akumulatora – pełniącego także funkcję zbiornika cieczy, cylindra oraz specjalnych zaworów typu FastFlow. Układ ten nie zawiera w ogóle przewodów hydraulicznych. Zawory typu FastFlow są innowacyjnymi zaworami składającymi się z ruchomego uszczelnienia, mającymi bardzo mała masę. Zapewniają one doskonałą szczelność w kierunku zaporowym i minimalne straty hydrauliczne w kierunku przepływu, poprzez utworzenie dużej powierzchni przepływowej. Mogą być stosowane jako zaworu zwrotne lub przelewowe. Mikroukład pracuje w trzech trybach. Zmiany trybów realizowane są w sposób automatyczny w zależności od siły obciążającej cylinder – w tym wypadku siły działającej na kombinerki. Tryb pierwszy jest wtedy kiedy kombinerki nie są obciążone. Wtedy następuje szybkie zaciśnięcie się szczęk. Gdy siła na kombinerkach przekroczy pewną wartość, wtedy szczęki zaciskają się wolniej, a wartość siły jaką zadaje człowiek jest zgodna z pewnym z góry ustawionym przełożeniem. Gdy siła na kombinerkach przekroczy kolejną wartość graniczną, wtedy następuje bardzo silne wzmocnienie siły zadawanej przez człowieka. Na kombinerkach można wtedy uzyskać siłę dochodzącą nawet do jednej tony – oczywiście kosztem niewielkiego przemieszczenia szczęk kombinerek. Wartości sił, które powodują przejście między poszczególnymi trybami mogą być nastawiane przez użytkownika. Warto zwrócić uwagę, że wszystkie trzy tryby są ważne. Na przykład odpowiednie ustawienie siły i przemieszczenia w drugim trybie ma kluczowe znaczenie w narzędziach 140 przecinających, gdyż potrzebna jest odpowiednie odkształcenie przecinanego materiału. Opisywany mikroukład hydrauliczny cechuje się bardzo wysoką sprawnością – dużo wyższą niż ta w klasycznej hydraulice. Straty hydrauliczne są niewielkie, gdyż brak jest przewodów, a zawory pracują z duża powierzchnią przepływu. Straty objętościowe są również niewielkie, gdyż element zamykający zawór jest jednocześnie uszczelnieniem. Warto zauważyć na jeszcze jedną ważną zaletę mikrohydrauliki. Wiele układów mikrohydraulicznych oraz mikrohydraulicznych elementów wykonawczych może być zasilane ze wspólnego źródła. Źródło to może być mikrozasilaczem hydraulicznym, ale może też być klasycznym zasilaczem jeżeli w maszynie obecna jest już klasyczna hydraulika. Zastosowania mikroukładów hydraulicznych są bardzo szerokie. Jedno z nich zostało już wymienione. Są to narzędzia ręczne – do cięcia, zgniatania, wkręcania, łączenia itp. Oczywiście mogą one być zasilane nie tylko energią z ludzkiej dłoni, ale także energią elektryczną. Kolejnym zastosowaniem są wszelkiego rodzaju maszyny technologiczne szczególnie przemysłu lekkiego (włókienniczy, tekstylny, tworzyw sztucznych) oraz zautomatyzowane linie montażowe oraz produkcyjne. Nie sposób również nie wymienić zastosowań mikrohydrauliki w manipulatorach lub robotach zarówno przemysłowych jak i tych o innym przeznaczeniu. Mikrohydraulika spełnia wszystkie wymagania jakimi są: mała masa, możliwość przeniesienia dużych sił, łatwość sterowania ruchem oraz dużą dokładność ruchu. Jako przykład zastosowania mikrohydrauliki w robotyce można podać stworzenie sztucznej dłoni bazującej na dłoni ludzkiej wykorzystującej jedynie napęd hydrostatyczny [4]. Następnym obszarem zastosowań mikroukładów hydraulicznych jest lotnictwo i astronautyka. Mikrohydraulika ma tutaj ogromną przewagę nad innymi napędami, gdyż oczywiste jest, że każde zmniejszenie masy oraz zajmowanej przestrzeni ma ogromne znaczenie. Mikrohydraulika może mieć także zastosowanie w jednostkach pływających, małych maszynach roboczych, czy też pojazdach samochodowych. Elementy mikrohydrauliczne mogą być wykorzystane zarówno w układach związanych bezpośrednio z napędem samochodu, jak i w urządzeniach poprawiających komfort lub bezpieczeństwo jazdy oraz w urządzeniach pomocniczych dla osób niepełnosprawnych. Kolejnym ważnym polem zastosowań mikroukładów hydrostatycznych jest inżynieria i technika medyczna. Można tu wymienić zastosowania mikrohydrauliki do napędów stołów operacyjnych i rentgenowskich, foteli dentystycznych itp. 141 3. Podsumowanie Mikrohydraulika może stanowić doskonałe narzędzie do przenoszenia dużych mocy przy zachowaniu małych wymiarów oraz masy, co idealnie wpasowuje się do obecnego trendu miniaturyzacji. Mikrohydraulika nie ma jeszcze niestety tak rozwiniętej i szeroko dostępnej metodologii projektowania układów jak klasyczna hydraulika siłowa. Z tego względu jest doskonałym obiektem do badań naukowych. Mikrohydraulika w odróżnieniu od klasycznej hydrauliki ma bardziej interdyscyplinarny charakter. Aby jej rozwój mógł być dynamiczny musi ona korzystać z innych dziedzin techniki, takich jak mechatronika, nowoczesne materiałoznawstwo, nowoczesne techniki wytwarzania, czy też chemia. Literatura [1] Dindorf R., Łaski P., Wołkow J.: Technika napędu i sterowania mikroelementów płynowych. CYLINDER'2000" Szczyrk 2000 [2] Dindorf R., Wołkow J.: Mikroprzetworniki w układach płynowych. Hydraulika i Pneumatyka nr 3/2001 [3] Dindorf R., Wołkow J.: Mikroukładu płynowe. Mikrohydraulika. CYLINDER'99 Zakopane 1999 [4] Kargov A., Asfour T., Pylatiuk C., Oberle R., Klosek H., Schulz S., Regenstein K., Bretthauer G., Dillmann R.: Development of an Anthropomorphic Hand for a Mobile Assistive Robot. IEEE 9th International Conference on Rehabilitation Robotics: Frontiers of the Human-Machine Interface. Chicago USA 2005 [5] Kollek W., Palczak E.: Zastosowanie mikrohydrauliki w maszynach i urządzeniach. Napędy i Sterowanie nr 6/1999 oraz 7/1999 [6] Skrzyniarz S., Jędrzykiewicz Z.: Zastosowanie pomp w technologii MEMS. Hydraulika i Pneumatyka nr 6/2007 [7] Skrzyniarz S., Jędrzykiewicz Z.: Zastosowanie zaworów w technologii MEMS. Hydraulika i Pneumatyka nr 1/2008 [8] Stryczek S.: Napęd hydrostatyczny tom I i II Warszawa 2003 [9] Tupper M. McPheterson B.: LatchTool PowerCylinder: fluid power in the palm of your hand… Technical paper – Latchtool Group [10] http://www.hoerbiger.com/Micro-Fluid.937.0.html?&L=1 [11] http://www.hydroleduc.com/site/en_index.php [12] http://www.theleeco.com [13] http://www.latchtool.com [14] http://www.theleeco.com 142 Oszacowanie stałej Lipschitza dla Jakobianu robota mobilnego typu monocykl Łukasz Małek1 Streszczenie: W pracy podj˛eto analiz˛e własności matematycznych modelu kinematyki dwukołowego robota mobilnego typu monocykl. Wykorzystujac ˛ pochodna˛ Gâteaux oszacowano stała˛ Lipschitza Jakobianu tego robota. Uzyskano wynik w postaci afinicznej, zależnej od normy sterowania tego układu. Słowa kluczowe: Jakobian, stała Lipschitza, monocykl, planowanie ruchu 1. Wst˛ep Jednym z kluczowych problemów zwiazanych ˛ z algorytmami planowania ruchu [3, 4] dla robotów mobilnych jest obszar, w którym istnieje gwarancja, że algorytmy te wygeneruja˛ właściwe rozwiazanie. ˛ Obszar ten nazywany jest obszarem zbieżności. W przypadku Jakobianowych algorytmów planowania ruchu [8] wyznaczenie tego obszaru może odbywać si˛e na dwa sposoby. Po pierwsze można próbować wykazać, że algorytm jest zbieżny globalnie, poprzez wykazanie istnienia lokalnego rozwiazania ˛ a nast˛epnie poprzez znalezienie afinicznego oszacowania normy Jakobianu wzgl˛edem normy sterowań, sprawdzenia, że rozwiazanie ˛ to można przedłużyć na cała˛ przestrzeń [7]. Chcac ˛ wykazać istnienie lokalnego rozwiazania ˛ można posłużyć si˛e twierdzeniem Picarda-Lindelöfa [1], do którego zastosowania konieczne jest wykazanie spełnienia warunku Lipschitza przez Jakobian. Alternatywnym podejściem jest próba wyznaczenia obszaru zbieżności w oparciu o twierdzenie Kantorovicha [5]. Jednym z warunków koniecznych do zastosowania tego twierdzenia jest wykazanie spełnienia warunku Lipschitza przez pochodna˛ funkcji, dla której to twierdzenia ma być stosowane. W przypadku algorytmów Jakobianowych pochodna˛ funkcji wyst˛epujac ˛ w twierdzeniu jest właśnie Jakobian. Spełnienie warunku Lipschitza jest wi˛ec jednym z istotnych problemów wia˛żacych ˛ si˛e z tematyka˛ istnienia rozwiazania ˛ algorytmów planowania ruchu dla robotów mobilnych. W niniejszej pracy przedstawiono oszacowanie stałej Lipschitza dla Jakobianu robota mobilnego typu monocykl. Praca składa si˛e z nast˛epujacych ˛ cz˛eści. Pierwsza˛ z nich stanowi opis metodyki użytej do wyznaczenia stałej. Dalej podejście to zostało zastosowane dla przypadku algorytmu typu 1 Instytut Informatyki, Automatyki i Robotyki, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, [email protected] 143 monocykl i doprowadziło do wyznaczenia szukanej stałej. W ostatniej cz˛eści znajduje si˛e podsumowanie niniejszej pracy. 2. Idea Celem pracy jest wykazanie istnienia oszacowania k(J(x) − J(y))vk ≤ ωkvkL2 kx − ykL2 (1) dla Jakobianu robota typu monocykl. Aby udowodnić ta˛ nierówność załóżmy, że Jakobian jest funkcja˛ różniczkowalna˛ wzgl˛edem sterowania. W takim wypadku skorzystamy z twierdzenia o wartości średniej w przestrzeniach Hilberta [2] które mówi, że istnieje takie sterowanie s ∈ [0, 1], że dla u = sx + (1 − s)y, zachodzi k(J(x) − J(y))vk ≤ kDJ(u)vkk(x − y)k gdzie DJ(u) oznacza pochodna˛ Gâteaux Jakobianu d J(u + αv)w, DJ(u)vw = dα α=0 (2) (3) a norma operatorowa zdefiniowana jest w sposób nast˛epujacy ˛ kDJ(u)vwk . kwk kwk6=0 kDJ(u)vk = sup (4) Naszym celem jest wi˛ec wykazanie, że dla u określonego powyżej istnieje niepusty podzbiór przestrzeni sterowań, dla którego zachodzi warunek kDJ(u)vk ≤ Lkvk (5) ze stała˛ L > 0. 3. Monocykl Na poczatek ˛ rozpatrzmy robot mobilny o dwóch kołach nap˛edowych (Rys. 1). Taka konstrukcja nazywana jest monocyklem, a jej kinematyk˛e opisuje poniższe równanie q̇ = G(q(t))u(t), które w tym przypadku ma postać q̇1 = u1 cos q3 q̇2 = u1 sin q3 (6) q̇ = u . 3 2 Linearyzujac ˛ kinematyk˛e wzdłuż trajektorii otrzymujemy równanie ξ˙ = A(t)ξ + B(t)u(t) 144 Rys. 1. Schemat platformy mobilnej typu monocykl gdzie macierze A(t) oraz B(t) dane sa˛ zależnościami 0 0 −u1 (t) sin q3 (t) ∂(G(q(t))u(t)) = 0 0 u1 (t) cos q3 (t) , A(t) = ∂q 0 0 0 cos q3 (t) 0 B(t) = G(q(t)) = sin q3 (t) 0 . 0 1 (7) Znajac ˛ kinematyk˛e robota możemy przejść do jej pochodnej czyli do jakobianu. W przypadku robotów mobilnych określony jest on zależnościa˛ Z T J(u)w = Φu (T, t)Bu (t)w(t)dt (8) 0 gdzie w rozważanym przypadku macierz Cauchy’ego ma postać RT 1 0 − t u1 sin q3 ds RT Φ(T, t) = 0 1 u1 cos q3 ds . t 0 0 1 (9) Majac ˛ postać jakobianu analitycznego monocykla możemy przejść do post˛epowania opisanego wcześniej. Zaczynamy od wyliczenia pochodnej Gâteaux Jakobaianu. Z T d DJ(u)vw = Φu+αv (T, t)Bu+αv (t)w(t)dt dα α=0 0 R Z T cos q3 (t) − T (u1 + αv1 )(s) sin q3 (s)ds Rt d sin q3 (t) = (u1 + αv1 )(s) cos q3 (s)ds w(t)dt. dα α=0 0 0 1 145 Uwzgl˛edniajac ˛ fakt, że Z q3 (t) = t u2 (s)ds + q3 (0) 0 obliczamy pochodna˛ Gâteaux funkcji q3 (t) Z t Z t d (u2 + αv2 )(s)ds + q3 (0) = v2 (s)ds. Dq3 (t)v = dα α=0 0 0 Zatem pochodna jakobianu monocykla ma postać Z T DJ(u)vw = P (u(·), v(·), t)w(t) dt, 0 gdzie P (u(·), v(·), t) = Rt " − sin q3 (t) 0 v2 (τ )τ Rt cos q3 (t) 0 v2 (τ )dτ 0 # Rs RT − t v1 (s) sin q3 (s) + u1 (s) cos q3 (s) 0 v2 (τ )dτ ds RT Rs v1 (s) cos q3 (s) − u1 (s) sin q3 (s) 0 v2 (τ )dτ ds . t 0 Nast˛epnie wykorzystujac ˛ znane z analizy funkcjionalnej fakty otrzymujemy Z T kP (u(·), v(·), t)kkw(t)kdt. kDJ(u)vwk ≤ 0 Zauważamy dalej, że dla normy macierzowej zachodzi nast˛epujaca ˛ nierówność sX X kP (u(·), v(·), t)k = |Pi,j (u(·), v(·), t)|2 ≤ |Pi,j (u(·), v(·), t)|. i,j i,j Wobec tego oszacowanie sumy modułów poszczególnych pól macierzy P (t) Z T |P1,1 (u(·), v(·), t)| ≤ |v2 (s)|ds ≤ kvkL1 0 Z T |P2,1 (u(·), v(·), t)| ≤ |v2 (s)|ds ≤ kvkL1 0 Z T Z T Z T |P1,2 (u(·), v(·), t)| ≤ |v1 (s)|ds + |u1 (s)|ds |v2 (s)|ds 0 0 0 ≤ kvkL1 + ku1 kL1 kvkL1 Z T Z T Z |P2,2 (u(·), v(·), t)| ≤ |v1 (s)|ds + |u1 (s)|ds 0 0 ≤ kvkL1 + ku1 kL1 kvkL1 |P2,3 (u(·), v(·), t)| = 0, |P1,3 (u(·), v(·), t)| = 0. 146 0 T |v2 (s)|ds Otrzymujemy stad, ˛ że kP (u(·), v(·), t)k ≤ 4kvkL1 + 2ku1 kL1 kvkL1 = kvkL1 (4 + 2ku1 kL1 ). Dalej z nierówności Hölder [6] dla funkcji określonych na docinku [0, T ] zachodzi nast˛epujaca ˛ zależność pomi˛edzy normami √ kvkL1 ≤ T kvkL2 , co prowadzi do √ kDJ(u)vwk ≤ T kwkL2 kvkL2 (4 + 2 T ku1 kL2 ). Stad ˛ otrzymujemy, że √ kDJ(u)vwk ≤ T kvkL2 (4 + 2 T ku1 kL2 ). kwk kwk6=0 kDJ(u)vk = sup Ostatecznie, jeśli założmy, że ku1 kL2 ≤ Cu to otrzymujemy żadane ˛ oszacowanie k(J(x) − J(y))vk ≤ LkvkL2 kx − ykL2 , √ ze stała L = T (4 + 2 T Cu ). 4. Podsumowanie W niniejszej pracy wykazaliśmy, istnienie oszacowania stałej Lipschitza dla Jakobianu robota mobilnego typu monocykl. Uzyskane oszacowanie jest zależne od normy sterowania u1 (·), które jest uzyskiwane z parametryzacji odcinkowej dla sterowań x oraz y. Wynik ten może być wykorzystany przy wykazywaniu lokalnego istnienia rozwiazania ˛ Jakobianowego algorytmu planowania ruchu badź ˛ też do wykazania obszaru zbieżności Jakobianowego algorytmu planowania ruchu w oparciu o twierdzenie Kantorovicha. Literatura [1] R. Abraham, J. E. Marsden, R. Ratiu, Manifolds, tensor analysis, and applications: 2nd edition, Springer-Verlag, New York, 1988 [2] D. Behmardi, E. D. Nayeri, Introduction of Frechet and Gateaux derivative, Appl. Math. Sci., 2(20), 975–980 [3] J. Latombe, Robot Motion Planning, Kluwer, Boston, 1993 [4] S. LaValle, Planing Algorithms, Cambridge University Press, Cambridge, 2006 147 [5] L. Rall, A note on the convergence of Newton’s method, SIAM J. Numer. Anal., 11(1), 34–36, 1974 [6] W. Rudin, Functional Analysis, McGraw-Hill Science, 1991 [7] H. Sussmann, A continuation method for nonholomic path-finding problems, 32nd CDC, 91–125, IEEE, San Antonio, 1993 [8] K. Tchoń, J. Jakubiak, Endogenous configuration space approach to mobile manipulators: a derivation and performance assessment of Jacobian inverse kinematics algorithms, Int. J. Control, 76(14), 1387–1419, 2003 148 Badania pośredniej chłodnicy wyparnej Joanna Paduchowska1 Streszczenie: Przedmiotem opracowania jest pośrednia chłodnica wyparna mogąca mieć zastosowanie w technice klimatyzacyjnej. W pracy omówiono sposób badań pośredniej chłodnicy wyparnej zbudowanej na bazie wymiennika płytowego powietrze – powietrze, w którym jedna strona zraszana jest wodą. Słowa kluczowe: pośrednie chłodzenie wyparne, wymiennik rekuperacyjny. 1. Wprowadzenie Większość systemów chłodzenia wykorzystuje wodę jako czynnik chłodzący, ponieważ to medium pozwala na zwarte systemy chłodzenia i jest powszechnie prawie wszędzie dostępne. Drugim również ogólnodostępnym czynnikiem, który również bywa wybierany na nieskończenie duże źródło energii współpracujące z obiegiem termodynamicznym jest powietrze. Najbardziej korzystne termodynamicznie i ekonomicznie jest zastosowanie obu tych czynników jednocześnie. Doprowadzenie do kontaktu powietrza z wodą powoduje odparowanie wody do powietrza. W wyniku tego procesu następuje odprowadzenie przez powietrze odparowującej wody, oraz w znacznie mniejszym stopniu ciepła jawnego, wnikającego od powierzchni wody do strumienia powietrza. Wyżej opisany proces, w którym wykorzystuje się ciepło parowania wody nazywa się chłodzeniem wyparnym i jest stosowane w technice klimatyzacyjnej. Wyparne chłodzenie powietrza jest tańsze eksploatacyjnie od ochładzania go w sprężarkowych urządzeniach ziębniczych, co jest jego główną zaletą. Podstawowymi wadami tego sposobu chłodzenia powietrza są[1]: zależność od parametrów powietrza zewnętrznego, mniejsze schłodzenie powietrza niż w sprężarkowych, brak możliwości osuszania powietrza. 1 urządzeniach Instytut Klimatyzacji i Ogrzewnictwa Wydziału Inżynierii Środowiska Politechniki Wrocławskiej, Wybrzeże Wyspiańskiego 27, 50-370 Wrocław; [email protected] 149 Chłodzenie wyparne powietrza, w zależności od konfiguracji urządzenia można podzielić na [1]: bezpośrednie, związane z adiabatycznym ochładzaniem powietrza przy jego kontakcie z wodą. Jest to sposób najbardziej rozpowszechniony i stosowany w tych dziedzinach przemysłu, gdzie wymaga się lub dopuszcza do utrzymania wysokiego poziomu zawartości wilgoci w powietrzu pomieszczenia wentylowanego. pośrednie, z wykorzystaniem wymiennika ciepła, gdzie w procesie biorą udział dwa strumienie powietrza: oziębiany i nawilżany, pośrednio- bezpośrednie: mieszane, w którym skutek schłodzenia powietrza jest większy niż dwóch poprzednich. Nieuniknione jest jednak nawilżenie powietrza przed doprowadzeniem go do pomieszczenia. 2. Stanowisko doświadczalne Badania procesu ochładzania powietrza przeprowadzono na stanowiskach badawczych, których schematy pokazano na rysunkach 1 i 2. Na rysunku 1 pokazano schemat stanowiska pomiarowego w układzie współprądowego przepływu powietrza i wody, a na rysunku 2 w układzie przeciwprądowego przepływu tych czynników. Przez urządzenie powietrze zewnętrzne transportowane jest za pomocą wentylatora (5). Powietrze najpierw wpływa do suchej przestrzeni wymiennika (1) skąd wstępnie ochłodzone przepływa do części mokrej, gdzie dochodzi do jego bezpośredniego kontaktu z kroplami wody rozpylanej za pomocą rozpylacza (2). Doprowadzenie do bezpośredniego kontaktu powietrza z wodą powoduje odparowanie wody do powietrza. W wyniku tego procesu następuje odprowadzenie przez powietrze ciepła utajonego z nawilżającej je wody kosztem energii cieplnej z obu czynników. Dalej woda z wanny ociekowej jest podawana do rozpylacza (2) za pomocą pompy (6), przez rotametr (12). W trakcie badań zmieniano objętościowy strumień przepływającej wody, zraszającej wymiennik poprzez zastosowanie rozpylaczy ślimakowych o różnych średnicach otworu wylotowego. Wynikało to z tego, że przy niższych ciśnieniach kąt stożka rozpylanej wody malał, więc nie była zraszana cała powierzchnia wymiennika. Przepływ powietrza zaś zmieniano za pomocą przepustnicy wielopłaszczyznowej(3). 150 Rys. 1. Schemat stanowiska pomiarowego dla przepływu współprądowego powietrza i wody Rys. 2. Schemat stanowiska pomiarowego dla przepływu przeciwprądowego powietrza i wody 1-zraszany wymiennik płytowy, 2- rozpylacz, 3-odkraplasz,4-wanna wody obiegowej,5wentylator,6-pompa wody obiegowej,7-kryza pomiarowa,8-mikromanometr,9-termometr suchy, 10-termometr mokry,11-manometr tarczowy,12-rotametr,13-przepustnica wielopłaszczyznowa 151 Badane urządzenie składa się z pięciu podstawowych elementów: wymiennika płytowego (1) zbudowanego z pakietu płyt poliwęglanowych, układanych na przemian prostopadle karbami wzmacniającymi, umieszczonego w metalowej obudowie. Fragment płyty poliwęglanowej w przekroju pokazano na rys.3. rozpylacza wody (2) z przepływem zawirowanym, który w przekroju pokazano na rys.4. W elemencie zawirowującym jest nawiercony centrycznie otwór o średnicy d mniejszej niż otwór w korpusie dyszy (1) D. Wytwarza on pełny stożek kropel wody o kącie rozwarcia około 90o,jedna dysza zatem zapewnia zraszanie wodą całej powierzchni badanego wymiennika. Rys. 3. Profil płyty poliwęglanowej Rys. 4.Rozpylacz wody odkraplacza (3); pompy wody obiegowej (5) firmy Wilo o mocy 480W; wanny wody obiegowej (4). Objętościowy strumień przepływającej wody, zraszającej wymiennik, zmieniano przez zastosowanie rozpylaczy ślimakowych o różnych średnicach otworu wylotowego. Woda z wanny ociekowej była podawana do rozpylacza za pomocą pompy (6). W trakcie badań mierzono następujące wielkości: 1. Objętościowy strumień powietrza za pomocą kryzy pomiarowej (7) o średnicy φ164 wykonanej zgodnie z PN-ISO 5221, zainstalowanej na odcinku pomiarowym ( spiętrzenie na kryzie zmierzono za pomocą mikromanometru (8) napełnionego alkoholem etylowym). 152 2. Pomiar natężenia przepływu wody za pomocą rotametru wyposażonego w stalowy pływak i wyskalowany (w l/h) dla wody o temperaturze 15°C. 3. Temperatury płynów za pomocą atestowanych termometrów rtęciowych (9) i (10) z podziałką co 0,1 °C. 4. Opory hydrauliczne po stronie suchej i mokrej wymiennika za pomocą mikromanometrów napełnionych alkoholem etylowym. 5. Ciśnienie wody przed dyszą za pomocą manometru tarczowego (11). 6. Wilgotność właściwą powietrza metodą psychrometryczną. 2.Badania pośredniej chłodnicy wyparnej zbudowanej na bazie wymiennika płytowego W chłodnicy rozpylona woda z rozpylacza z przepływem zawirowanym spływa w kanalikach wymiennika płytowego współprądowo lub przeciwprądowo w stosunku do absorbującego wilgoć powietrza. Podjęto próbę określenie wpływu sposobu doprowadzania wody do wymiennika płytowego na efektywność pracy pośredniej chłodnicy wyparnej. Ponieważ na efektywność pracy chłodnicy wpływa zarówno wydajność chłodnicza wymiennika jak i opory hydrauliczne przepływu powietrza przez ten wymiennik analizie poddano przede wszystkim te dwa czynniki. Opory przepływu odczytywano bezpośrednio w trakcie badań, a wydajność chłodniczą należało obliczyć. Przepływ wody przez wymiennik jak wykazały obserwacje nie ma charakteru filmu wodnego, lecz przebiega dwutorowo (rys.5): tm tw Rys. 5. Przepływu wody w kanałach powietrznych wymiennika płytowego 153 a) występuje spływ wody stróżkami w rogach kanałów powietrznych, b) okresowo wymieniających się praktycznie stałych kropel wody na płaskich powierzchniach kanałów W przypadku „a” jako temperaturę odniesienia do oceny sprawności chłodnicy wyparnej przyjęto średnią temperaturę wody, a w przypadku „b” temperaturę termometru mokrego. Uzyskane wyniki badań należy opracować tak, aby w sposób jednoznaczny wynikało czy lepszy jest układ współprądowy czy przeciwprądowy przepływu powietrza i wody po mokrej stronie wymiennika. W tym celu należy sprawdzić: bilans energii, gdyż jego zrównoważenie gwarantuje poprawność przeprowadzonych badań, sprawność zraszanego wymiennika płytowego w układzie współprądowego i przeciwprądowego przepływu powietrza i wody, opory przepływu powietrza po zraszanej stronie wymiennika płytowego w układzie współprądowego i przeciwprądowego przepływu powietrza i wody. Literatura [1] Bednarski J., Pośrednie chłodzenie wyparne w klimatyzacji, Wrocław Oficyna Wydaw. PWroc., 1999. 99 s. : 41 rys., 6 tab. 154 Zastosowanie symulacji numerycznych w analizie bezpieczeństwa biernego pieszego Mariusz Ptak1 Streszczenie: W artykule zaprezentowano aspekty bezpieczeństwa biernego pieszego oraz przedstawiono procedurę badawczą odzwierciedlającą zderzenie pojazdu z pieszym. Dzięki symulacjom numerycznym moŜliwe było stworzenie konstrukcji przedniego układu zabezpieczającego oraz jego weryfikację jeszcze na etapie projektowania. Słowa kluczowe: bezpieczeństwo pieszego, symulacje numeryczne 1. Wprowadzenie Bezpieczeństwo pieszych stanowi powaŜny problem natury społecznej. Na drogach Europy niemal 20% śmiertelnych wypadków [1] to niechronieni uczestnicy ruchu drogowego. Rozwijanie systemów bezpieczeństwa czynnego w pojazdach, jak równieŜ oddzielanie ruchu pieszych od dróg przyczynia się do poprawy tej sytuacji. Jednak nawet w najbardziej rozwiniętych krajach, gdzie infrastruktura drogowa nastawiona jest na bezpieczeństwo wszystkich uczestników dróg, wypadki z pieszymi w duŜych miastach i aglomeracjach stanowią nawet 70% wszystkich ofiar [2]. Często zaobserwować moŜna lekcewaŜenie pieszych, jako pełnoprawnych uczestników ruchu, szczególnie na przeznaczonych dla nich przejściach. Faktowi temu nie przeciwdziałają zaawansowane systemy bezpieczeństwa czynnego, poniewaŜ pomimo wsparcia techniki odpowiedzialność za podejmowane decyzje spoczywa na kierowcy. Z drugiej strony wina za wypadek często leŜy po stronie osoby niezmotoryzowanej, której pośpiech lub brak rozwagi moŜe mieć tragiczne skutki. Na początku lat 50. dwudziestego wieku nastąpił szybki rozwój technologii, która przyczyniała się do poprawy bezpieczeństwa osób w kabinie pojazdu. Udoskonalenie stref zgniotu, pasów bezpieczeństwa oraz poduszek powietrznych z pewnością jest uznawane za kamienienie milowe w motoryzacji, jednak w małym stopniu przyczyniło się do poprawy 1 Instytut Konstrukcji i Eksploatacji Maszyn, Politechnika Wrocławska; 50-371 Wrocław, ul. I. Łukasiewicza 7/9; e-mail: [email protected] 155 bezpieczeństwa pieszych. Konstruktorom wydawało się, Ŝe w starciu z kilkunastokrotnie cięŜszym i szybszym pojazdem niechroniony uczestnik ruchu musi odnieść powaŜne, jeśli nie śmiertelne obraŜenia. Dopiero wprowadzane regulacje wymusiły na rynku samochodów osobowych zmiany, których to ewolucję moŜna zaobserwować równieŜ dziś. Aspekty bezpieczeństwa pieszych, jak równieŜ obowiązujące trendy i zagadnienia aerodynamiczne zmieniły szczególnie część przednią pojazdów samochodowych. Stały się one bardziej opływowe, zderzaki pozbawione zostały ostrych krawędzi, które potencjalnie przyczyniały się do zwielokrotnienia obraŜeń przy zderzeniu. Nie spotyka się juŜ praktycznie zderzaków wykonanych ze stopów metali - zostały one zastąpione przez tworzywa sztuczne, wypełnione absorbującą energię zderzenia pianką. Co więcej, to właśnie bezpieczeństwo pieszych i odpowiednie, ujęte w ramy prawne przepisy, wymusiły wyeliminowanie symboli firmowych z przedniej części maski. Tworzone dziś modele samochodów pozbawione są charakterystycznych gwiazd, odlewów jaguarów czy rozpoznawalnych emblematów jak Spirit of Ecstasy, sygnujących osłonę chłodnicy RollsRoyce’a. Jeśli elementy takie pozostają, nie mogą zagraŜać pieszemu. Innymi słowy muszą chować się lub łamać pod działaniem niewielkiej siły. Analogię moŜna znaleźć w konstrukcji bocznych lusterek pojazdów, które powinny składać się juŜ przy słabym uderzeniu np. w pieszego. W celu ograniczenia ofiar wypadków wśród pieszych, powstały regulacje prawne odnoszące się do wprowadzanych na rynek Unii Europejskiej pojazdów. W związku z tym firmy motoryzacyjne testują swoją produkty juŜ na etapie projektowania, aby uniknąć ewentualnych, bardzo kosztowych zmian wyprodukowanych seryjnie konstrukcji. Obecnie symulacje numeryczne pomyślnie zastępują testy rzeczywiste, które ze względu na swój zniszczeniowy charakter są zazwyczaj droŜsze, trudniejsze do powtórzenia i dostarczają mniej danych. W artykule zaprezentowany został przebieg prac nad badaniem bezpieczeństwa pieszego podczas kolizji z pojazdem typu SUV (ang. Sport Utility Vehicle) wyposaŜonym w przedni układ zabezpieczający, popularnie nazywanym orurowaniem. 2. Opracowanie przedniego układu zabezpieczającego pieszego z wykorzystaniem symulacji numerycznych W celu opracowania układu zabezpieczającego zgodnego z regulaminem (EC) 78/2009 oraz dyrektywą 2005/66/EC przeprowadzono serie wirtualnych symulacji zderzenia pojazdu z pieszym przy prędkości 40 km/h. Kryteria optymalizacji nowej konstrukcji, które są jednocześnie maksymalnymi wartościami mierzonymi na poszczególnych częściach wirtualnego ciała ludzkiego, zamieszczone zostały w tab.1. 156 CZĘŚĆ CIAŁA Dolna część nogi Górna część nogi Głowa dziecka Głowa dorosłego KRYTERIUM BIOMECHANICZNE Ugięcie kolana Przemieszczenie ścinające stawu kolanowego Przyspieszenie piszczeli Suma działających sił Moment gnący Head Injury Criterion Head Injury Criterion LIMIT 21.0° 6.0 mm 200 g 5.0 kN 300 Nm 1000 1000 Tab. 1. Zestawienie granicznych wartości dla uderzenia pieszego w pojazd zgodnie z [3] Symulacje przeprowadzono przy uŜyciu wirtualnego modelu pojazdu, którego przednia część została wiernie odwzorowana przy uŜyciu inŜynierii odwrotnej (z ang. Reverse Engineering). Tzw. chmura punktów poddana została konwersacji na powierzchnie rozpoznawalne przez programy wspomagające projektowanie typu CAD (ang. Computer Aided Design). Następnie do modelu pojazdu dołączono przedni system zabezpieczający, którego parametryczna konstrukcja pozawalała wprowadzać konieczne zmiany. Niezbędnym etapem w tworzeniu symulacji numerycznej z wykorzystaniem MES (Metody Elementów Skończonych) jest naniesienie siatki elementów skończonych, zdefiniowanie właściwości i charakterystyk uŜytych materiałów oraz określenie warunków brzegowych [4]. W opisanym teście uŜyto certyfikowanych impaktorów, odzwierciedlających krytyczne dla zderzenia części ciała ludzkiego. Cały cykl modelowania przedstawiony został na rys. 1. Rys. 1. Cykl projektowania modelu do zderzenia z pieszym 157 W wyniku przeprowadzonych symulacji otrzymano optymalną, pod względem załoŜonych kryteriów biomechanicznych, montaŜu oraz wymagań prawnych, konstrukcję przedniego układu zabezpieczającego. Ze względu na zastosowanie w obliczeniach certyfikowanych numerycznych impaktorów, symulacja moŜe być podstawą do przyznania konstrukcji homologacji i wprowadzenia jej na rynek. 3. Podsumowanie Ochrona pieszych przed skutkami zderzenia, w odróŜnieniu od kwestii bezpieczeństwa pasaŜerów, była przez wiele lat pomijana przez konstruktorów pojazdów. Obecnie homologowane pojazdy nie powinny zagraŜać Ŝyciu pieszego przy uderzeniu z prędkością 40 km/h. Niewątpliwie zastosowanie konstrukcji absorbujących energię zderzenia w przedniej części pojazdu przyczyniło się do tego stanu. NaleŜy równieŜ zwrócić uwagę na znaczy wpływ symulacji numerycznych na poprawę bezpieczeństwa biernego pieszego. W artykule przedstawiono studium prac nad przednim układem zabezpieczającym, który dzięki uŜyciu programów CAD/CAE oraz wykorzystaniu metody MES optymalizowany był jeszcze na etapie projektowania. Przy symulacji zderzenia zastosowano odpowiednio przygotowany model pojazdu oraz wirtualne impaktory, odzwierciedlające poszczególne części ciała ludzkiego. Pozytywne wyniki badań mogą stanowić podstawę do dalszych prac badawczych, mających na celu poprawę bezpieczeństwa biernego. Literatura [1] Łęgiewicz, Jacek. Pieszy teŜ człowiek. Auto Technika Motoryzacyjna. 2007, 2. [2] Leon Prochowski, Jan Unarski, Wojciech Wach, et al. Podstawy rekonstrukcji wypadków drogowych. Pojazdy samochodowe. Warszawa : Wydawnictwa Komunikacji i Łączności WKŁ, 2008. [3] Council, European Parliament and. Regulation (EC) No 78/2009 of the European Parliament and of the Council. Brussel : Official Journal of the European Union, 2009. [4] E. Rusiński, J. Czmochowski, T. Smolnicki. Zaawansowana metoda elementów skończonych w konstrukcjach nośnych. Wrocław : Oficyna Wydawnicza Politechniki Wrocławskiej, 2000. 158 Idea budowy robota inspekcyjnego do badania kanałów wentylacyjnych i klimatyzacyjnych Przemysław Sperzyński1 Streszczenie: W artykule przedstawiono charakterystykę środowiska, skalę problemu jakim jest, badanie i ciągłe monitorowanie istniejących ciągów wentylacyjnych w budynkach uŜyteczności publicznej. Przedstawiono charakterystykę środowiska t.j. wymiary i kształty rur wentylacyjnych oraz warunki w nich panujące. Zawarto podział struktur robotów obecnie wykorzystywanych do podobnych celów. Słowa kluczowe: robot inspekcyjny, robot modułowy, systemy wentylacyjne 1. Wprowadzenie Celem pracy jest przedstawienie zadania jakim jest kontrola systemów wentylacji jaki i klimatyzacji budynków. Systemy te często zamontowane są pod podwieszonymi sufitami bądź w specjalnych ciągach kominowych, do których człowiek ma utrudniony dostęp. JeŜeli jest moŜliwość dostępu do rur, to z zewnątrz nie jesteśmy w stanie określić czy ich stan jest zadawalający. Często istnieje potrzeba kontroli powierzchni rury – czy nie powstały znaczące pęknięcia, czy łączenia są nienaruszone, oraz czy nie zagnieździły się w nich bakterie czy grzyby. Większość komercyjnych robotów inspekcyjnych proponowanych na rynku posiada oczywiste wady. Sterowanie robotem odbywa się najczęściej ze zdalnego centrum zamontowanego w samochodzie co usprawnia jego działanie. JednakŜe sterowanie to realizowanie jest za pomocą kabla łączącego robota z komputerem sterowniczym. Przy bardziej skomplikowanej infrastrukturze systemu rur znacznie ogranicza to jego ruchy. Ponadto, jeŜeli spojrzeć na zadanie inspekcji rur wentylacyjnych istnieje potrzeba ruchu robota w kierunku pionowym, a większość proponowanych rozwiązań nie spełnia tego załoŜenia. Podobnie jest w przypadku robota znajdującego się w Instytucie InŜynierii Lądowej na Wydziale Budownictwa Lądowego i Wodnego PWr [8]. 1 Instytut Konstrukcji i Eksploatacji Maszyn I-16, Zakład Teorii Maszyn i Układów Mechatronicznych, ul. Ignacego Łukasiewicza 7/9, 50-371 Wrocław, [email protected] 159 2. Charakterystyka środowiska W kanałach wentylacyjnych bądź klimatyzacyjnych panują często niesprzyjające warunki. Powietrze w pomieszczeniach powinno mieć temperaturę od 18°C do 22°C i wilgotność od 40 do 60%. Nie oznacza to jednak Ŝe takie warunki będą panowały w kanałach. Istnieje bowiem potrzeba szybkiej zmiany warunków panujących w wentylowanych pomieszczeniach, a wtedy pompowane powietrze charakteryzuje się warunkami róŜniącymi się znacznie od wyŜej wymienionych. Ponadto, moŜna krótko przedstawić dlaczego istnieje potrzeba inspekcji tych rur: • w kanałach wentylacyjnych często osadzają się pyły, kurze i inne lotne substancje. Przy sprzyjających warunkach powstają procesy gnilne oraz pleśnienia. Zaczynają się rozwijać mikroorganizmy które następnie mogą być pompowane wraz z powietrzem do pomieszczeń, • wyŜej wymienione czynniki pompowane z powietrzem wpływają negatywnie na pracę ludzi znajdujących się w pomieszczeniach. Powodują częste bóle głowy, złe samopoczucie czy nadmierne zmęczenie. Wszystko to prowadzi do zmniejszenia efektywności pracy, • w skrajnych przypadkach zanieczyszczenia prowadzą do powstawania róŜnych chorób dróg oddechowych, czy alergii. Często wymienianą chorobą spowodowaną przez bakterie w kanałach wentylacyjnych jest legionelloza [10], • kurz wraz z rozgrzanym i suchym powietrzem tworzy środowisko, w którym moŜna łatwo zaprószyć ogień. Wszystkie te czynniki stwarzają potrzebę monitorowania wnętrza rur wentylacyjnych. Nie wyczerpują jednak powodów, które skłaniają do inspekcji. Zaleganie kurzu w drogach wentylacyjnych powoduje zmniejszenie przepuszczalności kanału przez co zwiększa się pobór energii przez urządzenia nagrzewające bądź chłodzące powietrze. Podobnie dzieje się w przypadku nieszczelnego kanału. Listę powodów dlaczego naleŜy regularnie monitorować stan instalacji AC (obok zdrowia ludzi i powodów ekonomicznych), dopełnia ustawowy obowiązek nałoŜony na zarządców budynków, do dbania o prawidłowe warunki panujące w pomieszczeniach uŜytkowanych przez ludzi. W pracy [1] autorzy stwierdzają znaczną poprawę efektywności pracy, po wyczyszczeniu kanałów wentylacyjnych. 3. Kształt kanałów wentylacyjnych Systemy rur, choć wykonane są ze standardowych elementów róŜnią się nie tylko wymiarem, ale równieŜ jednak kształtem przekroju kanału. 160 a) b) c) d) e) f) g) h) Rys. 1. Najczęściej spotykane kształty kanałów wentylacyjnych Na rys. 1, przedstawione zostały elementy z jakich zbudowane są kanały wentylacyjne. Jak widać moŜna spotkać kanały sztywne (rys. 1d-h), jak i elastyczne (rys. 1a-c), o przekroju okrągłym ale takŜe prostokątnym. Utrudnia to zdefiniowanie układu napędowego robota, który mógłby się poruszać we wszystkich pokazanych elementach. Spotyka się takŜe, elementy o znacznie zróŜnicowanych wymiarach. Rury mogą mieć średnicę od 80mm aŜ do 600mm. Podobnie jest w przypadku kanałów prostokątnych. MoŜna zauwaŜyć róŜnicę w wymiarach przekroju elementu przedstawionego na rys. 1e, oraz 1h. 3. Struktury robotów inspekcyjnych Podstawowe typy robotów inspekcyjnych przedstawione zostały na rysunku 2. a) e) b) c) f) d) g) Rys. 2. Rodzaje robotów przeznaczonych do inspekcji rur 161 WyróŜnić moŜna roboty: a) kołowe, b) kroczące, c) gąsienicowe, d) rozporowe e) płynące z medium znajdującym się w rurze (ang. pig-type robot), f) o napędzie śrubowym oraz g) robot typu robak. W literaturze moŜna spotkać realizacje niemal wszystkich wymienionych typów robotów [2-7]. Najpopularniejsze są roboty o napędzie gąsienicowych bądź kołowym. Przykładem takiego robota jest „Gopher Pipe Crawler” [7], przedstawiony na rys. 3. Dzieje się tak z powodu prostoty realizacji napędów i odometri robota w kanałach. a) b) c) d) Rys. 3. Przykłady robotów inspekcyjnych spotykanych na rynku W odróŜnieniu od poprzednich, stosunkowo mało wśród robotów inspekcyjnych jest robotów kroczących. Dzieje się tak z powodu wciąŜ rozwijanego rozwiązania problemu kroczenia robota. Skomplikowanie układu jest na tyle duŜe, Ŝe wypierane jest przez pozostałe rozwiązania. Nie moŜna jednak wykluczyć, Ŝe w przyszłości pojawi się ta koncepcja. Roboty typu rozporowego (rys. 3d) pozwalają na dostosowanie rozmiarów układu jezdnego do kształtu kanału przez co zwiększa to spektrum zastosowań robota. Ciekawą konstrukcją jest robot pokazany na rys. 3c. Poprzez zmienny kąt nachylenia górnych kół obrót głowicy robota 162 powoduje ruch posuwisty względem rury. Robot pokazany na rys. 2e nie nadaje się tutaj, do postawionego zadania inspekcji wentylacji. Kanały wentylacyjne posiadają wymuszony obieg powietrza, jednakŜe nie moŜna polegać na przepływie tego medium, ze względu na róŜne jego prędkości i kierunki przepływu. Roboty typu robak (rys. 2g) podobnie jak roboty kołowe są chętnie stosowane do inspekcji wszelkiego rodzaju rur m.in. rur kanalizacyjnych. Konstrukcja ta jednak wyklucza poruszanie się po obydwu wyŜej zdefiniowanych kształtach kanałów. Równie popularną konstrukcją jest nie wyszczególniona na rys. 2, struktura robota-węŜa. 4. Pole badań Potrzeba inspekcji kanałów wentylacyjnych jest rzeczą waŜną nie tylko ze względów zdrowotnych ale takŜe ekonomicznych. Przede wszystkim zadanie jest postawione przy realizacji konstrukcji mechanicznej robota, pozwalającej na wykonywanie załoŜonych ruchów. JeŜeli postawimy ponadto zadanie budowy robota modułowego [9], tzn. takiego, którego poszczególne człony mogą poruszać się po kanale niezaleŜnie od pozostałych, bądź wszystkie razem jednocześnie, to zadanie znacznie się komplikuje. Zadanie takie postawili konstruktorzy z organizacji SINTEF [11]. Ich celem stała się budowa inteligentnego robota (rys. 4). Modułowość umoŜliwiłaby rozdzielanie się robota przy rozgałęzieniach dróg. Rys. 4. Idea robota rozwijana w instytucie SINTEF Przy realizacji takiego robota istnieje dodatkowy problem - komunikacji. JeŜeli zrezygnujemy ze sterowania poprzez łącze kablowe, naleŜy w inny sposób zrealizować komunikację robota z panelem sterowniczym. Przy modułowości robota naleŜy takŜe zadbać o prawidłową komunikację między modułami. Przy konstrukcji, naleŜy takŜe pamiętać o warunkach na jakie będzie naraŜony robot od róŜnych zakresów temperatur 163 po wilgotność czy wszelakie czynniki chemiczne. Kolejnym problemem do rozwiązania jest prawidłowa sensoryka robota. Podstawą działania takich robotów jest bowiem zdolność do prawidłowego określenia własnego połoŜenia w badanym systemie. Dodając do tego autonomię w postaci umiejętności rozpoznawania nieprawidłowości struktury kanałów, powstaje spory problem do rozwiązania. 5. Podsumowanie Patrząc na rynek robotów inspekcyjnych uwidacznia się duŜa luka w braku odpowiedniego mechanizmu wystarczająco uniwersalnego do róŜnego rodzaju kanałów. Istniejące rozwiązania mają zawęŜone pole działania i są robotami „na sznurku” – przewodowo połączone z operatorem. Ponadto widać brak robota zaopatrzonego w jakąkolwiek autonomię działania. Literatura [1] S. Kolaria, U. Heikkila-Kalliob, M. Luomaa, P. Pasanenc, P. Korhonenb, E. Nykyrib, K. Reijulab The effect of duct cleaning on perceived work environment and symptoms of office employees in non-problem buildings, Building and Environment, grudzień 2004 [2] Se-gon Roh and Hyouk Ryeol Choi, Differential-Drive In-Pipe Robot for Moving Inside Urban Gas Pipelines. IEEE Robotics on Robotics, luty 2005. [3] M. Horodinca, I. Doroftei, E. Mignon, A. Preumont, A simple architecture for in-pipe inspection robots. Active Structures Laboratory, Univeriste Libre De Bruxelles. [4] Design, Modeling and Prototyping of a Pipe Inspection Robot, International Symposium on Automation and Robotics in Construction, wrzesień 2005. [5] A. A. F. Nassiraei, Y. Kawamura, A. Ahrary, Y. Mikuriya, K. Ishii, Concept and Design of A Fully Autonomous Sewer Pipe Inspection Mobile Robot “KANTARO”, IEEE International Conference on Robotics and Automation, kwiecień 2004 [6] A. Brunete, M. Hernando, E.Gambao, Modular Multiconfigurable Architecture for Low Diameter Pipe Inspection Microrobots, IEEE International Conference on Robotics and Automation, kwiecień 2005 [7] http://www.roboprobe.com/ [8] http://www.iil.pwr.wroc.pl/ [9] A. Brunete, M. Hernando, E.Gambao, Modular Multiconfigurable Architecture for Low Diameter Pipe Inspection Microrobots, International Conference on Robotics and Automation, kwiecień 2005 [10] http://en.wikipedia.org/wiki/Legionellosis [11] http://www.sintef.no/Home/Press-Room/Research-News/The-robot-thatclimbs-in-the-pipe/ 164 Układy robotyczne – mobilny robot kołowo-kroczący Jarosław Szrek*, Przemysław Sperzyński* Streszczenie: W artykule przedstawiono ogólną budowę układu robotycznego – jego strukturę, poszczególne elementy, ogólną zasadę działania. Jako przykład układu robotycznego zastał zaprezentowany ”LegVan”, mobilny robot kołowo-kroczący. Słowa kluczowe: Kroczenie, sterowanie, kinematyka 1. Wprowadzenie Roboty, ze względu na zastosowania, możliwości, funkcje można podzielić na kilka kategorii. Na początek można je podzielić na dwie kategorie związane z poruszaniem się. Wyróżnimy zatem roboty stacjonarne oraz mobilne. Roboty stacjonarne, zwane również manipulatorami lub robotami przemysłowymi są najbardziej rozpowszechnione. To one w zakładach produkcyjnych wyręczają człowieka w ciężkich, monotonnych pracach, zapewniając przy tym większą dokładność i powtarzalność wykonania. W zależności od potrzeb ramię manipulatora może być zaprojektowane na przenoszenie lekkich, ciężkich ładunków na małe bądź duże odległości. W przypadku gdy robot ma możliwość zmiany swojego położenia (cały robot względem podłoża) staje się robotem mobilnym. Roboty mobilne, w zależności od środowiska w jakim działają, ponownie można podzielić na kilka kategorii. Wyróżniamy roboty latające, pływające, oraz poruszające się na lądzie. Roboty lądowe dzielimy ze względu na sposób przemieszczania. Istnieją mobilne roboty kroczące oraz kołowe, w tym poruszające się na gąsienicach. Roboty mobilne, w wielu przypadkach, mogą być nazwane platformami mobilnymi. Tego typu obiekty głównie znajdują zastosowane w transporcie, inspekcji, obserwacji. Aby zwiększyć funkcjonalność i tym samym zwiększyć możliwości potencjalnego zastosowania robotów, wykonuje się kombinacje kilku kategorii. Montując manipulator na platformie mobilnej można uzyskać * Politechnika Wrocławska, Zakład Teorii Maszyn i Układów Mechatronicznych, ul. Łukaszewicza 7/9, 50-371 Wrocław; http://tmm.pwr.wroc.pl, e-mail: (Jarosław.Szrek | Przemyslaw.Sperzynski)@pwr.wroc.pl 165 pojazd posiadający zdolność przemieszczania oraz manipulacji – np. możliwe stanie się uchwycenie i przewiezienie ładunku. Każde z tego typu rozwiązań posiada zarówno wady jak i zalety. Roboty kołowe posiadają możliwość rozwijana większej prędkości w porównaniu z robotami kroczącymi. Z kolei roboty kroczące lepiej funkcjonują na nierównym podłożu z przeszkodami. W celu zwiększenia prędkości poruszania się robota oraz zapewnienia mu możliwości pokonywania przeszkód połączono w tym przypadku dwie kategorie robotów [1, 2, 3]. Po połączeniu powstał robot hybrydowy kołowo-kroczący. W swej idei robot po równym terenie jedzie na kołach, a gdy natrafi na przeszkodę, której nie będzie w stanie ominąć, pokona przeszkodę przechodząc po niej lub nad nią. 2. Ogólna budowa układu robotycznego Niezależnie od kategorii i zastosowania ogólna zasada działania oraz struktura układu robotycznego jest niezmienna. Układ robotyczny posiada cześć mechaniczną (manipulacyjną), która oddziałuje na otoczenie, układ sterowania odpowiedzialny za przetwarzanie informacji oraz układy sensoryczne, za których pośrednictwem pozyskuje się dane z otoczenia oraz aktualnego stanu robota. Ogólny schemat struktury układu robotycznego przedstawiono na rys. 1. Rys. 1. Schemat blokowy układu robotycznego Oddziaływanie na otoczenie wiąże się z wykonaniem działania lub wysłaniem informacji. Może to być np. wykonanie przemieszczenia, ruchu, wydanie dźwięku, sygnału świetlnego czy wyświetlenie komunikatu tekstowego. W układach robotycznych wykonanie ruchu zazwyczaj wiąże się z uruchomieniem silnika (DC, AC, skokowego, piezoelektrycznego itp.) lub otwarciem zaworu w instalacji hydraulicznej, pneumatycznej. 166 Decyzja o tym jakie działanie będzie wykonane zapada w układzie sterowania. Informacja, obecnie zazwyczaj w formie cyfrowej, kierowana jest do konkretnego układu, który zmienia swój aktualny stan. Układ sterowania robota w obecnych czasach jest wysokowydajnym komputerem, który w krótkim czasie potrafi przetworzyć znaczną liczbę informacji. Przetwarzanie, informacji, wykonanie działania realizowane jest zgodnie z zaprogramowanym algorytmem sterowania, a dodatkowe informacje i parametry pozyskiwane z układów sensorycznych - czujników robota. Czujnik robota można podzielić na dwie kategorie. Pierwsza – czujniki parametrów wewnętrznych robota oraz druga – czujniki pozyskujące informacje z otoczenia. Parametry wewnętrzne (np. aktualne położenie, prędkość, aktualna konfiguracja itp.) stanowią niezbędną informację przy wykonywaniu każdego ruchu robota. Dane z otoczenia (usytuowanie lub położenie obiektu względem robota, temperatura, natężenia światła, poziom dźwięku) pozyskiwane są za pośrednictwem odpowiednich układów przetwarzających daną wielkość na sygnał elektryczny, a później wartość liczbową, która może być użyta przy procedurach sterujących. Dane te są nazywane sprzężeniem zwrotnym i pozwalają sprawdzić jak sygnały sterujące oddziałują na otoczenie lub na samego robota i czy to działanie jest odpowiednie i zgodne z intencjami. 3. Robot kołowo-kroczący „LegVan” Robot kołowo-kroczący „LegVan” (rys. 2), podobnie jak każde urządzenie mechatroniczne, łączy w sobie cześć mechaniczną, elektroniczną oraz oprogramowanie, które odpowiada za działanie całości. 3.1. Część mechaniczna robota Bazą robota jest platforma o wymiarach 750 x 400 x 150 mm, do której przymocowane są cztery identyczne kończyny. Na końcu każdej z kończyn jest zamocowane koło. Wszystkie cztery koła robota są napędzane, dwa z nich (tylne) dodatkowo posiadają możliwość skrętu. Funkcje jakie posiada robot to poziomowanie platformy w nierównym terenie oraz pokonywanie przeszkód przez kroczenie (unoszenie kończyn). Robot posiada specjalny układ zawieszenia kół, które zaprojektowano pod kątem najlepszej realizacji funkcji poziomowania, przy jednoczesnym zapewnieniu minimalnej liczby napędów. Dzięki temu w robocie możliwa jest realizacja funkcji poziomowania przy użyciu jednego napędu w kończynie, co dodatkowo pozwoliło to na uproszczenie układu sterowania oraz usprawnienie działania robota. Ponadto robot w dalszym ciągu posiada możliwość pokonywania przeszkód przez kroczenie. 167 Rys. 2. Robot kołowo-kroczący „LegVan”[5] W robocie wykorzystywanych jest 14 silników napędowych. Z powodu znacznej ich liczby oraz specyficznych funkcji robota, układ sterowania został podzielony na bloki. W robocie można wyróżnić moduły napędów odpowiedzialne za ruch poszczególnymi grupami silników oraz moduły pomiarowe. Jedna grupa odpowiada za przemieszczenie się robota na kołach. Do tego działania wykorzystano 4 silniki napędowe kół oraz 2 silniki wykonujące skręt. Kolejne cztery napędy odpowiadają za ruch poziomujący platformy. Ostatnie cztery napędy wykorzystywane są przy wykonywaniu kroczenia. Funkcja kroczenia w tym przypadku wymaga uniesienia kończyny i przesunięcia jej nad przeszkodę. Jest to złożenie dwóch ruchów podstawowych zatem należy uruchomić zsynchronizować ze sobą ruch napędów modułów poziomowania oraz kroczenia. 3.2. Układ sterowania Każdy z poszczególnych bloków napędowych posiada własny lokalny układ sterowania. Lokalne sterowniki, odpowiedzialne za poruszanie się na kołach, ruch poziomujący oraz kroczenie zbudowane są w oparciu o niezależne mikrokontrolery. Moduły te zapewniają regulację do zadanej wartości położenia (np. uniesienie kończyny) lub prędkości wykorzystując przy tym sygnały sprzężenia zwrotnego. Sterowanie robotem może odbywać się w trybie ręcznym oraz automatycznym. Sterowanie ręczne wykonywane jest za pośrednictwem joysticka, podłączonego do zewnętrznego komputera sterującego (rys. 3). Drugi tryb pracy robota to działanie automatyczne. Robot, już bez udziału człowieka realizuje zgodnie z algorytmem działania powierzone zadanie. 168 Rys. 3. Zewnętrzny komputer sterujący robotem [5] Rys. 4. Okno aplikacji sterującej robotem [5] W trybie automatycznym możliwy jest ruch robota po określonej trajektorii przy jednoczesnym wykonywaniu poziomowania platformy w nierównym terenie. W przypadku gdy na drodze robota pojawi się przeszkoda robot samodzielnie ją pokona przez kroczenie. Na zewnętrznym komputerze sterującym uruchomiona jest aplikacja „GRAS” (Główna, Robota Aplikacja Sterująca), w której dostępne są wszystkie parametry robota, oraz wizualizowane dane pomiarowe. Okno aplikacji „GRAS” widoczne jest na rys. 4. Dodatkowo w jej oknie dostępny jest obraz z kamery umieszczonej na robocie stanowiący uzupełnienie danych sensorycznych lub pozyskanie konkretnych danych z miejsca, w które robot został skierowany do inspekcji. 169 3.3. Sensoryka Za pozyskiwanie sygnałów pochodzących z otoczenia robota odpowiadają moduły pomiarowe. Jako oddzielne jednostki na bieżąco wykonują pomiary i na żądanie komputera nadrzędnego udostępniają wyniki. Między innymi w robocie wykonywany jest pomiar odległości od przeszkód, stopień nacisku kół na podłoże, odchylenie platformy od poziomu, wartość składowych przyspieszenia ziemskiego. 4. Podsumowanie Układy robotyczne są co raz częściej stosowane w różnych dziedzinach życia. Obecnie ciężko sobie wyobrazić funkcjonowanie nowoczesnego i wydajnego zakładu produkcyjnego bez wykorzystania automatów czy manipulatorów. Poza produkcją roboty są wykorzystywane do zadań specjalnych – inspekcji niedostępnych obiektów, terenów, rozbrajania niebezpiecznych ładunków czy eksploracji planet. Robotem specjalnym również jest „LegVan”, prototyp robota kołowo-kroczącego, który posiada ciekawe własności lokomocyjne, które również można obejrzeć w formie filmu dostępnego na stronie www [4]. Robotom specjalnym stawiane są o wiele większe wymagania w porównaniu z robotami przemysłowymi. Jeśli roboty mają również funkcjonować w otoczeniu człowieka to problem staje się o wiele bardziej złożony ze względu na dynamiczne otoczenie oraz bezpieczeństwo. Literatura [1] Ch. Grand, F. BenAmar, F. Plumet, Ph. Bidaud. Stability control of a wheel-legged mini-rover. Proceedings of the CLAWAR 2002 Conference. [2] A. Halme, I. Leppänen, S. Salmi, S. Ylönen. Hybrid locomotion of wheel-legged machine. Proceedings of the CLAWAR 2000 Conference. [3] J. Szrek. Synteza układu kinematycznego i sterowania czworonożnego robota kołowo-kroczącego - Rozprawa doktorska. Raporty Inst. Konstr. Ekspl. Masz. PWroc. 2008, Ser. PRE nr 10. [4] http://robosystem.pl 170 Systemy wentylacji pomieszczeń, a koszty uzdatniania powietrza Agnieszka Zając1,Maria Kostka2 Streszczenie: W artykule porównano możliwości wykorzystania trzech wybranych systemów wentylacyjnych do obsługi sali audytoryjnej Centrum Naukowo – Badawczego Wydziału Elektrycznego Politechniki Wrocławskiej przy ul. Janiszewskiego. Przedstawiono analizę całorocznej pracy wybranych systemów oraz zestawienie kosztów ogrzewania, chłodzenia oraz transportu powietrza wentylującego pomieszczenie. Słowa kluczowe: wentylacja, klimatyzacja 1. Wprowadzenie Budynek D20 – Centrum Naukowo – Badawcze Wydziału Elektrycznego jest jednym z najnowszych budynków Politechniki Wrocławskiej. Budynek składa się z 11 kondygnacji, z czego 2 znajdują się poniżej poziomu terenu. Część, w której mieści się rozpatrywana sala audytoryjna - Sala Kongresowa jest niższą częścią kompleksu o konstrukcji stalowej z żelbetowym stropem, na którym zaprojektowano zielony ogród. Sala Kongresowa (rys.1) przeznaczona jest na 600 osób i jest jedną z największych i najnowocześniejszych sal audytoryjnych Politechniki Wrocławskiej. Konstrukcja umożliwia jej podział na trzy odrębne sale: jedną dla 300 słuchaczy, oraz dwie mniejsze dla 150 słuchaczy każda. Całkowita powierzchnia sali wynosi ponad 667 m2. grzejniki grzejniki grzejniki Rys. 1. Rzut Sali Kongresowej, podział na 3 mniejsze sale audytoryjne. 1 2 Politechnika Wrocławska, Wydział Inżynierii Środowiska, [email protected] Politechnika Wrocławska, Wydział Inżynierii Środowiska, [email protected] 171 2. Całoroczna praca systemów wentylacyjnych Sala Kongresowa nie ma przegród przeszklonych, co wymusza zastosowanie oświetlenia sztucznego. Przyjęto obciążenie cieplne pomieszczenia wynikające ze sztucznego oświetlenia w ilości 25 W/m2. Dodatkowo sala wyposażona jest w projektor, ekran, nagłośnienie, tłumaczenia symultaniczne oraz system podglądu CCTV. Obciążenie cieplne wynikające z dodatkowych urządzeń elektrycznych wynosi ~2,0 kW. Całkowite zyski ciepła w pomieszczeniu w okresie letnim wynoszą 70,0 kW i składają się na nie, poza oświetleniem i zamontowanymi urządzeniami: − ludzie 80 W/os. − stropodach 3,0 kW − ściany zewnętrzne 1,0 kW W okresie zimowym natomiast bilans ciepła, po uwzględnieniu statycznych strat ciepła (założono brak konwencjonalne instalacji centralnego ogrzewania) wynoszą 10,0 kW. Dokonano analizy trzech systemów wentylacyjnych z centralnym przygotowaniem powietrza zewnętrznego: − wentylacja mieszająca, ze stałym strumieniem powietrza wentylującego − wentylacja mieszająca, ze zmiennym strumieniem powietrza wentylującego − wentylacja źródłowa, ze stałym strumieniem powietrza wentylującego W każdym z rozpatrywanych systemów przewidziano odzyskiwanie energii z powietrza nawiewanego poprzez zastosowanie recyrkulacji powietrza. Strumień powietrza świeżego (zewnętrznego) z pomieszczenia obliczono z minimalnych wymagań higienicznych, zależnych od ilości osób w pomieszczeniu. Powietrze zużyte po usunięciu z pomieszczenia jest częściowo zawracane i mieszane z powietrzem zewnętrznym. Następnie następuje jego obróbka termiczna (ogrzewanie lub chłodzenie, w zależności od potrzeb) do wymaganych parametrów nawiewu i doprowadzenie do pomieszczenia. Na poniższych rysunkach (rys. 2, 3, 4) przedstawiono zmiany temperatury w pomieszczeniu (tp), temperatury powietrza nawiewanego (tn) oraz temperatury mieszaniny powietrza zewnętrznego i recyrkulowanego (tm) w zależności od temperatury powietrza zewnętrznego (tz). Rys. 2 przedstawia całoroczną pracę systemu mieszającego, ze stałym strumieniem powietrza wentylującego. W rozwiązaniu tym zarówno dostarczanie powietrza uzdatnionego, jak i odprowadzanie powietrza zużytego odbywa się w górnej części pomieszczenia. Strumień powietrza 172 dostarczanego, wynikający z obciążenia pomieszczenia zyskami ciepła wynosi Vn= 30000m3/h. Obróbka termiczna powietrza wentylującego jest konieczna w zakresie temperatur powietrza zewnętrznego: − do 9°C – praca nagrzewnicy powietrza − od 15°C – praca chłodnicy powietrza Temperatura powietrza zewnętrznego z przedziału 9 - 15°C umożliwia wykorzystanie tego powietrza do wentylowania pomieszczenia bez użycia wymienników ciepła – nagrzewnicy i chłodnicy. Wówczas ponoszony jest jedynie koszt na przetransportowanie (dostarczenie) powietrza do sali. Rys. 2. Całoroczna praca systemu mieszającego, ze stałym strumieniem powietrza wentylującego. Na rys. 3 przedstawiono całoroczną pracę systemu mieszającego, ze zmiennym strumieniem powietrza. W systemie takim możliwe są zmiany ilości powietrza doprowadzanego do pomieszczeń w zakresie 50 – 100% strumienia wentylującego, a więc wynosi on 15000 – 30000m3/h. Dostarczanie oraz odprowadzania powietrza rozwiązane jest jak w poprzednim przykładzie w systemie „góra – góra”. Górny wykres, podobnie jak w poprzednim przypadku obrazuje zmiany temperatury pomieszczenia, nawiewu oraz mieszaniny w zależności od temperatury zewnętrznej. Dolny natomiast pokazuje procentowe zmiany strumienia powietrza wentylującego dostarczanego do pomieszczenia. W tym przypadku obróbka termiczna powietrza wentylującego jest konieczna w zakresie temperatur powietrza zewnętrznego: − do 10°C – praca nagrzewnicy powietrza − od 13°C – praca chłodnicy powietrza. Wykorzystanie powietrza zewnętrznego do wentylowania pomieszczenia bez użycia wymienników ciepła możliwe jest w zakresie temperatur 10 - 13°C. Zaznaczyć należy jednak, iż pomimo dłuższego czasu pracy 173 poszczególnych wymienników ciepła zmniejszenie strumienia powietrza doprowadzanego do pomieszczeń znacznie obniża moc niezbędną do jego ogrzania oraz transportu. Rys. 3. Wentylacja mieszająca, ze zmiennym strumieniem powietrza wentylującego. Rys. 4 przedstawia całoroczną pracę wentylacji źródłowej ze stałym strumieniem powietrza wentylującego. W systemie tym powietrze dostarczane jest bezpośrednio do strefy przebywania ludzi, a odprowadzane jest spod stropu pomieszczenia – organizacja wymiany powietrza typu „dół – góra”. Warunkiem dostarczania powietrza w bezpośrednie sąsiedztwo ludzi jest utrzymywanie temperatury powietrza nawiewanego zbliżonej do temperatury w pomieszczeniu. Zbyt duże różnice temperatur, szczególnie w okresie letnim powodowałyby negatywne samopoczucie użytkowników sali, odczucie przeciągu, dyskomfort przebywania w pomieszczeniu. Niestety efektem niewielkich różnic temperatur pomiędzy pomieszczeniem, a nawiewem jest znaczne zwiększenie strumienia powietrza doprowadzanego do obiektu. Strumień powietrza wentylującego w tym systemie, którym możemy usunąć gromadzące się zyski ciepła, wynosi 42000m3/h. Jest więc o 40% większy od nominalnego strumienia obliczeniowego w pozostałych systemach. Obróbka termiczna powietrza wentylującego jest konieczna w zakresie temperatur powietrza zewnętrznego: − do 11°C – praca nagrzewnicy powietrza − od 18°C – praca chłodnicy powietrza. 174 Pomimo możliwości wykorzystania powietrza zewnętrznego w dłuższym niż w poprzednich przypadkach zakresie temperatur (11 - 18°C) praca systemu ze zwiększonym o 40% strumieniem powietrza powoduje zwiększenie mocy niezbędnej do ogrzewania, chłodzenia, jak również transportu powietrza wentylującego. Rys. 4. Wentylacja źródłowa, ze stałym strumieniem powietrza wentylującego. 3. Koszty pracy systemów wentylacyjnych Przy obliczaniu nakładów finansowych na całoroczną pracę systemów wentylacyjnych wzięto pod uwagę koszty wynikające z konieczności ogrzewania, chłodzenia oraz transportu powietrza wentylującego. Uwzględnione zostały przedsięwzięcia umożliwiające obniżenie kosztów eksploatacji systemów wentylacyjnych, a więc recyrkulację powietrza usuwanego z pomieszczenia. Zastosowanie recyrkulacji powoduje podwyższenie temperatury powietrza doprowadzanego na nagrzewnicę. W warunkach temperatury obliczeniowej okresu zimnego dla Wrocławia tzobl=-18°C zmieszanie powietrza wywiewanego z zewnętrznym podwyższa temperaturę powietrza: − do 5°C w systemie mieszającym ze stałym strumieniem powietrza − do -14°C w systemie mieszającym ze zmiennym strumieniem powietrza − do 8°C w systemie źródłowym ze stałym strumieniem powietrza. Bardzo niska temperatura powietrza dostarczanego na nagrzewnicę po recyrkulacji, w systemie mieszającym ze zmiennym strumieniem powietrza jest wynikiem konieczności zachowania minimalnego higienicznego strumienia powietrza dla osób przebywających na sali wykładowej. 175 Powietrze to musi być powietrzem zewnętrznym. W momencie zmniejszenia do 50% strumienia powietrza wentylującego udział strumienia higienicznego w strumieniu całkowitym zwiększa się z 45% do 90%. Rys. 5. Zapotrzebowanie energii do uzdatniania i transportu powietrza. Rys. 6. Całkowite zapotrzebowanie energii do uzdatniania i transportu powietrza. Ostatecznie z porównania trzech wybranych systemów wentylacyjnych wynika, że najkorzystniejsze pod względem eksploatacyjnym jest zastosowanie wentylacji ze zmiennym strumieniem powietrza wentylującego. Energia potrzebna do ogrzania powietrza we wszystkich trzech wariantach jest porównywalna. Na sumaryczny, całoroczny koszt eksploatacji instalacji wentylacyjnej duży wpływ ma zmniejszenie mocy chłodniczej oraz zwiększenie energii na transport powiększonego strumienia powietrza w systemie wentylacji źródłowej. Wynika to z dostarczania powietrza bezpośrednio do strefy przebywania ludzi. Analogicznie, zmniejszenie strumienia transportowanego powietrza w drugim rozpatrywanym systemie przyczyniło się do znacznych oszczędności finansowych. 176