PDF - Instytut Elektrotechniki i Elektroniki Przemysłowej
Transkrypt
PDF - Instytut Elektrotechniki i Elektroniki Przemysłowej
This series presents continuation of Zeszyty Naukowe Politechniki Poznańskiej Elektryka Editorial Board prof. dr hab. inż. RYSZARD NAWROWSKI (Chairman), dr hab. inż. JÓZEF LORENC, prof. nadzw., dr hab. inż. ZBIGNIEW NADOLNY, dr hab. inż. ANDRZEJ KASIŃSKI, prof. nadzw. Scientific Secretaries of the Conference ZKwE dr inż. ANDRZEJ TOMCZEWSKI (Scientific Secretary of the Conference) mgr DOROTA WARCHALEWSKA-HAUSER (Organising Secretary of the Conference) Reviewers KAROL BEDNAREK, KRZYSZTOF BUDNIK, ARKADIUSZ DOBRZYCKI, KONRAD DOMKE, JERZY FRĄCKOWIAK, GRAŻYNA FRYDRYCHOWICZ-JASTRZĘBSKA, JACEK HAUSER, PAWEŁ IDZIAK, JAROSŁAW JAJCZYK, LESZEK KASPRZYK, RYSZARD NAWROWSKI, ANDRZEJ ODON, WŁADYSŁAW OPYDO, PRZEMYSŁAW OTOMAŃSKI, WOJCIECH PIETROWSKI, RYSZARD PORADA, KRZYSZTOF SROKA, ANDRZEJ TOMCZEWSKI, GRZEGORZ TRZMIEL, GRZEGORZ TWARDOSZ, GRZEGORZ WICZYŃSKI, ROBERT WRÓBLEWSKI, MAŁGORZATA ZALESIŃSKA, MARIA ZIELIŃSKA Cover design PIOTR GOŁĘBNIAK Edition based on ready-to-print materials submitted by authors ISSN 1897-0737 Edition I © Copyright by POZNAN UNIVERSITY OF TECHNOLOGY, Poznan, Poland, 2014 PUBLISHING HOUSE OF POZNAN UNIVERSITY OF TECHNOLOGY 60-965 Poznań, pl. M. Skłodowskiej-Curie 2 tel. +48 (61) 6653516, fax +48 (61) 6653583 e-mail: [email protected], www.ed.put.poznan.pl Sale of the publication: Poznańska Księgarnia Akademicka 61-138 Poznań, ul. Piotrowo 3 tel. +48 61 6652324; fax +48 61 6652326 e-mail: [email protected], www.politechnik.poznan.pl Księgarnia Uniwersytetu Ekonomicznego ul. Powstańców Wielkopolskich 16 61-695 POZNAŃ tel. +48 61 8543148, faks 61 8543147 e-mail: [email protected] http://www.ksiegarnia-ue.pl Press: Binding and duplication in Perfekt Druk 60-321 Poznań, ul. Świerzawska 1 tel. +48 61 8611181-83 CONTENTS Preface............................................................................................................... 7 1. Krystian SZYMCZAK, Anna CYSEWSKA-SOBUSIAK Zastosowanie ultradźwięków w inżynierii biomedycznej ................................ 9 2. Zbigniew KRAWIECKI, Dariusz GLOGER Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego z zastosowaniem światła z lasera półprzewodnikowego ................................ 17 3. Marcin JUKIEWICZ Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy dyskryminacyjnej jako klasyfikatorów cech w interfejsach mózgkomputer ................................................................................................ 25 4. Jarosław JAJCZYK, Krzysztof MATWIEJCZYK Diagnostyka magistrali CAN w pojazdach ......................................................... 31 5. Piotr BAKALAREK, Leszek KASPRZYK Przepływowy podgrzewacz paliwa dla pojazdów z silnikiem Diesla .................. 41 6. Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych warunków miejskich ................................................................ 47 7. Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych warunków miejskich – część I ................................................................ 55 8. Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych warunków miejskich – część II ................................................................................ 63 9. Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA, Artur BUGAŁA Układy fotowoltaiczne współpracujące z koncentratorami ................................ 71 10. Robert JĘDRYCHOWSKI System kontroli pracy małych źródeł energii elektrycznej w sieciach inteligentnych oparty na sterownikach PLC ....................................................... 79 11. Marta KOLASA, Rafał DŁUGOSZ Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji elementów powodujących pogorszenie jakości energii elektrycznej w sieciach średniego napięcia ................................................................ 87 12. Adam TOMASZUK Simulation of high-efficiency interleaved step-up DC-DC boost97 flyback converter to use in photovoltaic system ................................................. 4 Contents 13. Justyna MICHALAK Ryzyko w projektach inwestycyjnych energetyki odnawialnej ........................... 105 14. Alicja GŁÓW, Dariusz KURZ Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień ................................................................................................ 113 15. Tomasz JEŻYK, Andrzej TOMCZEWSKI Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem sztucznej sieci neuronowej ............................................ 121 16. Ryszard NAWROWSKI, Andrzej TOMCZEWSKI, Tomasz JARMUDA Koncepcja optymalizacji struktury hybrydowej elektrowni solarnowiatrowej ..................................................................................................................... 131 17. Ryszard NAWROWSKI, Tomasz JARMUDA Projekt hybrydowej elektrowni słoneczno-wiatrowej ................................141 18. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach przemysłowych .............................................................................. 149 19. Bartosz CERAN, Paul A. BERNSTEIN Application PEM fuel cells in distributed generation ................................157 20. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL Badania efektywności pracy fotodachówek umieszczonych na różnych 165 podłożach dachowych ........................................................................................ 21. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL Photovoltaic thermal as a hybrid form of obtaining energy from solar radiation ................................................................................................ 175 22. Marek HORYŃSKI, Jacek MAJCHER Zdalny nadzór nad inteligentnym budynkiem ..................................................... 181 23. Marek PALUSZCZAK, Alicja TWARDOSZ, Grzegorz TWARDOSZ Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych ....................................................................................... 189 24. Michał FILIPIAK Analiza wybranych układów umożliwiających bezprzewodowy przesył energii elektrycznej ............................................................................... 197 25. Krzysztof WANDACHOWICZ Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu ................................................................................................................. 205 Contents 5 26. Małgorzata ZALESIŃSKA Analiza warunków wykonywania badań wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy ................................................... 215 27. Piotr KIEDROWSKI Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym – analiza właściwości ruchowych w oparciu o teorię grafów ............................................................................................................... 227 28. Małgorzata GÓRCZEWSKA, Sandra MROCZKOWSKA Iluminacja współczesnych obiektów architektonicznych na przykładzie Collegium Novum w Poznaniu ....................................................... 239 29. Tomasz STANKOWIAK, Sandra MROCZKOWSKA Badania ogólnodostępnych zamienników lamp ciemniowych ............................. 245 30. Janusz GONDEK, Sławomir KORDOWIAK, Krzysztof RATYŃSKI Cyfrowe programowalne sterowniki hybrydowe dla diod LED .......................... 253 31. Łukasz PUTZ Optimization analyze of the LED lighting installation for a quality of electrical energy ................................................................................................ 261 32. Marcin WESOŁOWSKI, Ryszard NIEDBAŁA, Jacek HAUSER Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej ................................................................................................ 269 33. Jurij WARECKI, Michał GAJDZICA Analiza procesów zachodzących podczas załączania transformatora pieca łukowego zasilanego z układu z filtrami wyższych harmonicznych ................................................................................................ 279 Authors index ................................................................................................ 289 PREFACE The publication includes contents of selected lectures delivered during the debates of the Conference on Computer Application in Electrical Engineering that was held in Poznan on April 28-29, 2014. The Institute of Electrical Engineering and Electronics of the Poznan University of Technology organized the Conference on Computer Application in Electrical Engineering for the 19th time. The first Conference was held in 1996 and, since that time, has been held every year. Total number of 3302 lectures have been published from 1996 to 2014. During the past eighteenth years about 3500 persons participated to the Conferences, inclusive of the workers of universities, research centres, and industry, also from Czech, Germany, Romania and Ukraine. The Conference is aimed at presenting the applications of existing computer software and original programs in the field of modelling, simulation, measurements, graphics, databases, and computer-aided scientific and engineering works related to electrical engineering. The following thematic groups are foreseen: 1. ELECTRICAL ENGINEERING a. b. c. d. e. f. g. h. i. j. k. l. m. Electromagnetic field, electromagnetic compatibility Theory of circuits and signals Bioelectromagnetism Power engineering, renewable energy Electronics and power electronics Electrical engineering of vehicles Electrical heating Electrical machines, electrical drive Materials technology Mechatronics Electrical and electronic metrology Microprocessor technology and control systems Lighting technology 2. DIDACTICS, EDUCATION AND SCIENTIFIC INFORMATION Chairman of the Organising Committee ZKwE'2014 Prof. Ryszard Nawrowski, DSc P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Krystian SZYMCZAK* Anna CYSEWSKA-SOBUSIAK* ZASTOSOWANIE ULTRADŹWIĘKÓW W INŻYNIERII BIOMEDYCZNEJ W artykule omówiono wybrane zagadnienia dotyczące wykorzystania fal ultradźwiękowych w inżynierii biomedycznej. W wielu przypadkach ultrasonografia jest jedyną możliwą do zastosowania metodą obrazowania, a nowoczesne ultrasonografy są złożonymi urządzeniami sterowanymi komputerowo. W pierwszej części pracy opisano wybrane zastosowania ultrasonografii w położnictwie. Wykorzystanie efektu przesunięcia dopplerowskiego umożliwia wykrycie ruchu narządu odbijającego wiązkę ultradźwięków i może zostać użyte do nieinwazyjnego wykrywania uderzeń serca płodu. Przedstawiono różne rodzaje prezentacji pozyskiwanych danych. W drugiej części pracy skupiono się na dezintegracji kamieni nerkowych za pomocą ultradźwiękowych fal uderzeniowych. Omówiono problematykę jednoczesnego generowania i ogniskowania fal ultradźwiękowych oraz precyzyjnej lokalizacji kamieni nerkowych. Poruszono również kwestię bezpiecznego stosowania ultradźwięków na potrzeby diagnostyki medycznej, skupiając się na środkach ochrony przed szkodliwym wpływem „hałasu” ultradźwiękowego i na bezpieczeństwie badań ultradźwiękowych. SŁOWA KLUCZOWE: inżynieria biomedyczna, ultradźwięki, ultrasonografia, litotrypsja 1. ZASTOSOWANIE ULTRASONOGRAFII W GINEKOLOGII I POŁOŻNICTWIE 1.1. Wstęp Ocena stanu płodu odgrywa istotną rolę we współczesnym położnictwie [2 – 4]. Celem monitorowania jest upewnienie się, że wszystkie narządy płodu są prawidłowo ukrwione i utlenowane, tak aby procesy metaboliczne mogły przebiegać w sposób prawidłowy. Spośród różnych technik rejestracji czynności serca płodu najczęściej stosowana jest pośrednia nieinwazyjna metoda dopplerowska. Wyznaczenie chwilowej częstości uderzeń serca płodu polega na rejestracji skurczów i rozkurczów serca, na podstawie analizy efektu przesunięcia dopplerowskiego wiązki ultradźwiękowej odbitej od poruszających się zastawek lub ścian serca płodu. Współczesne ultrasonografy umożliwiają obliczanie widm sygnałów dopplerowskich, co pozwala na zobrazowanie rozkładów prędkości __________________________________________ * Politechnika Poznańska. 10 Krystian Szymczak, Anna Cysewska-Sobusiak przepływów krwi w naczyniach [3, 4]. Nieprawidłowy przepływ krwi w badaniu dopplerowskim jest bardzo ważnym sygnałem do intensywnego monitorowania płodu i przebiegu ciąży. 1.2. Tor pomiarowy Badanie dopplerowskie jest badaniem ultrasonograficznym pozwalającym na ocenę przepływów w krążeniu maciczno-łożyskowym. Dzięki badaniu dopplerowskiemu można ocenić ukrwienie poszczególnych struktur płodu oraz zbadać przepływy w małych naczyniach niewidocznych podczas standardowego USG. Wykorzystując efekt przesunięcia dopplerowskiego, możliwe jest wykrycie ruchu narządu odbijającego wiązkę ultradźwięków. Fala ultradźwiękowa dość łatwo przenika przez tkankę miękką, a część tej fali odbija się od powierzchni, gdzie skokowo zmienia się impedancja akustyczna tkanki, np. na styku dwóch różnych organów. Jeśli połącznie tkanek jest w ruchu względem źródła fal ultradźwiękowych, to częstotliwość odbitego sygnału będzie przesunięta względem pierwotnego sygnału zgodnie z efektem Dopplera. Dzięki temu zjawisku możliwe jest wykrywanie uderzeń serca płodu. Fale ultradźwiękowe są generowane w przetworniku sprzężonym akustycznie z powierzchnią brzucha matki dzięki zastosowaniu odpowiedniego żelu. Najczęściej stosuje się wiązkę ultradźwiękową w zakresie częstotliwości (12) MHz, gdyż fala wnika na tyle głęboko, aby w wystarczającym stopniu objąć płód. Fala ultradźwiękowa zostaje częściowo odbita od różnych powierzchni rozdzielających dwa ośrodki płodu: serce i krew. Dotyczy to szczególnie płatków zastawki. W tym przypadku, w niektórych fazach cyklu serca występują stosunkowo duże wartości prędkości ruchu. Wówczas wiązka ultradźwiękowa, odbita na granicy zastawka krew, ma częstotliwość znacznie zmienioną. Zmiana częstotliwości jest związana z prędkością odbijającej powierzchni, dzięki czemu możliwy do wykrycia jest każdy cykl uderzenia serca. Kardiotokografia jest jedną z głównych metod oceny stanu płodu, kontrolując czynności serca płodu na tle aktywności skurczowej macicy [2, 4]. Podstawowe składowe toru do ultradźwiękowej rejestracji czynności serca płodu w klasycznym kardiotokografie przedstawiono na rys. 1. 1.3. Obrazowanie ultrasonograficzne W zależności od rodzaju badania stosuje się różne rodzaje prezentacji danych ultradźwiękowych: prezentację typu A (Amplitude), typu B (Brightness) i typu M (Motion) [3]: Prezentacja typu A jest to najstarszy i najprostszy sposób prezentacji danych ultradźwiękowych, który polega na wyświetlaniu chwilowych wartości Zastosowanie ultradźwięków w inżynierii biomedycznej 11 odbieranego sygnału USG w funkcji czasu. Do uzyskania obrazów w prezentacji A wystarczy głowica USG z pojedynczym przetwornikiem piezoelektrycznym, nadająca impuls pobudzający i odbierająca echa powstające w badanym ośrodku. Ten sposób prezentacji danych stosowany jest do tej pory w okulistyce. Umożliwia on łatwą ocenę struktur oka, w tym np. stwierdzenie odklejenia się siatkówki. Rys. 1. Schemat toru pomiarowego w klasycznym kardiotokografie [2] Prezentacja typu B polega na wizualizacji dwuwymiarowego przekroju, w której wartość chwilowa odbieranego sygnału moduluje jaskrawość kolejnych punktów obrazu. Obraz generowany jest w ten sposób, że głowica ultradźwiękowa emituje impulsy w postaci wąskiej wiązki w ściśle określonym kierunku. Następnie odbiera z tego kierunku echa, powstające na niejednorodnościach struktur biologicznych. Często charakterystyka kierunkowa odbiorcza jest bardziej ostra i lepiej określona, niż charakterystyka nadawcza. Wypadkowa charakterystyka kierunkowa jest iloczynem charakterystyk nadawczych i odbiorczych. Inaczej mówiąc, sygnał odbierany ze zbioru punktów ośrodka jest iloczynem zbiorów punktów pobudzonych przy nadawaniu i odsłuchanych przy odbiorze. W ten sposób tworzony jest jeden promień akustyczny. Po odsłuchaniu i zapamiętaniu wszystkich ech z tego promienia, głowica ultradźwiękowa emituje kolejny promień. Po zapamiętaniu ech ze wszystkich promieni (w współczesnych aparatach USG jest ich od 100 do 400) aparat wyświetla zapamiętany obraz. Prezentacja typu B jest najczęściej stosowana w diagnostyce USG. Możliwości jej są dodatkowo 12 Krystian Szymczak, Anna Cysewska-Sobusiak zwiększone przez liczne algorytmy pomiarowe. Rysunek 2 przedstawia płód w obrazowaniu typu B [6]. Prezentacja typu M – nazywana dawniej TM (Time Motion), polega na odsłuchu echa z tego samego kierunku w kolejnych momentach. Odebrane echa wyświetlane są w taki sposób jak w prezentacji B, tzn. wartość chwilowa sygnału modeluje jaskrawość wyświetlanych punktów, a kolejne linie są wyświetlane obok siebie, pionowo. Obraz w prezentacji jest przewijany, to znaczy w danym kierunku jest na bieżąco zapisywana i wyświetlana ostatnia linia z prawej strony. Wcześniejsze linie przesuwane są w lewo. Rys. 2. Ultrasonograficzny obraz płodu w 14-tym tygodniu ciąży wykonany aparatem USG Logiq 200 firmy General Electric [6] USG 3D/4D – ten typ obrazowania w porównaniu z prezentacją typu B umożliwia uzyskanie obrazu trójwymiarowego lepszej jakości i o wiele większej rozdzielczości. Obraz uzyskiwany w wyniku badania USG 4D jest dodatkowo rejestrowany w czasie rzeczywistym. 2. DEZINTEGRACJA KAMIENI NERKOWYCH ZA POMOCĄ ULTRADŹWIĘKOWYCH FAL UDERZENIOWYCH 2.1. Wstęp Fala ultradźwiękowa ulega osłabieniu wskutek pochłaniania, rozpraszania i odbicia [1 – 4]. W diagnostyce wykorzystuje się głównie zjawisko odbicia, a w terapii zjawisko pochłaniania. Wpływ ultradźwięków na kamienie moczowe zaczęto badać na początku lat pięćdziesiątych XX wieku, ale przełom w tym zakresie nastąpił pod koniec lat siedemdziesiątych, gdy została opracowana metoda ESWL (Extracorporeal Shock Wave Lithotripsy), polegająca na kruszeniu kamieni w sposób najmniej Zastosowanie ultradźwięków w inżynierii biomedycznej 13 inwazyjny, za pomocą wysokoenergetycznych fal uderzeniowych generowanych poza ciałem człowieka [2, 4]. W Polsce zainicjowano pierwsze badania nad litotrypsją kamieni nerkowych w roku 1987, a zaowocowały one zbudowaniem w 1989 roku pierwszego eksperymentalnego urządzenia. W 1988 roku powstało w Polsce pierwsze centrum litotrypsji w klinice Urologii AM w Warszawie, wyposażone w litotryptor Lithostar firmy Simens. W 1995 roku, w tej samej klinice, pomyślne badania przeszedł prototyp litotryptora opracowanego w Zakładzie Ultradźwięków IPPT PAN. 2.2. Podstawy fizyczne Dezintegracja kamieni nerkowych działa na zasadzie wytworzenia wysokiego ciśnienia (do 100 MPa) na kamieniu nerkowym, powodując jego kruszenie się na piasek. Ciśnienie o krótkim czasie trwania i dużej amplitudzie jest wytwarzane w procesie propagacji fal uderzeniowych. Fale uderzeniowe, w przeciwieństwie do fal stosowanych w diagnostyce, tworzą krótkie impulsy o charakterystycznym, nanosekundowym narastaniem czoła impulsu (rys. 3). Fale te wykazują małe tłumienie podczas przechodzenia przez wodę i tkanki miękkie, nie powodując w nich uszkodzeń. Rys. 3. Lokalizacja i monitorowanie kamienia z zastosowaniem dwóch systemów rentgenowskich w urządzeniu DORNIERA HM-1 [2]; LR- lampy rentgenowskie, WO-wzmacniacze obrazu Dezintegracja kamieni falami uderzeniowymi spowodowana jest kilkoma zjawiskami mogącymi wystąpić pojedynczo lub jednocześnie: Amplituda ciśnienia fali uderzeniowej może od razu przewyższać krótkotrwały opór ciśnieniowy kamienia. Kamień zostaje wówczas zniszczony w wyniku przejścia fali uderzeniowej. 14 Krystian Szymczak, Anna Cysewska-Sobusiak Fala rozciągająca, która pojawia się wskutek odbicia na tylnej stronie kamienia, prowadzi do kruszenia materiału nawet przy niewielkiej amplitudzie w związku z niską granicą wytrzymałości substancji mineralnych na rozciąganie. Wytrzymałość kamieni nerkowych na ściskanie zawarta jest w granicach (1,9217,5) MPa, a na rozciąganie (0,08–3,43) MPa. Zjawiska kawitacyjne. W trakcie ekspozycji kamienia na impuls fali uderzeniowej, na jego powierzchni i w szczelinach powstają pęcherzyki gazu (kawitacyjne), które zapadając się są źródłami fali uderzeniowej. Powstaje wówczas lokalny wzrost ciśnienia do 10 MPa. Zjawiska te prowadzą do erozji powierzchniowej i mikropęknięć. 2.3. Lokalizacja kamieni Efektywność procesu dezintegracji kamienia metodą ESWL zależy od precyzji zlokalizowania kamienia w nerce chorego i od pozycjonowania pacjenta tak, aby kruszony kamień znajdował się w ognisku fali uderzeniowej. Na rysunku 3 przedstawiono urządzenie DORNIERA [2], gdzie zastosowano system składający się z dwóch aparatów rentgenowskich monitorujących w czasie rzeczywistym nerkę pacjenta, a obraz obserwowano na dwóch monitorach. Uzyskiwano precyzję lokalizacji kamieni do 1 mm, ale pacjent poddawany był napromieniowaniu przez około 1 godzinę. Lokalizację USG, korzystną z punktu widzenia bezpieczeństwa pacjenta, wprowadzono po raz pierwszy w urządzeniu LT-01 (EDAP). Jednakże tylko około 50% kamieni moczowych można lokalizować tą metodą, gdyż obraz kamienia jest prezentowany w postaci trudnego do interpretacji cienia akustycznego. Doskonalenie techniki RTG, polegające na wprowadzeniu wzmacniaczy obrazu z pamięcią cyfrową i zmniejszenie ekspozycji na promieniowanie, spowodowało obecne lokalizowanie kamieni tą techniką. Podstawą skutecznej litotrypsji zlokalizowanego kamienia jest jego precyzyjne umieszczenie w ognisku głowicy udarowej i utrzymanie go w tej pozycji podczas kruszenia. Czynności te są realizowane za pomocą specjalnego, sterowanego komputerowo stołu, na którym leży pacjent. W wycięciu blatu takiego stołu znajdują się jedna lub dwie głowice udarowe, osłonięte kołpakami gumowymi i sprzęgnięte akustycznie z ciałem pacjenta warstwą żelu. 3. BEZPIECZEŃSTWO STOSOWANIA ULTRADŹWIĘKÓW W DIAGNOSTYCE MEDYCZNEJ Jedną z głównych przyczyn, dla których metody ultrasonograficzne stosuje się powszechnie w diagnostyce medycznej, jest przekonanie, że metody te są całkowicie nieszkodliwe dla zdrowia pacjenta. Kilkudziesięcioletnie doświadczenia potwierdzają tezę, że fale ultradźwiękowe o natężeniach Zastosowanie ultradźwięków w inżynierii biomedycznej 15 stosowanych w diagnostyce medycznej nie wywołują skutków ubocznych [3, 4]. W rezultacie jedyną powszechnie dostępną metodą obrazowania stosowaną w monitorowaniu ciąży i prognozowaniu terminu porodu jest ultrasonografia. Propagacja fali ultradźwiękowej wiąże się jednak z depozycją w ośrodku energii, która doprowadza do lokalnego wzrostu temperatury o wartości zależnej od natężenia fali i czasu jej oddziaływaniania. Największe wartości natężenia (do 800 mW·cm-2) występują przy badaniach typu cwD (continuous wave Doppler). Przy obrazowaniu echograficznym wartość natężenia rzadko przekracza 100 mW·cm-2. Czas badania wynosi kilkadziesiąt sekund. Aby wywołać wzrost temperatury powyżej 42ºC, tj. hipertermię, jak wykazują próby stosowania ultradźwięków w terapii nowotworowej, konieczne jest zastosowanie natężeń fali ultradźwiękowej o wartościach znacznie większych niż na potrzeby diagnostyczne. Kolejnym szkodliwym zjawiskiem jest tzw. kawitacja (powstawanie w cieczy pęcherzyków wypełnionych gazem przy spadku ciśnienia poniżej wartości progowej). Czynnikami, które do tego prowadzą, są: wartość ujemnego ciśnienia wywołanego propagacją fali akustycznej i czas trwania impulsu ultradźwiękowego. W 1976 roku Amerykański Instytut Ultradźwięków określił dopuszczalne dawki ultradźwięków stosowanych w medycynie. Zgodnie z nimi nie zauważono żadnych znamiennych oddziaływań ultradźwięków in vivo na tkanki ssaków przy natężeniach fali poniżej 0,1 W/cm2 (bez ogniskowania) oraz 1W/cm2 przy ogniskowaniu (wartość szczytowa w przestrzeni, uśredniona w czasie, oznaczona skrótem SPTA (Space Peak Time Average), mierzona w wodzie). Przy większych natężeniach nie stwierdzono zmian biologicznych, gdy iloczyn natężenia i czasu działania ultradźwięków był mniejszy niż 50 Ws/cm2, przy czasie działania ultradźwięków w zakresie (1500) s (bez ogniskowania) oraz krótszego niż 50 s dla wiązki zogniskowanej. W 1992 roku amerykańskie organizacje NEMA (North American Manufactures Association) i AIUM (American Institute of Ulrasound in Medicine) wyraziły zgodę na dobrowolną standaryzację ultradźwiękowego sprzętu diagnostycznego oraz umieszczanie odpowiedniej informacji na ekranie aparatu. 4. PODSUMOWANIE Nowoczesne ultrasonografy są złożonymi urządzeniami sterowanymi komputerowo. Ultrasonografia znajduje obecnie coraz szersze zastosowanie w inżynierii biomedycznej zarówno na potrzeby diagnostyki, jak i terapii. W artykule przedstawiono przykłady: diagnostycznego zastosowania obrazowania USG we współczesnym położnictwie oraz terapeutycznego zastosowania ultradźwiękowych fal uderzeniowych do kruszenia kamieni nerkowych. Postęp technologiczny umożliwia budowę wielofunkcyjnej aparatury o bardzo wysokiej rozdzielczości i specjalistycznym oprogramowaniu pozwalającym na 2-, 3- i nawet 4-wymiarowe obrazowanie. W pracy poruszono również kwestię bezpieczeństwa badań 16 Krystian Szymczak, Anna Cysewska-Sobusiak ultradźwiękowych. Ultrasonografię uznaje się za skuteczną i bezpieczną technikę, ale ze względu na możliwość powstawania w organizmie człowieka efektów termicznych i kawitacyjnych konieczny jest dobór fali akustycznej o odpowiedniej częstotliwości i możliwie najmniejszej mocy. LITERATURA [1] Pawlicki G., Podstawy inżynierii biomedycznej, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 1997. [2] Polska Akademia Nauk, Biocybernetyka i Inżynieria Biomedyczna 2000, Tom 2, Biopomiary, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001. [3] Polska Akademia Nauk, Biocybernetyka i Inżynieria Biomedyczna 2000, Tom 8, Obrazowanie biomedyczne, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003. [4] Hrynkiewicz Z.A., Rokita E., Metody diagnostyki medycznej i terapii, Wydawnictwo Naukowe PWN, Warszawa 2000. [5] Tadeusiewicz R., Śmietański J., Pozyskiwanie obrazów medycznych, Wyd. Studenckiego Towarzystwa Naukowego, Kraków 2011. [6] http://www.ginekolog.krakow.pl/usg.htm Dostęp 01.2014 r. APPLICATION OF ULTRASOUNDS IN BIOMEDICAL ENGINEERING This paper describes the selected problems concerned with the common use of ultrasounds in biomedical engineering. The modern USG units are the complex computercontrolled devices. In a lot of cases ultrasonography is only one method which may be safely used in medical imaging. Firstly, some selected applications of ultrasonography in obstetrics are presented. Different kinds of the acquired data presentation are described. Secondly, specific questions concerning disintegration of the kidney stones by the use of the ultrasonic shock waves are mentioned. Safe applying the ultrasounds has been also raised, focusing on the means of the protection from the harmful influence „noise” of ultrasounds and on the safety of ultrasonic investigations. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Zbigniew KRAWIECKI* Dariusz GLOGER* WIRTUALNY PRZYRZĄD POMIAROWY DO REJESTRACJI SYGNAŁU DŹWIĘKOWEGO Z ZASTOSOWANIEM ŚWIATŁA Z LASERA PÓŁPRZEWODNIKOWEGO W artykule opisano budowę i działanie wirtualnego przyrządu pomiarowego służącego do rejestracji sygnałów dźwiękowych. Nośnikiem informacji jest modulowane falą akustyczną światło z lasera półprzewodnikowego. W pracy opisano poszczególne elementy wchodzące w skład przyrządu oraz aplikację sterującą jego działaniem. Aplikacja została napisana w środowisku programistycznym LabVIEW. Jest ona narzędziem, które może być wykorzystywane do pozyskiwania, interpretacji, odtwarzania oraz analizy sygnałów dźwiękowych. Zrealizowany etap prac potwierdzony został przykładowymi pomiarami. SŁOWA KLUCZOWE: wirtualny przyrząd pomiarowy, fotodetektor, laser półprzewodnikowy 1. WPROWADZENIE Technika rejestracji fali akustycznej z wykorzystaniem światła lasera jest alternatywą do rozwiązań, w których stosuje się tradycyjny mikrofon. Nie jest jednak tak powszechnie stosowana. Rozważając praktyczną realizację układu pomiarowego należy zwrócić uwagę na szereg czynników, które związane są m.in. ze specyfiką sygnału pomiarowego jako nośnika informacji oraz właściwościami optycznymi zestawianego kanału pomiarowego. Należą do nich: rozpraszanie i pochłanianie promieniowania optycznego w torze pomiarowym, odległość, kąt padania, kąt odbicia światła laserowego pomiędzy nadajnikiem, źródłem dźwięku (powierzchnią odbijającą) i odbiornikiem itd. Są to czynniki, które ze względów metrologicznych mają znaczenie gdyż wpływają na wartość i jednocześnie jakość rejestrowanego sygnału. W niniejszym artykule opisany został pierwszy (początkowy) etap prac, który związany jest z wykonaniem wirtualnego przyrządu pomiarowego do rejestracji i analizy sygnałów akustycznych, których nośnikiem będzie odbite od źródła dźwięku promieniowanie optyczne (światło z lasera półprzewodnikowego). __________________________________________ * Politechnika Poznańska. 18 Zbigniew Krawiecki, Dariusz Gloger 2. ZAŁOŻENIA PROJEKTOWE Przyjęto, że konstruowany przyrząd będzie wykonany jako mobilne stanowisko pomiarowe. Wobec tego urządzenia zastosowane do budowy powinny posiadać własne zasilanie np. z baterii lub akumulatora. Dodatkowo przewiduje się możliwość ich zasilania także z sieci energetycznej. Sterowanie będzie realizowane z poziomu komputera PC i najlepszym rozwiązaniem w takim przypadku jest zastosowanie jednostki mobilnej (laptopa) oraz wykorzystanie komunikacji z urządzeniami peryferyjnymi w oparciu o dostępne magistrale. Komputer PC z napisanym oprogramowaniem sterującym będzie pełnił funkcję kontrolera, tzn. jednostki nadzorującej działanie wirtualnego przyrządu z funkcją wyzwalania pomiarów. Urządzenia peryferyjne będą tworzyły funkcjonalnie dwa bloki: jeden odpowiedzialny za sterowanie diodą laserową czyli będzie to blok nadajnika i drugi pełniący funkcję odbiornika sygnału. Przewiduje się, że sprzętowo blok nadajnika promieniowania optycznego zostanie zrealizowany z diody laserowej z układem kontrolno-sterującym. Układ ten będzie sterowany (wyzwalany) zewnętrznym sygnałem. Natomiast blok odbiornika sygnału będą tworzyły: detektor promieniowania optycznego, przedwzmacniacz sygnału, filtr dolnoprzepustowy i karta pomiarowa. Schemat blokowy takiego stanowiska (wirtualnego przyrządu pomiarowego) został przedstawiony na rysunku 1. Rys. 1. Schemat blokowy wirtualnego przyrządu pomiarowego Na obecnym etapie uruchamiania przyrządu pomiarowego pewne elementy budowy zostaną uproszczone tzn. pominięty zostanie w części nadawczej układ kontrolno-sterujący z diodą laserową a w to miejsce zostanie wykorzystany typowy wskaźnik laserowy. Przyjęto, że pomiary sygnałów będą wykonywane dla stosunkowo niewielkich odległości, nie przekraczających 1 m między nadajnikiem a źródłem dźwięku oraz między źródłem dźwięku i fotodetektorem. Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego … 19 Aplikacja sterująca pracą stanowiska powinna umożliwiać rejestrację „surowych” wyników pomiarów do pliku tzn. próbek sygnału, rejestrację pliku muzycznego z rozszerzeniem wav oraz późniejszy odczyt tych danych. Wyniki pomiarów kartą DAQ powinny być prezentowane na wyświetlaczu graficznym w funkcji czasu. Program powinien z zarejestrowanych próbek wyznaczyć wartość maksymalną, minimalną i skuteczną napięcia oraz poziom sygnału w decybelach. Wśród dodatkowych funkcji przewiduje się analizę sygnału z zastosowaniem transformaty FFT, wyznaczenia widma tercjowego i oktawowego rejestrowanego sygnału. 3. BUDOWA I ZASADA DZIAŁANIA STANOWISKA W oparciu o przyjęte założenia zbudowane zostało stanowisko i napisana aplikacja do jego obsługi. Komputer z aplikacją steruje działaniem karty pomiarowej, która pełni funkcję urządzenia rejestrującego sygnał pomiarowy. Zastosowany został model karty NI-USB 6210 firmy National Instruments [2]. Jest to karta, którą producent wyposażył w 16 bitowy przetwornik A/C o maksymalnej częstotliwości próbkowania 250 kS/s, 16 analogowych multipleksowanych kanałów pomiarowych, 2 wyjścia analogowe, 4 wejścia cyfrowe i 4 wyjścia cyfrowe. Do rejestracji sygnału wykorzystany został jeden z kanałów analogowych karty, przy czym jego numer jest ważny przy zmianie połączeń w układzie. Pomiar sygnału może być wykonywany na jednym z czterech zakresów pomiarowych karty: ±0,2 V, ±1 V, ±5 V, ±10 V. Niedokładność pomiaru wyznaczona dla pełnej skali najmniejszego zakresu pomiarowego wynosi Δ = ± 0,088 mV a dla zakresu największego Δ = ± 2,69 mV. Komunikacja między komputerem PC (kontrolerem) a kartą jest realizowana z użyciem magistrali USB 2. Do obsługi magistrali komunikacyjnej wykorzystano sterowniki zastosowanego środowiska programistycznego. Konfiguracja ustawień parametrów przetwarzania i pracy karty jest wykonywana programowo. Jako źródło promieniowania optycznego wykorzystano typowy wskaźnik laserowy, który składa się z lasera półprzewodnikowego o mocy 1 mW, emitującego światło barwy czerwonej w zakresie długości fali od 650 nm do 670 nm i układu optycznego z soczewką skupiającą (kolimatorem). Detektorem jest fotodioda BPW34 pracująca w zakresie długości fali od 430 nm do 1100 nm, z maksymalną czułością dla długości fali 900 nm. Pole powierzchni światłoczułej tej fotodiody wynosi 7,5 mm2 a kąt detekcji φ = ±65°[3]. Dodatkowo, wyłącznie do celów testowych, na stanowisku jako powierzchnia odbijająca została przygotowana z polichlorku winylu membrana o grubości 0,15 mm. Jest bezbarwna, z obu stron posiada połyskująca powierzchnię. Została zamocowana na statywie i osadzona w okrągłej aluminiowej ramce o średnicy 160 mm. Źródłem dźwięku, również do celów testowych, jest wysokiej klasy głośnik stosowany jako monitor studyjny M1Active MKII, firmy Alesis, o paśmie 20 Zbigniew Krawiecki, Dariusz Gloger przenoszenia mieszczącym się w zakresie od 40 Hz do 23,5 kHz [6]. Układ fotodetektora (fotodioda z szeregowo połączonym rezystorem) zamienia padające na powierzchnię światłoczułą fotodiody promieniowanie optyczne na sygnał elektryczny. Do wstępnej obróbki odebranego sygnału zastosowano przedwzmacniacz i filtr dolnoprzepustowy. Urządzenie zostało zaprojektowane, wykonane i przebadane eksperymentalnie [5]. Wyniki testów wskazują, że przedwzmacniacz charakteryzuje się bardzo dobrą transmisją sygnału w szerokim paśmie częstotliwości słyszalnych od 20 Hz do 20 kHz oraz małymi szumami własnymi układu przy dużym wzmocnieniu. Na rys. 2 przedstawiono widok wykonanego stanowiska pomiarowego. Rys. 2. Widok wykonanego stanowiska pomiarowego, gdzie: a) wskaźnik laserowy, b) fotodetektor, c) membrana, d) źródło dźwięku, e) przedwzmacniacz sygnału, f) karta pomiarowa, g) komputer z aplikacją w LabVIEW Położenie źródła światła i detektora promieniowania optycznego względem zbudowanej membrany zostało dobrane doświadczalnie. Przy wyłączonym źródle dźwięku, odbite od powierzchni membrany światło z lasera tworzy plamkę na powierzchni światłoczułej fotodiody. Wzajemne położenie elementów w układzie optycznym dobrano tak, aby plamka w możliwie największym stopniu obejmowała powierzchnię fotodiody. Dźwięk z głośnika gdy dociera do umieszczonej przed nim dodatkowej membrany wprawia ją w drgania. Odbita od drgającej membrany wiązka światła laserowego zaczyna zmieniać swoje położenie jednocześnie zmieniając pole oświetlanej powierzchni fotodiody. Wywołuje to zmianę prądu płynącego przez fotodiodę i jednocześnie zmianę napięcia na włączonym w szereg rezystorze. W dalszej kolejności sygnał jest odpowiednio wzmocniony w przedwzmacniaczu, odfiltrowany przy użyciu filtru dolnoprzepustowego i Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego … 21 doprowadzony do wejścia analogowego karty pomiarowej. Za pomocą aplikacji sterującej stanowiskiem uruchomiona zostaje rejestracja sygnału, który możemy nazywać sygnałem audio, ponieważ odwzorowuje dźwięk i mieści się w granicach częstotliwości słyszalnych. Sygnał ten może zostać zapisany do popularnego formatu muzycznego wav lub pliku z rozszerzeniem tdms, który zawiera dane o zarejestrowanych próbkach. 4. APLIKACJA STERUJĄCA PRZYRZĄDEM Oprogramowanie zostało napisane w środowisku LabVIEW firmy National Instruments [1, 7]. W algorytmie aplikacji wyodrębnione zostały cztery podstawowe moduły: moduł do sterowania kartą pomiarową, moduł do rejestracji wyników pomiarów, moduł do odczytu wyników z pliku, moduł przetwarzania i analizy wyników pomiarów. Moduł do sterowania kartą pomiarową wykorzystuje dostępny w środowisku LabVIEW kreator konfiguracji zadania pomiarowego. Kreator ten obsługuje „rodzinę” kart wielofunkcyjnych oznaczonych symbolem DAQmx i umożliwia ustawienie wybranych parametrów pracy karty DAQ. W swojej strukturze ma zaimplementowane algorytmy pomiaru różnych wielkości np. napięcia, temperatury, odkształceń (naprężeń), prądu, rezystancji, częstotliwości, położenia, wibracji, natężenia dźwięku itd. Okno dialogowe kreatora zostało przedstawione na rysunku 3. Rys. 3. Okno dialogowe kreatora zadania pomiarowego dla wielofunkcyjnych kart DAQmx 22 Zbigniew Krawiecki, Dariusz Gloger W związku z tym, że kreator przystosowany został do obsługi znacznej grupy kart pomiarowych niektóre z wyświetlonych wielkości nie są obsługiwane przez zastosowany model karty. W prezentowanym rozwiązaniu wirtualnego przyrządu zadanie pomiarowe skonfigurowano na pomiar napięcia, do którego „przypisany” został wirtualny kanał pomiarowy. W kolejnym oknie dialogowym możliwa jest zmiana częstotliwości próbkowania (1), liczby zbieranych próbek (2), zakresu mierzonego sygnału (3), trybu pracy wzmacniacza programowalnego w karcie (4). Parametry te są ustawiane w panelu konfiguracyjnym przedstawionym na rysunku 4. Zamieszczone na rysunku wartości parametrów są to nastawy standardowe ustawione przez producenta sprzętu i możliwa jest ich zmiana w trakcie realizacji pomiarów. Rys. 4. Panel konfiguracji parametrów przetwarzania sygnału i pracy karty DAQ Przyjęto częstotliwość próbkowania o takiej wartości, która jest powszechnie stosowana w cyfrowych urządzeniach rejestrujących tzn. 44100 S/s. Natomiast liczba próbek będzie ulegała zmianie w zależności od czasu rejestracji. W aplikacji oprócz funkcji, które zarządzają stanowiskiem zaimplementowano algorytmy wyznaczania: wartości maksymalnej, minimalnej i wartość skutecznej napięcia. Wartość skuteczna napięcia obliczana jest zgodnie z zależnością (1): U 1 n 1 2 ui n i 0 (1) gdzie: n oznacza numer próbki pomiarowej o wartości chwilowej napięcia ui. Na rysunku 5 przedstawiono panel programu do odczytu danych z pliku z prezentacją wyników w formie graficznej w postaci przebiegu czasowego i widma częstotliwościowego. Pozostałe wymienione w pracy funkcje pomiarowe są dostępne na kolejnych panelach aplikacji. Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego … 23 Rys. 5. Panel programu do odczytu danych z pliku Widoczny na rysunku 5 wynik przykładowego pomiaru jest to sygnał zarejestrowany przy użyciu wykonanego wirtualnego przyrządu pomiarowego gdy do głośnika M1Active MKII doprowadzony został przebieg sinusoidalny o częstotliwości 1 kHz. Widoczne zniekształcenia obwiedni sygnału, które są dodatkowo potwierdzone występowaniem składowych harmonicznych (analiza FFT), prawdopodobnie wynikają z właściwości fizycznych zastosowanej na stanowisku membrany, stopnia jej naprężenia w aluminiowej ramce, właściwości akustycznych otoczenia itd. Przypuszcza się, że w wyniku dalszych prac będzie możliwa modyfikacja stanowiska w celu poprawy właściwości metrologicznych tak, aby ograniczyć wpływ tych elementów, które powodują zniekształcenie sygnału w torze pomiarowym. 5. PODSUMOWANIE Opisany w pracy wirtualny przyrząd pomiarowy został wykonany z zastosowaniem nowoczesnych technik, w których do budowy stanowisk pomiarowych wykorzystuje się elementy sprzętowe i programowe. Podstawowym jego przeznaczeniem jest pomiar sygnałów akustycznych z wykorzystaniem Zbigniew Krawiecki, Dariusz Gloger 24 światła laserowego jako nośnika informacji dźwiękowej w układzie lasermembrana-fotodetektor. Przewiduje się, że zastosowania mogą być szersze jak np.: wykrywanie drgań, wibracji, prędkości wirowania ruchomych elementów maszyn itd. Napisana w środowisku LabVIEW aplikacja działa poprawnie i umożliwia konfigurację karty pomiarowej, rejestrację wyników pomiarów do pliku, odczyt wyników z pliku oraz przetwarzanie i ich analizę. Przeprowadzone zostały przykładowe pomiary w celu sprawdzenia poprawności działania przyrządu. Na dalszym etapie prac przewiduje się wykonanie serii pomiarów dla różnych membran i różnych sygnałów testowych, przeprowadzenie pomiaru sygnału w funkcji jego częstotliwości, wykonanie badań porównawczych z zastosowaniem analizatora sygnałów akustycznych XL2 firmy NTI. LITERATURA [1] [2] [3] [4] [5] [6] [7] LabVIEW User Manual, National Instruments Corporation, 2003. NI USB-621x User Manual, 2009. Dokumentacja techniczna fotodiody BPW34 firmy Vishay. Davis G., Jones R., The Sound Reinforcement Handbook Second Edition, Hal Leonard Publishing Corporation, USA 1989. Gloger D., Odon A., Microphone preamplifier for professional purposes, Academic Journals, Poznań 2010. M1 Active Mk2 Reference Manual, Alesis Corporation, 2001-2005. Otomański P., Krawiecki Z., Odon A., The application of the LabVIEW environment to evaluate the accuracy of alternating voltage measurements, Journal of Physics: Conference Series, 13th IMEKO TC1-TC7 Joint Symposium: Without Measurement No Science, Without Science No Measurement, vol 238, 1-3 September 2010, City University London, UK, pp. 1-6. VIRTUAL MEASURING INSTRUMENT FOR RECORDING SOUND SIGNAL WITH THE USE OF SEMICONDUCTOR LASER LIGHT This paper describes the structure and operation of a virtual measuring instrument designed to record sound signals. The light beam coming from a semiconductor laser, modulated by acoustic wave is the information carrier. All the particular elements of the instrument and the application controlling its operation are presented. The application was created in the LabVIEW software environment. It is a tool that can be used in order to obtain, interpret, play and analyze the sound signals. The achieved stage of the work has been confirmed with the selected measurements. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Marcin JUKIEWICZ* WYKORZYSTANIE MASZYNY WEKTORÓW NOŚNYCH ORAZ LINIOWEJ ANALIZY DYSKRYMINACYJNEJ JAKO KLASYFIKATORÓW CECH W INTERFEJSACH MÓZG-KOMPUTER Głównym celem artykułu jest porównanie skuteczności klasyfikacji cech dwóch algorytmów klasyfikujących wykorzystywanych w interfejsach mózg-komputer: SVM (ang. Support Vector Machine, Maszyna Wektorów Nośnych) oraz LDA (ang. Linear Discriminant Analysis, Liniowa Analiza Dyskryminacyjna). W artykule przedstawiono interfejs, w którym użytkownikowi prezentowane są dwa bodźce migające z różną częstotliwością (10 i 15 Hz), a następnie za pomocą elektrod elektroencefalografu mierzona jest odpowiedź elektryczna mózgu. W takich interfejsach sygnał zbierany jest zwykle w okolicach potylicznych (nad korą wzrokową). W prezentowanym rozwiązaniu sygnał mierzony jest z okolic czołowych. W przetwarzaniu i analizie sygnału zastosowano algorytmy statystycznego uczenia maszynowego. Do ekstrakcji cech sygnału wykorzystano Szybką Transformatę Fouriera, do selekcji cech: test t-Welcha, a do klasyfikacji cech: SVM oraz DLA. Na podstawie odpowiedzi uzyskanej z klasyfikatora możliwe jest np. wysterowanie kierunku skrętu robota mobilnego lub włączenie czy wyłączenie oświetlenia. SŁOWA KLUCZOWE: interfejs mózg-komputer, brain-computer interface, Support Vector Machine, Maszyna Wektorów Nośnych, Linear Discriminant Analysis, Liniowa Analiza Dyskryminacyjna 1. WSTĘP 1.1. Interfejsy mózg-komputer Interfejs mózg-komputer (BCI) to urządzenie, które pozwala osobom sparaliżowanym sterować np. robotem, protezą bądź wózkiem inwalidzkim wykorzystując jedynie reakcje własnego mózgu. Pozwala ono na bezpośrednie przełożenie intencji człowieka na sygnały sterujące, tworząc bezpośrednią ścieżkę komunikacji pomiędzy ludzkim mózgiem a urządzeniami zewnętrznymi, bez udziału mięsni i obwodowego układu nerwowego. Urządzenia te mogą być jedynym możliwym sposobem komunikacji osób niepełnosprawnych, np. z porażeniem dziecięcym, po udarze lub z urazami mózgu czy rdzenia kręgowego [1, 2]. __________________________________________ * PolitechnikaPoznańska. 26 Marcin Jukiewicz W interfejsach nieinwazyjnych powszechnie stosowany jest elektroencefalograf (EEG) z uwagi na szybką odpowiedź elektryczną mózgu na zmieniające się bodźce, względną łatwość akwizycji sygnału oraz niższe koszty systemu w porównaniu z innymi metodami monitorowania aktywności mózgu (magnetoencefalografia, spektroskopia bliskiej podczerwieni, pozytonowa emisyjna tomografia komputerowa lub funkcjonalny rezonans magnetyczny) [2, 3]. Interfejsy wymagają bodźców zewnętrznych. Bodźce mogą być słuchowe, somatosensoryczne lub wzrokowe [2]. Oznacza to, że takimi bodźcami mogą być różne dźwięki, stymulacja dotykowa lub migające światła o różnych częstotliwościach. Spontaniczna, elektryczna reakcja mózgu pojawiająca się na powierzchni mózgu w wyniku zarejestrowania przez człowieka zewnętrznego bodźca nazywana jest potencjałem wywołanym. W typowym interfejsie mózgkomputer każdy bodziec jest związany z poleceniem, które steruje aplikacją bądź urządzeniem zewnętrznym. Aby wybrać polecenie, użytkownik musi skupić swoją uwagę na odpowiednim bodźcu. 1.2. Wzrokowe potencjały wywołane Aby wybrać polecenie, użytkownik musi skupić swoją uwagę na odpowiednim bodźcu. Wzrokowe potencjały wywołane stanu ustalonego SSVEP (ang. Steady State Visual Evoked Potentials) to reakcja mózgu obserwowalna głównie w korze wzrokowej, podczas gdy osoba badana skupia uwagę na obrazie (wyświetlanym na ekranie monitora) migoczącym z częstotliwością powyżej 4 Hz. Częstotliwością dominującą w sygnale elektrycznym zmierzonym w okolicach potylicznych jest więc częstotliwość, z jaką migocze bodziec obserwowany przez badanego oraz jego harmoniczne. Rys. 1. Umiejscowienie elektrod przedczołowych i potylicznych wg standardu 10-20 W sytuacji, kiedy bodźców jest więcej i każdy pulsuje z inną częstotliwością, można stwierdzić, na który z obiektów patrzy badany [2, 7]. Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy … 27 Do pomiaru sygnału znad kory wzrokowej (obszar potyliczny), wykorzystywane są głównie elektrody encefalografu oznaczone jako O1, O2 i Oz, zgodnie z międzynarodowym standardem 10-20 (rys. 1) [2]. 1.3. Przedstawienie problemu Montaż i korygowanie umiejscowienia elektrod na potylicy może być uciążliwe z uwagi na owłosienie w tym rejonie głowy oraz szczególnie kłopotliwe u osób o ograniczonej sprawności ruchowej (np. pacjenci leżący). Dlatego warto rozważyć możliwość pomiaru reakcji SSVEP w rejonach innych niż płat potyliczny. W tym artykule zaproponowano wykorzystanie sygnału mierzonego z kory przedczołowej [5, 6]. Jest to miejsce istotne z uwagi na brak owłosienia czoła, ma jednak pewne wady. Sygnał z tej okolicy zawiera głównie tak zwane fale alfa o częstotliwości (8-13) Hz i beta (13-30) Hz, związane z poziomem skupienia i zrelaksowania osoby badanej oraz składowe pochodzące od aktywności mięśni czoła [4]. Częstotliwość, z jaką miga bodziec, nie jest więc częstotliwością dominującą w sygnale pozyskiwanym z tych okolic. 2. BADANIA WŁASNE Badanemu prezentowane były bodźce w postaci dwóch żółto-zielonych szachownic, z których każda była kwadratem o wymiarach (7x7) cm. Szachownicę lewą wyświetlano z częstotliwością 15 Hz, natomiast szachownicę prawą z częstotliwością 10 Hz. Prezentowano je na 14-calowym monitorze LED, umieszczonym w odległości 50 cm od osoby badanej. Do pomiaru sygnału z głowy użyto jednej, suchej elektrody czołowej Fp1 (rys. 1) oraz jednej elektrody referencyjnej zamontowanej na uchu. Sygnał rejestrowano z częstotliwością próbkowania równą 512 Hz. W każdym z piętnastu powtórzeń badany proszony był, aby najpierw skupiał wzrok na lewej szachownicy przez 1 s, a następnie, także przez 1 s, na prawej szachownicy. W ten sposób uzyskano 30 jednosekundowych próbek. Do analizy sygnału wykorzystano środowisko MATLAB. Na rys. 2 przedstawiono kolejne etapy analizy sygnału, omówione poniżej. Sygnał został poddawany filtracji cyfrowej za pomocą filtru pasmowoprzepustowego tak, aby do dalszej analizy pozostało jedynie pasmo częstotliwości (5,049,5) Hz. Następnie wykorzystano 1024-punktową FFT do ekstrakcji cech sygnału. Uzyskane w ten sposób cechy zostały znormalizowane w przedziale od 0 do 1. Selekcja wykorzystywana jest do minimalizacji liczby cech poddawanych dalszej analizie, poprzez uszeregowanie ich od cech „najistotniejszych” do „najmniej istotnych”. Odrzucenie cech nieistotnych pozwala na znaczne przyspieszenie działania interfejsu w czasie rzeczywistym. Do selekcji użyto testu t-Welcha. 28 Marcin Jukiewicz Rys. 2. Schemat blokowy prezentujący kolejne etapy przetwarzania sygnału W ostatnim etapie uczenia interfejsu próbki poddawane są pięciokrotnemu sprawdzianowi walidacji krzyżowej. Z pełnego zbioru wydzielanych jest 6 próbek, które stają się zbiorem testowym, reszta próbek to zbiór treningowy. Do klasyfikacji używane są dwa algorytmy: Maszyna Wektorów Nośnych SVM (ang. Support Vector Machine) oraz Liniowa Analiza Dyskryminacyjna LDA (ang. Linear Discriminant Analysis). Klasyfikacja odbywa się przy użyciu k cech (gdzie k = 1,2,…,90), W zebranych wynikach klasyfikacji obu algorytmów ustala się, które odpowiedzi są prawidłowe, a które nie i na tej podstawie wyznaczana jest skuteczność danego klasyfikatora. W ostatniej fazie ustalana jest optymalna (o największej skuteczności rozpoznania bodźca) liczba wyselekcjonowanych wcześniej cech. Tylko te cechy wykorzystywane są w etapie testowania interfejsu. W tym etapie badany poddawany jest kolejnym 30 próbom. W każdej z prób informuje się go, na której z szachownic ma skupić wzrok. 3. ANALIZA WYNIKÓW W tabeli 1 zamieszczono wyniki pozyskane w badaniach 10 osób. Tabela przedstawia skuteczność klasyfikacji w fazie testowej dwóch algorytmów: Maszyny Wektorów Nośnych oraz Liniowej Analizy Dyskryminacyjnej. Maszyna Wektorów Nośnych umożliwiła uzyskanie skuteczności w przedziale od 63% do 87%. Średnia wartość skuteczności tego algorytmu wyznaczona na podstawie wyników uzyskanych od wszystkich osób wynosi 77%. Liniowa Analiza Dyskryminacyjna umożliwiła uzyskanie skuteczności w przedziale od 67% do 90%. Średnia wartość skuteczności tego algorytmu wyznaczona na podstawie wyników uzyskanych od wszystkich osób wynosi 80%. Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy … 29 Tabela 1. Skuteczność klasyfikacji w fazie testu Faza testu Podmiot LDA SVM Osoba 1 90% 83% Osoba 2 67% 63% Osoba 3 90% 87% Osoba 4 80% 63% Osoba 5 57% 77% Osoba 6 80% 80% Osoba 7 87% 87% Osoba 8 90% 67% Osoba 9 77% 80% Osoba 10 83% 80% średnia 80% 77% 4. PODSUMOWANIE W przedstawionych badaniach dokonano analizy dwóch algorytmów uczenia maszynowego na potrzeby dwuklasowego interfejsu mózg-komputer, bazującego na analizie sygnału pobranego z kory przedczołowej. Lepszym rozwiązaniem od Maszyny Wektorów Nośnych okazała się Liniowa Analiza Dyskryminacyjna. Dla algorytmu LDA średnia (dla 10 osób) skuteczność klasyfikacji jest o 3% większa niż w przypadku algorytmu SVM, dając skuteczność rozpoznania bodźca w przedziale od 67 do 90%. Należy sądzić, że polepszenie wyników rozpoznania bodźca oraz zwiększenie liczby klas powinny być możliwe przez zwiększenie liczby elektrod pomiarowych zamontowanych na czole badanej osoby. Otrzymane dotąd wyniki są na tyle obiecujące, że przedmiotem planowanych dalszych prac nad interfejsem mózgkomputer będzie modyfikacja układu pomiarowego. 30 Marcin Jukiewicz LITERATURA [1] [2] [3] [4] [5] [6] [7] Birbaumer N., Breaking the silence: Brain–computer interfaces (BCI) for communication and motor control. Psychophysiology, Volume 43, 517–532, ISSN 0048-5772, 2005. Graimann B., Allison B., Pfurtscheller G., Brain–Computer Interfaces: A Gentle Introduction, Brain-Computer Interfaces The Frontiers Collection. 2010. Schalk G., McFarland D. J., Hinterberger T., Birbaumer N., Wolpaw J R., BCI2000: A General-Purpose Brain-Computer Interface (BCI) System, IEEE Transations on Biomedical Engineering, vol. 51, no. 6, pp. 1034-1043, 2004. van Drongelen W., Signal Processing for Neuroscientists, Academic Press, 2006. Vialatte F,, Maurice M., Dauwels J., Cichocki A., Steady-state visually evoked potentials: Focus on essential paradigms and future perspectives, Progress in Neurobiology 90, pp. 418–438, 2010. Wang R., Zhang Y., Gao X., Gao S., “Lead selection for SSVEP-based binocular rivalry,” in 2005 First International Conference on Neural Interface. Wolpaw J. R., Birbaumer N., McFarland D. J., Pfurtscheller G., T. M. Vaughan, Brain–computer interfaces for communication and control, Clinical Neurophysiology 113, pp. 767–791, 2002. USING SUPPORT VECTOR MACHINE AND LINEAR DISCRIMINANT ANALYSIS FOR FEATURES CLASSIFICATION IN BRAIN-COMPUTER INTERFACES The main aim of this article is to compare the effectiveness of the classification of the two classifiers used in brain-computer interfaces: SVM (Support Vector Machine) and LDA (Linear Discriminant Analysis). The article presents an interface in which the subject is presented the two stimuli flashing at different frequencies (10 and 15 Hz) and then by using EEG electrodes electrical response of the brain is measured. In these interfaces, the signal is typically collected in the occipital area (on the visual cortex). In the presented solution the signal is measured form the prefrontal cortex. For signal processing and analysis statistical machine learning algorithms were used. For features’ extraction Fast Fourier Transform was used. For features’ selection Welch’s t test was used. For features’ classification was used SVM and DLA. Based on the responses obtained from the classifier it is possible to control the direction of a mobile robot’s movement or turning the lights on and off. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Jarosław JAJCZYK* Krzysztof MATWIEJCZYK* DIAGNOSTYKA MAGISTRALI CAN W POJAZDACH Artykuł zawiera informacje na temat magistrali CAN jako sieci transmisji danych stosowanej w przemyśle motoryzacyjnym do komunikacji pomiędzy poszczególnymi układami sterowania. Przybliżono budowę tego systemu oraz omówiono sposoby przesyłania komunikatów. Zaprezentowano metody umożliwiające wykrycie usterek przy fizycznym uszkodzeniu magistrali CAN. SŁOWA KLUCZOWE: magistrala danych, diagnostyka, elektronika pojazdowa 1. WSTĘP Szybki rozwój elektroniki na świecie spowodował, że jest ona również obiektem zainteresowań inżynierów pracujących w koncernach motoryzacyjnych. Jej zastosowanie pozwala na wyposażenie pojazdów w skomplikowane systemy, które zwiększają komfort i bezpieczeństwo jazdy. Na szczególną uwagę zasługują informatyczne sieci komunikacji, które w krótkim czasie stały się podstawowym systemem wymiany danych w pojazdach. Dzięki nim ograniczona została masa własna pojazdów oraz poprzez zastosowanie cyfrowego sygnału poprawiona została jakość transmisji. Najpopularniejszą siecią stosowaną powszechnie przez producentów pojazdów jest magistrala CAN (ang. Controller Area Network). Po raz pierwszy została ona zastosowana przez koncern Mercedesa w 1992 roku a już na początku dwudziestego pierwszego wieku była podstawowym systemem każdego samochodu [1]. Aby ujednolicić to rozwiązanie, powołana została organizacja CAN in Automation, która opracowała standardy związane z magistralą CAN. Wprowadziła ona obowiązującą normę europejską ISO 11898, która odpowiada amerykańskiej normie SAE J1939 i opisuje warstwę fizyczną systemu CAN oraz warstwę aplikacji [4, 5, 10]. Magistrala CAN jest odpowiedzią na zwiększającą się liczbę czujników, sterowników oraz elementów wykonawczych w pojazdach. Mnogość systemów w jakie zostały wyposażone samochody utrudnia przejrzystą wymianę danych, stąd też podzespoły grupuje się np. w systemy oświetlenia, nadwozia, napędu itd. W pojazdach znajduje się więcej niż jedna magistrala CAN, a dane są często __________________________________________ * Politechnika Poznańska. 32 Jarosław Jajczyk, Krzysztof Matwiejczyk przesyłane pomiędzy poszczególnymi systemami. Oprócz międzywęzłowej wymiany danych tego typu sieć pozwala na sprawną diagnostykę usterek. Elektroniczne sterowniki poszczególnych systemów monitorują swoją pracę a każda niezgodność zapisywana jest w pamięci w postaci kodu symbolizującego określoną usterkę. Poprzez podłączenie interfejsu diagnostycznego przez złącze OBD kody te są odczytywane a następnie dekodowane [3, 4]. 2. BUDOWA MAGISTRALI CAN Magistrala CAN pozwala łączyć między sobą urządzenia poprzez trzy topologie: linearną, pierścieniową oraz gwieździstą. Ze względów technicznych powszechnie stosowana jest struktura liniowa, która mimo uszkodzeń poszczególnych węzłów zapewnia ciągłą wymianę danych. Warstwa fizyczna magistrali CAN składa się z dwuprzewodowej skrętki łączącej wszystkie nadajniki i odbiorniki. Na obu końcach skrętki montowane są rezystory zwane termistorami, których zadaniem jest zapobieganie zjawisku odbicia się fali elektromagnetycznej. Dane przesyłane są w postaci sygnału różnicowego [9, 10]. Zasadę jego tworzenia przestawiono na rysunku 1. Rys. 1. Transmisja sygnału w skrętce CAN Skrętka magistrali składa się z dwóch przewodów oznaczanych jako CAN_L (niska magistrala CAN) oraz CAN_H (wysoka magistrala CAN). Kiedy występuje bit recesywny w obu przypadkach jest taka sama wartość napięcia, która wynosi 2,5 V. Stan dominujący odzwierciedlają następujące potencjały: dla CAN_L – 1,5 V, zaś dla CAN_H – 3,5 V. W stanie dominującym różnica napięć jest na poziomie ok. 2 V (rys. 1). Ewentualne zakłócenia działające na skrętkę znoszą się, przez co zachowana zostaje wysoka jakość transmisji danych. Długość przewodów magistrali ma znaczenie i wpływa na jakość transmisji. Maksymalna długość magistrali lmax na etapie projektowania wyznaczana jest za pomocą zależności (1) [4]. C l max Cu (1) Vt gdzie: Vt – szybkość transmisji, CCu – prędkość rozchodzenia się sygnału w miedzi (CCu = 2108 m/s). Diagnostyka magistrali CAN w pojazdach 33 Zgodnie z normą ISO 11898 zaleca się, aby długość magistrali nie przekraczała 40 m (ma to sens ze względu na budowę i rozmiary pojazdów) [6, 7, 8]. Warstwa łącza danych odpowiada za nadawanie adresu urządzeniom, który pozwala odbierać komunikaty wysyłane w postaci ramek danych (rys. 2). Rys. 2. Struktura ramki standardu CAN [1] Komunikat składa się z [2, 5, 10]: - pola/bitu startowego (SOF) – rozpoczyna nadawaną ramkę; jego wartość jest zawsze dominująca, - pola statusu (identyfikator wiadomości) – określa priorytet komunikatu i w zależności od przyjętego standardu CAN może składać się z 11 bitów (CAN2.0A) lub 29 bitów (CAN2.0B), - pola sterującego – informuje o standardzie CAN, jaki został przyjęty oraz zawiera informację o długości kolejnego pola ramki (pola danych), - pola danych – maksymalnie 8 bajtów w których zawiera się główna informacja przesyłana w komunikacie, - pola zabezpieczenia – odpowiada za wykrywanie zakłóceń transmisji na podstawie sumy kontrolnej CRC, która jest tworzona przez nadajnik i zapisywana w tym miejscu; przy odbiorze ramki odbiornik tworzy drugą taką sumę i porównuje jej wartość z tą zawartą w polu zabezpieczenia, - pola potwierdzenia (ACK) – dwubitowe pole zawierające informację zwrotną nadaną przez odbiornik o potwierdzeniu odebranej ramki, - pola końcowego (EOF) – siedem bitów o wartości recesywnej, które kończy ramkę danych. Każdy komunikat zawiera również 3-4 bity separujące, które oddzielają między sobą poszczególne ramki. W poprawnie nadawanej ramce nie powinno być sześciu kolejnych bitów o tej samej wartości logicznej. Gdy sterownik wyśle ciąg równych bitów, tranceiver dopisuje dodatkowy bit po pięciu tych samych wartościach. Odbiornik pomija ten bit przy dekodowaniu komunikatu. Ciąg tego typu bitów nazywa się bitami odstępowymi [3, 10]. Rysunek 3 przedstawia część ramki z podziałem na bity. Obszary zacieniowane to bity dopisane. 34 Jarosław Jajczyk, Krzysztof Matwiejczyk Rys. 3. Ciąg bitów z wyszczególnionymi bitami odstępowymi Ostatnią warstwą standardu CAN jest warstwa aplikacji, która nie została określona w żadnych dokumentach prawnych. Przez to, że nie narzucono na tę część żadnych ograniczeń, koncerny samochodowe zbudowały własne protokoły, które ze względów polityki prywatności są utajone. Przykładem tego typu danych są m.in. protokoły sterujące modułami we współczesnych pojazdach. 3. KOMUNIKACJA W MAGISTRALI CAN Urządzenia sterujące i wykonawcze nie mogą być bezpośrednio wpięte do magistrali CAN, ponieważ nie są przystosowane do odbierania i nadawania danych. Aby zapewniona była wymiana informacji, każde z nich musi być wyposażone w dodatkowe układy elektroniczne. W jego skład wchodzi: mikrokontroler, procesor CAN oraz tranceiver. Mikrokontroler odbiera sygnał i przekazuje go w postaci danych do kontrolera CAN. Tworzona jest typowa ramka CAN zawierająca dane. Jej wysyłanie jest realizowane za pomocą tranceivera, który stanowi układ nadający lub odbierający komunikaty. Układy odbierające pozostałych sterowników pobierają dane z magistrali, które przekazują do kontrolerów CAN, gdzie na podstawie identyfikatora odbywa się weryfikacja, czy dany komunikat adresowany był do danego węzła. Jeżeli wiadomość zostanie przyjęta jest ona dalej przetwarzana. Podmieniany jest bit pola potwierdzenia z wartości dominującej na recesywną i odsyłany z powrotem jako rodzaj raportu doręczenia komunikatu dla nadawcy. W pozostałych przypadkach, gdy identyfikator nie zostanie zaakceptowany, odbiór danych jest przerywany [2, 5, 6]. Podstawową metodą dostępu do magistrali jest metoda CSMA/CA – wielostacyjny dostęp do informacji. Urządzenie nadaje informację tak długo, dopóki zapis jej jest zgodny z sekwencją bitów obecnych w magistrali. Jeżeli wysłany zostanie bit recesywny, natomiast sygnał główny będzie miał w tym Diagnostyka magistrali CAN w pojazdach 35 momencie wartość równą logicznemu zeru (bit dominujący), dany węzeł przerywa nadawanie i przechodzi w stan odbioru informacji. Odpowiedzialny za poprawne funkcjonowanie transmisji jest proces arbitrażu, w którym na podstawie identyfikatora ramek nadawany jest priorytet komunikatu. Korzysta się w nim z tzw. metody operacji logicznej „Wired-And”, która polega na nadpisywaniu bitów recesywnych przez bity dominujące. Przebieg arbitrażu gwarantuje, że żaden bit nie jest tracony, a przy tym nie wydłuża się czas nadawania komunikatu [4, 10]. Magistrala CAN jest siecią informatyczną o wysokiej niezawodności. Aby jednak móc na bieżąco kontrolować połączenia oraz wymianę danych, stosuje się systemy wykrywania i korekcji błędów. Informacja o błędzie jest przesyłana najpóźniej pod koniec komunikatu, aby układ nadający mógł powtórzyć wysłanie ramki danych. Wśród metod detekcji błędów wyróżniono [1, 4, 9, 10]: - kontrola nadmiarowa CRC – wykrywanie błędu poprzez porównanie sumy kontrolnej na końcu transmisji w układzie odbierającym komunikat z jej wartością początkową w układzie nadawczym, - sprawdzanie formatu ramki – sprawdzenie poszczególnych pól komunikatu, czy na pewno ich wartości logiczne są zgodne z tymi określonymi w protokole CAN; kontroli podlega struktura komunikatu, - błąd potwierdzenia – brak komunikatu zwrotnego z układu odbiorczego, który informuje nadawcę o poprawnym przebiegu transmisji, - błąd synchronizacji danych - monitorowanie poprawności kodu ramki zgodnie z regułą, że maksymalnie pięć kolejnych bitów może mieć tę samą wartość logiczną. Po wykryciu błędu kontroler CAN przerywa wysyłanie ramki danych. Nadawana jest wtedy tzw. ramka błędu. Jest to sześć kolejnych bitów dominujących (active error flag) lub recesywnych (passive error flag). Sytuacja ta pokazana została na rysunku 4, gdzie od chwili 0,83 ms przerwana została transmisja i nadano ramkę błędu. Rys. 4. Przebieg sygnałów w magistrali CAN podczas nadania ramki błędu 36 Jarosław Jajczyk, Krzysztof Matwiejczyk Nadajnik, któremu przerwano wysyłanie ramki, spróbuje wznowić proces transmisji później, aby inne węzły magistrali przez przypadek nie odebrały błędnych informacji. Po sześciu bitach dominujących następuje osiem bitów recesywnych, które są traktowane jako odstęp po ramce błędu. 4. DIAGNOSTYKA MAGISTRALI CAN Magistrala CAN nie służy jedynie do wymiany informacji pomiędzy przyłączonym do niej urządzeniami. Istnieje możliwość przyłączenia złącza diagnostycznego standardu OBD, przez które za pomocą zewnętrznych interfejsów diagnostycznych można odczytywać parametry poszczególnych układów oraz informacje o zaistniałych błędach. Poprawne funkcjonowanie układu wymaga, aby magistrala nie posiadała żadnych uszkodzeń mechanicznych. Norma ISO 11898 opisuje m.in. usterki mechaniczne magistrali CAN, które mogą powstać w trakcie eksploatacji pojazdów: - przerwany przewód CAN_H lub CAN_L, - przewód CAN_H lub CAN_L zwarty do źródła napięcia, - przewód CAN_H lub CAN_L zwarty do masy, - zwarcie między przewodami magistrali – CAN_H z CAN_L, - przerwanie któregoś z przewodu magistrali, - uszkodzenie rezystora krańcowego magistrali. W celu diagnozy jednej z powyższych usterek stosuje się specjalne interfejsy wyposażone w odpowiednie oprogramowanie. Po ich podłączeniu do magistrali odczytuje się sygnały wysyłanych ramek i na ich podstawie określa typ usterki. Należy w tych przypadkach postępować według następującej strategii [3, 9]: 1) Sprawdzenie magistrali transmisji danych za pomocą testera bądź interfejsu komputerowego. 2) Zapoznanie się z budową całego systemu w badanym samochodzie, a następnie dokonanie pomiarów sieci multimetrem bądź oscyloskopem. 3) Naprawa uszkodzonego przewodu bądź wymiana sterownika z wadliwym złączem, a po przywróceniu sprawności magistrali wykasowanie błędu z pamięci rejestru i ponowne sprawdzenie systemu. W pracy zostały przeprowadzone badania magistrali odpowiedzialnej za systemy silnika i napędu (przepustowość 250 kb/s). Pojazdem, na którym przeprowadzono opisywane doświadczenia, był autobus marki Solaris Urbino U18 z silnikiem gazowym CNG. Jako sprzęt diagnostyczny użyto oscyloskopu PicoScope 3200, posiadającego dwa kanały analogowe oraz szesnaście cyfrowych. Zasymulowano następujące usterki: a) Brak rezystora dopasowującego Na oscylogramie zamieszczonym na rysunku 5 zauważyć można duże oscylacje przy zboczu narastającym sygnału wysokiego i opadającym sygnału niskiego. Diagnostyka magistrali CAN w pojazdach 37 Przekłada się to na zaburzenia sygnału różnicowego. Ciąg bitów stanu niskiego na poszczególnych przewodach odbiega od linii prostej prostej. Rys. 5. Transmisja danych w magistrali CAN przy wypiętym rezystorze krańcowym b) Zwarcie przewodu CAN_L z masą W tym przypadku napięcie na przewodzie CAN_L wynosi 0 V. Sygnałem na magistrali jest przebieg z przewodu CAN_H. Magistrala nie przestaje działać, a jedynie przechodzi w tryb jednoprzewodowy (rys. 6). Rys. 6. Przebieg sygnałów w magistrali CAN podczas zwarcia przewodu CAN_L do masy c) Zwarcie przewodu CAN_H z masą W chwili wystąpienia zwarcia sygnał w przewodzie CAN_H zanika, a napięcie w przewodzie spada do 0 V. W przewodzie CAN_L pojawiają się pojedyncze piki, które oznaczają próbę rozpoczęcia nadawania (rys. 7). Przesył danych w takim przypadku nie jest możliwy, a sieć CAN przestaje pracować poprawnie (począwszy od 1,6 ms – rys. 7). Praca jednoprzewodowa w tym przypadku jest niemożliwa). Stanowi to zabezpieczenie systemowe, aby sygnał różnicowy (UCAN_H – UCAN_L) nie przyjmował ujemnych wartości napięcia. 38 Jarosław Jajczyk, Krzysztof Matwiejczyk Rys. 7. Przebieg sygnałów w magistrali CAN podczas zwarcie przewodu CAN_H do masy d) Zwarcie przewodu CAN_H z CAN_L W początkowej chwili zauważalne są mocne oscylacje, po których napięcia w przewodach magistrali wyrównują się na poziomie 2,5 V. Pojawia się szereg oscylacji, które deformują komunikaty (rys. 8). Rys. 8. Zwarcie między przewodami skrętki magistrali CAN Początkowo występuje próba nadania komunikatu, jednak od momentu zwarcia (2,6 ms) sygnały z obu przewodów pokrywają się ze sobą. Sygnał różnicowy nie występuję o czym świadczy jego wartość równa 0 V. W przypadku tego typu zwarcia magistrala CAN przestaje funkcjonować. e) Zwarcie przewodu CAN_L lub CAN_H z plusem zasilania W tego typu uszkodzeniach magistrala CAN przechodzi w jednoprzewodowy tryb pracy. Napięcie na przewodzie zwartym z plusem zasilania wynosi 12 V lub 5 V. W takich sytuacjach istnieje możliwość uszkodzenia układów elektronicznych. f) Przerwanie któregoś z przewodów magistrali W tym przypadku występuje otwarty obwód jednego przewodu, co oznacza, że magistrala CAN przechodzi w tryb pracy jednoprzewodowej. Sygnał magistrali odpowiada przebiegowi na nieuszkodzonej żyle skrętki. Określenie tego typu usterek nie wymaga zaawansowanej techniki. Każdy producent aut posiada odpowiedni kod usterki, który jest odczytywany poprzez tester diagnostyczny. Diagnostyka magistrali CAN w pojazdach 39 5. WNIOSKI Magistrala CAN to uniwersalny system, który pozwala na integrację wielu urządzeń przy wykorzystaniu wspólnego medium transmisyjnego. Dzięki dwuprzewodowej skrętce i cyfrowemu sygnałowi różnicowemu otrzymuje się wysoką jakość przesyłu. Ważne jest zapoznanie się z zachowaniem magistrali w przypadku uszkodzeń mechanicznych. Tego typu awarie nie są precyzyjnie rozpoznawane przez testery diagnostyczne, dlatego też do weryfikacji miejsca uszkodzenia magistrali CAN używane są multimetry oraz oscyloskopy. Przeprowadzone w pracy badania symulacyjne miały na celu przedstawienie przebiegów napięciowych występujących podczas zaistnienia usterki. Przebieg sygnału różnicowego występuje zawsze, kiedy magistrala jest w trybie pracy dwu lub jednoprzewodowym. Ten drugi tryb odzwierciedla stan awaryjny sieci, który pozwala utrzymać transmisję. Przy projektowaniu magistrali CAN należy przestrzegać norm oraz brać pod uwagę rozmieszczenie instalacji w pojeździe w celu uniknięcia ewentualnych usterek mechanicznych. LITERATURA [1] Czasopismo Elektronika dla wszystkich, s. 97-100, czerwiec 2000. [2] Estchberger K., Controller Area Network, Wyd. 3. Hanser Verlag 2006. [3] Frei Martin, Samochodowe magistrale danych w praktyce warsztatowej, Wydanie 1 WKŁ Warszawa 2010. [4] Fryskowski B., Grzejszczyk E., Systemy transmisji danych, Wydanie 1 WKŁ Warszawa 2010. [5] Informator techniczny Robert Bosch GmbH, Sieci wymiany danych w pojazdach samochodowych, Wydanie 1, Warszawa 2008. [6] ISO 11898-1:2003 Road vehicle – Controller area network (CAN) – Part 1: Data link layer and physical signaling. [7] ISO 11898-2:2003 Road vehicle – Controller area network (CAN) – Part 2: High speed medium access unit. [8] ISO 11898-1:2003 Road vehicle – Controller area network (CAN) – Part 3: Low speed, fault-tolerant, medium-dependent interface. [9] Materiały udostępnione przez Politechnikę Łódzką www.dsod.pl, 29.10.2013. [10] Zimmermann W., Schmidgall R., Magistrale danych w pojazdach. Protokoły i standard, Wydanie 1 WKŁ Warszawa 2008. DIAGNOSTICS OF CAN BUS IN VEHICLES This paper presents more information about CAN Bus System as data transmission network used in automotive industry for communication between other systems. It also describes the elaborated structure and how to create control messages which come from drivers sent by CAN Bus System. This paper also contains ways of searching mechanical faults when bus is broken. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Piotr BAKALAREK* Leszek KASPRZYK* PRZEPŁYWOWY PODGRZEWACZ PALIWA DLA POJAZDÓW Z SILNIKIEM DIESLA W artykule przedstawiono koncepcję przepływowego elektrycznego podgrzewacza paliwa przeznaczonego do pojazdów z silnikiem Diesla z automatyczną regulacją mocy grzewczej w funkcji temperatury, który został wykonany w ramach pracy dyplomowej inżynierskiej. Omówiona została warstwa sprzętowa podgrzewacza oraz zaimplementowane funkcje realizowane przez urządzenie. W pracy zostały także omówione problemy wynikające z użytkowania oleju napędowego w niskich temperaturach oraz zasadność stosowania podgrzewaczy paliwa. SŁOWA KLUCZOWE: podgrzewacz paliwa, pojazdy spalinowe, układy sterowania 1. WSTĘP Układ paliwowy jest najbardziej newralgicznym układem w pojeździe. Zatankowanie złej jakości paliwa może prowadzić do unieruchomienia pojazdu, a nawet do uszkodzenia podzespołów mechanicznych takich jak wtryskiwacze lub pompa wysokiego ciśnienia. Duże znaczenie ma jego czystość, lecz podczas pracy pojazdu w niskich temperaturach pojawia się kolejny istotny problem – wytrącenie parafiny. Jest ona jednym z podstawowych składników oleju napędowego, która w niskich temperaturach wydziela się w postaci zlepiających się kryształów, tworzących ciało stałe. Zostaje ono zatrzymane przez filtr paliwa, doprowadzając do jego całkowitej niedrożności. W klimacie umiarkowanym w okresie zimowym paliwa przystosowane są do pracy w temperaturze powyżej -20 °C. Gdy nastąpi spadek temperatury poniżej tej wartości, mogą zacząć się problemy z poprawną pracą silnika. Istnieją specjalne dodatki zwane depresatorami, które obniżają temperaturę wytrącania parafiny. Są one jednak skuteczne tylko zanim substancja ta wydzieli się z paliwa. Dodatkowo dla ich poprawnego zadziałania należy doprowadzić do dobrego rozprowadzenia depresatora w paliwie. Nie ma skutecznej substancji rozpuszczającej parafinę w ujemnych temperaturach, która nie byłaby szkodliwa dla zdrowia człowieka lub działająca destrukcyjnie na podzespoły silnika. Jedynym znanym skutecznym i nieszkodliwym sposobem jest jej ogrzanie do temperatury, w której ulegnie stopieniu. __________________________________________ * Politechnika Poznańska. 42 Piotr Bakalarek, Leszek Kasprzyk Z tego właśnie powodu pojazdy zaczęto wyposażać w różnego typu podgrzewacze paliwa. Umożliwiają one poprawną pracę silnikom w niskich temperaturach, nawet przy użyciu gorszego jakościowo paliwa [1]. Aktualnie można spotkać się z wieloma rozwiązaniami podgrzewaczy, różniącymi się przede wszystkim źródłem dostarczania ciepła oraz mocą grzewczą, a ich zadanie nie ogranicza się już tylko do uniemożliwienia powstania kryształów parafiny w paliwie, czy też ich roztopienia. Drugi istotny argument świadczący o konieczności stosowania podgrzewaczy, związany jest z zależnością lepkości kinematycznej oleju napędowego od temperatury – im niższa temperatura paliwa tym większa jego lepkość i większa trudność prawidłowego rozpylenia w komorze spalania [2]. W przypadku dużej lepkości strumień paliwa sięga głęboko do komory spalania, lecz krople są stosunkowo duże, co utrudnia ich prawidłowe odparowanie i spalenie. Wpływa to niekorzystanie zarówno na pracę silnika, jego trwałość, ale także na środowisko. Złe rozpylenie paliwa skutkuje spalaniem niecałkowitym i niezupełnym. W związku z tym w spalinach pojawiają się cząstki stałe w postaci sadzy oraz gazowe w postaci tlenku węgla. Substancje te są częściowo utleniane w katalizatorze, lecz w przypadku nadmiernej ich ilości może dojść do jego przegrzania i uszkodzenia. Należy jednak zwrócić uwagę, że podgrzewanie paliwa wymaga kontroli, ponieważ wraz ze zmniejszaniem się lepkości paliwa, wzrastają straty nieszczelności w pompie wysokiego ciśnienia, a także pogarszają się jego właściwości smarne. Dawniej pompy wtryskowe smarowane były olejem. Aktualnie zarówno wtryskiwacze, jak i pompy wysokiego ciśnienia są smarowane przepływającym paliwem. Wraz z zastosowaniem systemu zasilania common rail, znacząco zwiększyła się dokładność wykonania układu wtryskowego – wtryskiwacze w niektórych rozwiązaniach otwierają się nawet 7 razy w ciągu jednego cyklu pracy silnika (w starszych rozwiązaniach był tylko jeden wtrysk na cykl). W związku z powyższym w nowych pojazdach nadmierne zmniejszenie właściwości smarnych paliwa może w krótkim czasie doprowadzić do uszkodzenia wtryskiwaczy oraz pompy wysokiego ciśnienia. Wymusza to konieczność stosowania układów regulujących temperaturę paliwa. Układy takie mogą być zintegrowane z samym podgrzewaczem lub występować niezależnie np. w filtrze paliwa [1]. 2. KONCEPCJA PODGRZEWACZA PALIWA Podstawowym założeniem projektu było opracowania koncepcji oraz wykonanie prototypowego przepływowego podgrzewacza oleju napędowego wraz z systemem regulacji mocy grzewczej elementu grzejnego. Dodatkowym celem było opracowanie algorytmu sterującego współpracą układu z drugim podgrzewaczem, który do ogrzania paliwa wykorzystuje ciecz układu chłodzącego. Podgrzewacz miał na celu spełnienie dwóch podstawowych zadań: Przepływowy podgrzewacza paliwa dla pojazdów z silnikiem Diesla 43 niedopuszczenie do zatkania filtra paliwa przez rozpuszczenie kryształów parafiny w paliwie w temperaturze do -40 °C, poprawienie jakości wtrysku paliwa przez podgrzanie go do optymalnej temperatury. Opracowywany podgrzewacz przeznaczony będzie do pracy w samochodowym pojeździe osobowym, w związku z tym ustalono jego znamionowe napięcie jako napięcie zasilania: 13,8 V (12 – 15 V). Wymiennik ciepła będzie wykonany w formie walca o średnicy 22 mm z króćcami przyłączeniowymi do węży paliwowych o średnicy 8 mm, natomiast element grzejny będzie w postaci spirali z drutu oporowego o średnicy 2 mm. Ponadto układ zostanie wyposażony w następujące zabezpieczenia: automatyczne załączenie podgrzewacza wykorzystującego ciecz chłodzącą po jej ogrzaniu, zabezpieczenie przed przeciążeniem alternatora, zabezpieczenie przed przegrzaniem paliwa. Po przeprowadzeniu szczegółowej analizy ekonomiczno-technicznej różnych rozwiązań podgrzewaczy paliwa, jako element grzejny wykorzystano drut oporowy o średnicy 2 mm i rezystancji jednostkowej 0,43 Ω/m. Opornik został zwinięty w spiralę o średnicy wewnętrznej 10 mm. Całkowita wartość rezystancji grzałki została dobrana w taki sposób, żeby jej moc w modelu wynosiła 200 W. Wartość mocy została określona tak, aby była wystarczająca dla zapewnienia poprawnej pracy układu paliwowego w większości samochodów osobowych dostępnych na rynku, pracujących w temperaturach nie mniejszych niż -40 °C. Spirala została umieszczona w miedzianej rurce o średnicy zewnętrznej 22 mm, która stanowi obudowę podgrzewacza. Sterowanie prądem grzewczym projektowanego podgrzewacza jest realizowane przez mikrokontroler ATmega8 z zastosowaniem PWM. To rozwiązanie wprowadza konieczność użycia elementu umożliwiającego szybkie łączenie prądów o wartościach do 17 A. W związku z tymi wymaganiami jako elementy przełączające, zostały zastosowane dwa jednakowe polowe tranzystory mocy MOSFET typu K3919 z kanałem wzbogacanym typu N [5]. Wysterowanie tranzystorów bezpośrednio z mikrokontrolera skutkowałoby znacznymi stratami mocy i ich przegrzaniem, dlatego konieczne jest zastosowanie elementu pośredniczącego pomiędzy mikrokontrolerem, a tranzystorami o jak największym chwilowym prądzie na wyjściu sterującym, które jest podłączone do bramki tranzystora. W projekcie jako element pośredniczący został zastosowany sterownik tranzystorów MOSFET o oznaczeniu TC427. Charakteryzuje się on chwilową wydajnością prądową o wartości 1,5 A oraz możliwością realizacji wysokich częstotliwości przełączeń. Umożliwia niezależną obsługę dwóch tranzystorów. Sterownik został zasilony napięciem 12 V, co umożliwia wysłanie na bramki tranzystorów sygnału o napięciu wyższym niż 5 V. Dzięki takiemu rozwiązaniu dodatkowo zmniejszone zostały straty mocy dla elementów łączących. 44 Piotr Bakalarek, Leszek Kasprzyk Układ zasilania grzałki podgrzewacza został przedstawiony na rysunku 1. Rezystory R9 oraz R12 mają na celu zabezpieczenie mikrokontrolera przed przepływem zbyt dużego prądu. Jako maksymalny prąd bezpieczny uznaje się 20 mA na pojedynczą linię wejścia/wyjścia. Jeden zacisk grzałki jest podłączony przez przekaźnik do zacisku dodatniego pojazdu, drugi natomiast jest zwierany do masy przez tranzystor, co pozwala regulować wartość prądu grzewczego. Ze względu na warunki termiczne w układzie zostały zastosowane dwa równolegle połączone tranzystory. Przekaźnik stanowi dodatkowe zabezpieczenie układu przed przegrzaniem paliwa. Napięcie potrzebne do zasilenia cewki przekaźnika w celu zamknięcia jego zestyków jest doprowadzone przy użyciu dodatkowego tranzystora MOSFET IRF820. Jego otwarcie oraz zamknięcie jest kontrolowane przez mikrokontroler. Rys. 1. Układ zasilania elementu grzejnego Podgrzewacz został zaprojektowany do zasilania z instalacji elektrycznej pojazdu, dlatego występuje konieczność obniżenia napięcia zasilania mikrokontrolera do wymaganej wartości. Dla spełnienia tego zadania w projekcie został wykorzystany liniowy stabilizator napięcia LM7805 w obudowie TO-220. W celu poprawnej pracy mikrokontrolera wymagana jest filtracja napięcia zasilającego. Należy pamiętać, że źródłem zakłóceń jest nie tylko zewnętrzne źródło zasilania i urządzenia do niego podłączone, ale przede wszystkim zakłócenia generowane są przez mikrokontroler, którego zapotrzebowanie na prąd jest zmienne i często skokowe [3]. Na rysunku 2 przedstawiono sposób, w jaki zrealizowano filtrację napięcia wejściowego oraz wyjściowego stabilizatora. Podczas testów modelowego układu filtracji, zostały wykorzystane pomiary oscyloskopowe napięcia zasilającego mikrokontrolera ATmega8 z wykorzystaniem stabilizatora LM7805 [2]. Bazując na wynikach badań można dojść do wniosku, że ważne jest, aby zastosować zarówno kondensatory ceramiczne, jak i elektrolityczne, ponieważ mają one różną skuteczność filtracji dla różnych częstotliwości zakłócających. Przepływowy podgrzewacza paliwa dla pojazdów z silnikiem Diesla 45 Rys. 2. Układ filtracji napięcia przy stabilizatorze W przypadku mikrokontrolera również zostały zastosowane kondensatory ceramiczne oraz elektrolityczne. Istotne jest ich rozmieszczenie w układzie powinny one znajdować się jak najbliżej nóżek zasilających oznaczonych jako VCC oraz AVCC. Układ zasilania oraz filtracji został przedstawiony na rysunku 3. Rys. 3. Układ zasilania oraz filtracji przy mikrokontrolerze Do pomiaru temperatury paliwa oraz cieczy chłodzącej wybrano czujniki cyfrowe DS18B20, wykorzystujące magistralę komunikacyjną 1-Wire, która została zaimplementowana w mikrokontrolerze programowo [4]. Dodatkowo sterownik został wyposażony w złącze umożliwiające podłączenie wyświetlacza LCD, służącego do bieżącej analizy temperatury paliwa i cieczy chłodzącej oraz wpływu mocy pobieranej przez podgrzewacz na napięcie zasilające, a także wpływu obydwu mierzonych temperatur na ustawienia zaworu cieczy chłodzącej. Program zawiera także funkcje zabezpieczające na wypadek uszkodzenia czujników temperatury, uszkodzenia tranzystorów mocy oraz nadmiernego spadku napięcia zasilającego. Mikrokontroler został zaprogramowany przy użyciu programu napisanego w środowisku Eclipse Kepler, a jako oprogramowanie obsługujące programator zastosowano mkAVR Calculator. 46 Piotr Bakalarek, Leszek Kasprzyk 3. WNIOSKI Podstawowym zadaniem opracowanego i zbudowanego podgrzewacza jest regulacja prądu grzewczego podgrzewacza w funkcji temperatury paliwa. Urządzenie prototypowe zostało przetestowane na modelu symulującym pracę pojazdu, wyposażonym między innymi w seryjną pompę paliwa stosowaną w pojazdach marki Ford. Podczas przeprowadzonych testów podgrzewacz w pełni spełniał swoje zadanie i działał zgodnie z założeniami. Testom zostały również poddane funkcje dodatkowe takie, jak wyświetlenie temperatury paliwa i cieczy chłodzącej, pomiar napięcia zasilania oraz zabezpieczenie przed przegrzaniem paliwa w sytuacji awarii czujnika temperatury. Wszystkie próby wykonane w różnych warunkach środowiskowych zakończyły się powodzeniem. Sterownik został przystosowany do pracy z zaworem sterującym przepływem cieczy chłodzącej przez dodatkowy podgrzewacz nieelektryczny. Jest to podejście innowacyjne, łączące zalety szybkości działania podgrzewacza elektrycznego z ekonomicznością użytkowania podgrzewacza z cieczowym wymiennikiem ciepła. Pracą obydwu urządzeń zarządza jeden sterownik, co obniża koszty układu. LITERATURA [1] [2] [3] [4] [5] Bakalarek P.: Projekt i wykonanie przepływowego podgrzewacza paliwa dla pojazdów z silnikami diesla, Praca dyplomowa inżynierska, Instytut Elektrotechniki i Elektroniki Przemysłowej Politechniki Poznańskiej. Idzior M., Karpiuk W., Borowczyk T.: Postępy Nauki i Techniki nr 15, 2012. Kardaś M.: Mikrokontrolery AVR język C podstawy programowania. Szczecin, Wydawnictwo ATNEL, 2011. Rząsa M. R., Kiczma B.: Elektryczne i elektroniczne czujniki temperatury. Warszawa, Wydawnictwa Komunikacji i Łączności, 2005. Tietze U., Schenk Ch.: Układy półprzewodnikowe. Warszawa, Wydawnictwa Naukowo-Techniczne, 1997. INSTANTANEOUS HEATER FUEL FOR VEHICLES WITH DIESEL ENGINE The article presents the concept of the instantaneous heater fuel for vehicles with diesel engine with automatic control of heating power as a function of temperature. Discussed the hardware layer of the heater and implemented the functions performed by the device. The paper also discusses the problems arising from the use of diesel fuel at low temperatures and the appropriateness of the use of fuel heaters. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Artur BUGAŁA* Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA* BILANS EKONOMICZNY PRACY UKŁADÓW NADĄŻNYCH W FOTOWOLTAICE DLA LOKALNYCH WARUNKÓW MIEJSKICH W pracy przeprowadzono rozważania, dotyczące aspektów ekonomicznych stosowania układów nadążnych dwuosiowych w fotowoltaice, celem zwiększenia wartości produkowanej energii elektrycznej, w stosunku do analogicznych konstrukcji stacjonarnych. Na podstawie kosztów jednostkowych układów przeprowadzono symulację wartości energii do mocy maksymalnej 1 kWp. Uwzględniono przy tym zużycie energii przez elementy wykonawcze jednostki nadążnej w rozpatrywanym okresie, koszty serwisu oraz zwiększone nakłady początkowe, wynikające z wykonania układu nadążnego. Oszacowano okres zwrotu inwestycji w obu przypadkach dla dwóch wariantów rozliczenia wyprodukowanej energii. SŁOWA KLUCZOWE: układ nadążny, układ stacjonarny, ekonomia, konwersja fotowoltaiczna 1. WSTĘP Aspekt ekonomiczny instalowania i eksploatacji układu fotowoltaicznego stanowi często złożony problem, a jego rozwiązanie wymaga uwzględnienia rodzaju i mocy instalacji, dostępnej powierzchni, technologii produkcji modułów, aktualnej ceny energii elektrycznej, możliwości wsparcia ze strony państwa lub władz lokalnych. Trudnym do jednoznacznego określenia jest rozkład nasłonecznienia, który determinuje roczny zysk energii. Dla jednostki nadążnej koszty dodatkowe inwestycji mogą być o około 30 % wyższe niż analogicznej stałopozycyjnej i nie można pominąć zużycia energii na potrzeby własne układu sterowania [1]. Systemy stacjonarne pracują z modułami zainstalowanymi w jednym całorocznym ustawieniu (optymalnym), determinowanym przez kąt pochylenia do podłoża i kąt azymutu. Układy zmiennopozycyjne umożliwiają ciągłe dostosowywanie ustawienia płaszczyzny modułu PV do aktualnych warunków celem maksymalizacji zysków. W wyniku zastosowania płaszczyzny nadążnej jako miejsca instalacji modułów PV, można oczekiwać wzrostu produkcji energii elektrycznej nawet na poziomie 40-45 %, dla rozwiązań dwuosiowych oraz o około 30 % przy pracy jednoosiowej __________________________________________ * Politechnika Poznańska. 48 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska [1, 2, 3]. Oprócz szacunkowego wzrostu produkowanej energii należy uwzględnić także zwiększony koszt serwisowania. Dobrą praktyką jest zatem dysponowanie, w miejscu pracy układu, dodatkowymi elementami układu. Aspektem o kluczowym znaczeniu, przy ocenie opłacalności eksploatacji układów PV, jest polityka władz w zakresie stosowania odnawialnych źródeł energii i proponowany model wsparcia. W wielu przypadkach czas zwrotu inwestycji jest porównywalny z czasem życia modułów, dlatego tak istotne jest dodatkowe finansowanie ze strony państwa i bonifikata z tytułu lokalnej produkcji energii elektrycznej. Sprawne mechanizmy wsparcia umożliwiają osiągnięcie parytetu, czyli konkurencyjności czystej energii w stosunku do pozyskiwanej ze źródeł konwencjonalnych. Jednym z mechanizmów jest wprowadzenie stawek gwarantowanych na odkupowaną przez zakład energetyczny energię z OZE, przez 20-letni okres. Ceny odkupu powinny być wyższe niż w przypadku energii pozyskiwanej tradycyjnie. Mechanizm ten dobrze funkcjonuje w Niemczech. 2. KOSZT ELEMENTÓW INSTALACJI Na całkowity koszt układu fotowoltaicznego stacjonarnego składają się: koszt modułu, falownika (przy pracy on-line) oraz konstrukcji wsporczej. Średnia cena modułów fotowoltaicznych cienkowarstwowych za 1 Wp w grudniu 2013 roku wynosiła 0,65 € (0,45-1,1 €), dla modułów krzemowych 0,59 €/Wp [4]. Rozpiętość cenowa zależy od własności materiałowych i technologii, co z kolei przekłada się na okres bezawaryjnej pracy. Cena modułów fotowoltaicznych w dalszym ciągu wykazuje tendencję zniżkową. Na rysunku 1 przedstawiono dynamikę zmian cen modułów krzemowych (I generacja) oraz cienkowarstwowych (II generacja) w okresie od grudnia 2009 do grudnia 2012 roku. Rys. 1. Przebieg zmienności cen modułów w okresie 2009-2012 [4] Przy wyborze modułów należy kierować się wymogami w odniesieniu do planowanego przeznaczenia. Dla mikroinstalacji o mocy do 40 kWp koszt modułów szacuje się na około 40 % kosztu całej inwestycji. W przypadku Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych … 49 analizowanego układu koszt modułu polikrystalicznego I generacji o mocy 210 Wp firmy Yohkon wyniósł 730 zł (0,81 €/Wp). Na rysunku 2 przedstawiono widok układów PV z wykorzystaniem których dokonano długookresowych pomiarów produkcji energii elektrycznej i oceny ekonomicznej. Rys. 2. Stanowisko pomiarowe z układem stacjonarnym i nadążnym Znaczący udział w kosztach inwestycji (nawet 35%) ma przemiennik DC/AC. W przypadku analizowanego układu stacjonarnego koszt zakupu mikroinwertera o mocy 240 W firmy Enecsys wyniósł 672 zł. Koszt systemu mocowań modułów do konstrukcji wsporczych montowanych na dachu skośnym szacuje się na około 10 % sumarycznych kosztów. Montaż na płaskim dachu implikuje 1,7-krotny wzrost wydatków. Parametry elektryczne i nieelektryczne modułów oraz falowników zastosowanych w rozpatrywanych układach przedstawiono w tabeli 1. Tabela 1. Parametry modułów i falowników w badanych układach l.p. 1 2 3 4 5 6 7 1 2 3 4 5 6 7 8 Parametr elektryczny modułu Moc maksymalna Napięcie w punkcie mocy maksymalnej Prąd w punkcie mocy maksymalnej Napięcie obwodu otwartego Prąd zwarcia Sprawność Tolerancja mocy Parametry mikroinwertera DC/AC Nominalna moc wejściowa Maksymalne napięcie DC Minimalne napięcie DC Zakres napięć MPPT Maksymalny prąd wejściowy Zakres temperaturowy pracy Stopień ochrony przed wodą i pyłem Chłodzenie Wartość 210 Wp 29,64 V 6,98 A 35,94 V 7,6 A 12,61 % +/- 3 % Wartość 240 W 44 V 20 V 23 V…35 V 12 A -40 °C…85 °C IP66 Naturalne 50 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska 3. EKONOMICZNA ANALIZA SYSTEMU PV Przy obliczaniu opłacalności instalacji fotowoltaicznej, zarówno w konfiguracji stacjonarnej jak i nadążnej modułów PV, rozpatrzyć należy dwie możliwości rozliczenia wyprodukowanej energii elektrycznej: część energii elektrycznej jest wykorzystana na potrzeby własne, co daje oszczędność około 0,56 zł/kWh brutto. Nadwyżka produkowanej energii sprzedawana jest do sieci w cenie 0,156 zł/kWh, co stanowi 80% średniej ceny energii elektrycznej za poprzedni rok. (1) K odk . 0 ,8 195 zł / MWh odkup energii elektrycznej po stawkach gwarantowanych [5] (na podstawie przewidywań ustawy o odnawialnych źródłach energii). I tak: a) instalacje PV o mocy maksymalnej 10 kWp na konstrukcji budowlanej 1,30 zł/kWh, b) instalacje PV o mocy maksymalnej 10 kWp poza budynkiem 1,15 zł/kWh, c) instalacje PV o mocy większej niż 10 kWp nie przekraczającej 100 kWp na budynku 1,15 zł/kWh, d) instalacje PV o mocy większej niż 10 kWp nie przekraczającej 100 kWp poza budynkiem 1,10 zł/kWh. Analizie ekonomicznej poddano instalację o mocy 1,05 kWp, co odpowiada 5 jednostkom mocy maksymalnej 210 Wp. Pojedyncza jednostka stanowi rzeczywisty obiekt badań. W układzie stacjonarnym oszacowano roczną produkcję energii na poziomie 1016,4 kWh, a w nadążnym (po uwzględnieniu strat na sterowanie) 1244,5 kWh. W skali roku założono spadek wydajności o 0,7 % i 5 % wzrost cen energii, stały nieuwzględniający zmiany wartości pieniądza w czasie koszt prac serwisowych, 100 zł dla układu stacjonarnego i 150 zł dla nadążnego. Wariant nr 1 Produkcja energii elektrycznej przez oba układy fotowoltaiczne będzie wykorzystywana na potrzeby własne bytowe, a nadwyżka odsprzedawana do sieci po cenie 0,156 zł/kWh (wg zmian w ustawie OZE z listopada 2013 roku). Przeznaczenie części energii do zasilenia grzałki elektrycznej do podgrzania wody użytkowej w wyniku częściowego zastąpienia ogrzewania gazowego wiąże się z oszczędnością rzędu 0,3 zł/kWh. Bilans wyprodukowanej energii przedstawiono na rysunku 3. Interpretację graficzna wartości dochodu wynikającego z przyjętego sposobu rozliczenia w odniesieniu do kosztów inwestycyjnych w obu układach przedstawiono na rysunku 4 i 5. Wariant nr 2 Zasadnicza część wyprodukowanej energii zostanie oddana do sieci ze stawkami odkupu (ustawa o OZE) 1,3 zł/kWh. Na podstawie przeprowadzonej Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych … 51 analizy ekonomicznej zinterpretowano graficznie wyniki obliczeń, przy czym wyznaczono okres zwrotu dla obu układów, rys. 6 i 7. Rys. 3. Bilans wykorzystania produkowanej energii Rys. 4. Wartość dochodu w stosunku do nakładów dla układu stacjonarnego 52 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Rys. 5. Wartość dochodu w stosunku do nakładów dla układu nadążnego Rys. 6. Wartość dochodu wynikającego z przyjętego sposobu rozliczenia w stosunku do nakładów dla układu stacjonarnego Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych … 53 Rys. 7. Wartość dochodu wynikającego z przyjętego sposobu rozliczenia w stosunku do nakładów dla układu nadążnego 4. PODSUMOWANIE Przy wyznaczaniu okresu zwrotu inwestycji PV należy wziąć pod uwagę czynniki klimatyczne, technologiczne, eksploatacyjne i finansowe. Wielkość produkowanej energii zależy od nasłonecznienia, liczby godzin słonecznych, technologii produkcji modułów i jakości ich wykonania, temperatury pracy, a przede wszystkim sposobu pracy. Opłacalność inwestycji zależy od modelu wsparcia proponowanego przez państwo, wysokości dopłat i ceny energii, np. zgodnie z czwartą wersją projektu ustawy OZE, przyłączenie instalacji o mocy do 40 kWp jest bezpłatne. Ważna jest cena odkupu energii, sposób rozliczania energii netto. Na podstawie przeprowadzonej analizy określono okres zwrotu inwestycji, dla instalacji stacjonarnej oraz nadążnej dwuosiowej. Dla wariantu I, przy stosunkowo dużym wykorzystaniu energii na potrzeby własne, okres zwrotu inwestycji wynosi 19 lat dla obu układów. W II przypadku, przy uwzględnieniu stawek feed in tariff, czas zwrotu dla układu stacjonarnego wynosi 7 lat, a dla konstrukcji nadążnej 6 lat i 10 miesięcy. Współczynnik wykorzystania własnego, rozumiany jako różnica między energią skonsumowaną a przekazaną do sieci, powinien być jak największy. Obecnie stawki feed-in będą ustalane na podstawie systemu aukcyjnego, indywidualnie dla każdego inwestora na okres 15 lat [6]. 54 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska LITERATURA [1] Dhanabal R., et al.: Comparison of efficiencies of solar tracker systems with static panel single-axis tracking system and dual-axis tracking system with fixed mount, International Journal of Engineering and Technology, 5, 2013, s. 1925-1932. [2] Serhan M., El-Chaar L.: Two axes sun tracking system: Comparsion with a fixed system, International Conference on Renewable Energies and Power Quality, ICREPQ’10, 2010. [3] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating with a two-axis follow-up system and with a fixed mount system, Przegląd Elektrotechniczny, 1, 2014, s. 63-65. [4] http://www.enfsolar.com/ (dostęp: 10.11.2013r.) [5] Szymański B.: Instalacje fotowoltaiczne, wydanie II, Geosystem, 2013. [6] Projekt ustawy o odnawialnych źródłach energii, Projekt z dnia 31.12.2013, Wersja 4.1, s. 46-66. ECONOMIC BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS FOR LOCAL URBAN CONDITIONS The work presents considerations on the economic aspects of the use of two-axis tracking system in photovoltaics, in order to increase the value of energy produced, comparing to the stationary structure. In calculations energy consumption of the actuators, maintenance costs and increased initial costs were taken into account. Payback period in both cases for the two variants was estimated. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Artur BUGAŁA* Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA* BILANS ENERGETYCZNY UKŁADÓW NADĄŻNYCH W FOTOWOLTAICE DLA LOKALNYCH WARUNKÓW MIEJSKICHCZĘŚĆ I W pracy dokonano analizy wpływu nasłonecznienia rozumianego jako suma natężenia promieniowania słonecznego w danym czasie i na danej powierzchni na wartość energii elektrycznej generowanej przez moduł fotowoltaiczny pracujący w konfiguracji stacjonarnej i nadążnej dwuosiowej. Przedstawiono sposób jego wyznaczania na podstawie pomiaru gęstości mocy promieniowania słonecznego padającego w ciągu jednej sekundy na powierzchnię jednego m² z wykorzystaniem czujników mikroprocesorowych. Określono wpływ temperatury na wartość parametrów elektrycznych analizowanych modułów PV. SŁOWA KLUCZOWE: nasłonecznienie, bilans energii, układ nadążny, gęstość mocy promieniowania 1. WSTĘP Przy realizacji układu sterowania dla jednostki nadążnej dwuosiowej należy uwzględnić roczną zmianę wysokości kątowej Słońca nad horyzontem, związaną z ruchem obiegowym Ziemi oraz zmianę wartości kąta azymutu na skutek ruchu obrotowego. Deklinacja słoneczna opisująca kątowe położenie Słońca względem płaszczyzny równika, została określona na podstawie zależności [1]: δ sin[ 2 π ( 284 n ) ] 23,45 365 (1) Długość dnia dla analizowanej lokalizacji opisano następująco [2]: cos[( tan( D δπ π φ )) (tan( ))] a 180 180 7 ,5 π 180 (2) Wysokość kątową Słońca dla kolejnych dni roku wyznaczono na podstawie zależności [3]: H arcsin[(cos( φ ) cos( δ ) cos( ω )) (sin( φ ) sin( δ ))] (3) __________________________________________ * Politechnika Poznańska. 56 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Kąt godzinowy określa kątowe odchylenie zachodu lub wschodu Słońca od lokalnego południka. Jest on równy zero dla godziny 12.00. W godzinach porannych zmiana czasu o godzinę w stosunku do godziny 12.00 skutkuje zmianą kąta godzinowego o -15°. W godzinach popołudniowych godzinnej zmianie czasu odpowiada 15° zmiana kąta ω. Azymut Słońca wyznaczono na podstawie zależności [3]: AS arcsin[ cos( δ ) sin( ω ) ] cos( H ) (4) gdy tan( δ ) tan( φ ) cos( δ ) sin( ω ) AS 180 arcsin[ ] cos( H ) cos( ω ) (4) (5) gdy cos( ω ) tan( δ ) tan( φ ) (5) Kąt padania promieniowania słonecznego na powierzchnię ogniw jest to kąt zawarty między prostą normalną do powierzchni a kierunkiem promieniowania bezpośredniego. Zależność opisująca kąt padania promieniowania słonecznego na płaszczyznę pod dowolnym kątem pochylenia do podłoża i azymutu opisano następująco [4]: cos( Θ ) sin( δ ) [sin( φ ) cos( β ) cos( φ ) sin( β ) cos( A )] cos( δ ) [cos( φ ) cos( β ) cos( ω ) sin( φ ) sin( β ) cos( A ) cos( ω ) sin( β ) sin( A ) sin( ω )] (6) Zależności matematyczne (1) do (6) zaimplementowano celem realizacji układu sterowania jednostki nadążnej dwuosiowej. Wpływ dnia roku, wysokości kątowej Słońca oraz lokalizacji na parametry pracy analizowanego układu nadążnego, dla dnia 15.04.2014 roku dla miasta Poznań przedstawiono w tabeli 1. Na podstawie wyznaczonych wartości kątowych, na rysunku 1 przedstawiono w układzie polowym zmianę położenia Słońca dla wybranych dni 21.06.2014 roku, 15.04.2014 roku oraz 21.12.2014 roku. Na podstawie wykonanych obliczeń i wizualizacji przedstawiono, że kątowa zmiana położenia Słońca wymusza konieczność stosowania układów nadążnych dwuosiowych. Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 57 Tabela 1. Wartości kątów elewacji i azymutu Słońca dla 15.04.2014 roku godzina [hh:mm:ss] 05:30:00 06:00:00 06:30:00 07:00:00 07:30:00 08:00:00 08:30:00 09:00:00 09:30:00 10:00:00 10:30:00 11:00:00 11:30:00 kąt elewacji kąt azymutu ° 4.32 8.86 13.44 18.01 22.51 26.89 31.09 35.01 38.59 41.7 44.25 46.11 47.18 79.65 85.53 91.44 97.49 103.74 110.3 117.26 124.74 132.82 141.6 151.09 161.25 171.91 godzina [hh:mm:ss] 12:00:00 12:30:00 13:00:00 13:30:00 14:00:00 14:30:00 15:00:00 15:30:00 16:00:00 16:30:00 17:00:00 17:30:00 18:00:00 kąt elewacji kąt azymutu ° 47.4 46.75 45.28 43.06 40.22 36.87 33.11 29.04 24.76 20.32 15.78 11.22 6.66 182.81 193.63 204.07 213.91 223.04 231.47 239.24 246.45 253.2 259.6 265.74 271.72 277.61 Rys. 1. Dobowa zmiana położenia Słońca dla wybranych dni roku [opracowanie własne] 58 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska 2. WPŁYW TEMPERATURY NA PARAMETRY PRACY W przypadku instalacji małych mocy, możliwość doboru mikroinwertera do modułu jest ograniczona, dlatego zakres ten jest szerszy i dla kątów pochylenia modułów PV w zakresie 15°-60° wynosi 0,9-1,18 [6]. W analizowanym przypadku stosunek mocy modułu do mocy falownika wynosi 0,9. Przy dopasowaniu falownika do modułu PV należy uwzględnić zmianę parametrów prądowo-napięciowych wraz ze zmianą temperatury. Pierwszym z rozpatrywanych parametrów jest zmiana napięcia przy jednostkowej zmianie temperatury. Temperaturowy współczynnik napięcia obwodu otwartego α = 0,35 %/°C, natomiast napięcie obwodu otwartego wynosi 35,94 V. W ten sposób zmiana napięcia na 1°C: ΔU α U oc (7) Wartość parametru ΔU wynosi 0,126 V/°C. Temperaturowy współczynnik prądu zwarcia β = 0,05 %/°C, natomiast prąd zwarcia Isc = 7,6 A. Skutkuje to zatem zmianą prądu na 1°C: ΔI β I sc (8) Wartość parametru ΔI wynosi 0,0038 A/°C. Wzrost temperatury modułu powyżej 25°C skutkuje wzrostem wartości prądu zwarcia i spadkiem wartości napięcia obwodu otwartego. Dla znacznej wartości temperatury równiej 70°C, wartość napięcia obwodu otwartego określono na podstawie zależności: U oc 70 U oc ΔU ΔT U oc 70 20 44 V (9) Wartość napięcia w punkcie mocy maksymalnej dla temperatury 70°C: U MPP 70 U MPP ΔU ΔT U MPP 70 23 35 V (10) Wartość napięcia obwodu otwartego dla temperatury -20°C: U oc 20 U oc ΔU ΔT U oc 20 20 44 V (11) Wartość napięcia w punkcie mocy maksymalnej dla temperatury -20°C: U MPP 20 U MPP ΔU ΔT U MPP 20 23 35 V (12) Wartość prądu zwarcia w temperaturze 70°C: I sc 70 12 A (13) Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 59 3. DANE ŹRÓDŁOWE DO ANALIZY ENERGETYCZNEJ Typowe lata meteorologiczne jak i statystyczne dane klimatyczne dla miasta Poznań pochodzą z danych Ministerstwa Infrastruktury i Rozwoju. Zawierają one pełne dane obserwacyjne, 3-godzinowe lub 8-terminowe w cyklu dobowym, opracowane na podstawie 30-letnich cyklów pomiarowych [9]. W celu uzyskania danych godzinowych, posłużono się funkcjami sklejanymi 3-stopnia. Niewielkie przerwy pomiarowe interpolowano funkcjami kubicznymi [7]. Funkcje sklejane są zbieżne do funkcji, którą interpolują, co wynika z twierdzenia o błędzie interpolacji [8]: Jeżeli funkcja f C 2 [ a ,b ] , gdzie a x0 x1 x 2 ... x n b , natomiast funkcja s jest funkcją sklejaną trzeciego stopnia interpolującą funkcję f w węzłach xi (dla i = 0,1,2,…,n) to dla każdego xi z tego przedziału: (14) | f ( x ) s( x ) | 5 max | f '' ( ξ ) | max ( xi xi 1 ) 2 a ξ b 1 i n Zastosowano funkcję kubiczną 3-stopnia, której postać przedstawiono jako wielomian stopnia co najwyżej trzeciego. Funkcja f’ jest funkcją kwadratową, natomiast f’’ w każdym z przedziałów [ai,ai+1] będzie co najwyżej funkcją liniową, wówczas: f '' ( a ) K i 1 K i ( a ai ) K i ai 1 ai (15) gdzie, dla i = 0,1,2,…n: f '' ( a i ) K i (16) ’’ Całkując dwukrotnie funkcję f (a) otrzymano: f(a) K i 1 K i K ( a ai )3 i ( a ai ) 2 ci ( a a i ) bi 6 ( ai 1 ai ) 2 (17) W celu wyznaczenia stałej całkowania należy wykorzystać fakt, że: f ( ai ) bi f ( ai 1 ) bi 1 (18) (19) W ten sposób otrzymano: bi 1 K i 1 K i K ( ai 1 ai )3 i ( ai 1 ai ) 2 ci ( ai 1 ai ) bi 6 ( a i 1 a i ) 2 (20) bi 1 bi K i 1 2 K i ( ai 1 a i ) ai 1 ai 6 (21) ci Interpolująca funkcja kubiczna w przedziale [ai,ai+1]: 60 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska f (a) K i 1 K i K ( a a i )3 i ( a a i ) 2 6 ( a i 1 a i ) 2 (22) bi 1 bi K i 1 2 K i [ ( ai 1 ai )] ( a ai ) bi a i 1 a i 6 Do analizy pracy systemu fotowoltaicznego wykorzystano dane pochodzące z analizy wieloletnich pomiarów pochodzących ze stacji meteorologicznej dla miasta Poznań w postaci sum całkowitego (ETH), bezpośredniego (EDH) i rozproszonego (ESH) natężenia promieniowania słonecznego na powierzchni poziomej. W tabeli 2 zestawiono również wartości średniej miesięcznej (SMTTS), minimalnej (MINMTTS) oraz maksymalnej (MAXMTTS) temperatury termometru suchego. Tabela 2. Dane dotyczące typowego roku meteorologicznego wyznaczone na podstawie 30-letnich ciągów pomiarowych [9] miesiąc SMTTS MINMTTS MAXMTTS ETH EDH ESH 2 - °C °C °C Wh/m /mies. 1 0.2 -10.5 9.8 26123 6882 19241 2 -1.8 -14.6 13.1 35757 9558 26199 3 2.7 -15.2 17.9 71678 28927 42750 4 8.3 -4.0 20.1 104355 33906 70449 5 13.0 2.2 24.3 143561 55509 88052 6 16.8 5.5 33.7 149279 46375 102904 7 18.3 9.2 29.1 141631 40695 100935 8 18.4 6.8 35.2 116520 33506 83014 9 13.5 4.1 23.8 81621 22760 58860 10 7.0 -5.3 21.2 45552 9420 36131 11 2.2 -8.7 9.4 26381 6609 19772 12 -0.1 -15.6 12.9 18375 1630 16745 Na podstawie pomiarów własnych wyznaczono wartość nasłonecznienia na płaszczyźnie stacjonarnej i nadążnej. Na rysunku 2 przedstawiono rozkład nasłonecznienia w skali roku. Niski poziom dla miesiąca czerwca jest spowodowany krótkim okresem pomiarowym ze względu na prace modernizacyjne stanowiska. W tabeli 3 dokonano przeliczenia wartości miesięcznego nasłonecznienia dla płaszczyzny horyzontalnej do nadążnej (ETH->tr.) na podstawie typowego roku meteorologicznego. Wyznaczono współczynniki korekcyjne k dla poszczególnych miesięcy pomiarowych. Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 61 Tabela 3. Dane nasłonecznienia dla badanych miesięcy roku na podstawie własnych pomiarów gęstości mocy promieniowania słonecznego k 1,231 1,219 1,439 1,648 1,667 1,368 1,440 1,374 1,150 1,151 1,158 1,189 miesiąc 1 2 3 4 5 6 7 8 9 10 11 12 Ehor. Efix. 33557,4 50390,4 91573,6 100392,5 143902,3 19421,5 160458,9 145980,9 66340,6 86623,5 23397 23883 37139,89 55879,4 101435,2 111779 168565 23020,11 189578,3 172295,6 75636,6 97073,12 25945,63 26101,0 Etr. Wh/m2/m-c 41300,3 61450,5 131795,06 165438 239943 26568,8 231070,58 200541 76324,04 99709,23 27089,97 28387,68 ETH ETH->tr. 26123 35727 71678 104355 143561 149279 141631 116520 81621 45552 26381 18375 32150,5 43568,7 103160,8 171967,9 239373,9 204215,1 203957,3 160069,1 93903,9 52433,3 305445,0 21840,8 Rys. 2. Roczny rozkład nasłonecznienia na podstawie pomiarów własnych 4. PODSUMOWANIE Zróżnicowany rozkład nasłonecznienia w skali roku jest przyczyną nierównomiernej produkcji energii elektrycznej przez układy fotowoltaiczne niezależnie od ich konfiguracji pracy. Największa wartość została wyznaczona, na podstawie pomiarów gestości mocy promieniowania słonecznego, dla miesiąca maja i lipca (rys. 2), co pokrywa się z wynikami dla typowego roku meteorologicznego (TRM) uzyskanego na podstawie 30-letnich ciągów pomiarowych. 62 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Najmniejszą wartość nasłonecznienia zarejestrowano dla miesiąca grudnia, która dla płaszczyzny stacjonarnej i nadążnej wynosi odpowiednio 26,10 kWh/m2 oraz 28,39 kWh/m2. W sytuacji silnego zachmurzenia nieba dobrą praktyką jest ręczne ustawienie płaszczyzny modułów PV pod optymalnym, całorocznym kątem elewacji i azymutu. Umożliwi to ograniczenie strat związanych ze sterowaniem dla miesięcy o niskim nasłonecznieniu. Zysk energii „brutto” dla miesiąca grudnia, w sytuacji ciągłego śledzenia położenia Słońca, wyniósł 6,3 %. Istotnym zagadnieniem do rozpatrzenia, już na etapie projektowym, jest poprawny dobór komponentów układu np. modułu PV do zastosowanego falownika. Wpływa to w istotny sposób na wielkość produkowanej energii elektrycznej. LITERATURA [1] Chwieduk D.: Modelowanie i analiza pozyskiwania oraz konwersji termicznej energii promieniowania słonecznego w budynku, prace IPPT, 11, 2006, s. 14-16. [2] http://fotowoltaika.coral.com.pl (dostęp: 27.12.2013r.) [3] Chojnacki J., Teneta J., Wieckowski L.: Development of PV systems and research studies on photovoltaics at the AGH University of Science and Technology in Krakow, 22nd European Photovoltaic Solar Energy Conference, Conference Proceedings, 2007, s. 3049–3052. [4] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating with a two-axis follow-up system and with a fixed mount system, Przegląd Elektrotechniczny, 1, 2014, s. 63-65. [6] Szymański B.: Instalacje fotowoltaiczne, wydanie II, 2013. [7] Narowski P.G.: Metodyka wyznaczania klimatycznych warunków obliczeniowych dla instalacji ogrzewczych z uwzględnieniem dynamiki cieplnej budynków, Politechnika Warszawska, 2001. [8] http://pluton.pol.lublin.pl/ (dostęp: 16.01.2014r.) [9] http://www.transport.gov.pl (dostęp: 12.12.2013r.) ENERGY BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS FOR LOCAL URBAN CONDITIONS-PART I The paper presents an analysis of the impact of insolation, as the sum of the intensity of solar radiation at a given time and a given area, on energy generated by the solar module working in a fixed configuration and tracking. The way of determining the amount of energy, basing on the measured power density of solar radiation using microprocessor sensor, was showed. The effect of temperature on the electrical parameters of the analyzed PV modules was analyzed. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Artur BUGAŁA* Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA* BILANS ENERGETYCZNY UKŁADÓW NADĄŻNYCH W FOTOWOLTAICE DLA LOKALNYCH WARUNKÓW MIEJSKICH CZĘŚĆ II W pracy przeprowadzono rozważania, dotyczące produkcji energii elektrycznej z konwersji fotowoltaicznej w przypadku stacjonarnego i nadążnego umiejscowienia modułów tej samej mocy i technologii produkcji. Na podstawie wyników pomiarów dokonano oszacowania rocznej produkcji energii elektrycznej dla obu konfiguracji. Z wykorzystaniem pomiarów własnych pochodzących z dobowego monitoringu pracy systemu fotowoltaicznego porównano dokładność wyników analitycznych z wartościami rzeczywiście zmierzonymi. Przedstawiono zależność opisującą spodziewaną wielkość produkcji energii elektrycznej w układzie nadążnym dwuosiowym, na podstawie nasłonecznienia na płaszczyźnie horyzontalnej i zmiennopozycyjnej. SŁOWA KLUCZOWE: zysk energii, układ nadążny, konwersja fotowoltaiczna, nasłonecznienie 1. WSTĘP Wielkość energii elektrycznej produkowanej przez układ fotowoltaiczny jest funkcją wielu parametrów, między innymi miesięcznego nasłonecznienia, liczby dni słonecznych w ciągu roku, technologii produkcji zastosowanych modułów fotowoltaicznych oraz ich parametrów elektrycznych, jak również ich lokalizacji względem stron świata [1]. W celu wyznaczenia ilości energii elektrycznej możliwej do wyprodukowania przez układy składowe należy uwzględnić dane nasłonecznienia. Wyznaczenie tej wartości dla układu zainstalowanego stacjonarnie jest możliwe z uwzględnieniem współczynników korekcyjnych miesięcznych sum nasłonecznienia dla płaszczyzny horyzontalnej [2]. Są to jednak współczynniki uogólnione, 10- i 15-stopniowe. Zależność sprawności modułu od jego powierzchni jak również nasłonecznienia przedstawiono w następujący sposób [3]: E t , fixed ET β ,γ ( 37,180 ) S m η (1) Sprawność modułu fotowoltaicznego dla gęstości mocy promieniowania słonecznego w warunkach standardowych [4]: __________________________________________ * Politechnika Poznańska. 64 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Pm (2) S m E STC Podstawiając zależność (2) do (1) otrzymano wartość energii [kWh]: ET β ,γ ( 37,180 ) S m Pm E t , fixed (3) S m E STC Wartość energii elektrycznej możliwej do wyprodukowania z uwzględnieniem poziomu strat: ET β ,γ ( 37 ,180 ) S m Pm E rz . fixed ( 1 Ps ) (4) S E η m E rz . fixed STC ETβ ,γ ( 37 ,180 ) Pm E STC ( 1 Ps ) (5) 2. STRATY W UKŁADZIE FOTOWOLTAICZNYM Straty występujące w układzie fotowoltaicznym mogą mieć różną naturę. Ważnym aspektem jest dobór odpowiedniej jakości przewodów i ich przekrojów, co wpływa na wielkość strat. Przekrój (w mm2) można wyznaczyć korzystając z zależności [3, 5]: PI (6) S k 0 ,01 U 2 Wyznaczona wartość przekroju przewodów na podstawie mocy układu P, długości obwodu I, napięcia systemu U oraz przewodności właściwej miedzi k wynosi 0,83 mm2. Na podstawie znormalizowanego szeregu przekrojów do instalacji PV wybrano przewód 2,5 mm2. Procentowe straty mocy (PL%) opisano za pomocą zależności: PI PL% 100% (7) k S U 2 Wyznaczona wartość strat mocy, dla zadanych parametrów, wynosi 0,33 %. Na podstawie danych katalogowych modułu fotowoltaicznego określono jego straty na skutek wzrostu temperatury na poziomie 3 %. Sprawność falownika firmy Enecsys model SMI-240W-60-UL, na podstawie danych katalogowych, wynosi 93,5 %. Poziom strat do dalszych rozważań przyjęto 6,5 %. Poziom strat wywołanych skutkami zacienienia ogniw oraz zanieczyszczeniem, na podstawie danych literaturowych, wynosi 1 %-3 %. Ze względu na znaczną wysokość n.p.m. miejsca instalacji, wpływ obiektów otoczenia na zacienienie ograniczono do minimum. Układ jest również regularnie czyszczony. Przyjęta wartość strat wynosi 1 %. Dla większej powierzchni generatora PV, ze względu na różnorodność modułów fotowoltaicznych w instalacji, należałoby uwzględnić również straty Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 65 wywołane niedopasowaniem prądowym modułów. Dla sprawnych modułów nie przekraczają one 1 %. Całkowity poziom strat w układzie wynosi 10,83 %. 3. PRODUKCJA ENERGII ELEKTRYCZNEJ OBLICZENIA ANALITYCZNE A WARTOŚCI POMIAROWE W celu wyznaczenia rocznej produkcji energii elektrycznej przez układ stacjonarny o kącie pochylenia β ≠ 0 płaszczyzny odbiornika do podłoża należy wyznaczyć wartość nasłonecznienia na podstawie jego modyfikacji dla płaszczyzny horyzontalnej. W tym celu wprowadzono współczynniki korekcyjne. Ich wartości zestawiono w tabeli 1. Tabela 1. Współczynniki korekcyjne nasłonecznienia k uzyskane na podstawie pomiarów gęstości mocy promieniowania słonecznego w czasie dla płaszczyzny stacjonarnej (Efixed) i horyzontalnej (Ehor) miesiąc - E fixed Ehor Wh/m2/m-c k k - - 1 37139,89 33557,4 1,106757 2 55879,4 3 101435,2 91573,6 σ - 50390,4 1,108929 1,10769 4 111779 100392,5 1,11342 5 168565 143902,3 1,171385 6 23020,11 19421,5 1,18529 7 189578,3 160458,9 1,181476 8 172295,6 145980,9 1,180261 9 75636,6 10 97073,12 86623,5 1,120633 11 25945,63 23397 1,10893 12 26101 23883 1,092869 1,13 0,03 66340,6 1,140125 Wartość rocznego nasłonecznienia dla płaszczyzny horyzontalnej, dla typowego roku meteorologicznego, wynosi 960,83 kWh/m2/rok. Dla instalacji stacjonarnej, na podstawie [6], roczna wartość nasłonecznienia, [kWh/m2/rok] wynosi: ETβ ,γ ( 37,180 ) ETH 1,13 ETβ ,γ ( 37,180 ) 1085,7 (8) (9) 66 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Postać współczynników dla zmiennego ustawienia przedstawiono w postaci: ki Etrack ,wł ,i E fixed ,wł ,i (10) L β ,γ Dla ustawienia stacjonarnego β,γ odpowiednio 37°, 180° równanie (10) przedstawiono następująco: ki Etrack ,wł ,i E fixed ,wł ,i (11) 1,13 Wartość energii elektrycznej dla układu nadążnego z uwzględnieniem współczynników korekcyjnych: E rz .track ( E TH 1 k 1 E TH 2 k 2 E TH 3 k 3 E TH 4 k 4 ETH 5 k 5 E TH 6 k 6 ETH 7 k 7 E TH 8 k 8 ETH 9 k 9 E TH 10 k 10 E TH 11 k 11 E TH 12 k 12 ) Pm ( 1 Ps ) Po uwzględnieniu strat energii elektrycznej uzyskano: E rz .track ( E TH 1 k 1 E TH 2 k 2 E TH 3 k 3 ETH 4 k 4 E TH 5 k 5 E TH 6 k 6 E TH 7 k7 E TH 8 k 8 ETH 9 k 9 E TH 10 k 10 1 E TH 11 k 11 E TH 12 k 12 ) Pm ( 1 ( PL % Pt % Pf % Pe% 100 Pd % Pcc % )) E rz .track [( ETH 1 1,13 1,13 E track ,wł 4 E E ) ( ETH 5 track ,wł 5 ) ( E TH 6 track ,wł 6 ) E fixed ,wł 4 E fixed ,wł 5 E fixed ,wł 6 ( ETH 4 ( ETH 10 (13) E track ,wł 1 E E ) ( ETH 2 track ,wł 2 ) ( ETH 3 track ,wł 3 ) E fixed ,wł 1 E fixed ,wł 2 E fixed ,wł 3 1,13 ( ETH 7 (12) 1,13 1,13 1,13 E track ,wł7 E track ,wł 8 E track ,wł 9 ) ( ETH 8 ) ( ETH 9 ) E fixed ,wł 7 E fixed ,wł 8 E fixed ,wł 9 1,13 1,13 E track ,wł 10 E ) ( ETH 11 track ,wł 11 ) ( ETH 12 E fixed ,wł 10 E fixed ,wł 11 1,13 Pm ( 1 1,13 E track ,wł 12 )] E fixed ,wł 12 1,13 1 ( PL% Pt % Pf % Pe% Pd % Pcc% )) 100 1,13 (14) Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 67 12 E rz .track ( ETHi k i ) Pm ( 1 Ps ) (15) i 1 Sprawdzenia dokładności obliczeń, na podstawie przedstawionych zależności, dokonano dla okresu półrocznego. Ewentualne rozbieżności opisano współczynnikiem procentowym dp. Ilość energii elektrycznej [kWh], wyprodukowanej w okresie 15.06.2013 roku do 31.12.2013 roku, na podstawie danych nasłonecznienia dla typowego roku kalendarzowego, określono na podstawie: Erz . fixed [ 1,13 ( 0 ,5 149279 141631 116520 81621 45552 26381 18375 )] Pm ( 1 Ps ) (16) Łączna wartość dla badanego okresu wynosi 106,79 kWh. Ilość energii elektrycznej wyprodukowanej przez moduł PV zainstalowany stacjonarnie, w analogicznym czasie, na podstawie monitoringu: E mon ., fixed ( 37,180 ) 101,8 kWh (17) Procentowy współczynnik rozbieżności na drodze obliczeń analitycznych i pomiarów w warunkach rzeczywistych: dp Erz ., fixed Emon ., fixed 100% (18) Rozbieżność obliczeń modelowych i wartości rzeczywistych dla układu stacjonarnego wynosi 4,9 %. Ilość energii elektrycznej wyprodukowanej w analizowanym przedziale czasu, na podstawie danych nasłonecznienia dla typowego roku meteorologicznego dla układu nadążnego: Erz .track ( 97329 ,91 195025 ,89 153223 ,80 93047,94 51929,28 31129 ,58 22417 ,50 ) 0 ,210 ( 1 0 ,1084 ) (19) Łącznie uzyskano 120,6 kWh energii elektrycznej. Ilość energii elektrycznej wyprodukowanej przez moduł PV zainstalowany nadążnie, na podstawie monitoringu odpowiednio: E mon .,track 140 ,8 kWh (20) Zużycie energii na potrzeby własne sterowania Eu wynosi 22,40 kWh dla analizowanego okresu. Energię netto określono na podstawie zależności: Enetto Emon ,track Eu (21) Procentowy współczynnik rozbieżności wielkości energii elektrycznej na drodze obliczeń analitycznych i pomiarów w warunkach rzeczywistych: dp Erz .,track 100% Enetto (22) 68 Artur Bugała, Grażyna Frydrychowicz-Jastrzębska Różnica oszacowania produkcji energii elektrycznej na podstawie obliczeń analitycznych i wartości rzeczywistych dla układu nadążnego wynosi 1,8 %. Ilość energii elektrycznej wyprodukowanej przez układ stacjonarny w cyklu rocznym, na podstawie obliczeń analitycznych wynosi 203,28 kWh. Ilość energii elektrycznej wyprodukowanej przez układ nadążny w tym samym okresie, na podstawie obliczeń analitycznych wynosi 248,9 kWh. 4. PODSUMOWANIE Na podstawie pomiarów własnych prowadzonych w 24 godzinnym trybie ciągłym stwierdzono, że największa produkcja energii elektrycznej, zarówno w konfiguracji stacjonarnej jak i nadążnej, została zarejestrowana dla miesiąca sierpnia, mimo nieznacznie mniejszej wartości nasłonecznienia dla tego okresu. Wyjaśnienia tego zjawiska należałoby szukać w temperaturze pracy zainstalowanych modułów fotowoltaicznych. Jej wzrost powyżej 25°C powoduje spadek napięcia obwodu otwartego oraz wzrost prądu zwarcia [7]. Ze względu na dynamikę zmian obu parametrów elektrycznych wartość mocy elektryczej ulega zmniejszeniu. Produkcja energii elektrycznej dla miesiąca sierpnia, dla układu nadążnego dwuosiowego i stacjonarnego, wynosi odpowiednio 35,88 kWh oraz 26,62 kWh. Zysk „brutto”, wynikający z zastosowania sterowania wynosi 35 %. Miesięczne zużycie energii, celem realizacji procesów sterowania dwóch siłowników wynosi 2,5 kWh. Ograniczenia tej wartości należy poszukiwać w optymalnym doborze czasu załączania siłowników. Zysk „netto”, uwzględniający straty sterowania, wynosi 26 %. Ważnym aspektem wpływającym na bilans energetyczny systemu PV jest dopasowanie mocy falownika do mocy maksymalnej modułów fotowoltaicznych. Należy również zapewnić odpowiednie warunki chłodzenia. Wzrost temperatury pracy powyżej temperatury dopuszczalnej może być przyczyną awarii falownika [8]. Wykazano, że zaproponowana zależność, opisująca produkcję energii elektrycznej przez układ nadążny i układ stacjonarny, na podstawie znajomości miesięcznego nasłonecznienia, umożliwia z wystarczającą dokładnością określenie procentowego zysku wynikającego z orientowania w dwóch osiach położenia modułów PV. Brak w literaturze współczynników korekcyjnych umożliwiających przeliczenie wartości nasłonecznienia z płaszczyzny horyzontalnej do nadążnej sprawia, że należało dokonać całorocznego pomiaru rozkładu gęstości mocy promieniowania słonecznego dla obu płaszczyzn. Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych … 69 LITERATURA [1] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating with a two-axis follow-up system and with a fixed mount system, Przegląd Elektrotechniczny, 1, 2014, s. 63-65. [2] www.solar-systems.pl/ (dostęp: 10.01.2014r.) [3] Szymański B.: Instalacje fotowoltaiczne, Globenergia, wydanie II, Kraków, 2013. [4] Jastrzębska G.: Ogniwa słoneczne. Budowa, technologia i zastosowanie, WKŁ, Warszawa, 2013. [5] http://energia.nexun.pl/?p=768 (dostęp: 12.01.2014r.) [6] Jastrzębska G., Bugała A.: The influence of parameters of spatial orientation of a solar power receiver on energetic gain, Poznan University of Technology ACADEMIC JOURNALS, 2012, s. 181-188. [7] Yilmaz S., Yilmaz A., Gunes M., Ozcalik H.: Two-diode model performance analysis of photovoltaic panels, International Journal of Engineering Trends and Technology, 7, 2013, s. 2890-2895. [8] Jastrzębska G., Bugała A.: Power generation by a photovoltaic installation during standard operation as well as malfunction of micro power inverters, Elektronikakonstrukcje-technologie-zastosowania, 9, 2013, s. 156-159. ENERGY BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS FOR LOCAL URBAN CONDITIONS-PART II Work presents considerations for the production of electricity from photovoltaic conversion in the case of stationary and tracking placement of modules of the same power and technology. Basing on the measurement results an estimation of annual electricity production for both configurations was carried out. Using own measurements from monitoring, accuracy of analytical results was compared with the values actually measured. Dependence of expected energy production on insolation on horizontal and tracking plane was shown. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA* Artur BUGAŁA* UKŁADY FOTOWOLTAICZNE WSPÓŁPRACUJĄCE Z KONCENTRATORAMI Scharakteryzowano układy fotowoltaiczne z koncentratorami o niskiej (LCPV) jak i wysokiej koncentracji (HCPV). Przedstawiono możliwości ich pracy w różnych warunkach, przy czym w szczególności uwzględniono wpływ temperatury i kąta koncentracji. Zaprezentowano najnowsze rozwiązania, w tym Spin cell, Ephocell, Interdigitated Back Contact (IBC), Luminescent Solar Concentrator (LSC), High Concentration PhotoVoltaic Thermal (HCPVT), Concentration PhotoVoltaic (CPV) i ich efektywność. SŁOWA KLUCZOWE: ogniwa słoneczne, sprawność, koncentrator, konwersja fotowoltaiczna 1. WPROWADZENIE Koncentratory są to optyczne systemy ogniskowania i wzmacniania światła słonecznego. Należą do nich m.in.: rynna paraboliczna oraz soczewka Fresnela, które charakteryzują się dużym stosunkiem powierzchni apertury wejściowej do wyjściowej, układy, w których występuje duże "pole widzenia". Dotyczy głównie przypadków o znacznym udziale promieniowania rozproszonego oraz w układach o mniejszej dokładności układu śledzącego, wielostopniowe układy koncentratorów z soczewką Fresnela umieszczoną na odbijającej światło rynnie w kształcie litery V. W ogniwach słonecznych najczęściej stosuje się dwa systemy koncentratorowe: soczewkowe, wykorzystujące zjawisko załamania i zwierciadła, bazujące na zjawisku odbicia. Systemy skupiają promieniowanie liniowo lub punktowo. W rozwiązaniu talerzowym maksymalna koncentracja teoretyczna promieniowania osiąga wartości od 12 000 do 104 000, w zależności od współczynnika odbicia. Praktycznie nie przekracza wartości od 820 do 4800. Zastosowanie soczewek Fresnela daje niższe efekty koncentracji [9]. W wyniku koncentracji, na powierzchni modułu zwiększa się gęstość mocy promieniowania, można zastosować mniejszą powierzchnię PV, co prowadzi do obniżenia kosztów. W tym rozwiązaniu koncentrator powinien mieć wbudowany system nadążny [2]. __________________________________________ * Politechnika Poznańska. 72 Grażyna Frydrychowicz-Jastrzębska, Artur Bugała 2. WSPÓŁPRACA KONCENTRATORÓW Z OGNIWAMI SŁONECZNYMI Systemy koncentrujące są najbardziej korzystne tam, gdzie występuje przewaga składowej bezpośredniej promieniowania. Buduje się je jako jednostki o mocy od 20 do 35 kWp. Na rysunkach 1 i 2 przedstawiono schematy wybranych koncentratorów oraz ich odpowiedniki pracujące w ITER na Teneryfie. a) b) Rys. 1. Schemat (a) i widok (b) cylindrycznego (rurowego) koncentratora promieniowania w Instituto Tecnológico y de Energias Renovables (ITER) na Teneryfie,. (Foto: Grażyna Frydrychowicz-Jastrzębska) a) Rys. 2. Schemat (a) i widok (b) talerzowego koncentratora promieniowania słonecznego, pracującego w Instituto Tecnológico y de Energias Renovables (ITER) na Teneryfie. (Foto: Grażyna Frydrychowicz-Jastrzębska) b) Koncentracja promieniowania jest przyczyną podwyższenia temperatury na powierzchni modułu. Ma to negatywny wpływ na parametry i charakterystyki ogniwa. Sprawność ogniw wrażliwych na zmiany temperatury obniża się z jej Układy fotowoltaiczne współpracujące z koncentratorami 73 wzrostem (spadek sprawności o 0,35 - 0,45%/1). Nagrzanie ogniwa powyżej dopuszczalnej wartości, wskutek znacznej koncentracji może doprowadzić nawet do jego zniszczenia. Konieczne jest zatem chłodzenie, względnie konwersja kombinowana. Ze względu na zależność sprawności ogniw od temperatury, do współpracy z ogniwami krzemowymi stosuje się systemy fotowoltaiczne o niskiej koncentracji (od 2 do 10) światła LCPV (Light Concentration Photovoltaic). Taka instalacja mimo zwiększonej wydajności nie wymaga chłodzenia. Na rysunku 3 przedstawiono wpływ temperatury na charakterystyki wybranych ogniw słonecznych [4]. Rys. 3. Sprawność wybranych ogniw w funkcji temperatury; przy gęstości mocy promieniowania 1000 W/m2. Objaśnienia: ogniwo krzemowe SR-100 (1), ogniwo krzemowe SRT-50 (2), tandem amorficzny MST-50 MV (3), ANTEC SOLAR (4) Tylko ogniwa z arsenku galu nie wykazują dużych zmian parametrów w zakresie podwyższonej temperatury, nawet do 400 C. Pięciokrotny wzrost koncentracji do wartości C = 900 powoduje spadek sprawności ogniw z arsenku galu o około 1,5% [4]. W tym przypadku można stosować systemy fotowoltaiczne o wysokiej koncentracji światła HCPV (High Concentration Photovoltaic), współpracujące z dwuosiowymi systemami nadążnymi. Układ wyposażony jest w monitoring. W elektrowni Santa Pola, rejon Alicante w Hiszpanii, z całkowitej liczby 151 modułów polikrystalicznych pracujących w układzie nadążnym dwuosiowym, dodatkowo 27 wyposażonych jest w koncentrację o wysokim współczynniku (HCPV). Ze względu na wybraną lokalizację zastosowanie wysokiego stopnia koncentracji HCPV powinno być korzystne. Szczegółowa analiza po roku pracy elektrowni wykazała, że energia generowana przez konwencjonalne ogniwa osiągnęła zyski większe od planowanych (występowało większe nasłonecznienie, niż wynikało to z danych meteorologicznych), moduły z wysoką koncentracją przyniosły znacznie mniejsze efekty niż oczekiwano, co wykazano w tabeli 1. 74 Grażyna Frydrychowicz-Jastrzębska, Artur Bugała Tabela 1. Produkcja energii w elektrowni PV Santa Pola Alicante (Hiszpania), wartości przewidywane i rzeczywiste [10] Teoretyczna generacja energii GWh Polikrystaliczne z HCPV Polikrystaliczne 2-osiowe Cała instalacja 0.270 1.430 1.700 Rzeczywista generacja energii GWh 0.065 1.485 1.550 % -76 % +3.4 % -9 % 3. PRZEGLĄD NAJNOWSZYCH ROZWIĄZAŃ I ICH EFEKTYWNOŚĆ Do rozwiązań współpracujących z koncentratorami należą krzemowe ogniwa typu IBC (Interdigitated Back Contact) oraz ogniwa punktowo–kontaktowe. Przy współczynniku C = 30, ich sprawność wynosi = 18 %. Koncentratory mogą znaleźć zastosowanie do ogniskowania i wzmacniania wiązki promieniowania padającej na ogniwo tandemowe, nawet dla dużych współczynników koncentracji. Znane są projekty Moon z 1978 roku i Borden z 1981 roku. W pierwszym zastosowano 2 ogniwa GaAs i Si. Przy współczynniku C = 145 tandem osiągnął sprawność = 28,5%. W skład drugiego tandemu wchodzi 10 ogniw, uzyskano sprawność = 20,5% [3]. Liczne badania skupiają się wokół koncentratorów luminescencyjnych LSC (Luminescent Solar Concentrator). Stosuje się tu rozwiązanie w formie folii polimerowej, zawierającej centra luminescencyjne. Ich rolę spełniają kropki kwantowe, nanomateriały domieszkowane jonami ziem rzadkich oraz barwnikami perylenowymi nowej generacji, w tym dcm-pyran, coumarin 151, styryl 9 M, [6]. Centra absorbują promieniowanie. Technologia pozwala na silne absorbowanie promieniowania, przede wszystkim w zakresie fal do 950 nm oraz maksimum emisji przy około 1000 nm (bliskie jedności). Dzięki lepszemu dopasowaniu ogniwa do padającego promieniowania można zapobiec utracie promieniowania podczerwonego i UV [13]. Rozwiązanie umożliwia obniżenie kosztów (półprzewodnik na bazie polimeru). Koncentratory luminescencyjne nie wymagają układu nadążnego. Problematykę badawczą z tego zakresu rozwijają naukowcy w ramach programu "Fullspectrum" Unii Europejskiej [6]. Inne rozwiązanie, ogniw słonecznych współpracujących z koncentratorami, należy do naukowców z Katalonii, którzy przedstawili projekt zwiększenia wydajności konwersji PV, w wyniku zastosowania koncentratorów luminescencyjnych. W rozwiązaniu Ephocell (Smart Light Collecting System For The Efficiency Enhancement Of Solar Cells) sprawność wzrasta wskutek włączenia do procesu, konwersji zewnętrznej modulacji natężenia promieniowania, co daje lepsze zsynchronizowanie długości fal i zdolności absorpcyjnych odbiornika [12]. Układy fotowoltaiczne współpracujące z koncentratorami 75 Sprawności ogniw z koncentratorami osiągają już wartości ponad 40%, najlepsze wyniki należą do: National Renevable Energy Laboratory NREL 37%, Boeing Spectralab-odpowiednio-39%. MEREG GMbH (Material Energy Recoverz Engineering) deklaruje sprawność 40%. Stanowi ono kombinację półprzewodników i "color selective reflective interference films". Wiązka światła, po rozszczepieniu na barwy, przetwarzana jest w półprzewodnikach dostosowanych do długości fal promieniowania. Procesowi temu można również poddać promieniowanie rozproszone, w tym przypadku sprawność jest dużo niższa. Najlepsze efekty daje zastosowanie tzw. "stosu koncentratorowego" (ogniwo wielowarstwowe z dodatkową warstwą przeciwodbiciową) [4]. W Polsce, gdzie promieniowanie słoneczne charakteryzuje się dużym udziałem składowej rozproszonej, wskazane jest stosowanie opisanego rozwiązania [5]. Bardzo obiecujący jest projekt J.H. Karpa z Uniwersytetu w San Diego w Kalifornii, który w 2010 roku opracował prototyp koncentratora PV, w technologii Spin Cell, bazujący na mikrooptyce solarnej. Jest to stożek pokryty ogniwami w kształcie trójkątów, pokazany na rysunku 4 [7, 8]. Firma V3Solar (Projekt Nectar Design) prowadziła badania dla rozwiązania stożkowego. Spin Cell wychwytuje promieniowanie i przekształca je na energię elektryczną, po czym obraca się, zanim wzrośnie temperatura panelu, co skutkowałoby obniżeniem sprawności. Koncentrator tworzy hermetyczną warstwę zewnętrzną. Stożek umieszczony jest na podstawie wyposażonej w elektromagnesy, zasilane energią z konwersji. Konwersję z zastosowaniem ogniw stożkowych charakteryzuje 20-krotnie większa efektywność niż dla ogniw tradycyjnych. Rys. 4. Stożek fotowoltaiczny Na rysunku 5 zestawiono wartości temperatury modułów standardowych i Spin Cell, pracujących z koncentracją sześcio-, dwudziesto- i trzydziestokrotną, z przypadkiem-bez koncentracji. Ostatni słupek w każdym zestawieniu obrazuje różnicę wyrażoną w %. Jedną z najwyższych sprawności konwersji 44,4% osiągnęła dla zestawu trójzłączowego ogniw z koncentratorem firma Sharp. Uzyskana sprawność została oficjalnie potwierdzona przez Instytut Fraunhofera Solar Energy Systems w Niemczech. Sharp zastosował stos trzech warstw pochłaniających promieniowanie, 76 Grażyna Frydrychowicz-Jastrzębska, Artur Bugała w ich skład wchodzą pierwiastki IN, Ga, As. Firma prowadzi badania nad ogniwami trójzłączowymi od ponad 10 lat [14]. W 2013 roku kooperacja Soitec, DEA-Leti oraz instytut Helmholtz Zentrum Berlin uzyskała rozwiązanie o sprawności 44,7% [17]. Rys. 5. Możliwości obniżenia temperatury modułu PV w wyniku wprowadzenia rozwiązania Spin Cell [17] Naukowcy z Ben-Gurion University (BGU) z Negev w Izraelu zaprojektowali w 2012 roku nowe rozwiązanie koncentratora z ogniwem słonecznym, charakteryzujące się wydajnością przewyższającą 40%. Możliwe jest tu stosowanie krzemu, który zasadniczo nie jest przydatny przy wysokich koncentracjach [1]. Badacze z IBM, Airlight Energy pracują nad efektywnym systemem fotowoltaicznym High Concentration PhotoVoltaic Thermal (HCPVT) [15]. Układ bazuje na antenie o parabolicznym kształcie i wnętrzu pokrytym wieloma ruchomymi lustrami. Zwierciadła są sterowane i ustawiają się pod najbardziej optymalnym kątem w stosunku do padania promieni słonecznych. Przewiduje się, że będą zdolne do przekształcenia ponad 80 % energii promieniowania. Zastosowano chłodzenie wodą morską, przy czym woda odprowadzając ciepło z układu paruje, następnie jest skraplana i już bez soli, po dalszym uzdatnieniu, wykorzystywana jako woda pitna. Inne rozwiązanie badaczy z IBM dotyczy współpracy ogniw cienkowarstwowych z koncentratorami Concentration PhotoVoltaic (CPV), otrzymano rekordowy wynik 230 W/cm2 powierzchni ogniwa, czyli pięciokrotnie więcej niż w przypadku typowego ogniwa krzemowego. Jest to możliwe dzięki innowacyjnej technologii chłodzenia, pozwalającej obniżyć temperaturę ogniw z ponad 1600 do 85C. Do odprowadzania ciepła zastosowano warstwę ciekłego materiału z galu i indu [16]. Rozwiązania ogniw z koncentratorami zastosowano m.in. w elektrowniach fotowoltaicznych i słonecznych Andasol, Lujhu Township i Maricopa Solar. Układy fotowoltaiczne współpracujące z koncentratorami 77 4. PODSUMOWANIE W ostatnich latach nastąpił szybki rozwój technologii koncentratorów (CPV). Szacuje się, że moc instalacji wzrośnie do 1,362 GW w 2020 roku, wzrost ma być nawet o 750% w stosunku do roku 2013 (160 MW). Sprawność ogniw z koncentratorami przekroczyła w 2013 roku 44%, a Amonix produkuje już moduły o wydajności 34,2%. Rozwojowi technologii CPV sprzyja także spadek kosztów produkcji, ich obniżenie w okresie od 2012 do 2013 roku (dla HCPV) wyniosło 25,8%. Ta tendencja utrzyma się na poziomie 15% do końca 2017 roku. LITERATURA [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] Braun A., Vossier A., Katz E. A., Ekins-Daukes N.: Multiple-bandgap vertical-junction architectures for ultra-efficient concentrator solar cells. Energy & Environmental Science, 2012; 5 (9): 8523. Frydrychowicz-Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating with a two-axis follow-up system and with a fixed mount system, Przegląd Elektrotechniczny, 2014, 1, s. 63-65. Jarzębski Z.M.: Energia słoneczna. Konwersja fotowoltaiczna, PWN Warszawa 1990. Jastrzębska G.: Ogniwa słoneczne. Budowa, technologia i zastosowanie, WKŁ, Warszawa 2013. Jastrzębska G.: Odnawialne źródła energii i pojazdy proekologiczne, WNT, Warszawa 2009. Jeremiasz O, Sarnecki J.,Nikiel W., Teodorczyk N., Wnuk K., Kozłowski R, Gawlik D.: Luminescencyjne koncentratory energii promieniowania słonecznego w zakresie widzialnym i bliskiej podczerwieni, Elektronika 2010, 51 (5), s. 83-86. Karp J.H., Tremblay E.J., Ford J.E.: Planar micro-optic solar concentrator, Optics Express, Vol. 18, Issue 2, 2010, s. 1122-1133. Karp J.H., Tremblay E.J., Ford J.E.: Planar micro-optic concentration using multiple imaging lenses into a common slab waveguide,” Proc. SPIE 2009, s. 7407-11. Lewandowski W.M.: Proekologiczne odnawialne źródła energii, WNT, Warszawa 2006. Lopez D., Munoz R., Valero S..: Analysis of a Ground - Mounted Double Axis Photovoltaic Installation in Spain, International Conf. on Renewable Energies and Power Quality ICREPQ'11, Canary Island 2011. www.eupvsec-proceedings.com (dostęp: 03.05.2012r.) www.ist-world.org (dostęp: 16.06.2012r.) www.newloks.int.pan.wroc.pl (dostęp: 13.08.2012r.) www.sharp-world.com (dostęp: 17.08.2012r.) http://nt.interia.pl/technauka/news-ogniwa-zdolne-do-koncentracji- mocy (dostęp: 02.06.2012r.) www.katalog.xtech.pl (dostęp: 20.01.2014r.) www.gramwzielone.pl (dostęp: 24.11.2013r.) 78 Grażyna Frydrychowicz-Jastrzębska, Artur Bugała PHOTOVOLTAIC SYSTEMS WITH CONCENTRATORS Paper presents photovoltaic systems with concentrators with a low (LCPV) and high (HCPV) level of concentration. The possibilities of work under different conditions, especially influence of temperature and concentration angle are described. The latest solutions with their efficiency like Spin cell, Ephocell, Interdigitated Back Contact (IBC), Luminescent Solar Concentrator (LSC), High Concentration PhotoVoltaic Thermal (HCPVT), Concentration PhotoVoltaic (CPV) are presented. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Robert JĘDRYCHOWSKI* SYSTEM KONTROLI PRACY MAŁYCH ŹRÓDEŁ ENERGII ELEKTRYCZNEJ W SIECIACH INTELIGENTNYCH OPARTY NA STEROWNIKACH PLC Referat prezentuje rozwiązania techniczne pozwalające na zarządzanie pracą instalacji elektrycznych, w których zaplanowano pracę małych źródeł energii. W tym celu w systemie zarządzania budynkiem wykorzystano możliwości techniczne oferowane przez sterowniki PLC. Rozwój technologii wytwarzania energii elektrycznej sprawiają, że coraz więcej osób prywatnych i niewielkich przedsiębiorstw rozważa zainstalowanie lokalnego źródła energii przyłączonego bezpośrednio do własnej instalacji odbiorczej. W artykule przedstawione zostały cechy oraz możliwości techniczne systemów kontroli i sterowania pracą źródeł o małej mocy przyłączonych do sieci niskiego napięcia oraz instalacji budynkowych. Zaprezentowane zostały możliwości integrowania sterowania pracą źródła, automatyki budynku oraz możliwości kontroli zużycia energii. SŁOWA KLUCZOWE: komunikacja, PLC, mikroźródło, Smart Grid 1. WSTĘP Wzrost znaczenia generacji rozproszonej oraz małych źródeł energii w polityce energetycznej pociąga za sobą szereg problemów natury prawnej i technicznej, które należy rozwiązać. Problemy wynikają z oczekiwań definiowanych przez właściciela źródła oraz konieczności spełnienia wymagań operatora sieci elektroenergetycznej, do której instalacja budynku jest przyłączona. Jednym z elementów pozwalających na bezpieczną, przewidywalną i efektywną pracę źródła jest wyposażenie go w dopasowany system sterowanie i nadzoru (SSiN) tworzący wraz z systemem sterowania budynkiem środowisko dostarczające informacji o pracy samego źródła, jego otoczenia oraz instalacji elektroenergetycznej, do której jest włączone. SSiN może mieć różnorodną strukturę odpowiadającą oczekiwaniom i potrzebą właściciela źródła. Wykorzystanie, jako źródła danych sterownik PLC pozwala w sposób elastyczny na budowanie instalacji inteligentnych, w których źródło w pełni współpracuje z automatyką budynku. __________________________________________ * Politechnika Lubelska. 80 Robert Jędrychowski W artykule przedstawione zostaną właściwości eksploatacyjne i informatyczne sterownika PLC wykorzystywane do tworzenia modelu systemu zarządzania. W modelu uwzględnić można szereg modułów współpracujących i wymieniających informacje pomiędzy sobą. Pierwszym elementem modelu jest źródło energii. System sterowania źródłem ze względu na bezpieczeństwo i niezawodność pracy ma charakter autonomiczny, tzn. wymaga się od niego poprawnej pracy nawet przy braku wymiany danych z pozostałymi elementami modelu. Drugim modelowanym elementem jest lokalna wizualizacja pełniąca rolę BMS (Building Management System), pozwalająca na komunikację użytkownikmaszyna i prezentację aktualnych informacji o stanie instalacji i źródła. Mogą pojawić się również moduły niezwiązane bezpośrednio z praca źródła, a pozwalające na wprowadzenie informacji związanych np. pracą wybranych urządzeń lub moduł stacji meteo. Tworzony system sterowania i nadzoru oparty o sterownik PLC (wykorzystano sterownik WAGO-I/O-SYSTEM 750-880/025001) może wykorzystywać dodatkowo standard IEC 61850 i jego rozszerzenia opisujące pracę źródeł rozproszonych, a także standard CIM. Dzięki takiemu podejściu przedstawione rozwiązania automatyki budynkowej są zgodne z zaleceniami opisanymi dla Smart Grid i pozwalają, na współpracę z innymi elementami tworzącymi system inteligentny. 2. WYMAGANIA PRZYŁĄCZENIOWE DLA ŹRÓDEŁ WSPÓLPRACUJACYCH Z INSTALACJĄ ELEKTRYCZNĄ Za małe źródła uważane są źródła energii o niewielkiej mocy w granicach od 1 do 500 kW przyłączonych do sieci niskiego napięcia [5]. Niekiedy stosowany jest dokładniejszy ich podział na mikroźródła o mocy od 1 do 50 kW oraz miniźródła o mocy od 50 do 500 kW. Do najczęściej stosowanych rodzajów źródeł małej mocy należą [3]: elektrownie wodne, silniki Diesla, silniki i turbiny gazowe (w tym biogazowe), elektrownie wiatrowe, elektrownie fotowoltaiczne. Wszystkie źródła energii, w tym również te o niewielkiej mocy muszą spełniać wymagania stawiane przez regulacje prawne. Wymagania te zawarte w prawie energetycznym są następnie stosowane i uszczegóławiane w Instrukcjach Ruchu i Eksploatacji Operatorów Sieci Dystrybucyjnej (OSD). Dodatkowo wymagane jest spełnienie przepisów i uzyskanie niezbędnych zezwoleń wynikających z prawa budowlanego. Użytkownik będący prosumentem, chcący sprzedawać nadmiar wyprodukowanej energii elektrycznej do sieci nN powinien spełnić wymagania System kontroli pracy małych źródeł energii elektrycznej w sieciach … 81 zdefiniowane praz lokalnego OSD [4]. W warunkach przyłączenia wydawanych przez OSD definiowany jest zakres niezbędnych zmian, które należy wykonać w sieci nN oraz w instalacji elektrycznej prosumenta (rys. 1). W zależności od wielkości instalacji prosument i mocy w niej zainstalowanej. Zmiany te mogą obejmować takie działania jak: modernizacja rozdzielnicy stacji transformatorowej SN/nN, wykonanie lub modernizacja złącza na granicy posesji, wykonanie lub modernizacja przyłącza, modernizacja instalacji odbiorczej. SN/nN Rozd zielnica stacji transformatorowej Złącze nN Instalacja prosumenta Rys. 1. Schemat przyłączenia instalacji prosumenta wraz ze źródłem do sieci nN Szczególnie dużą uwagę w warunkach przyłączeniowych przykłada się do realizacji układu pomiarowo-rozliczeniowego oraz prawidłowo wykonanych zabezpieczeń elektroenergetycznych. Konstrukcja układu pomiarowo-rozliczeniowego uzależniona jest od mocy źródła energii oraz sposobu rozliczenia wytworzonej energii. Zakładając, że prosument będzie sprzedawał nadmiar energii do sieci układ pomiaroworozliczeniowy może zawierać dwa liczniki energii oraz opcjonalnie przekładniki prądowe. Przekładniki prądowe niezbędne przy pomiarze półpośrednim muszą spełniać wymagania, co do klasy dokładności, zakresu prądów oraz współczynnika bezpieczeństwa. Dużą wagę przykłada się do liczników energii, pierwszy z nich powinien być czterokwadrantowym licznikiem pozwalającym na dwukierunkowy pomiar energii biernej i czynnej z możliwością rejestracji profilu obciążenia. Drugi z liczników jest przystosowany do jednokierunkowego pomiaru energii i wykorzystywany jest dla potrzeb określenia ilości energii wyprodukowanej przez źródło (rys. 2). Drugim elementem jest układ zabezpieczeń. Wymagane jest zabezpieczenie podstawowe jednostek wytwórczych oraz niezależne zabezpieczenie dodatkowe. W 82 Robert Jędrychowski instalacji nN prosument skomplikowanie układu zabezpieczeń zależy od wielkości źródła, dla bardzo małych źródeł wystarczą najprostsze zabezpieczenia (bezpieczniki). RG nN Prz ekszt ałtnik Licznik podst awowy Licznik dodatkowy Instalacja prosumenta I> I>> U> U< f> f< df/dt Rys. 2. Układ wewnętrznej instalacji prosumenta Dla źródeł większej mocy, gdy nie przewiduje się pracy wyspowej źródła, zabezpieczenia te mogą stanowić jedną całość i działać na łącznik sprzęgający z siecią. Zabezpieczenie podstawowe powinno zapewniać ochronę przed przeciążeniami i zwarciami wyłączając jednostkę wytwórczą z ruchu. Zabezpieczenie dodatkowe w większości przypadków współpracuję z układem przekształtnikowym może zawierać: zabezpieczenia pod- i nadnapięciowe, zabezpieczenia częstotliwościowe, zabezpieczenia kontrolujące parametry jakości energii. 3. WYKORZYSTANIE STEROWNIKA WAGO-I/O-SYSTEM DO ZARZADZANIA INSTALACJA ELEKTRYCZNĄ Dzięki swej budowie sterowniki WAGO-I/O-SYSTEM serii 750 oraz WAGOI/O-IPC-C6 pozwalają na rozszerzenie możliwości oferowanych przez klasyczne urządzenia automatyki budynkowej. Ich modułowa budowa pozwala na dostosowanie listy sygnałów wejściowych i wyjściowych oraz portów komunikacyjnych zależnie od potrzeb systemu, który nadzorują. Pracując w instalacji elektrycznej i sieciach nN mogą pełnić zarówno funkcję sterownika zarządzającego pracą źródła jak również modułu wykonawczego realizującego funkcje automatyki budynkowej. Dostępne moduły sterownika można podzielić na następujące grupy [1]: 1. Podstawowe, niezbędne do kontroli pracy źródła, można do nich zaliczyć: a. moduły wejść i wyjść analogowych, System kontroli pracy małych źródeł energii elektrycznej w sieciach … 83 b. moduły wejść i wyjść binarnych. 2. Pomiarowe dla sygnałów przemiennych jednofazowych. 3. Pomiarowe dla sygnałów przemiennych trójfazowych. 4. Komunikacyjne. 5. Interfejs HMI. Zrealizowany poprzez panele dotykowe, wbudowany serwer WWW lub możliwość komunikacji z dowolnym urządzeniem zewnętrznym. Rys. 3. Sterownik PLC WAGO-I/O-SYSTEM serii 750 [6] Sterowniki WAGO posiadają szereg możliwości pozyskiwania informacji o pracy instalacji poprzez moduły sterownika oraz elementy z nimi współpracujące. Do pierwszej grupy elementów należą moduły pomiarowe, wśród których można wymienić: 1. Moduły pomiarowe WAGO-I/O-SYSTEM serii 750 przeznaczone do pomiaru mocy trójfazowych, pozwalające na pomiar prądów do 1 lub 5 A, a po zastosowaniu przekładników prądowych serii 855 nawet do 1000 A. Moduły te pozwalają na pomiar prądu oraz napięcia A następnie wyznaczenie takich wielkości jak moc (czynna, bierna, pozorna), energia, współczynnik mocy, częstotliwość i wyższe harmoniczne. (rys. 4). 2. Przetworniki pomiarowe prądu (JUMPFLEX®) serii 857 pozwalające na pomiar prądów przemiennych i stałych do 1 lub 5 A, a po zastosowaniu przekładników prądowych lub cewek Rogowskiego nawet do 2000 A. Przetworniki przetwarzają sygnał prądu mierzonego na sygnał analogowy (4 – 20 mA) akceptowalny przez standardowe moduły analogowe. 3. Konwerter dla cewek Rogowskiego pozwalający na pomiar prądu o wartościach do 2000 A poprzez zastosowanie cewek Rogowskiego. Sygnał wejściowy może być wprowadzony na moduły opisane w punkcie 1. 4. Inteligentne czujniki przepływu prądu, pozwalające na kontrolę prądu stałego np. wytwarzanego przez PV. 84 Robert Jędrychowski Rys. 4. Układ połączeń modułu pomiarowego serii 750 [6] Drugą grupę elementów stanowią moduły komunikacyjne pozwalające na wymianę informacji pomiędzy sterownikami oraz innymi elementami np. licznikami energii. Możliwa jest komunikacja wykorzystująca: 1. Łącza asynchroniczne RS 232, RS 485. 2. Sieci LAN. 3. Łącza bezprzewodowe. Trzecią grupą elementów są moduły konwertujące, pozwalające na współpracę sterowników PLC WAGO-I/O-SYSTEM z różnymi standardami zarządzania budynkiem. Do modułów tych zaliczyć można: 1. Moduł KNX/EIB/TP1 753-646 pozwala na przyłączenie sterownika do instalacji inteligentnej pracującej w standardzie KNX. 2. Moduł DALI multimaster 753-647 pozwalajżcy na współpracę sterownika z urządzeniami należącymi do standardu DALI IEC 62386. 3. Moduł 750-642 umożliwia odbiór sygnałów radiowych z urządzeń wykonanych w technologii EnOcean, takich jak bezobsługowe, bezbateryjne, bezprzewodowe czujniki i przełączniki. Oprócz elementów sprzętowych właściwości sterownika można rozbudowywać i modyfikować poprzez zastosowanie odpowiednio dobranego oprogramowania w postaci bibliotek definiujących funkcję sterownika. Tworzony system sterowania instalacją nN oraz przemysłowymi sieciami nN oparty o sterownik PLC można wykorzystywać dodatkowo standard IEC 61850 i jego rozszerzenia opisujące pracę źródeł rozproszonych, a także standard CIM [1]. Dzięki takiemu podejściu przedstawione rozwiązania automatyki budynkowej są zgodne z zaleceniami opisanymi dla Smart Grid i pozwalają, na współpracę z innymi elementami tworzącymi system inteligentny. Możliwe jest również zorganizowanie wymiany danych pomiędzy systemem zarządzania siecią elektroenergetyczną a BMS w budynku lub zakładzie. System kontroli pracy małych źródeł energii elektrycznej w sieciach … 85 4. PODSUMOWANIE Zastosowanie sterowników PLC WAGO-I/O-SYSTEM umożliwia elastyczne modelowanie systemu zarządzania budynkiem lub instalacja przemysłową nN. Zaprezentowane moduły pomiarowe pozwalają na pozyskiwanie informacji pomiarowych bezpośrednio ze źródła oraz obwodów odbiorczych. Dodatkowo dzięki części programowej możliwe jest tworzenie aplikacji dostosowanych do potrzeb użytkownika, spełniających nietypowych wymagań. Istotna jest również możliwość zachowania standardów wymaganych dla sieci inteligentnych. LITERATURA [1] Jędrychowski R., Zalety standaryzacji systemów nadzoru i zabezpieczeń dla generacji rozproszonej. Rynek Energii Nr 2 (81) 2009 r. s. 46-5. [2] Jędrychowski R.: Data acquisition systems for small-scale energy generation sources „Computer Applications in Electrical Engineering”, Poznan University of Technology, Institute of Electrical Engineering and Electronics, Poznań 2012, ISBN 978-83-86912-59-9, ss. 244-253. [3] Kacejko P.: Inżynieria elektryczna i technologie informatyczne w nowoczesnych technologiach energetycznych. Monografie Komitetu Inżynierii Środowiska PAN vol. 82, Lublin 2011. [4] Instrukcja Ruchu i Eksploatacji Sieci Dystrybucyjnej PGE Dystrybucja S.A. [5] Paska J.: Wytwarzanie rozproszone energii elektrycznej i ciepła. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2010 r. [6] WAGO. Dokumentacja techniczna. Technika pomiaru prądu i energii. PLC-BASED OPERATION CONTROLS SYSTEM FOR MICRO POWER SOURCES IN INTELLIGENT NETWORKS The paper presents technological solution that make to manage the operation of electrical installations, whereto micro power sources can be connected. For the purpose, technological potential offered by PLC’s has been applied to the building management system. Technological development in the area of electricity generation makes it possible for private person and micro companies to install local power sources that are directly connected to their own power supply wiring. The paper presents characteristics and technological potential of system designed to supervise and control the operation of low power sources connected to low voltage network systems and electric wiring in buildings. Possibilities concerning integration of the source operation whit the building management system as well as the power consumption control have been presented. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O UR N A L S No 79 Electrical Engineering 2014 Marta KOLASA* Rafał DŁUGOSZ* KONCEPCJA ZASTOSOWANIA SZTUCZNYCH SIECI NEURONOWYCH DO LOKALIZACJI ELEMENTÓW POWODUJĄCYCH POGORSZENIE JAKOŚCI ENERGII ELEKTRYCZNEJ W SIECIACH ŚREDNIEGO NAPIĘCIA W artykule przedstawiono koncepcję wykorzystania sztucznych sieci neuronowych do rozwiązywania problemu lokalizacji źródeł zakłóceń powodujących pogorszenie jakości energii elektrycznej. W dziedzinie tej coraz częściej sięga się po rozwiązania oparte na sztucznej inteligencji, choć zazwyczaj stosowane algorytmy uczenia sieci neuronowych implementowane są jako programy komputerowe. Biorąc pod uwagę ogromną ilość danych, które muszą zostać przetworzone, rozwiązania takie nie są optymalne. Rozwiązaniem tego problemu może być zastosowanie równoległego przetwarzania danych, możliwego do uzyskania w sieciach neuronowych realizowanych jako specjalizowane układy scalone. Jest to celem naszych badań. W artykule przedstawiono jeden z etapów realizacji tego zadania – model sieci elektroenergetycznej, którego celem jest dostarczenie danych uczących dla projektowanej na poziomie tranzystorów sieci neuronowej. W realizowanej sieci neuronowej wykorzystano nowatorski algorytm oparty na filtracji błędu kwantyzacji, który pozwala znacząco skrócić fazę uczenia, przez co sieć jest w stanie szybko dostosować się do nowych danych. SŁOWA KLUCZOWE: jakość energii elektrycznej, sztuczne sieci neuronowe, nowe algorytmy uczenia 1. WSTĘP W ostatnich latach widoczny jest znaczący wzrost zainteresowania tematyką jakości energii elektrycznej [1, 6, 7, 11, 12, 13, 15]. Jednym z głównych problemów w sieciach elektroenergetycznych są pojawiające się wyższe harmoniczne, które powodują np. odkształcenia przebiegów napięć, błędy w pracy przyrządów pomiarowych, nieprawidłową pracę sprzętu zabezpieczającego, wzrost strat mocy, itp. [12]. Energia elektryczna przestała być postrzegana wyłącznie w kategoriach ilościowych jako wielkość fizyczna, lecz zaczęła podlegać restrykcyjnej ocenie oraz standaryzacji. Jakość energii elektrycznej określa jej przydatność do zasilania odbiorników energii elektrycznej [7]. O własnościach użytkowych energii decyduje nie tylko wytwórca, lecz przede wszystkim odbiorcy energii oraz jej dystrybutor, a także __________________________________________ * Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy. 88 Marta Kolasa, Rafał Długosz producent urządzeń eksploatowanych u odbiorców. Kluczowym problemem w tej branży jest to, że energia podlega degradacji w procesie jej przesyłu oraz dystrybucji pod wpływem występujących zaburzeń elektromagnetycznych. Głównym źródłem tych zaburzeń są różne odbiorniki nieliniowe, których liczba nieustannie rośnie. Z tego względu, w przypadku znaczącego odkształcenia napięcia w sieci zasilającej, występuje potrzeba zlokalizowania rodzaju zaburzenia oraz jego źródła. Ma to szczególne znaczenie zwłaszcza w okresie formułowania kontraktów na dostawę energii i egzekwowania opłat za pogarszanie jakości zasilania. Harmoniczne prądu przenoszone są przez sieć. W związku z tym odbiorcy energii, którzy sami nie przyczyniają się do ich powstawania w sieci mogą być narażeni na ich oddziaływanie. W wielu przypadkach wymagane jest określenie ilościowego udziału dostawcy oraz odbiorcy energii w całkowitym odkształceniu napięcia w punkcie wspólnego przyłączenia [7]. Problem lokalizacji źródeł wyższych harmonicznych w systemie elektroenergetycznym jest szeroko poruszany w literaturze [1, 2, 7, 11-15]. Wiele z obecnie stosowanych metod lokalizacji źródeł składowych harmonicznych opiera się na badaniu kierunku przepływu mocy czynnej dla poszczególnych składowych. Wielu autorów zwraca jednak uwagę na ograniczenia tych metod [1, 7, 13]. "Metoda impedancyjna", w przeciwieństwie do metody przepływu mocy czynnej, pozwala na dokonanie oceny udziału dostawcy i odbiorcy energii w całkowitym odkształceniu napięcia i jest uznawana za najbardziej miarodajną ze wszystkich sposobów lokalizacji źródeł wyższych harmonicznych [7, 15]. Jednakże większość metod proponowanych w literaturze: "metoda impedancyjna" [15], badanie kierunku przepływu mocy biernej oraz „impedancji krytycznej” [15], iniekcja interharmonicznych [14] itp., oprócz złożoności technicznej realizacji wymagają posiadania dokładnych informacji o wartościach parametrów zastępczych analizowanego sytemu [1]. Są to dane trudno dostępne lub też uzyskiwane poprzez kosztowne pomiary. Alternatywą w rozwiązywaniu opisywanych problemów jest zastosowanie metod oceny wpływu pracy odbiorników nieliniowych na jakość energii elektrycznej opartych na systemach sztucznej inteligencji. Zaletą rozwiązań tego typu jest umiejętność radzenia sobie z okresowym brakiem pewnych danych, co często się zdarza. Zastosowanie sztucznych sieci neuronowych oraz innych systemów opartych na sztucznej inteligencji w elektroenergetyce zyskuje na popularności [6, 7, 11]. Wykorzystywane są one w zagadnieniach związanych z prognozowaniem przyszłych wartości energii elektrycznej, detekcją uszkodzeń elementów systemu elektroenergetycznego czy też jakością energii elektrycznej [6, 7, 11]. Jednym z celów autorów pracy jest zrealizowanie nowatorskiego systemu diagnostycznego, który pozwoli na monitorowanie zawartości wyższych harmonicznych w systemie elektroenergetycznym w trybie ciągłym. W artykule przedstawiono koncepcję systemu (inteligentnego klasyfikatora), opartego na sztucznej sieci neuronowej, koncentrując się przede wszystkim na zaimplementowanym w nim algorytmie uczenia, który jest dedykowany zarówno Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji … 89 do rozwiązań sprzętowych jak i softwarowych [10]. W zaproponowanym algorytmie wykorzystano filtrację cyfrową, która pozwala na znaczące skrócenie czasu uczenia sieci. Ma to znaczenie z punktu widzenia konieczności szybkiego dostosowywania się sieci neuronowej do zmieniających się warunków, w jakich pracuje siec neuronowa. Jednym z podstawowych problemów przy zastosowaniu sieci neuronowych w systemach oceny jakości energii jest właściwe zdefiniowane danych uczących dla takiej sieci [7]. Dane te muszą z jednej strony dobrze opisywać problem, tak by sieć mogła wskazywać właściwie źródła zakłóceń. Z drugiej strony struktura tych danych musi być na tyle prosta by sieć mogła je właściwie przetworzyć. Aby dostarczyć danych uczących autorzy zaprojektowali model systemu elektroenergetycznego w środowisku Matlab Simulink. Szczegóły dotyczące modelu zaprezentowano w rozdziale 2. W kolejnym rozdziale autorzy przedstawili koncepcję szybkiego uczenia samoorganizujących się sieci neuronowych. Wnioski przedstawiono w rozdziale ostatnim. 2. CHARAKTERYSTYKA PRZYKŁADOWEJ SIECI ELEKTROENERGETYCZNEJ ŚREDNIEGO NAPIĘCIA - MODEL Aby dostarczyć dane uczące dla opracowywanej sieci neuronowej zastosowano przykładową elektroenergetyczną sieć dystrybucyjną, której schemat zastępczy pokazano na rys. 1. Rys. 1. Schemat zastępczy przykładowej sieci dystrybucyjnej Sieć elektroenergetyczna składa się z następujących elementów: generatora zastępczego (system elektroenergetyczny – zastąpiony idealnym źródłem napięcia połączonym szeregowo z rezystorem i cewką), dwóch jednostek wytwórczych JW1 i JW2 (uwzględnienie generacji rozproszonej), dziewięciu odbiorów ODB1 – 9 90 Marta Kolasa, Rafał Długosz oraz ośmiu odcinków linii elektroenergetycznych L1 – 8 średniego napięcia. Sposób wyznaczania parametrów poszczególnych elementów schematu zastępczego został szczegółowo opisany w pracach [3, 4]. Rys. 2. Konstrukcja blokowa modelu w środowisku Maltlab Simulink Rys. 3. Schemat struktury wewnętrznej bloku „odbiór nieliniowy” w środowisku Maltlab Simulink Na potrzeby testowania sieci neuronowej opracowano model elektroenergetycznej sieci średniego napięcia (rys. 1) w środowisku Matlab Simulink, z wykorzystaniem języka programowania wysokiego poziomu. Na rys. 2. przedstawiono konstrukcję blokową modelu. Model umożliwia symulacyjne prowadzenie badań stopnia odkształceń napięć oraz prądów w poszczególnych węzłach oraz gałęziach przykładowej sieci elektroenergetycznej oraz w odbiorach. Model zawiera źródła napięcia umożliwiające pracę w dwóch trybach, tj. generujące napięcie sinusoidalne oraz napięcie odkształcone (z możliwością zadawania wartości amplitud i faz poszczególnych harmonicznych). Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji … 91 W razie konieczności wprowadzenia impedancji wewnętrznej źródła napięcia (rzeczywiste źródło napięcia), dołącza się szeregowo połączone rezystory i cewki. W węzłach sieci elektroenergetycznej możliwe jest przyłączenie liniowych bądź nieliniowych odbiorów (rys. 3). Nieliniowe odbiory są kolejnym elementem wpływającym na pogorszenie kształtu krzywej napięć i prądów w rozpatrywanej sieci elektroenergetycznej. Schemat struktury wewnętrznej bloku oznaczonego jako „linia elektroenergetyczna” (rys. 4) opracowano zgodnie z klasycznymi schematami zastępczymi linii elektroenergetycznych [16, 17]. Model uzupełniono miernikami zawartości wyższych harmonicznych wybranych prądów oraz napięć sieci. Zaimplementowany model pozwala na badanie wpływu dołączenia poszczególnych odbiorów lub zwiększenia zawartości harmonicznych w napięciach źródłowych na jakość energii elektrycznej, w szczególności na odkształcenie krzywych prądów i napięć w różnych miejscach rozpatrywanej, przykładowej sieci elektroenergetycznej. Model pozwala na uzyskanie niezbędnych danych służących do przeprowadzenia procesu uczenia, weryfikacji oraz testowania neuronowego klasyfikatora danych. Rys. 4. Schemat struktury wewnętrznej bloku „linia elektroenergetyczna” w środowisku Simulink 3. OPIS SIECI NEURONOWEJ Z uwagi na bardzo dużą liczbę węzłów systemu elektroenergetycznego oraz nieustannie rosnącą liczbę odbiorników, w tym odbiorników nieliniowych, system diagnozujący musi posiadać dużą mocą obliczeniową. Problem polega na tym, że współczesne realizacje sieci neuronowych oparte są głównie na platformach softwarowych, które nie pozwalają uzyskać dużych mocy obliczeniowych. Wynika to z szeregowego przetwarzania danych w tego typu systemach oraz często z niewystarczających zasobów sprzętowych. Aby zbudować system który zapewni odpowiednią moc obliczeniową, zachowując przy tym niewielkie wymiary, niezbędne jest zastosowanie systemów pozwalających na pracę równoległą [5, 9]. 92 Marta Kolasa, Rafał Długosz Proste zastosowanie systemów służących do równoległego przetwarzania sygnałów (np. układy FPGA – Field Programmable Gate Array) może okazać się niewystarczające. Wynika to z ograniczonych zasobów sprzętowych w tego typu urządzeniach. Konieczny jest również rozwój odpowiednich algorytmów uczenia sieci, które z jednej strony pozwolą na szybkie uczenie (duża zbieżność algorytmu uczenia), a z drugiej będą realizowalne na sprzętowych platformach równoległych. Przykładem sieci neuronowych które mogą zostać w prosty sposób zastosowane w tym przypadku, głównie ze względu na prostotę algorytmów uczących, są samoorganizujące się sieci Kohonena [5, 9], zwane też samoorganizującymi mapami cech (SOFM od ang. Self-Organized Feature Maps). Składają się one z jednej warstwy neuronów, które tworzą mapę z liczbą wyjść równą liczbie neuronów. Wszystkie neurony w sieci mają wspólne wejścia. Zaletą sieci typu SOFM jest możliwość rzutowania wielowymiarowych danych wejściowych na przestrzeń o mniejszej liczbie wymiarów, zwykle dwuwymiarową, co przyczynia się do ich lepszej wizualizacji oraz analizy [8]. Konkurencyjne uczenie w sieciach SOFM polega na prezentowaniu sieci wektorów uczących X, w wyniku czego wagi poszczególnych neuronów adaptują się w taki sposób, że neurony te stają się reprezentantami poszczególnych klas sygnałów wejściowych. W sieciach tych dla każdego wzorca uczącego X najpierw określana jest odległość pomiędzy wzorcem X oraz wektorami wag W poszczególnych neuronów. W tym celu stosuje się różne miary odległości. Do najbardziej popularnych należą tzw. miara Manhattan oraz miara Euklidesa. Konkurencję wygrywa ten neuron, którego wektor wag W jest najbardziej podobny do wektora uczącego X. W kolejnym kroku algorytmu następuje adaptacja wag neuronu zwycięskiego oraz dodatkowo tych neuronów, które należą do jego sąsiedztwa. Adaptacja odbywa się zgodnie z poniższą zależnością: W j ( l 1 ) W j ( l ) k ( l )G( R , d ( i , j ))[ X ( l ) W j ( l )] (1) gdzie ηk jest współczynnikiem uczenia w k-tej epoce uczącej, Wj jest wektorem wag danego j-tego neuronu, X jest wzorcem uczącym w l-tej prezentacji, d(i, j) jest odległością topologiczna pomiędzy poszczególnymi neuronami na mapie, G() jest zadaną funkcją sąsiedztwa, natomiast R zasięgiem sąsiedztwa. Efektywność procesu uczenia samoorganizującej się sieci neuronowej oceniana jest za pomocą różnych kryteriów. Jednym z nich jest błąd kwantyzacji, który dla m n-wymiarowych wzorców w wejściowym zbiorze danych definiowany jest następująco: Qerr 1 m m j 1 n l 1 ( x j ,l wi ,l ) 2 (2) Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji … 93 4. PROPONOWANY ALGORYTM UCZENIA SIECI NEURONOWEJ Jednym z celów badań jest opracowanie szybkozbieżnych algorytmów uczenia sieci neuronowych, które dzięki temu będą w stanie w krótkim czasie lokalizować źródła odkształceń napięcia w sieci elektroenergetycznej. Proponowany system oparty będzie na nowatorskim wykorzystaniu filtrów cyfrowych o skończonej odpowiedzi impulsowej oraz nieliniowych filtrów medianowych. Dotychczasowe badania pokazują, że w trakcie uczenia sieci błąd kwantyzacji (2) nie maleje jednostajnie, ale widoczne są fazy stagnacji oraz gwałtownego zmniejszania wartości tego błędu (fazy aktywności). Te drugie fazy pojawiają się zawsze po przełączeniu promienia sąsiedztwa, R (1). W fazach stagnacji nie jest widoczny postęp w uczeniu sieci. Proponowany algorytm poprzez odpowiednią filtrację tego błędu jest w stanie wykryć fazy stagnacji i skracać je poprzez automatyczne przełączenie promienia R. Pozwala to skrócić czas procesu uczenia nawet o 70 – 90%. Nowy algorytm wraz z wynikami badań przeprowadzonymi na modelu softwarowym sieci został przedstawiony w szczegółach w [10]. 5. PODSUMOWANIE W artykule przedstawiono koncepcję zastosowania samoorganizujących sieci neuronowych w rozwiązywaniu problemów związanych z jakością energii. Na obecnym etapie badań gotowy jest model sieci elektroenergetycznej, który dostarczy danych uczących dla projektowanej sieci neuronowej. Trwają obecnie prace nad nowym algorytmem uczenia, który pozwoli znacząco zmniejszyć czas uczenia sieci. Gotowa jest też koncepcja sprzętowej realizacji takiej sieci, która pozwoli na zastosowanie równoległego przetwarzania danych, czyli znaczące zwiększenie mocy obliczeniowej układu. Sieć zostanie zrealizowana jako specjalizowany układ scalony w technologii CMOS. LITERATURA [1] Bigaj D., Hanzelka Z., Metody lokalizacji źródeł wyższych harmonicznych w sieciach zasilających, Polskie Partnerstwo Jakości Zasilania, 2004. [2] Cieślik S., Problemy identyfikacji elementów systemu elektroenergetycznego powodujących wzrost wyższych harmonicznych napięcia. Miesięcznik Stowarzyszenia Elektryków Polskich INPE, Nr 152 (Rok XVIII), maj 2012r., str. 43-49. [3] Cieślik S., Przyłączenie farmy wiatrowej o mocy znamionowej 8 MW do szyn rozdzielni SN w stacji elektroenergetycznej WN/SN zasilającej elektroenergetyczną sieć dystrybucyjną. Przegląd Elektrotechniczny, 86, nr 6/2010, str. 104-109. [4] Cieślik S., Modelowanie matematyczne i symulacja układów elektroenergetycznych z generatorami indukcyjnymi. Wydawnictwa Uczelniane Uniwersytetu Technologiczno-Przyrodniczego, Bydgoszcz 2008. 94 Marta Kolasa, Rafał Długosz [5] Długosz R., Kolasa M., Pedrycz W., Szulc M., Parallel Programmable Asynchronous Neighborhood Mechanism for Kohonen SOM Implemented in CMOS Technology, IEEE Transactions on Neural Networks, Vol. 22, No. 12, 2011, str. 2091-2104. [6] Gała M., Zastosowanie sztucznych sieci neuronowych do oceny wpływu pracy odbiorników nieliniowych na jakość energii elektrycznej, Przegląd Elektrotechniczny, Nr 6/2011, str. 42-46. [7] Gała M., Analiza wpływu pracy odbiorników nieliniowych na zmiany wartości wybranych parametrów jakości energii elektrycznej z zastosowaniem sztucznych sieci neuronowych (rozprawa doktorska), Politechnika Częstochowska, 2007. [8] Kohonen T., Self-Organizing Maps, third ed. Springer, Berlin, 2001. [9] Kolasa M., Długosz R., Pedrycz W., Szulc M., A programmable triangular neighborhood function for a Kohonen self-organizing map implemented on chip, Neural Networks, Vol. 25, 2012, str. 146-160. [10] Kolasa M., Długosz R., Talaśka T., Pedrycz W., A fast learning algorithm based on filtering of the quantization error suitable for hardware implemented self-organizing maps, European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning (ESANN), Brugia, Belgia, 23-25 kwietnia 2014. [11] azumdar J., Harley R.G., Lambert F.C., Venayagamoorthy G.K., Neural Network Based Method for Predicting Nonlinear Load Harmonics, IEEE Transactions on Power Electronics, vol. 22, no. 3, 2007, 1036-1045. [12] Pyzalski T., Wilkosz K., Identification of Harmonic Sources in a Power System: A New Method, IEEE Russia Power Tech, 2005, str. 1-6. [13] Szczęsny P., Wilczak P., Wybrane Metody Lokalizacji Źródeł Wyższych Harmonicznych w sieciach elektroenergeetycznych, Elektrotechnika i Elektronika, Tom 28, Zeszyt 1-2, 2009, str. 39-48. [14] Tsukamoto M., Kouda I., Minowa Y., Nishimura S., Advanced Method to Identify Harmonics Characteristic Between Utility Grid and Harmonic Current Sources, International Conference on Harmonics and Quality of Power, 1998. [15] Xu Wilsun, Liu Xian, Liu Yilu, An Investigation on the Validity of Power-Direction Method for Harmonic Source Determination, IEEE Trans. on Power Delivery, Vol. 18, No. 1, 2003, str. 214-219. [16] Zajczyk R., Modele matematyczne systemu elektroenergetycznego do badania elektromechanicznych stanów nieustalonych i procesów regulacji. Wydawnictwo Politechniki Gdańskiej, 2003. [17] Żmuda K., Elektroenergetyczne układy przesyłowe i rozdzielcze. Wybrane zagadnienia z przykładami. Wydawnictwo Politechniki Śląskiej, 2012. The “Development of Novel Ultra Low Power, Parallel Artificial Intelligence Circuits for the Application in Wireless Body Area Network Used in Medical Diagnostics'' project is realized within the POMOST programme of Foundation for Polish Science, cofinanced from European Union, Regional Development Fund Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji … 95 A CONCEPT OF THE APPLICATION OF ARTIFICIAL NEURAL NETWORKS IN THE LOCATION OF ELEMENTS THAT DISTORT THE QUALITY OF ENERGY IN MEDIUM VOLTAGE DISTRIBUTION NETWORKS The paper presents a concept of using artificial neural networks to solve the prob- lem of the location of sources that cause deterioration in the quality of the electrical power. In this field the solutions that base on artificial intelligence are gaining popularity in recent time. However, the learning algorithms that are used in this case are usually implemented as computer programs. Given the large amount of data that must be processed, such solutions are not optimal. The solution to this problem may be the usage of parallel data processing obtainable in neural networks implemented, for example, as specialized integrated circuits. This is the purpose of our research. This paper presents one of the important steps in this task - a model of the electrical power system, the aim of which is to provide training data for the neural network. In the realized neural network a novel algorithm has been used that is based on filtering of the quantization error. By using this algorithm the learning phase can be substantially shortened, so that the network is able to quickly adapt to new data. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Adam TOMASZUK* SIMULATION OF HIGH-EFFICIENCY INTERLEAVED STEP-UP DC-DC BOOST-FLYBACK CONVERTER TO USE IN PHOTOVOLTAIC SYSTEM In low-voltage photovoltaic (PV) systems high-efficiency high voltage gain step-up DC-DC converters are required as the interface between the PV panel and the load. Therefore overall performance of the PV system is essentially affected by the efficiency of step-up DC-DC converter itself. This paper presents the results of PSpice simulation of high-efficiency interleaved step-up DC-DC converter. The converter integrates boost and flyback topologies. Interleaved approach minimizes the current stress on the switches as well as allows reducing a sizes of the inductors but also decreases input current ripples. The other advantage of interleaving structure is flexibility of number of working phases extension. The number of working phases can be dynamically determined depending on the power requirements of the load. High efficiency assured by boost-flyback topology is achieved by the means of recycling the energy from input leakage inductance and relatively low voltage stress across the transistor switches which enables low drain-to-source resistance transistors application. The simulation carried out will present transient and performance characteristics of interleaved step-up DC-DC boost-flyback converter. KEYWORDS: Step-up DC-DC Converters, High Efficiency, Photovoltaic Systems 1. INTRODUCTION The PV panel comprising PV modules connected in parallel delivers the power at the voltage range of 20 VDC to 50 VDC (Vi) depending on PV module type. Stepup DC-DC converter is the next stage in a PV system. Simplified renewable energy system is shown in Fig. 1. Fig. 1. Simplified low-voltage PV energy system diagram __________________________________________ * Bialystok University of Technology. 98 Adam Tomaszuk The role of the converter is to step up its input voltage to the level accepted by DCAC inverters which is around 200 VDC or 400 VDC depending on the grid standards[1]. The other goal is to achieve highest energy conversion efficiency possible [2]. In this paper the performance of three-phase boost-flyback topology of interleaved step-up DC-DC converter with coupled inductors will be characterized basing on PSpice computer simulations. 2. INTERLEAVED STEP-UP BOOST-FLYBACK DC-DC CONVERTER WITH COUPLED INDUCTORS TOPOLOGY Step-up DC-DC converter input current is shared between a number of phases allowing reduction of inductor and semiconductor peak currents which benefits with overall power loss reduction [3]. The other advantages of an interleaved topology are possibility to use smaller and cheaper passive components, applying lower power rating semiconductor components as well as efficient input and output current ripples rejection [4]. 2.1. Electrical Scheme Single phase of boost-flyback step-up DC-DC converter is shown in Fig. 2. It is derived from boost (S1, LT1, D11 and C1) topology associated with flyback converter (S1, LT1, LT2, D1 and C0-C1) [5]. The converter proposed here consists of 3 phases connected in parallel. Fig. 2. Single phase of interleaved boost-flyback step-up DC-DC converter In proposed topology the leakage energy from primary inductance LT1 is directly recycled through input diode D11 at transistor turn off transient preventing voltage overshoots at transistor S1 drain. Vi represents low voltage PV array and R0 is a load resistance of PV system DC-bus. 2.2. Principle of operation There are three modes of operation in one switching cycle (T) of interleaved step-up DC-DC converter with assumption of continuous conduction mode. The model presented here does not include any parasitic parameters such as leakage inductances (i.e. ideal coupling between LT1 and LT2), winding resistances and Simulation of high-efficiency interleaved step-up DC-DC converter with … 99 capacitor’s ESRs. Moreover neglected are transistor’s on resistances and diode voltage drops. Fig. 3 explains the work of 3-phase converter where gate driving signals of transistors S1, S2 and S3 are switched at duty cycle of D = 66.6% and phase shifted by 2/3 electrical angle (Fig. 3a, 3b and 3c). Fig. 3. Key waveforms of interleaved step-up DC-DC converter during operation modes 1 to 3 At the example of single phase in mode-1 when transistor S1 is switched on and output rectifier D1 is reverse-biased the energy is transferred from the input to primary inductance LT1. The capacitor C1 is charged through forward forward-biased primary rectifier diode D11 in mode-2. In mode-3 when D11 current reaches zero and transistor S1 is turned off and the output diode D1 is on capacitor C0 is charged through output rectifier diode D1. Aggregate output current (i0) (Fig. 3h) is composed of each individual phase currents and is further filtered by C0. In steady state the voltage gain of boost converter itself is: V0 1 (1) Vi |boost 1 D whereas the voltage gain of overall boost-flyback converter is: V0 D( 1 N ) 1 Vi |boost flyback 1 D (2) 100 Adam Tomaszuk 3. PSPICE SIMULATION MODEL OF INTERLEAVED BOOSTFLYBACK STEP-UP DC-DC CONVERTER WITH COUPLED INDUCTORS Fig. 4 presents PSpice model of n = 3-phase boost-flyback interleaved step-up DCDC converter. Fast power MOSFET transistors (IRFP4568, RDSon_typ = 4.8 mΩ, VDS_max = 150 V) are driven by phase shifted square waves generated by Vgk voltage sources (k = 1,2,...,n). Gate driving circuit comprises Cgk (10 nF), Dgk and Rgk (10 Ω) chosen to optimize turn-off time of the transistors. The switching frequency fS is 20 kHz. Fig. 4. Pspice model of 3-phase boost-flyback interleaved step-up DC-DC converter The Silicon Carbide (SiC) diodes can be paralleled as they do not suffer with thermal runaway effect. The output diodes D11 to D32 (two diodes CSD12060 for the purpose of simulation, instead of dual device in one package) and input diodes D1 to D3 (CSD06060) are 600 V rated. Simulation of high-efficiency interleaved step-up DC-DC converter with … 101 In the simulation the parasitic components such as RC0, RC1 and L0, L1 representing real capacitor parasitic resistances and inductances respectively are considered. LT1 together with LT2 are primary and secondary windings of coupled inductor together with RL1k and RL2k which are primary and secondary winding resistances create a model of the coupled inductors with turns ratio of N = 3 and inductance coupling coefficient K = 0.992. 4. TRANSIENT CHARACTERISTICS Fig. 5 presents simulation waveforms of 3-phase interleaved boost-flyback stepup DC-DC converter. For given conditions the voltage gain is 10.3 producing output voltage V0 of 413 V. Fig 5a) shows the voltage at anode of D1 and output voltage V0. Fig. 5b) depicts transistors S1 drain to source voltage effectively clamped to 133 V according to (1). Input and output currents together with the currents of single phase transistor and input and output rectifiers are depicted on (Fig. 5c). The influence of parasitic parameters can be seen on transient plots as output rectifier diode voltage ringing at transistor turn-off and slanted slopes of transistor voltage caused by input leakage inductance. Fig. 5. Transient waveforms of key boost-flyback DC-DC converter currents and node voltages at fS = 20 kHz, Vin = 40 V, D = 0.7 and load resistance R0 = 300 Ω 102 Adam Tomaszuk 5. PARAMETRIC CHARACTERISTICS Parametric characteristics present the dependency of interleaved step-up DC-DC converter parameters on duty cycle D and output resistance R0 variations. Simulation was carried out at following conditions: input voltage Vi = 40 V and switching frequency fS = 20 kHz. Load resistance was changed within the range R0 = 65 Ω to 1000 Ω, and duty cycle D within 60% up to 80%. Fig. 6. Parametric characteristics of efficiency η vs. duty cycle D Fig. 6 shows that efficiency over 92% can be achieved within wide output power the range for lower duty cycle values (except of 80%). The efficiency gets higher as duty cycle decrease. It is caused by lower power losses at input stage (i.e. boost converter) when high current flows through primary windings and through transistor during DT period (Fig. 3). On the other hand in order to produce high enough voltage level at the output it is necessary to drive the converter with duty cycle higher than 65%, which according to (2) gives the voltage above 340 V at the output. Fig. 7. Parametric characteristics of a) efficiency η, b) output voltage V0, and b) voltage gain B vs. duty cycle D at three different load resistances R0 Simulation of high-efficiency interleaved step-up DC-DC converter with … 103 For heavier loads (i.e. R0 = 300 Ω and R0 = 125 Ω) it is possible to achieve the efficiency above 92%, Fig. 7a) within examined duty cycle range. On Fig 7b) and 7c) it can be seen that the output power P0 (and output voltage V0) regulation is not linear except of light load (i.e. R0 = 700 Ω) where it can be treated as linear one. Remarkable is that the voltage gain curves are different at three different load resistances. That is caused by parasitic component influences not considered in ideal formula (2). Fig. 8. Power loss budget of the converter at D = 70% and different load resistances a) R0 = 125 Ω, b) R0 = 300 Ω, c) R0 = 700 Ω Fig. 8 collates power losses of step-up boost-flyback DC-DC converter components at three different load resistances. R_pri and R_sec represent a sum of three inductor primary and secondary winding resistance power losses respectively, S is total power loss of transistors, D_in and D_out are the power losses in all input rectifiers and output rectifiers respectively. Other power losses represent wire resistance losses and transistor gate driving losses (Ri at Fig. 4). Transistor power losses are major component of total converter power loss budget. 6. CONCLUSION PSpice computer based simulation tests confirmed high efficiency of interleaved step-up boost-flyback DC-DC converter with coupled inductors. Simulation results show that despite hard switching the converter demonstrate high efficiency within wide output power range. Therefore proposed topology can be effectively applied in low-voltage PV systems. However simulation results look consistent real laboratory measurement results may vary with respect to inaccuracies of whole converter model and individual component models. This work was supported by Bialystok University of Technology, Faculty of Electrical Engineering as a research project No W/WE/15/2013 104 Adam Tomaszuk REFERENCES [1] [2] F. Blaabjerg, F. Iov, T. Kerekes, R. Teodorescu, “Trends in power electronics and control of renewable energy systems”,14th International Power Electronics and Motion Control Conference (EPE/PEMC), IEEE K-1 to K-19 (2010). EPIA, "Global market outlook for photovoltaics until 2013", European Photovoltaic Industry Association, (2010). [3] Shaffer B., “Interleaving Contributes Unique Benefits to Forward and Flyback Converters” Unitrode (TI) Power Supply Design Seminar (2004/2005). [4] Chang Ch., Knights M., “Interleaving Technique in Distributed Power Conversion Systems”, Transactons On Circuits and Systems IEEE, May (1995). [5] Van de Sype, David M., De Gusseme, K., Renders, B., Van den Bossche, Alex P., Melkebeek, J.A. “A single switch boost converter with a high conversion ratio”, Applied Power Electronics Conference and Exposition, IEEE, Page(s): 1581 - 1587 Vol. 3 (2005). P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Justyna MICHALAK* RYZYKO W PROJEKTACH INWESTYCYJNYCH ENERGETYKI ODNAWIALNEJ W artykule przedstawiono zagadnienia dotyczące ryzyka podejmowania projektów inwestycyjnych w energetyce odnawialnej. Analiza ryzyka przedsięwzięć inwestycyjnych stanowi niezwykle ważny element przy ocenie ich efektywności i umożliwia podejmowanie właściwych, efektywnych decyzji inwestycyjnych. Inwestowanie w odnawialne źródła energii charakteryzuje się pewnymi specyficznymi cechami, które odróżniają je od projektów inwestycyjnych dotyczących innych źródeł energii. Scharakteryzowano różne grupy ryzyka, takie jak ryzyko polityczne i prawne, ryzyko ekonomiczne, ryzyko społeczne oraz ryzyko techniczne. Przedstawiono różne metody analizy ryzyka w zależności od przyjętego kryterium. SŁOWA KLUCZOWE: ryzyko w projektach inwestycyjnych, odnawialne źródła energii, ryzyko polityczne i prawne, ryzyko społeczne, ryzyko ekonomiczne, ryzyko techniczne 1. RYZYKO INWESTOWANIA W ODNAWIALNE ŹRÓDŁA ENERGII Podjęcie decyzji o inwestowaniu w odnawialne źródła energii wymaga przeprowadzenia szczegółowej analizy. Nieodłącznym elementem takiej analizy jest ocena ryzyka. Właściwe zarządzanie ryzykiem, prowadzące do osiągnięcia założonych celów, powinno rozpocząć się już na etapie planowania danej inwestycji [1]. Inwestowanie w odnawialne źródła energii charakteryzuje się pewnymi specyficznymi cechami, które odróżniają je od projektów inwestycyjnych dotyczących innych źródeł energii. Pod względem kosztów odnawialne źródła energii charakteryzują się wyższymi niż w innych sektorach kosztami kapitałowymi i kosztami finansowymi. Kolejną specyficzną cechą odnawialnych źródeł energii jest horyzont czasowy inwestycji. Okres eksploatacji instalacji energetycznych i związany z tym czas zwrotu z inwestycji są bardzo długie (ok. 40 lat). Duże znaczenie w przypadku odnawialnych źródeł energii w przeciwieństwie do innych inwestycji ma ograniczenie w dowolności wyboru lokalizacji (np. elektrownie wiatrowe buduje się w miejscach, gdzie występuje odpowiednia prędkość wiatru). Wiąże się to z koniecznością doprowadzenia przyłącza do sieci __________________________________________ * Politechnika Poznańska. 106 Justyna Michalak przesyłowej w miejscu wskazanym przez operatora systemu. Kolejnym ograniczeniem jest to, że wytwórca musi się dostosować do wymogów operatora i warunków określonych przepisami prawa przez co nie ma swobody dysponowania swoją mocą wytwórczą. Niewątpliwie ujemną cechą produkcji energii z odnawialnych źródeł energii jest jej niestabilność. W związku z tym istnieje potrzeba rezerwowych mocy. Cechą charakterystyczną sektora energii odnawialnej, przy obecnej cenie surowca i energii, jest uzależnienie od państwa (dofinansowanie). Dodatkowo produkcja energii z odnawialnych źródeł energii wciąż wymaga poprawy regulacji prawnych [3]. 2. GRUPY RYZYKA Istnieją cztery główne grupy ryzyka związanego z inwestowaniem w odnawialne źródła energii w Polsce: ryzyko polityczne i prawne, ryzyko techniczne, ryzyko ekonomiczne, ryzyko społeczne. Ryzyko polityczne i prawne. Istnieje ścisła zależność między ryzykiem politycznym i prawnym. Ta grupa ryzyka stanowi największą barierę dla inwestycji związanych z odnawialnymi źródłami energii, jest trudna do przewidzenia, stąd niesie ze sobą wiele niepewności. Ryzyko polityczne wynika z polityki gospodarczej kraju oraz ze zdarzeń i decyzji politycznych. Ryzyko to może dotyczyć całego kraju, występując globalnie lub lokalnie, obejmując swym zasięgiem mniejszy obszar (np. może wynikać z podjętych przez władze lokalne niekorzystnych dla inwestora decyzji). Ryzyko prawne związane jest z głównym problemem sektora energetyki odnawialnej, jakim jest tworzenie efektywnych i skutecznych regulacji prawnych. Jest to istotne szczególnie wtedy kiedy nowe regulacje prawne powstają w Unii Europejskiej w formie dyrektyw, bądź są wynikiem legislacji światowej. Ta grupa ryzyka przejawia się w możliwości wystąpienia zmian w regulacjach dotyczących systemów opłat (dopłat) w ramach odnawialnych źródeł energii. Zmiany te wpływają zarówno na koszty realizacji przedsięwzięcia jak i koszty eksploatacji. Stąd skutkiem wystąpienia ryzyka prawnego jest wzrost kosztów, a tym samym zmniejszenie opłacalności inwestycji. Ryzyko techniczne związane jest m. in. z techniczną złożonością inwestycji, z nowymi technologiami, ze złożonością przyjętych rozwiązań oraz zarządzaniem projektami. Odnawialne źródła energii charakteryzują się specyficznymi technologiami w zależności od tego czy wykorzystują energię wiatru czy energię wody czy też energię pozyskiwaną z biomasy. Wybór technologii związany jest z pojawieniem się specyficznych rodzajów ryzyka projektowego. Ponieważ Ryzyko w projektach inwestycyjnych energetyki odnawialnej 107 odnawialne źródła energii nie są inwestycjami prowadzonymi na szeroką skalę w obrębie kraju, stąd pozyskanie technologii pociąga za sobą wysokie koszty. Kolejną sprawą są kwestie techniczne związane z podłączeniem do sieci przesyłowych. Poza tym odnawialne źródła energii charakteryzują się niestabilnym poziomem mocy, co wpływa negatywnie na jakość odbieranej energii, powodując np. wahania napięcia. Ryzyko ekonomiczne dotyczy finansowania i opłacalności projektów. Ponieważ odnawialne źródła energii charakteryzują się bardzo długim okresem zwrotu z inwestycji oraz dużymi nakładami finansowymi często przedsiębiorcy nie dysponując w pełni kapitałem własnym na realizację tych inwestycji szukają wsparcia kapitałowego w bankach i niestety napotykają na trudności. Jedynie takie instytucje jak np.: Bank Ochrony Środowiska, Bank Gospodarstwa Krajowego, Narodowy Fundusz Ochrony Środowiska, Ministerstwo Gospodarki czy Agencja Rynku Rolnego oferują pomoc finansową przedsiębiorcom realizującym inwestycje dotyczące odnawialnych źródeł energii [3]. Ryzyko ekonomiczne można podzielić na: ryzyko towarów, ryzyko rynku, ryzyko kursowe. Ryzyko towarów związane jest z niekorzystną zmianą cen sprzedaży produktu finalnego, czyli energii. Ryzyko to odgrywa decydującą rolę na rynkach monopolistycznych lub takich, które cechuje duży stopień regulacji. Ryzyko rynku związane jest z wahaniami popytu, natomiast ryzyko kursowe związane jest ze zmianą relacji kursów walut do waluty bazowej projektu [1]. Ryzyko społeczne. W sektorze energetycznym jednym z najważniejszych elementów wpływających na rozwój inwestycji są czynniki społeczne takie jak: akceptacja społeczeństwa, oddziaływanie inwestycji na środowisko itp. Pod tym względem inwestycje dotyczące odnawialnych źródeł energii są obarczone niewielkim ryzykiem społecznym (mniejszym niż w przypadku energetyki konwencjonalnej). 3. METODY ANALIZY RYZYKA Istnieje wiele czynników wpływających na wybór metody analizy ryzyka. Należą do nich między innymi: stosunek decydenta do ryzyka, warunki podejmowania decyzji, zakres ryzyka, dostępność i zakres informacji, warunki inwestowania, w tym długość ekonomicznego cyklu życia przedsięwzięcia inwestycyjnego, 108 Justyna Michalak znajomość metod analizy ryzyka i umiejętność ich zastosowania w praktyce inwestycyjnej, wiedza i doświadczenie w szacowaniu poziomu ryzyka oraz prawdopodobieństwa zdarzeń mających na nie wpływ, wiedza decydenta o poziomie pracochłonności i kosztach zastosowanych metod [2]. Wyróżnia się wiele kryteriów decydujących o rodzaju metod analizy ryzyka. Należą do nich między innymi: kryterium – stosowana technika analizy ryzyka, kryterium – sposób ujmowania ryzyka w procesie decyzyjnym, kryterium – zakres dostarczanej informacji. Zgodnie z kryterium – stosowana technika analizy ryzyka – wyróżnia się następujące metody: metoda korygowania efektywności , metoda analizy wrażliwości, metody probabilistyczno – statystyczne, metody symulacyjne. W metodach korygowania efektywności uwzględnianie ryzyka odbywa się poprzez korektę wybranych parametrów i zmiennych rachunku efektywności inwestycji oraz stosowanie tzw. narzutów procentowych. Do metod tych należą: graniczny okres zwrotu, równoważnik pewności, stopa dyskontowa z ryzykiem. Metody analizy wrażliwości polegają na zmienianiu wybranych parametrów i zmiennych wykorzystywanych w metodach oceny opłacalności, a następnie analizowaniu wpływu tych zmian na opłacalność przedsięwzięcia inwestycyjnego oraz wyznaczaniu wartości krytycznych i marginesów bezpieczeństwa określających poziom opłacalności. Metody probabilistyczno – statystyczne są to metody w których do analizy ryzyka wykorzystuje się rachunek prawdopodobieństwa i statystykę (analiza statystyczna – odchylenie standardowe i współczynnik zmienności). Metody symulacyjne pozwalają zbadać wpływ wielu zmiennych na opłacalność przedsięwzięcia oraz przeprowadzić symulację poziomu ryzyka. Przykładem metody symulacyjnej jest analiza symulacyjna Monte Carlo. Według kryterium jakim jest sposób ujmowania ryzyka w procesie decyzyjnym wyróżniamy dwie grupy metod. Są to metody bezpośrednie i metody pośrednie. Metody bezpośrednie ujmują ryzyko bezpośrednio w kryterium decyzyjnym związanym z określoną metodą oceny opłacalności przedsięwzięcia inwestycyjnego (metody te nie są odrębnym kryterium decyzyjnym). Do metod bezpośrednich należą: graniczny okres zwrotu, równoważnik pewności, stopa dyskontowa z ryzykiem. Metody pośrednie umożliwiają pozyskanie dodatkowych informacji o poziomie ryzyka przedsięwzięcia inwestycyjnego, a tym samym zmniejszają stan Ryzyko w projektach inwestycyjnych energetyki odnawialnej 109 niepewności (metody te są odrębnym elementem procesu decyzyjnego). Do metod pośrednich należą: analiza wrażliwości, analiza scenariuszy, analiza statystyczna (metody probabilistyczne) – odchylenie standardowe i współczynnik zmienności oraz analiza symulacyjna jako sposób szacowania wartości oczekiwanej i odchylenia standardowego. Zgodnie z kryterium jakim jest zakres dostarczanej informacji wyróżnia się miary zmienności, miary wrażliwości oraz miary zagrożenia. Miary zmienności obejmują: odchylenie standardowe jako bezwzględną miarę zmienności, współczynnik zmienności jako względną miarę zmienności, analizę symulacyjną jako sposób szacowania wartości oczekiwanej i odchylenia standardowego, analizę scenariuszy jako pośredni sposób szacowania wartości oczekiwanej i odchylenia standardowego. Wśród miar wrażliwości wyróżnić można: stopę dyskontową z ryzykiem, która odzwierciedla ryzyko kosztu kapitału; ekwiwalent pewności, który odzwierciedla ryzyko przepływu pieniężnego netto; okres zwrotu określający ryzyko płynności. Przykładem miary zagrożenia jest metoda VAR (value at risk) [2]. 4. CZYNNIKI RYZYKA DOTYCZĄCE WYBRANYCH TECHNOLOGII WYKORZYSTUJĄCYCH ODNAWIALNE ŹRÓDŁA ENERGII Ryzyko występujące w przypadku inwestycji wykorzystujących odnawialne źródła energii jest ściśle związane z wykorzystywaną przez dane źródło energii technologią. W ramach odnawialnych źródeł energii wybrano cztery technologie: technologie solarne, technologie biomasy, technologie wiatrowe, technologie geotermalne. Dla wyżej wymienionych technologii zobrazowano główne czynniki ryzyka w trzech podstawowych obszarach: dostawcy, eksploatacja, projekt/wdrożenie. Głównymi czynnikami ryzyka w przypadku technologii solarnych są: w obszarze dostawcy: mała liczba dostawców, ograniczone moce produkcyjne oraz jakość wyrobów, w obszarze eksploatacja: trudna eksploatacja, duża awaryjność części mechanicznych, podatność na korozję i zabrudzenia, duże różnice w produkcji energii między dniem i nocą oraz w poszczególnych porach roku, niska efektywność w przypadku braku nadzoru i utrzymania, wysokie koszty utrzymania, duża zawodność niektórych elementów systemu, 110 Justyna Michalak w obszarze projekt/wdrożenie: występowanie pojedynczych punktów awarii, niestabilna rządowa polityka wsparcia, przewymiarowanie oczekiwań w stosunku do uzyskiwanych mocy. Głównymi czynnikami ryzyka w przypadku technologii biomasy są: w obszarze dostawcy: ograniczona dostępność i zmienność cen urządzeń, w obszarze eksploatacja: ograniczona dostępność surowca, duża zmienność cen surowca, ograniczona dostępność katalizatorów, w obszarze projekt/wdrożenie: zezwolenia i certyfikacje, opór społeczny z uwagi na odór. Głównymi czynnikami ryzyka w przypadku technologii wiatrowych są: w obszarze dostawcy (w przypadku elektrowni morskich): ograniczone moce instalacyjne, potencjalne opóźnienia w produkcji turbin wiatrowych (powodem jest popyt ze strony elektrowni lądowych), duży udział i wpływ kosztów materiału na produkt końcowy (turbiny), w obszarze eksploatacja: złożony transport i logistyka, w przypadku elektrowni morskich dodatkowo wysoki koszt i złożona eksploatacja, awarie konstrukcji podtrzymującej turbinę, duży wpływ pogody na pracę i awaryjność, korozja konstrukcji, w obszarze projekt/wdrożenie: złożony transport i logistyka, uzyskanie pozwoleń na budowę, w przypadku elektrowni lądowych dodatkowo opór i protesty społeczne różnych grup nacisku, w przypadku elektrowni morskich zmiany w polityce i regulacjach, opóźnienia w realizacji inwestycji z powodu warunków pogodowych. Głównymi czynnikami ryzyka w przypadku technologii geotermalnych są: w obszarze dostawcy: ograniczona liczba dostawców technologii wierceń, w obszarze eksploatacja: awarie instalacji naziemnych, wyczerpywanie się zasobów, niebezpieczeństwo związane z wykorzystywaniem niebezpiecznych substancji chemicznych, w obszarze projekt/wdrożenie: ryzyko związane z wierceniami, braki kadrowe [1]. 5. PODSUMOWANIE Ryzyko jest nieodłącznym elementem inwestowania w odnawialne źródła energii. Właściwe zarządzanie ryzykiem powinno rozpocząć się już na etapie planowania inwestycji, gdyż wówczas daje możliwość osiągnięcia założonych celów. Umożliwia to określenie poszczególnych czynników ryzyka oraz określenie siły ich wpływów na dane przedsięwzięcie. Spośród opisanych w artykule czterech grup ryzyka: ryzyko polityczne i prawne, ryzyko techniczne, ryzyko ekonomiczne, ryzyko społeczne pierwsza wymieniona grupa, czyli ryzyko polityczne i prawne stanowi największą barierę dla inwestycji związanych z energetyką odnawialną. Ryzyko w projektach inwestycyjnych energetyki odnawialnej 111 LITERATURA [1] [2] [3] Kasiewicz S.: Ryzyko inwestowania w polskim sektorze energetyki odnawialnej. CeDeWu, Warszawa 2012. Rogowski W.: Rachunek efektywności przedsięwzięć inwestycyjnych. Oficyna Ekonomiczna, Kraków 2004. www.energetyka.wnp.pl/ryzyko-inwestowania -w polskim-sektorze-odnawialnychzrodel-energii. Kowalczyk A.: Ryzyko inwestowania w polskim sektorze odnawialnych źródeł energii. RISK IN RENEWABLE POWER ENGINEERING INVESTMENT PROJECTS In the paper there are presented problems concerning risk in renewable energy investment projects. Analysis of risk of investments is extreme important element of evaluation of their effectiveness and allow to undertake proper, effective investment decision. Investing in renewable energy sources is charakterized by specific features, that differentiate it from investing in other energy sources. Various groups of risk were characterized, such as political and law risk, economy risk, social risk and technology risk. There were presented various methods of risk analysis depending on accepted criterion. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Alicja GŁÓW* Dariusz KURZ* SPOSOBY OCHRONY INSTALACJI FOTOWOLTAICZNYCH PRZED NASTĘPSTWAMI ZACIENIEŃ W pracy przedstawiono możliwe przyczyny powstawania zacienień ogniw PV oraz wpływ cieniowania paneli na uzysk energii i prawdopodobieństwo ich uszkodzeń. Wskazano sposoby ochrony paneli i możliwości przeciwdziałania bądź zmniejszania efektów tego zjawiska. Dokonano szczegółowej analizy stosowności użycia diod by-pass w panelach fotowoltaicznych. Przedstawiono wpływ zacienienia części łańcucha paneli PV na kształt jego charakterystyki prądowo-napięciowej. SŁOWA KLUCZOWE: zacienienie, ogniwo PV, dioda by-pass, orientacja panelu, mikroinwerter 1. WPROWADZENIE Zacienienie choćby części panelu fotowoltaicznego powoduje zmniejszenie ilości promieniowania słonecznego docierającego do ogniw PV. Skutkiem tego jest spadek natężenia prądu panelu, a co za tym idzie utrata mocy i zmniejszenie sprawności generacji energii całej instalacji. Najczęstszymi przyczynami zacienień są [1,5]: zabrudzenia paneli, zalegający śnieg lub liście, elementy konstrukcyjne budynku, elementy krajobrazu, błędy podczas projektowania instalacji PV. Zabrudzenia paneli powstają na skutek działania czynników zewnętrznych, takich jak kurz, pył. Częściowo są one zmywane z powierzchni panelu przez padający deszcz, jednakże spora ich ilość gromadzi się w jego dolnej części. Problemem należącym do tej grupy są również odchody ptaków, które oprócz zakrywania części panelu fotowoltaicznego, powodują stałe odbarwienia szkła i uszkodzenia powierzchni panelu. Czynnikiem powodującym zacienienia jest także zalegający śnieg, który zakrywa powierzchnię paneli i ogranicza bądź całkowicie uniemożliwia generację energii. Dodatkowo ciężar śniegu wywiera __________________________________________ * Politechnika Poznańska. 114 Alicja Głów, Dariusz Kurz nacisk na panele i konstrukcję wsporczą, co może prowadzić do uszkodzeń mechanicznych instalacji. Kolejną grupą, wpływającą na obecność zacienień, są błędy podczas projektowania instalacji, polegające na nieuwzględnieniu istniejących stałych elementów konstrukcyjnych budynku, takich jak: kominy, jaskółki, wykusze czy elementy najbliższego otoczenia (inne budynki, słupy, drzewa itp.) [5]. Eliminacja wszystkich szkodliwych czynników, powodujących ograniczenie powierzchni światłoprzepuszczalnej paneli, nie jest możliwa, dlatego można zastosować pewne rozwiązania, mające na celu całkowite bądź częściowe niwelowanie skutków zacienień. Można w tej grupie wyróżnić m.in.: cykliczne czyszczenie paneli, umieszczenie w konstrukcji panelu fotowoltaicznego diod by-pass, odpowiedni projekt instalacji uwzględniający stałe elementy otoczenia, prawidłowe ustawienie paneli (pionowe/poziome), właściwa konfiguracja połączeń paneli w tzw. stringi, stosowanie inwerterów z wieloma trackerami MPP bądź mikroinwerterów. Zastosowanie się do przedstawionych wytycznych wyeliminuje wiele sytuacji, mogących powodować zacienienia ogniw i straty w procesie generacji energii. Wpłynie to na podwyższenie sprawności pracy instalacji PV, co wiąże się z ograniczeniem strat ekonomicznych. 2. DIODY BY-PASS Obecnie jedną z możliwości przeciwdziałania efektom zacienienia ogniwa jest zastosowanie diod by-pass w konstrukcji panelu, przy połączeniach ogniw fotowoltaicznych już na etapie produkcji paneli. Diodę tę, zwaną inaczej bocznikującą, umieszcza się równolegle do łańcucha ogniw tak, aby kierunek jej polaryzacji był do nich przeciwny. Dioda zaczyna działać w panelu wówczas, gdy jedna z jego partii zostanie przysłonięta. Głównym zadaniem diody by-pass jest umożliwienie przepływu prądu, pochodzącego z pozostałych niezacienionych ogniw fotowoltaicznych panelu [2, 5]. Zasada działania diody by-pass została przedstawiona na rysunku 1, ilustrującym przepływ prądu przez ogniwa fotowoltaiczne (oznaczonym linią ciągłą) w przypadku pracy normalnej (rys. 1 a) oraz zacienienia jednego z ogniw (rys. 1 b). W układzie z rysunku 1a wszystkie diody spolaryzowane są w kierunku zaporowym, a prąd przepływa przez ogniwa spolaryzowane w kierunku przewodzenia. W drugim przypadku (rys. 1b) zasłonięte zostało czwarte ogniwo, które nie jest w stanie wygenerować takiej samej ilości prądu, co ogniwa niezacienione. Ponieważ ogniwa połączone są ze sobą szeregowo, to zacienione ogniwo dla całego układu staje się opornikiem, a przepływający przez nie z Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień 115 pozostałych ogniw prąd jest tracony w postaci wydzielanego ciepła. Obecność prądu wstecznego w tym ogniwie powoduje zmianę jego polaryzacji, a co za tym idzie pojawienie się ujemnego napięcia, które zmienia polaryzację diody by-pass. Kiedy dioda zaczyna przewodzić, prąd pochodzący z niezacienionych ogniw, przepływa przez nią, wyłączając w ten sposób z układu zacieniony fragment panelu i eliminując straty mocy w całej instalacji fotowoltaicznej. Rys. 1. Przepływ prądu przez ogniwa fotowoltaiczne w panelu podczas [5]: a) pracy normalnej, b) zacienienia czwartego ogniwa (łańcucha ogniw) Oprócz tej najważniejszej funkcji dioda chroni także zacienione ogniwo przed uszkodzeniami powstałymi wskutek przepływu prądu wstecznego, powodującego jego bardzo mocne nagrzewanie się i powstawanie gorących punktów panelu, tzw. hot spot’ów [5, 7]. W efekcie, po ustąpieniu czasowego zacienienia, uszkodzone ogniwo nadal powodowałoby straty mocy w instalacji PV. Warto zaznaczyć, że w najpopularniejszych panelach dostępnych obecnie na rynku, składających się z trzech łańcuchów po 20-24 ogniw, stosuje się trzy diody bypass (rys. 2) [1, 3, 4, 5]. Rys. 2. Schemat ideowy panelu fotowoltaicznego z trzema łańcuchami ogniw PV i diodami bocznikującymi [5] 116 Alicja Głów, Dariusz Kurz Podzielenie panelu na trzy łańcuchy ogniw, w chwili wystąpienia zacienień, powoduje większe prawdopodobieństwo maksymalizacji uzysku energii, niż w przypadku panelu z jedną diodą lub jej brakiem. Wtedy w przypadku jakiegokolwiek zacienienia cały panel zostałby wyłączony z łańcucha paneli i wpływał na cały system. Dla paneli z trzema diodami bocznikującymi w przypadku wystąpienia zacienienia np. na jednym ogniwie, wyłączeniu ulegnie tylko jeden łańcuch ogniw a nie cały panel, dzięki czemu spadek mocy będzie wynosiła tylko 33 %. Na rysunku 3 przedstawiono wpływ obecności diody by-pass na charakterystykę prądowo-napięciową łańcucha paneli fotowoltaicznych złożonego z dziewięciu paneli M55 firmy Siemens, przy zacienieniu jednego z nich. Jest to panel monokrystaliczny o mocy znamionowej 55 W, składający się z 36 ogniw fotowoltaicznych. W celu wykonania tej charakterystyki przyjęto określone warunki: w panelach występują idealne diody by-pass (zerowa strata napięcia w paśmie przepustowym), temperatura paneli wynosi 40ºC (odpowiada to średniej temperatur paneli uzyskanych zimą i latem) [1]. Rys. 3. Charakterystyki prądowo-napięciowe dla paneli M55 [1]: 1 - jednego panelu przy E = 900 W/m2 (częściowe zacienienie), 2 - ośmiu paneli przy E = 1000 W/m2, 3 - dziewięciu paneli przy E = 1000 W/m2, 4 – ośmiu paneli przy E = 1000 W/m2 i jednego przy E = 900 W/m2 oraz zastosowaniu diody by-pass Analizując przedstawioną na rysunku 3 charakterystykę prądowo – napięciową panelu PV (oznaczoną numerem 1) można zauważyć obniżenie wartości prądu, spowodowane częściowym zacienieniem (mniejszą wartością gęstości mocy promieniowania wynoszącą E = 900 W/m2 zamiast E = 1000 W/m2 jak w normalnych warunkach pracy pozostałych paneli). Krzywe Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień 117 2 i 3, to charakterystyki dla łańcucha odpowiednio 8 i 9 paneli otrzymane przy E = 1000 W/m2. Dzięki zastosowaniu diody by-pass w łańcuchu 9 paneli (8 podczas pracy normalnej i 1 zacienionego) jego charakterystyka prądowo – napięciowa przybrała niestandardowy kształt (krzywa numer 4). W efekcie w punkcie mocy maksymalnej MPP (w porównaniu do krzywej 3 dla 9 paneli bez zacienienia) obniżeniu uległa wartość prądu, natomiast napięcie osiągnęło większą wartość. Punkty oznaczone jako VA1 oraz VA2 są granicami dla stałej wartości prądu, wynoszącej 3,4 A, na początkowej części prostoliniowej charakterystyki. Punkt mocy maksymalnej MPP dla łańcucha dziewięciu paneli (krzywa 3) przypada dla napięcia VMPP, wynoszącego 148 V, natomiast dla krzywej 4 (9 paneli z jednym zacienionym) napięcie to wynosi ok. 150 V. W przypadku większego zacienienia prąd panelu zmalałby proporcjonalnie do gęstości mocy promieniowania słonecznego a punkt MPP obniżyłby się jeszcze bardziej (niż jest to przedstawione na rys.3). Wartość prądu w MPP także wynosiłaby tyle samo, co dla pojedynczego zacienionego panelu a napięcie wzrosłoby w porównaniu do wartości przy pracy normalnej. Gdyby nie obecność diody by-pass, prąd płynący przez wszystkie panele obniżyłby się do wartości prądu wydatkowanego przez zacieniony panel, przez co strata mocy byłaby dużo większa niż w łańcuchu z diodą, gdzie przez każdy panel płynie możliwie maksymalny prąd. Warto też zaznaczyć, że na kształt charakterystyki ma wpływ liczba paneli znajdujących się w łańcuchu. W momencie większej liczby połączonych paneli zacienienie jednego z nich będzie miało mniejsze znaczenie na jej przebieg. Również różnice pomiędzy wartościami napięcia obwodu otwartego będą odpowiednio mniejsze. 3. ORIENTACJA PANELI Na powstanie niektórych zacienień użytkownik instalacji fotowoltaicznej często nie ma żadnego wpływu. Dlatego też, aby diody by-pass spełniały właściwie swoją funkcję, istotne jest prawidłowe ustawienie paneli, w odpowiedniej orientacji, poziomej bądź pionowej. Ma to istotne znaczenie w przypadku zacienienia paneli przez zalegający zimą śnieg bądź stałe elementy budynku lub krajobrazu, co przedstawiono na rysunku 4. W przypadku pionowego ustawienia panelu PV, przedstawionego na rysunku 4a, cień spowodowany jakimś elementem stałym bądź zalegającym na dole panelu śniegiem, spowoduje wyłączenie wszystkich trzech łańcuchów ogniw. Skutkować to będzie brakiem produkcji energii. Ułożenie tego samego panelu w pozycji poziomej (rys. 4b) zminimalizuje skutek zacienienia i wyłączy tylko jeden z trzech łańcuchów ogniw, a produkcja energii będzie wynosiła ok. 66 % mocy znamionowej [3, 5, 6]. Jeśli cień pojawiałby się na panelu nie z dołu (jak na rys. 4) a z boku, właściwsze byłoby ułożenie panelu w orientacji pionowej, aby zminimalizować skutki cienia. 118 Alicja Głów, Dariusz Kurz Rys. 4. Wpływ ustawienia panelu PV na utratę jego mocy spowodowane zacienieniem [5, 6] Rozważając więc możliwości przeciwdziałania skutkom zacienień należy zwrócić uwagę na orientację paneli w zależności od ułożenia ogniw oraz od kierunku, z którego może pojawić się zacienienie. Zakładając na przykład, że łańcuchy ogniw w panelu połączone są pionowo a zacienienie będzie następowało od strony południowej (tak jak na rys. 4), należałoby w takim przypadku zamontować panele na dachu w orientacji poziomej. Natomiast, jeśli zacienienie będzie powstawać od strony zachodniej bądź wschodniej, wtedy panele należy ustawić pionowo. W obydwu przypadkach dąży się do ograniczenia spadku mocy, który, w opisanych wyżej sytuacjach, będzie miał miejsce tylko na poszczególnych fragmentach panelu. 4. DOBÓR INWERTERA W sytuacji, gdy niemożliwe jest umieszczenie paneli tylko w strefie nienarażonej na zacienienia, można zastosować dwa lub więcej niezależnych inwerterów, które spowodują oddzielenie poszczególnych stref i uzyskanie z każdej z osobna maksymalnych mocy. Istnieje możliwości zastąpienia większej liczby inwerterów jednym, wyposażonym w kilka trackerów MPP, których zadaniem jest obciążanie podłączonych paneli tak, aby uzyskać z nich możliwie najwyższą moc. Jeśli inwerter będzie posiadał dwa trackery MPP, możliwe jest podzielenie paneli na dwie strefy i podłączenie każdej z osobna. W przypadku, gdy w jednej ze stref będzie miało miejsce zacienienie, to rzutuje ono negatywnie tylko na tę jedną część instalacji, w trakcie, gdy druga pracuje bez żadnych zakłóceń i spadków mocy. Można sobie wyobrazić taką sytuację, gdy lukarna umieszczona jest centralnie na dachu (patrząc z przodu), gdzie od rana do południa będzie rzucała cień na lewo od siebie, natomiast od południa do wieczora na prawą część dachu. Zastosowanie inwertera z dwoma trackerami Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień 119 MPP pozwoli na osiągnięcie optymalnych uzysków energii z każdej z dwóch części instalacji. Takie rozwiązanie jest konieczne, gdy na etapie projektu wiadomo, że instalacja będzie nierównomiernie oświetlana, gdyż pozwoli to na wyeliminowanie strat mocy nawet o kilka procent [5]. Kolejnym ze sposobów uzyskania większej wydajności instalacji jest zastosowanie mikroinwerterów, które montowane są do każdego panelu osobno. W ten sposób mniejszy uzysk z jednego panelu nie ogranicza wydajności całej instalacji. Jednakże takie rozwiązanie znacznie podnosi koszt całej instalacji i stosowane jest tylko w miejscach stałego zacienienia. Oprócz zadania, mającego na celu eliminację problemu nierównej generacji mocy paneli, mikroinwerter może służyć do monitoringu całej instalacji. Dzięki jego obecności, możliwe jest zlokalizowanie panelu wytwarzającego dużo mniejszą moc i generującego straty. W ten sposób można sprawdzić, czy dany panel uległ uszkodzeniu czy został chwilowo zacieniony. 5. WNIOSKI Zacienienia instalacji fotowoltaicznej mają negatywny wpływ na natężenie prądu i uzysk mocy, które wiążą się ze zmniejszeniem sprawności generowania energii oraz ze stratami finansowymi dla użytkownika. Istnieje wiele sposobów przeciwdziałania skutkom zacienień lub w pewnej części zapobiegania ich powstawaniu. Niektóre z nich to np. stosowanie diod bypass w konstrukcji panelu, odpowiednia orientacja paneli i właściwe szeregowe połączenia paneli fotowoltaicznych w „stringi”, a także odpowiedni dobór inwertera dla danej instalacji. Obecność diod by-pass w konstrukcji panelu fotowoltaicznego pozwala na wyłączenie jego przysłoniętej części w celu wyeliminowania źródła strat dla całej instalacji. Dioda by-pass spełnia także funkcje ochronne przed uszkodzeniami, powstałymi przez przepływający prąd wsteczny, powodujący nagrzewanie panelu i tworzenie się hot-spot’ów. Obecność diod by-pass ma również wpływ na charakterystykę prądowonapięciową łańcucha paneli w przypadku zacienienia jednego panelu. Kolejnym sposobem na przeciwdziałanie niektórym skutkom zacieniem jest odpowiednia analiza miejsca ich występowania. Wyboru właściwej orientacji panelu należy dokonać w taki sposób, aby obecne diody bocznikujące mogły wyłączyć tylko jakiś fragment panelu a nie cały panel. Rozważając kolejną z możliwości eliminacji skutków zacienień jest dobranie w odpowiedni sposób urządzeń wchodzących w skład instalacji fotowoltaicznej, którymi są różne rodzaje inwerterów. Jak w poprzednim przypadku i tu na etapie projektowania należy szczegółowo przeanalizować warunki, dla których jest planowana inwestycja instalacji fotowoltaicznej. W pierwszej kolejności należy wziąć pod uwagę umieszczenie instalacji w strefie niezagrożonej występowaniem zacienień. Jeśli dla danego przypadku nie można uniknąć zacienień, należy 120 Alicja Głów, Dariusz Kurz podzielić instalację na strefy i zastosować inwertery, które umożliwią niezależny uzysk maksymalnych mocy z każdej ze stref. Innym rozwiązaniem jest zastosowanie mikroinwerterów, zamontowanych osobno do każdego z paneli. Umożliwia to wyeliminowanie panelu osłabiającego całą instalację i pozwala na większy uzysk energii. Zastosowanie diod by-pass, prawidłowe rozplanowanie elementów instalacji, odpowiednia orientacja paneli oraz właściwe łączenie paneli fotowoltaicznych w „stringi” w przypadku wystąpienia zacienienia może minimalizować straty mocy, a co za tym idzie podnosić sprawność całej instalacji. Warto zaznaczyć, że oprócz przeciwdziałaniu skutkom zacienień, należy przede wszystkim dążyć do eliminacji przyczyn ich powstawania. Z uwagi na ten fakt, przed montażem instalacji należy szczegółowo przeanalizować rozplanowanie jej elementów, w celu uniknięcia stałych elementów zacieniających oraz uwzględnić strefy zagrożenia cieniem. Natomiast podczas użytkowania instalacji należy pamiętać o przestrzeganiu zaleceń eksploatacyjnych producentów elementów instalacji oraz o cyklicznym czyszczeniu paneli. LITERATURA [1] Haberlin H., Photovoltaics. System Designed and Practice, John Wiley & Sons Ltd., 2012. [2] Hegedus S., Luque A., Handbook of photovoltaic science and engineering, Wiley, 2003. [3] Jastrzębska G., Ogniwa słoneczne, Wydawnictwa Komunikacji i Łączności, 2013. [4] Sarnik M. T., Podstawy Fotowoltaiki, Oficyna Wydawnicza Politechniki Warszawskiej, 2008. [5] Szymański B., Małe instalacje fotowoltaiczne., Geosystem, Kraków, 2013. [6] http://solaris18.blogspot.com/2012/10/diody-bocznikujace-i-ich-wpyw-na.html, dn. 14.01.2014. [7] http://solaris18.blogspot.com/2012/03/goracy-punkt-hot-spot-realny-problem.html, dn. 14.01.2014. METHODS OF PROTECTION THE PHOTOVOLTAIC SYSTEMS AGAINST CONSEQUENCE OF SHADING The paper presents the possible causes of shading PV cells and the effect of shading panels on energy yield and the likelihood of damage. Pointed out ways to protect the panels and options for countering or reducing the effects of this phenomenon. Detailed analysis was carried of the appropriateness of the use of bypass diodes in solar panels. Presents the effect of shading parts of the chain of PV panels on the shape of the currentvoltage characteristics. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Tomasz JEŻYK* Andrzej TOMCZEWSKI* KRÓTKOTERMINOWE PROGNOZOWANIE ZUŻYCIA ENERGII ELEKTRYCZNEJ Z WYKORZYSTANIEM SZTUCZNEJ SIECI NEURONOWEJ W artykule przedstawiono zagadnienie wykorzystania sztucznej sieci neuronowej do rozwiązania zadania krótkoterminowego prognozowania zużycia energii elektrycznej. Bazując na archiwalnych danych pomiarowych mocy chwilowych odbiornika (centrum handlowe) sieć neuronową typu NAR poddano procesowi nauki, a następnie wykorzystano do wyznaczenia krótkoterminowej prognozy poboru energii elektrycznej. Model zaproponowanej sieci opracowano w środowisku MATLAB. Do oceny jakości uzyskanych prognoz zaproponowano użycie błędów: procentowego względnego błędu prognozy oraz błędu procentowego MAPE (ang. Mean Average Percent Error). Zamieszczono wyniki przykładowych obliczeń oraz porównanie z danymi pomiarowymi. SŁOWA KLUCZOWE: sieci neuronowe, prognoza krótkoterminowa, środowisko MATLAB 1. WPROWADZENIE Wzrost zapotrzebowania na energię elektryczną jest ściśle powiązany z rozwojem technicznym społeczeństw i przemysłu oraz coraz większą liczbą urządzeń elektrycznych w gospodarstwach domowych (odbiorników). Bez modernizacji systemu energetycznego oraz dokładnej analizy dobowych i rocznych obciążeń systemu istnieje zagrożenie czasowymi przerwami w dostawie energii. Prognozowanie (predykcja) zużycia energii elektrycznej jest próbą odpowiedzi na pytanie jak będzie kształtował się pobór energii w przyszłości. Oprócz funkcji informacyjnej proces prognozowania zmniejsza zagrożenia związane z ewentualnym deficytem energii elektrycznej. Wyniki analiz pobudzają często do działań decydujących o kształcie systemu energetycznego, wspomagają plany wyłączeń i zarządzanie produkcją w zakładach przemysłowych, a także indywidualnych odbiorców. Zagadnienie prognozowania zużycia energii elektrycznej jest jednym z problemów z zakresu elektroenergetyki, jaki można rozwiązać z wykorzystaniem sieci neuronowych. Metoda należy do szerokiej grupy metod sztucznej inteligencji, a w związku z rozwojem komputerów jest coraz popularniejsza w rozwiązaniu zagadnień technicznych. __________________________________________ * Politechnika Poznańska. 122 Tomasz Jeżyk, Andrzej Tomczewski Prognozowanie polega na ustaleniu zależności opisującej zachowanie zmiennej prognozowanej opisującej rozwój pewnego zdarzenia w przyszłości. Pełnoprawna weryfikacja predykcji może nastąpić dopiero po osiągnięciu pewnego punktu w przyszłości, będącego granicą dokonanej prognozy. Badania zatem nad nowymi modelami sieci neuronowej ewentualnie nowymi metodami w wymienionym obszarze powinny być prowadzone w kierunku poprawy jakości prognoz, wydłużenia długości prognoz oraz poprawy szybkości uzyskiwania wyników. 2. PROGNOZOWANIE Z WYKORZYSTANIEM SZTUCZNEJ SIECI NEURONOWEJ 2.1. Prognozowanie krótkoterminowe Mianem prognozy określa się sąd informujący „o zajściu pewnego zjawiska, w określonym momencie w przyszłości, taki, że jego wartość logiczna (prawda lub fałsz) nie jest znana w momencie formułowania (prognozy)” [3]. Posiada on następujące cechy: podczas jego formułowania wykorzystuje się dorobek nauki, dotyczy ściśle określonej przyszłości, jest empirycznie weryfikowalny, jest niepewny, ale akceptowalny. Podstawowym podziałem prognoz jest rozróżnienie na prognozy ilościowe (dotyczące wartości mierzalnych) i jakościowe (dotyczące zmiennych niemierzalnych). Podział prognoz na krótko-, średnio- i długookresowe nie jest zdefiniowany poprzez arbitralnie ustalone kryteria. Najczęściej określenie rodzaju kategorii odbywa się z użyciem pojęcia zasięgu ekstrapolacji (horyzontu prognozy). Jest to liczba jednostek czasu (godzin, dni, miesięcy, itd.), z którą prognoza wybiega w przyszłość. Kolejnym rozróżnieniem rodzaju prognozy jest określenie zależności między długością horyzontu prognozy a ilością informacji, od której zależny jest proces prognozowania. Przykładowo, jeśli prognoza dotyczy kilku jednostek czasu, to w przypadku dużej liczby danych wejściowych można określić ją jako krótkoterminową [5]. Kolejnym kryterium stosowanym przy podziale prognoz jest występowanie zmian ilościowych i jakościowych w okresie ekstrapolacji. Jako zmianę ilościową określa się zmianę wartości zmiennej prognozowanej podlegającą pewnej prawidłowości. Zmianą jakościową jest natomiast odejście od dotychczasowej prawidłowości, wynikająca ze zmiany istotnych cech prognozowanego zjawiska. Gdy w horyzoncie prognozy wyróżnia się jedynie zmiany ilościowe, to prognoza jest krótkookresowa. Prognoza jest wyznaczana poprzez ekstrapolację dotychczasowych trendów lub związków oraz przy wykorzystaniu inercji zmiennej [1]. Zadanie krótkoterminowej prognozy poboru energii elektrycznej charakteryzuje się brakiem zmian jakościowych w horyzoncie prognozy Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ... 123 (relatywnie krótkim w stosunku do okresu jaki wykorzystano do opracowania prognozy) oraz wykorzystaniem inercji zmiennej prognozowanej w celu ekstrapolacji wykrytego trendu. 2.2. Sztuczne sieci neuronowe i obszary ich zastosowań w elektroenergetyce Podstawową częścią sieci neuronowej jest neuron, element o wielu wejściach i jednym wyjściu reagujący na bodźce zgodnie z przyjętym wektorem wag synaptycznych. Strukturę powstałą w wyniku połączenia kilku sztucznych neuronów nazywa się sztuczną siecią neuronową. Najmniej złożona jest sieć jednowarstwowa, w której sygnały wejściowe są zazwyczaj doprowadzane do wszystkich neuronów. W sieciach wielowarstwowych neurony warstwy poprzedniej przekazują sygnały do warstwy następnej, a jakiekolwiek połączenia między neuronami tej samej warstwy są niedozwolone. Warstwa wejściowa to warstwa, do której dostarczane są sygnały wejściowe, zaś z warstwy wyjściowej wyprowadzane są sygnały wyjściowe. Struktury znajdujące się między nimi to warstwy ukryte. Sieci jednokierunkowe to sieci jedno- i wielowarstwowe, w których można wyróżnić tylko jeden kierunek rozpływu informacji. Sieci neuronowe o połączeniach powrotnych z wyjść neuronów to sieci rekurencyjne. Moc obliczeniowa takiej sieci jest porównywalna do mocy obliczeniowej maszyny Turinga [2]. Sztuczne sieci neuronowe mogą w czasie rzeczywistym przetwarzać informacje w sposób równoległy wzorowany na procesach neurologicznych mających miejsce w ludzkim mózgu. Rozwiązania tradycyjne w zakresie programowania nie są w stanie odwzorować takiego procesu. Przeszkodą w szerokim stosowaniu sztucznych sieci neuronowych w zagadnieniach techniki, w tym elektroenergetyki był, przez wiele lat, brak wystarczającego zaplecza sprzętowego zapewniającego równoległe przetwarzanie informacji w czasie rzeczywistym. Możliwości wykorzystania sieci neuronowych ogranicza w wielu przypadkach, również niewystarczająca liczba danych pomiarowych sieci elektroenergetycznych, zwłaszcza średniego i niskiego napięcia [4]. Obecnie dzięki możliwości wykorzystania procesorów wielordzeniowych, a szczególnie jednostek graficznych (np. technologia CUDA), znacznie rozszerzono potencjał stosowania obliczeń z zastosowaniem sieci neuronowych pracujących w czasie rzeczywistym. Zastosowania sieci neuronowych obejmują obecnie: diagnostykę układów elektronicznych, prognozowanie (np. sprzedaży, giełdowe, cen, postępów w nauce), optymalizację, sterowanie procesami produkcyjnymi, planowanie remontów maszyn, monitorowanie i diagnostykę pracy systemów elektroenergetycznych, detekcję i identyfikację uszkodzeń i wiele innych [4]. Prognozowanie wartości mocy, energii, obciążenia itp. jest kluczowe dla planowania eksploatacji, rozwoju i modernizacji systemu elektroenergetycznego. Sztuczne sieci neuronowe dzięki dobrej jakościowo predykcji i swobodzie w doborze czynników decydujących o prognozie są przydatne szczególnie w 124 Tomasz Jeżyk, Andrzej Tomczewski przypadku prognoz krótkoterminowych. Posiadają zdolność do wykrycia powiązania między danymi wejściowymi i wyjściowymi bez znanej zależności między nimi. Istotne jest także, że sztuczne sieci neuronowe dzięki zdolności do generalizacji mogą pracować z niedokładnymi, a nawet niekompletnymi danymi. 3. DOBÓR SIECI NEURONOWEJ DO ZADANIA PROGNOZOWANIA ENERGII ELEKTRYCZNEJ 3.1. Wybór struktury sztucznej sieci neuronowej Proces poprawnego doboru sieci neuronowej do postawionego zadania wymaga określenia charakteru prognozowanej zmiennej oraz stosunku między zasięgiem ekstrapolacji a ilością informacji, na których oparto proces prognozowania. Informacje te ułatwiają wybór typu sieci neuronowej, liczby neuronów w warstwie ukrytej, algorytmu nauki sieci neuronowej, momentu jej zakończenia w zależności od wielkości błędu estymacji oraz sposobu wyliczania tego błędu. Środowisko MATLAB jest wyposażone w narzędzie Neural Network Toolbox ułatwiające tworzenie i korzystanie ze sztucznych sieci neuronowych. Na podstawie analizy realizowanego zagadnienia dokonano wyboru nieliniowej autoregresyjnej sieci neuronowej NAR (ang. Nonlinear Autoregressive Neural Network). Prognoza sprowadza się do określenia składowej systematycznej szeregu czasowego, jakim jest wielkość poboru energii elektrycznej. Sieć NAR jest w stanie rozpoznawać jedynie zmiany ilościowe (jedna zmienna prognozowana w oparciu o jej wartości poprzednie), niewykonalne jest więc, z jej użyciem, prognozowanie długookresowe. Struktura wykorzystanej sztucznej sieci neuronowej jest zaprojektowana na maksymalnie 5 neuronów w warstwie ukrytej (liczba neuronów jest uzależniona od długości horyzontu prognozy oraz stopnia skomplikowania trendu opisującego pobór energii elektrycznej). Wybór niewielkiej liczby neuronów wynika z dążenia do uzyskania możliwie ogólnej aproksymacji trendu szeregu czasowego. Pozwala to ograniczyć ryzyko wystąpienia błędów związanych z tzw. „nauką na pamięć”, a prognozowany przebieg poboru energii elektrycznej jest zbliżony do rzeczywistego w określonym horyzoncie czasowym. Według przeprowadzonych badań testowych odpowiednią metodą treningu sieci neuronowej NAR jest algorytm Lavenberga-Marquardta. Jest to algorytm iteracyjny często wykorzystywany jako metoda optymalizacji nieliniowej. Łączy w sobie cechy metody najszybszego spadku i Gaussa-Newtona [5]. O wyborze algorytmu jako metody treningu sieci zadecydował fakt, że w zadaniach typowych jest to najszybszy algorytm nauki jednokierunkowej sieci neuronowej (od 10 do 100 razy szybszy niż w przypadku zastosowania metody gradientów). Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ... 125 Stosowanie algorytmu Lavenberga-Marquardta podlega trzem zasadniczym ograniczeniom: jego stosowanie nie jest możliwe w procesie nauki sieci o liczbie neuronów w warstwie wyjściowej większej niż jeden (sieć NAR wykorzystywana do rozwiązania realizowanego zadania posiada tylko jeden neuron wyjściowy odpowiadający za prognozę zużycia energii elektrycznej); funkcja błędu musi być wyrażona w postaci sumy kwadratów odchyleń. Algorytm znajduje więc zastosowanie w zagadnieniach regresyjnych. Pobór energii elektrycznej jest szeregiem czasowym, może być więc zdekomponowany z użyciem regresji liniowej w celu dokonania jego dalszej estymacji - jest to więc zagadnienie regresyjne; rozległe sieci wymuszają wykorzystanie dużych nakładów pamięciowych (proporcjonalnych do kwadratu liczby parametrów), co znacząco wydłuża proces nauki. Sieć zastosowana w aplikacji do prognozowania poboru energii elektrycznej jest przewidziana na maksymalnie 5 neuronów w warstwie ukrytej. Jest to więc struktura stosunkowo nierozbudowana [5]. W obszarze realizowanego zadania żadne z wymienionych ograniczeń nie zostało naruszone. Wybrana struktura sieci NAR spełnia przyjęte założenia. Zakończenie procesu nauki sieci neuronowej następuje, gdy na wyjściu sieci neuronowej pojawia się sygnał równy (z dokładnością do niewielkiego ustalonego błędu) oczekiwanemu sygnałowi. W MATLAB dla sieci jednokierunkowej za wymieniony błąd przyjmuje się najczęściej błąd średniokwadratowy MSE (ang. Mean Square Error). 3.2. Badanie parametrów sieci neuronowej W celu osiągnięcia jak najlepszej jakości predykcji otrzymanej z wykorzystaniem sztucznej sieci neuronowej należy określić jej parametry. Parametrami pomocnymi w ocenie przydatności otrzymanej prognozy są różnego rodzaju błędy. Pierwszym z nich jest procentowy względny błąd prognozy (całkowity procentowy błąd prognozy), określony wzorem: n yi y p 100% PWBP (1) yi i 1 gdzie: yp jest wartością przewidywaną dla kolejnej jednostki czasowej w horyzoncie prognozy, yi wartością rzeczywistego obciążenia odpowiadającą próbce yp, n liczbą jednostek czasu w horyzoncie czasowym prognozy. Drugim typem błędu służącym do oceny jakości prognozy jest błąd procentowy MAPE (ang. Mean Absolute Percent Error). Informuje on o poprawności odwzorowania kształtu przebiegu prognozowanego i wyrażany jest wzorem [4]: 126 Tomasz Jeżyk, Andrzej Tomczewski 1 n y i y p (2) 100% n i 1 yi gdzie: yp to wartość przewidywana dla kolejnej jednostki czasowej w horyzoncie prognozy, yi to rzeczywista wartość odpowiadająca próbce yp, n jest natomiast liczbą próbek w zasięgu ekstrapolacji. W celu określenia optymalnych parametrów sieci porównano wielkości zdefiniowanych powyżej błędów - zależności (1) i (2) - dla różnych parametrów sieci NAR. W tabeli 1 przedstawiono wyniki wymienionych badań dla trzech różnych horyzontów prognozy: 24 h, 7 dni i 30 dni oraz od jednego do pięciu neuronów w warstwie ukrytej. MAPE Tabela 1. Wyniki badań parametrów sieci neuronowej NAR (kolorem jasnoszarym oznaczono maksymalne wartości poszczególnych błędów dla różnych horyzontów czasowych prognoz, ciemnoszarym zaś ich minimalne wartości) Liczba neuronów 1 2 3 4 5 Całkowity Całkowity Całkowity Całkowity Całkowity Długość prognozy Wartości Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE Prognozy Prognozy Prognozy Prognozy Prognozy Min 0,144 6,874 0,040 5,402 0,243 4,569 0,407 6,336 0,201 5,08877 24h Max 7,275 23,306 2,882 14,934 7,003 16,180 8,895 18,671 10,558 15,145 Średnia 1,390 9,739 1,178 8,032 2,129 8,546 2,148 9,604 2,579 8,332 Min 0,436 8,352 9,427 1,795 0,402 8,488 0,256 9,368 7 dni Max 13,128 14,311 18,137 17,062 23,823 23,777 22,860 22,457 Średnia 5,210 10,814 12,283 7,096 8,115 13,388 8,735 14,574 30 dni (w oparciu o Min 1,561 10,941 2,625 11,160 0,068 10,862 1,101 12,990 cogodzinne pobory Max 127,263 136,081 22,219 23,486 24,031 30,526 27,064 29,927 energii elektrycznej) Średnia 16,329 23,213 9,242 15,594 9,158 16,924 13,472 19,881 30dni (w oparciu o Min 0,560 4,381 1,803 5,197 1,132 4,078 0,072 4,440 dzienny pobór energii Max 12,057 12,870 22,596 29,053 12,735 13,620 22,103 22,843 lektrycznej) Średnia 5,818 7,895 7,627 9,556 5,910 7,943 5,200 7,857 Na podstawie uzyskanych wyników, do realizacji zadania prognozowania zużycia energii elektrycznej, wybrano sieć o 2 neuronach w warstwie ukrytej. Wynika to z faktu, że dla tej liczby neuronów w warstwie ukrytej wartości maksymalne całkowitego procentowego błędu prognozy i błędu procentowego MAPE były najniższe dla każdego horyzontu czasowego prognozy. Średnie wartości tych błędów dla tej liczby neuronów nie odbiegały znacząco od najmniejszej osiągniętej wartości dla innych liczb neuronów, co dodatkowo zadecydowało o wyborze właśnie dwóch neuronów w warstwie ukrytej sztucznej sieci neuronowej. Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ... 127 4. ANALIZA KRÓTKOTERMINOWYCH PROGNOZ ZUŻYCIA ENERGII ELEKTRYCZNEJ Z zastosowaniem wybranej struktury sieci neuronowej (NAR), liczby neuronów w warstwie ukrytej (dwa), metody uczenia sieci (LavenbergaMarquardta) oraz dokonaniu selekcji i przebadaniu wpływu parametrów na jakość predykcji wykonano badania w zakresie prognoz poboru energii elektrycznej dla rozdzielnicy centrum handlowo-usługowego. Ustalono interesujący, w realizowanym zadaniu, zasięg ekstrapolacji o długości: doby, tygodnia i 30 dni. Dane archiwalne, które wykorzystano do predykcji pochodzą odpowiednio z 14, 90 i 366 dni bezpośrednio poprzedzających rozpatrywany okres prognozy. Ze względu na wybór prostej struktury sieci neuronowej nakłady obliczeniowe konieczne do przeprowadzenia prognozy są niewielkie. Wykonanie prognozy dla więcej niż jednej jednostki czasu w przyjętym horyzoncie czasowym wymaga jednak, po zakończeniu procesu nauki sieci neuronowej, utworzenia połączenia powrotnego z neuronu warstwy wyjściowej do neuronów warstwy ukrytej. Na rysunku 1 przedstawiono schemat sieci neuronowej do prognozowania dobowego zużycia energii elektrycznej. Model opracowano z zastosowaniem Toolbox Neural Network środowiska MATLAB i wzbogacono o własne elementy (interfejs graficzny, import i eksport danych do pliku arkusza kalkulacyjnego, automatyczne generowanie wykresów danych archiwalnych i otrzymanych prognoz) opracowane w języku wewnętrznym środowiska. Rys.1. Schemat sieci NAR przystosowanej do prognozowania wartości poboru energii elektrycznej dla wszystkich jednostek czasowych w dobowym horyzoncie prognozy Zrealizowane przykłady obliczeniowe obejmują trzy przypadki. Pierwszy dotyczy prognozy dobowej przeprowadzonej dla dnia 07.03.2013. Całkowity prognozowany pobór energii w ustalonym okresie wyniósł 113,3 kWh, natomiast w rzeczywistości przyjmuje on wartość 108,5 kWh. Błąd prognozy wyniósł zatem 4,8 kWh, procentowy względny błąd prognozy 4.4%, natomiast 128 Tomasz Jeżyk, Andrzej Tomczewski błąd procentowy MAPE 8.9%. Na rysunku 2 przedstawiono wyniki prognozy dobowej dla opisanego powyżej przykładu. Drugi przykład prognozy dotyczy okresu ekstrapolacji wynoszącego 7 dni (okres od 31.01.2012 do 6.02.2012). Rzeczywisty pobór energii w prognozowanym okresie wyniósł 677,9 kWh, podczas gdy wartość wyliczona (prognozowana) 705.8 kWh. Bezwzględny całkowity błąd prognozy wyniósł w tym wypadku 27,9 kWh, co daje procentowy względny błąd prognozy 4,1%, oraz MAPE 11,8%. Szczegółowe wyniki przeprowadzonych analiz zamieszczono na rysunku 3. Rys. 2. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w przyjętym okresie prognozowania - jeden dzień (07.03.2013), błąd prognozy oraz dane archiwalne - przykład 1 Rys. 3. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w prognozowanym okresie (31.01.2012 do 6.02.2012) 7 dni wraz z błędem prognozy - przykład 2 Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ... 129 W przykładzie trzecim horyzont prognozy ustalono na 30 dni (okres od 16.04.2012 do 15.05.2012). Rzeczywisty całkowity pobór energii w prognozowanym okresie wyniósł 2682,6 kWh, natomiast wartość wyliczona (prognozowana) 2819,6 kWh. Bezwzględny całkowity błąd prognozy to 137,0 kWh, procentowy względny błąd prognozy 5,1%, zaś błąd procentowy MAPE 6.8%. Szczegółowe wyniki predykcji dla analizowanego przykładu przedstawiono na rysunku 4. Rys. 4. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w okresie 30 dni (od 16.04.2012 do 15.50.2012) wraz z błędem prognozy - przykład 3 5. PODSUMOWANIE Środowisko MATLAB umożliwia tworzenie różnych typu modeli sztucznych sieci neuronowych, których struktury umożliwiają wykorzystanie do zagadnienia prognozowania zużycie energii elektrycznej. Dodatkowo istnieje możliwość rozbudowy i modyfikacji struktur standardowych z zastosowaniem programowania w języku wewnętrznym środowiska. Daje to znaczną przewagę co do szybkości tworzenia aplikacji w porównaniu ze stosowaniem klasycznych środowisk programistycznych. Badania przeprowadzone w celu określenia optymalnej liczby neuronów w warstwie ukrytej sieci typu NAR wykazały, że im mniej złożona sieć, tym mniejsze błędy prognozy. Sieć o niewielkiej liczbie neuronów w warstwie ukrytej tworzy ogólny i uśredniony obraz przebiegu zmiennej prognozowanej. Rozbudowane sieci skupiają się na jak najdokładniejszym odwzorowaniu przebiegu tej zmiennej. Każde odstępstwo od dokładnej i sztywno wyznaczonej prognozy wprowadza więc błąd i znacząco obniża jej jakość. Wykorzystany w procesie nauki algorytm LavenbergaMarquardta, w zakresie prowadzonych badań, spełnił swoje zadanie i w efektywny sposób umożliwił szybkie zakończenie procesu nauki sztucznej sieci neuronowej. 130 Tomasz Jeżyk, Andrzej Tomczewski Predykcja uzyskana z wykorzystaniem zastosowanego modelu sieci ma charakter prognoz ilościowych. Zmiany jakościowe (awaria rozdzielni, urządzeń podłączonych do niej, jak również podłączenie nowych urządzeń) nie mogą zostać przewidziane, a ich wpływ na jakość prognozy jest uzależniony od miejsca wystąpienia (w ciągu danych) i trwałości tych zmian. Jeżeli zmiana jakościowa zachodzi na końcu tego okresu prognozowania, to jej wpływ na jakość predykcji nie może być pominięty, a prognoza otrzymana na podstawie takich danych archiwalnych jest więc praktycznie bezużyteczna dla zastosowań inżynierskich. Przeprowadzone na potrzeby referatu badania świadczą o przydatności sieci neuronowych w dziedzinie prognozowania szeregów czasowych, w których nie zachodzą znaczące zmiany jakościowe np. pobór energii elektrycznej. Cechą wyróżniającą tak otrzymaną prognozę jest jej brak jej powtarzalności spowodowany losowością procesu nauki sztucznej sieci neuronowej. Powstałe w ten sposób różnice między prognozami są jednak na tyle niewielkie, że w zakresie rozwiązań inżynierskich spełniają całkowicie stawiane wymagania. Dla zamieszczonych w referacie przykładów predykcji o horyzoncie czasowym prognozy równym odpowiednio 1 dzień, 7 dni i 30 dni uzyskano zadowalające rezultaty, procentowe względne błędy prognozy całkowitego poboru energii wyniosły co najwyżej 5,1%, zaś błędy procentowe MAPE 11,8%. LITERATURA [1] [2] [3] [4] [5] Cieślak M., Prognozowanie gospodarcze. Metody i zastosowania, Wydawnictwo Naukowe PWN, Warszawa, 2002. Flasiński M., Wstęp do sztucznej inteligencji, Wydawnictwo Naukowe PWN, Warszawa, 2011. Guzik B., Appenzeller D., Jurek W., Prognozowanie i symulacje. Wybrane zagadnienia, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań, 2005. Helt P., Parol M., Piotrowski P., Metody sztucznej inteligencji w elektroenergetyce, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 2000. Krzyśko M., Wołyński W., Górecki T., Skorzybut M., Systemy uczące się, Wydawnictwo Naukowo-Techniczne, Warszawa, 2008. SHORT TERM FORECASTING OF ELECTRICITY CONSUMPTION BY USING AN ARTIFICIAL NEURAL NETWORK The article presents the problem of the use of artificial neural network to solve the task of short term forecasting of electricity consumption. Based on archival data of instantaneous power measurement of load(shopping center), the neural network of NAR type was learned and then used to determine short term forecast of electricity consumption. Proposed network model was developed in MATLAB environment. To evaluate the quality of the forecasts, the error usage was proposed: percentage of forecast error and the relative percentage error MAPE (Mean Average Percent called Error). The results of sample calculations and comparison with measurement data was presented. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Ryszard NAWROWSKI* Andrzej TOMCZEWSKI* Tomasz JARMUDA* KONCEPCJA OPTYMALIZACJI STRUKTURY HYBRYDOWEJ ELEKTROWNI SOLARNO-WIATROWEJ Artykuł przedstawia koncepcję optymalizacji struktury hybrydowej elektrowni solarnowiatrowej z zastosowaniem metody algorytmu genetycznego. Przedstawione zagadnienia, związane są z wytwarzaniem energii elektrycznej z zastosowaniem współpracujących turbin wiatrowych i paneli fotowoltaicznych. W pracy scharakteryzowano metodę populacyjną algorytmu genetycznego oraz zaproponowano koncepcję optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej (rozdział mocy) wraz ze zmiennymi decyzyjnymi, ograniczeniami oraz opracowaną postacią funkcji celu. SŁOWA KLUCZOWE: optymalizacja, elektrownia hybrydowa, algorytm genetyczny 1. WSTĘP Odnawialne źródła energii, takie jak wiatr i słońce mają coraz większe znaczenie w gospodarce energetycznej Unii Europejskiej. Na koniec 2012 roku łączna moc zainstalowanych ogniw słonecznych na świecie wynosiła 100 GW, natomiast turbin wiatrowych 282,5 GW. Należy jednak pamiętać, że efektywność wytwarzania energii elektrycznej w elektrowniach solarnych i wiatrowych jest silnie uzależniona od warunków atmosferycznych, panujących w określonej lokalizacji geograficznej. Wiatr jest zjawiskiem stochastycznym. Jego prędkość zmienia się w czasie w szerokim zakresie, co utrudnia wykorzystanie jego potencjału energetycznego do wytworzenia energii elektrycznej. Dodatkowo, zależnie od lokalizacji geograficznej, wyróżnić można charakterystyczne cechy przebiegów prędkości wiatru. W strefie klimatycznej Polski średnia prędkość wiatru jest większa w miesiącach jesienno-zimowych, niż w pozostałych okresach roku. Podobnie wyższe wartości, energia wiatru posiada zazwyczaj w nocy niż w ciągu dnia. W przypadku promieniowania słonecznego ważnym czynnikiem wpływającym na wielkość generowanej energii jest cykl dobowy. Panele fotowoltaiczne wytwarzają energię tylko w dzień, a na ograniczenie ich zdolności wytwórczej __________________________________________ * Politechnika Poznańska. 132 Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda mają wpływ dodatkowo niekorzystne warunki meteorologiczne jak np. zachmurzenie. Również w okresie rocznym obserwowane są deterministyczne trendy zmian średniomiesięcznej gęstości promieniowania słonecznego. Rozwiązaniem umożliwiającym częściową likwidację negatywnych cech losowej zmienności energii wiatru i słońca jest budowa hybrydowej elektrowni solarno-wiatrowej. Odpowiednio zaprojektowana struktura wykorzystuje przeciwstawne trendy deterministyczne zmian energii wiatru i słońca w okresie roku i doby. Ustalenie optymalnej struktury elektrowni możliwe jest na drodze doboru odpowiednich urządzeń (rozdział mocy na część wiatrową i solarną) oraz algorytmów jej pracy. W tym celu możliwe jest stosowanie wielu technik, przy czym najwyższą efektywność można uzyskać z wykorzystaniem odpowiednio skonstruowanego algorytmu optymalizacyjnego. 2. ELEKTROWNIE HYBRYDOWE Elektrownie wykorzystujące jeden typ odnawialnego źródła energii są silnie uzależnione od czynników klimatycznych. Powoduje to okresowość produkcji energii elektrycznej i związany z tym udarowy przebieg mocy wyjściowej układu. Rozwiązaniem łagodzącym wymieniony efekt mogą okazać się elektrownie hybrydowe. Na ile rozwiązanie będzie skuteczne, zależy od wyboru typów źródeł wchodzących w jej skład, a także od szczegółowej struktury układu, szczególnie procentowego udziału mocy poszczególnych źródeł oraz wykorzystania systemów magazynowania energii. Według rozporządzenia Ministra Gospodarki z dnia 18 października 2012 r., układem hybrydowym jest jednostka wytwórcza, wytwarzająca energię elektryczną albo energię elektryczną i ciepło. W prezentowanym artykule przedstawiono strukturę systemu hybrydowego podwójnego (z dwoma rodzajami zastosowanych technologii), w postaci elektrowni solarno-wiatrowej. Jako jedną z zalet tego typu systemów należy wymienić bezpieczeństwo dla środowiska naturalnego, związane z brakiem emisji zanieczyszczeń do ekosystemu [6]. Systemy hybrydowe wzajemnie kompensują wady odnawialnych źródeł energii, stosowanych do produkcji energii elektrycznej w danym układzie wytwórczym. Podjęcie ostatecznej decyzji o inwestycji w określony typ systemu, należy poprzedzić szczegółową analizą zagadnienia. Składają się na nią ocena: wydajności energetycznej, efektywności społeczno-ekologicznej oraz ekonomicznej. System hybrydowy jest bardziej opłacalny energetycznie niż elektrownie, stosujące pojedyncze odnawialne źródła energii, a dodatkowo jego zastosowanie może być przyjazne dla środowiska. Dzięki odpowiedniej strukturze systemu możemy dodatkowo dopasować produkcję energii elektrycznej do popytu, a także magazynować (kinetyczne zasobniki energii, ogniwa paliwowe i paliwowo-wodorowe, elektrownie szczytowo-pompowe, pneumatyczne zasobniki Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej 133 energii, superkondensatory, nadprzewodzące zasobniki energii (SMES) oraz bateryjne zasobniki energii) nadwyżkę energii wyprodukowanej we wcześniejszych okresach [4]. Schemat blokowy struktury elektrowni solarno-wiatrowej z wydzielonymi elementami elektrowni wiatrowej i solarnej, opcjonalnymi zasobnikami energii oraz transformatorami średniego napięcia, przedstawiono na rysunku 1. Rys. 1. Proponowana struktura elektrowni solarno-wiatrowej Roczna ilość generowanej energii elektrycznej dla ustalonej struktury elektrowni wiatrowej może zostać wyznaczona w oparciu o średnioroczną prędkość wiatru dla danej lokalizacji geograficznej, rozkład gęstości prawdopodobieństwa Weibulla oraz krzywe mocy zastosowanych turbin wiatrowych. W przypadku elektrowni solarnej wielkość generowanej w okresie roku energii zostanie wyznaczona w oparciu o rozkład średniej gęstości mocy promieniowania dla poszczególnych miesięcy w danej lokalizacji geograficznej oraz charakterystyk prądowo - napięciowych zastosowanych paneli PV. Powyższa metoda wprowadza znaczne błędy związane z przyjęciem wartości średnich prędkości wiatru, gęstości promieniowanie itp. Najlepsze rezultaty obliczeń w tym obszarze osiągamy, wykorzystując dane pomiarowe z lokalizacji przyszłej inwestycji, z okresu co najmniej jednego roku. Pomiary takie dla przyszłych elektrowni solarnych i wiatrowych są podstawą opracowania dokumentacji projektowej i powinny stać się podstawowym elementem doboru struktury i parametrów elektrowni. 134 Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda 3. OGÓLNA CHARAKTERYSTYKA METODY ALGORYTMU GENETYCZNEGO Algorytm genetyczny GA (ang. genetic algorithm) to metoda optymalizacyjna wykorzystująca mechanizm doboru naturalnego oraz dziedziczenia. Łączy w sobie ewolucyjną zasadę przeżycia najlepiej przystosowanych osobników z systematyczną, choć zrandomizowaną, wymianą informacji. Swoją popularność zawdzięcza prostocie działania z równoczesnym brakiem ograniczeń nakładanych na przestrzeń poszukiwań przez konwencjonalne (deterministyczne) metody poszukiwań (wymaganie ciągłości funkcji celu, istnienie pochodnych, itd.). Metoda algorytmu genetycznego daje dobre rezultaty w zadaniach, związanych z poszukiwaniem ekstremum globalnego funkcji wielomodalnych, jest odporna na zmiany wielkości zadania, dobrze radzi sobie z dużą i bardzo dużą liczbą zmiennych decyzyjnych, a także uwzględnia ograniczenia strukturalne i funkcjonalne zadania [2]. Różnice między algorytmami genetycznymi, a metodami tradycyjnymi (deterministycznymi) są następujące: GA nie przetwarza bezpośrednio parametrów zadania, lecz ich zakodowaną postać, GA nie prowadzi poszukiwań, przetwarzając pojedynczy punkt (rozwiązanie), lecz pewną ich liczbę (tzw. populację), GA korzysta tylko z funkcji celu, nie zaś z jej pochodnych lub innych pomocniczych informacji, GA stosują probabilistyczne, a nie deterministyczne reguły wyboru, chociaż sama struktura algorytmu jest deterministyczna. Elementami algorytmu genetycznego, które w dużej mierze decydują o efektywności metody są reprodukcja oraz operatory genetyczne. Jedną z najważniejszych części reprodukcji jest selekcja. Wśród wielu opracowanych i przebadanych jej typów (metoda ruletki, selekcja rankingowa, selekcja turniejowa, elitarna i inne), ważne miejsce zajmuje wybór losowy wg reszt bez powtórzeń o nazwie Brindle. W przypadku wielu zadań optymalizacji układów technicznych daje ona dobre rezultaty, poprawiając jakość wyników oraz szybkość ich uzyskiwania w stosunku do klasycznej postaci algorytmu [2]. W celu zapewnienia odpowiedniego poziomu konkurencji między osobnikami populacji, stosuje się mechanizmy skalowania funkcji celu. Wartości funkcji celu muszą zostać zmniejszone, by zapobiec opanowaniu populacji przez niewielką liczbę tzw. superosobników, w innych przypadkach muszą natomiast zostać zwiększone, by uwydatnić różnice między członkami populacji. Stosowane praktycznie algorytmy, nazywane skalowaniem funkcji przystosowania, obejmują metody: liniową, σ-obcinającą oraz potęgową [2]. Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej 135 4. KONCEPCJA OPTYMALIZACJI STRUKTURY ELEKTROWNI SOLARNO-WIATROWEJ 4.1. Funkcja celu, zmienne decyzyjne i ograniczenia Podstawowym zadaniem optymalizacji elektrowni solarno-wiatrowej jest ustalenie struktury układu maksymalizującej ilość energii elektrycznej generowanej w ustalonej lokalizacji geograficznej w okresie jednego roku. Przyjęto, że wskaźnik jakości rozwiązania J(x) jest funkcją skalarną wektora zmiennych decyzyjnych x, wiążącą energie generowane w obu segmentach elektrowni, o ogólnej postaci: J (x) J PV (x) JW (x) (1) gdzie: JPV(x) – ilość energii elektrycznej generowanej w panelach PV, JW(x) – ilość energii elektrycznej generowanej w turbinach wiatrowych. Rozpatrywane zadanie należy do zadań z ograniczeniami. Jednym ze sposobów ich uwzględnienia jest metoda funkcji kary. Uwzględniając karę zewnętrzną zmodyfikowana funkcja celu Jz(x) dla rozwiązywanego zadania przyjmuje postać: N J z ( x) J PV ( x) J W ( x) Fk ( j ) (2) j 1 gdzie: Fk(j)(x) – funkcja kary dla j-tego ograniczenia, N - liczba ograniczeń. Analiza zagadnienia wykazała, że wektor zmiennych decyzyjnych x posiada sześć składowych definiujących kolejno: typ paneli fotowoltaicznych PV - zmienna x1, liczbę paneli fotowoltaicznych PV - zmienna x2, typ turbiny wiatrowej - zmienna x3, liczbę turbin wiatrowych - zmienna x4, typ systemu magazynowania energii elektrycznej - zmienna x5, liczbę magazynów energii elektrycznej - zmienna x6. Wybór typu stosowanych paneli PV, turbin wiatrowych i typów magazynu energii ograniczony jest do wykorzystywanej bazy danych. W ten sposób realizowany jest główny element ograniczeń strukturalnych. Dodatkowo ze względu na dyskretny zbiór dostępnych mocy paneli oraz turbin wiatrowych ustalono ograniczenie dla mocy znamionowej PNH elektrowni hybrydowej zapisane w postaci znormalizowanej jako: (PNTW (x) NTW PNPV (x) N PV ) 0 pMin PNH ( PNTW (x) NTW PNPV (x) N PV ) 1 0 pMax PNH 1- (3a) (3b) gdzie: PNTW, PNPV - moce znamionowe wykorzystanego typu turbin wiatrowych i paneli PV, NTW, NPV - liczba turbin wiatrowych i paneli PV wschodzących w skład elektrowni solarno-wiatrowej, pMin i pMax - współczynniki odpowiadające dolnej i górnej granicy dopuszczalnego przedziału mocy znamionowej elektrowni solarno - wiatrowej. 136 Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda Składowe funkcji celu JPV(x) i JW(x) odpowiadają energiom generowanym odpowiednio w segmencie fotowoltaicznym i wiatrowym. Metody wyznaczania ich wartości zostaną przedstawione w rozdziale 4.2 niniejszego referatu. 4.2. Metody wyznaczania składowych funkcji celu A. Energia wiatru Ilość energii elektrycznej generowanej w elektrowni wiatrowej o określonej strukturze fizycznej może być wyznaczona kilkoma metodami. Jedną z nich jest wykorzystanie średniorocznej prędkości wiatru vwAvg dla danej lokalizacji geograficznej oraz dwuparametrycznego rozkładu gęstości prawdopodobieństwa Weibulla o postaci: p (v w ) vw 1 e v w (4) gdzie: γ – parametr kształtu (w warunkach polskich przyjmowany z zakresu od 1,2 do 2,2), β – parametr zależny od średniorocznej prędkości wiatru vwAvg oraz wartości funkcji gamma Eulera [1]. W takim przypadku ilość energii elektrycznej, generowanej w okresie jednego roku, wyznaczana jest na podstawie zależności: v out Aew J W (x ) 8760 p v w P1 v w dv w (5) 0 gdzie: p(vw) – prawdopodobieństwo wystąpienia prędkości wiatru vw wynikające z rozkładu Weibulla dla określonej lokalizacji geograficznej, P1(vw) – moc elektrowni wiatrowej zgodnie z krzywą mocy wybranego typu turbiny. Drugą metodą wyznaczenia wartości generowanej energii jest wykorzystanie danych pomiarowych, zazwyczaj w postaci zbioru wartości średniej prędkości wiatru dla ustalonego okresu pomiarowego tW. W takim przypadku, dla znanej krzywej mocy turbiny P1(vw), energia generowana w okresie jednego roku (N1 próbek pomiarowych) może zostać wyznaczona z zastosowaniem zależności: N1 Aew J W ( x) P1 (Vw n ) tW (6) n1 gdzie: P1(vw(n)) – moc elektrowni wiatrowej odpowiadająca prędkości vw dla próbki n zgodnie z krzywą mocy wybranego typu turbiny. B. Energia promieniowania słonecznego Podobnie jak w przypadku turbin wiatrowych ilość energii elektrycznej generowanej w elektrowni solarnej w okresie jednego roku może być wyznaczona kilkoma metodami. Pierwszą z ich jest wykorzystanie średniomiesięcznej gęstości Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej 137 mocy promieniowania słonecznego dla danej lokalizacji geograficznej oraz średniego czasu nasłonecznienia dla poszczególnych miesięcy: 12 Aes J PV P2 En Avg Tn sun (7) n1 gdzie: E(n)Avg – średnia miesięczna gęstość mocy promieniowania, P(E(n)Avg) - moc panelu odpowiadająca gęstości E(n)Avg, T(n)sun – średni czas nasłonecznienia dla miesiąca n. Druga metoda wykorzystuje dane pomiarowe gęstości mocy promieniowania słonecznego. Uwzględniając stały krok dyskretyzacji ΔtPV wartość energii generowanej przez panele PV, dla N2 próbek pomiarowych, wyznaczyć można z zależności: s c N2 A P2 ( En ) t PV (8) n1 gdzie: P(E(n)) – moc paneli PV dla próbki pomiarowej n (gęstość mocy promieniowania wynosi E(n)), ΔtPV – krok czasowy pomiarów gęstości mocy promieniowania. Moc paneli PV wyznaczana jest na drodze aproksymacji charakterystyki prądowo napięciowej wybranego typu panelu dla odczytanej z pomiarów wartości gęstości mocy promieniowania słonecznego E(n). C. Wyznaczanie energii generowanej w układzie solarno-wiatrowym Podstawowym zadaniem obliczeniowym, związanym z ustaleniem wartości zmodyfikowanej funkcji celu (2) w rozpatrywanym zadaniu optymalizacji struktury elektrowni solarno-wiatrowej, jest wyznaczenie energii generowanej w układzie w okresie jednego roku. W przypadku posiadania danych pomiarowych prędkości wiatru oraz gęstości mocy promieniowania słonecznego, energię elektryczną generowaną w omawianym układzie hybrydowym, wyznaczyć można z zależności: N1 1 Ae n1 P1 (vw ( n1) ) P(vw( n ) ) 2 N 2 1 tW n 1 P2 ( E( n 1) ) P ( E( n ) ) 2 t PV (9) W zależności (9) uwzględniono uśrednioną wartość mocy turbiny wiatrowej P1 oraz paneli PV P2 , odpowiednio w okresach ΔtW i ΔtPV , wynikającą z zastosowania liniowej aproksymacji zmian mocy w czasie. 4.3. Wybór metody optymalizacyjnej Ze względu na przewidywaną wielomodalną postać funkcji celu, niejawne występowanie w funkcji celu zmiennych decyzyjnych oraz zróżnicowane typy zmiennych do rozwiązania zadania, autorzy proponują zastosowanie zmodyfikowanego algorytmu genetycznego o następującej strukturze i elementach: 138 Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda kodowanie zmiennych: metoda blokowego zapisu pozycyjnego ze standaryzacją parametrów (wektor zmiennych niezależnych x dla pojedynczego osobnika kodowany jest w postaci jednego chromosomu), selekcja: wybór losowy wg reszt bez powtórzeń, krzyżowanie: dwupunktowe, mutacja: równomierna, skalowanie funkcji przystosowania: liniowe,uwzględnienie ograniczeń: zastosowanie zewnętrznej funkcji celu metodą korekcji kar Powella-Skolnicka (z modyfikacjami Michalewicza) [3]. Jednocześnie, ze względu na szybkość realizacji zadania proponuje się, aby implementacja wyżej scharakteryzowanego algorytmu optymalizacyjnego zrealizowana została w środowisku programistyczno-symulacyjnym MATLAB&SIMULINK z zastosowaniem modułu obliczeniowego Global Optimization Toolbox. Zastosowanie pewnej grupy wymienionych powyżej elementów algorytmu GA wymaga opracowania własnych funkcji i rozszerzenia standardowej funkcjonalności dostępnej w środowisku MATLAB&SIMULINK [5]. 5. PODSUMOWANIE W artykule przedstawiono koncepcję optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej z zastosowaniem metody algorytmu genetycznego. Przeprowadzone rozważania doprowadziły do ustalenia: propozycji struktury elektrowni hybrydowej solarno-wiatrowej współpracującej z układem magazynowania energii elektrycznej, której podstawową cechą jest wzajemna kompensacja niedoborów produkcji energii elektrycznej ze źródła solarnego i wiatrowego w określonych okresach doby i roku, koncepcji algorytmu optymalizacji struktury hybrydowej elektrowni solarnowiatrowej, obejmującej opracowanie postaci funkcji celu, zbioru zmiennych decyzyjnych i ograniczeń oraz wyboru metody optymalizacyjnej, szczegółowej postaci funkcji celu obejmującej wyznaczenie ilości energii generowanej w układzie hybrydowym na podstawie dostępnych pomiarów prędkości wiatru i gęstości mocy promieniowania słonecznego z lokalizacji przyszłej elektrowni hybrydowej. Dalsze prace w zakresie optymalizacji rozpatrywanego układu hybrydowego powinny dotyczyć: ustalenia funkcji celu o charakterze techniczno-ekonomicznym umożliwiającej prowadzenie zadania minimalizacji kosztów jednostkowych wytworzenia energii elektrycznej, uwzględnienie magazynów energii jako elementu układu jaki pozwoli na dalsze uspokojenie źródła, Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej 139 uwzględnienia rzeczywistego charakteru dobowego zapotrzebowania na energię elektryczną, opracowania algorytmu symulacji pracy układu dla wymuszeń rzeczywistych, uwzględnienia w obliczeniach energii generowanej w układzie dynamiki zmian prędkości wiatru, temperatury pracy ogniw PV oraz zastosowania efektywnej metody aproksymacji charakterystyk prądowo-napięciowych paneli PV. LITERATURA [1] [2] [3] [4] [5] [6] Chojnacki J., Knap T., Odnawialne i niekonwencjonalne źródła energii, Poradnik, Wydawca TARBONUS, Kraków 2008. Goldberg D.E., Algorytmy genetyczne i ich zastosowania, Wydawnictwa Naukowo-Techniczne, Warszawa 1995. Michalewicz Z., Fogel D.B., How to Solve It: Modern Heuristics, Springer-Verlag, New York 2000. Paska J., Generacja rozproszona z wykorzystaniem hybrydowych układów wytwórczych, Energetyka, 2013, Nr 6, s. 459. Pratap R., MATLAB 7: dla naukowców i inżynierów, PWN, Warszawa 2007. Stefaniak A., Systemy hybrydowe odnawialnych źródeł energii, Czysta Energia, 2013, Nr 11(147), s. 22-23. DESIGN STRUKTURE OPTIMIZATION OF THE HYBRID SOLAR-WIND POWER PLANT This article presents the concept of optimization of the structure of a hybrid solar-wind power plant using the method of genetic algorithm. The issues are related to the generation of electricity using wind turbines and cooperating photovoltaic panels. The study characterized the method of population-genetic algorithm, and proposes the concept of optimization of the structure of a hybrid solar-wind power plant (power distribution) with decision variables, constraints and the developed form of the objective function. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Ryszard NAWROWSKI* Tomasz JARMUDA* PROJEKT HYBRYDOWEJ ELEKTROWNI SŁONECZNO-WIATROWEJ Artykuł przedstawia projekt hybrydowej elektrowni słoneczno-wiatrowej. W pracy przedstawiono zagadnienia, związane z wytwarzaniem energii elektrycznej z zastosowaniem turbin wiatrowych i paneli fotowoltaicznych. W opracowaniu zaprezentowano projekt elektrowni hybrydowej podwójnej, zbudowany z elektrowni wiatrowej i słonecznej. W projekcie opisano założenia projektowe, strukturę elektrowni, dobór akumulatora oraz bilans elektrowni słoneczno-wiatrowej. Przeanalizowano produkcję energii elektrycznej w poszczególnych miesiącach z elektrowni hybrydowej oraz zapotrzebowanie na energię elektryczną. SŁOWA KLUCZOWE: energia wiatru, energia słońca, elektrownia hybrydowa 1. WSTĘP Elektrownie oparte na jednym odnawialnym źródle energii są uzależnione od nieprzewidywalnych czynników klimatycznych, które powodują okresowość produkcji energii elektrycznej i jej znaczną zmienność. W związku z tym efektywnym rozwiązaniem mogą okazać się elektrownie hybrydowe. Według rozporządzenia Ministra Gospodarki z dnia 18 października 2012 r., układem hybrydowym (HSV) jest jednostka wytwórcza, wytwarzająca energię elektryczną albo energię elektryczną i ciepło. Wyróżniamy dwa systemy hybrydowe. Hybrydowy układ wytwórczy z dwoma rodzajami zastosowanych technologii, nazywany „podwójnym” oraz układ z wieloma źródłami, określany jako „wieloraki”. W prezentowanym artykule przedstawiono strukturę systemu hybrydowego podwójnego. Obecnie najbardziej popularnym systemem hybrydowym podwójnym jest elektrownia słoneczno-wiatrowa. Jako zaletę tego systemu należy wymienić bezpieczeństwo dla środowiska, ponieważ nie emituje zanieczyszczeń do ekosystemu. Kolejną zaletą jest ograniczenie kosztów przesyłu i dystrybucji w związku z budową danego systemu blisko lokalnych odbiorców. Hybrydowe układy wytwórcze dają możliwość produkcji nie tylko energii elektrycznej, ale także energii cieplnej, poprzez zastosowanie w tym celu odpowiednich akumulatorów, tj. silników __________________________________________ * Politechnika Poznańska. 142 Ryszard Nawrowski, Tomasz Jarmuda Stirlinga, silników tłokowych, ogniw paliwowych itp. Systemy hybrydowe można łączyć nie tylko z odnawialnymi źródłami energii, ale także z konwencjonalnymi. Systemy hybrydowe wzajemnie kompensują zalety i wady odnawialnych źródeł energii, z których produkowana jest energia elektryczna w danym układzie wytwórczym. Zanim podejmie się decyzję o inwestycji w dany system, należy przeprowadzić analizę efektywności energetycznej. Składają się na nią ocena wydajności energetycznej, ocena efektywności społeczno-ekologicznej oraz ocena efektywności ekonomicznej. System hybrydowy jest bardziej opłacalny ekonomicznie niż poszczególne pojedyncze elektrownie, oparte na odnawialnych źródłach energii, a jego zastosowanie może być przyjazne dla środowiska. Dzięki temu systemowi możemy dopasować produkcję energii elektrycznej do popytu, a także akumulować nadwyżkę energii wyprodukowanej we wcześniejszych miesiącach. Obecnie stosowanymi technologiami magazynowania wytworzonej energii elektrycznej są kinetyczne zasobniki energii (FES), ogniwa paliwowe i paliwowo-wodorowe, elektrownie szczytowo-pompowe, pneumatyczne zasobniki energii (CAES), superkondensatory, nadprzewodzące zasobniki energii (SMES) oraz bateryjne zasobniki energii [5, 8]. Należy podkreślić, że popyt na systemy magazynowania energii wzrośnie zgodnie z rozwojem odnawialnych źródeł energii i generacji rozproszonej. Oprócz klasycznych wielkich systemów wodnych, będzie konieczne zastosowanie nowych rozwiązań. Będą one musiały być elastyczne pod względem zmian mocy i pojemności, jak np. baterie chemiczne, superkondensatory, ogniwa paliwowe. Największe systemy magazynowania energii powstaną w pobliżu elektrowni słonecznych, wiatrowych i słoneczno-wiatrowych. Słońce i wiatr należą do nieprzewidywalnych źródeł, z których uzysk czystej energii może występować bez urządzenia magazynującego. System magazynowania energii elektrycznej ze źródeł odnawialnych powinien mieć bardzo dobre właściwości dynamiczne, tzn. powinien mieć odpowiednie zużycie mocy znamionowej i powinien zmieniać kierunek przepływu energii. W przypadku turbin wiatrowych rozwiązaniem jest zastosowanie systemów elektrochemicznych i superkondensatorów. Jednak z ekonomicznego punktu widzenia, akumulatory ołowiowo - kwasowe są nadal najlepszym rozwiązaniem [1, 2, 6, 9]. 2. PROJEKT ELEKTROWNI SŁONECZNO-WIATROWEJ 2.1. Założenia projektowe elektrowni hybrydowej Do projektu przyjęto następujące założenia: elektrownia hybrydowa będzie działała w systemie autonomicznym off-line, bez współpracy z siecią elektryczną, elektrownia hybrydowa będzie służyła do zasilania oświetlenia o mocy 75 W, Projekt hybrydowej elektrowni słoneczno-wiatrowej 143 oświetlenie będzie czynne od zmierzchu do świtu (akumulacja energii w dzień i jej odzysk w nocy), czas pracy systemu na zasilaniu z akumulatora to 2 dni (zachmurzone niebo i bezwietrzna pogoda) [4]. 2.2. Struktura elektrowni hybrydowej Przyjęto, że do elektrowni hybrydowej będzie zastosowany zespół dwóch modułów fotowoltaicznych o mocy P = 100 W, napięciu U = 12 V i łącznej powierzchni S = 0,86 m2 oraz jedna turbina wiatrowa o średnicy wirnika równej 2,2 m. Schemat blokowy elektrowni słoneczno-wiatrowej przedstawiono na rys. 1. Urządzeniem dokonującym pośredniej konwersji energii wiatru na energię elektryczną jest alternator. W gondoli elektrowni wiatrowej znajduje się trójłopatkowy wirnik, napędzający alternator za pośrednictwem przekładni. Energia elektryczna z obrotowej gondoli jest przekazywana do akumulatora za pośrednictwem przewodów elektrycznych umieszczonych wewnątrz masztu. Konwersja energii słońca na energię elektryczną zachodzi w fotoogniwie w wyniku zjawiska fotowoltaicznego. Energia elektryczna z fotoogniwa jest przekazywana za pomocą przewodów elektrycznych do szafy sterowniczej, w której znajduje się regulator ładowania, a następnie do akumulatorów. Oś obrotu wirnika elektrowni wiatrowej znajduje się na wysokości h = 10 m, natomiast fotoogniwo jest zainstalowane na wysokości h = 7,5 m [4]. Rys. 1. Schemat blokowy elektrowni słoneczno-wiatrowej 2.3. System magazynowania energii Zadaniem akumulatora w systemie PV jest kompensowanie niedopasowania zapotrzebowania na energię i poziomu dostarczanej chwilowo energii elektrycznej. Związane jest to zarówno z porą dnia (więcej energii zużywamy zwykle wieczorem, a otrzymujemy w południe), zmiennością natężenia 144 Ryszard Nawrowski, Tomasz Jarmuda promieniowania i koniecznością posiadania pewnego zapasu energii (na około 2-3 dni latem i 3-5 dni zimą). W celu przedłużenia żywotności akumulatora warto pokrycie zapotrzebowania przewidywać z 50% zapasem, aby uniknąć głębokiego rozładowania [3]. Do obliczeń przyjęto najdłuższy dobowy czas pracy oświetlenia w miesiącu zimowym t = 16 h. Jeżeli oświetlenie o mocy P = 75 W będzie eksploatowane w czasie t = 16 h, to zapotrzebowanie dobowe na energię elektryczną będzie miało wartość, zgodnie ze wzorem 2.1. A P t 75W 16 h 1200 Wh (1) Pojemność akumulatora obliczamy wg wzoru (2) C 2 A F U (2) gdzie: A – dzienne zapotrzebowanie na energię elektryczną [W·h], F – współczynnik związany z rezerwą energii (F = 2,5 latem, F = 4,0 zimą), U – napięcie systemu [V]. Dla dziennego zapotrzebowania na energię elektryczną latem w ilości A = 1200 Wh w systemie o napięciu U = 12 V, otrzymujemy pojemność zgodnie ze wzorem 2.3. C 2 1200 2,5 500 Ah 12 (3) Dla dziennego zapotrzebowania na energię elektryczną zimą w ilości A = 600 Wh (uwzględniamy 50% rozładowanie akumulatora) w systemie o napięciu U = 12 V, otrzymujemy pojemność zgodnie ze wzorem 2.4. C 2 600 4,0 400 Ah 12 (4) Ostatecznie zadecydowano zastosowanie baterii akumulatorów o całkowitej pojemności C = 500 Ah. 2.4. Bilans elektrowni słoneczno-wiatrowej Produkcję energii elektrycznej w poszczególnych miesiącach z elektrowni wiatrowej i słonecznej przedstawiono na rys. 2. Najwyższa produkcja energii elektrycznej z elektrowni wiatrowej występuje w miesiącach zimowych, a najniższa w miesiącach letnich. Dla elektrowni słonecznej najwyższa produkcja energii elektrycznej ma miejsce w miesiącach letnich, a najniższa w miesiącach zimowych. Jednym z elementów analizy efektywności energetycznej jest oszacowanie zasobów energetycznych wiatru i promieniowania słonecznego dla danego miejsca wraz z zapotrzebowaniem na energię elektryczną lokalnych mieszkańców. Sumaryczną produkcję energii elektrycznej z elektrowni wiatrowej i słonecznej w Projekt hybrydowej elektrowni słoneczno-wiatrowej 145 odniesieniu do zapotrzebowania na energię w poszczególnych miesiącach przedstawiono na rys. 3. Największe zapotrzebowanie na energię występuje w grudniu, przy dość niskich zasobach wiatru i słońca. W miesiącach letnich występuje nadwyżka energii, która może zostać zmagazynowana. Najbardziej zasobnym w energię słońca i wiatru jest maj i w tym miesiącu nadwyżka energii z elektrowni hybrydowej jest prawie trzykrotnie wyższa niż zapotrzebowanie. Rys. 2. Produkcja energii elektrycznej w poszczególnych miesiącach z elektrowni wiatrowej oraz ogniwa fotowoltaicznego [4] Dzięki połączeniu elektrowni wiatrowej i słonecznej istnieje możliwość zaspokojenia potrzeb energetycznych, gdyż niedobór jednego ze źródeł doskonale uzupełnia źródło drugie. Elektrownia słoneczno-wiatrowa może więc stanowić alternatywę dla konwencjonalnych elektrowni, wykorzystując tylko odnawialne źródła energii, czyli produkując tzw. czystą energię [7]. Rys. 3. Sumaryczna produkcja energii elektrycznej z elektrowni wiatrowej i słonecznej w odniesieniu do zapotrzebowania na energię w poszczególnych miesiącach [4] 146 Ryszard Nawrowski, Tomasz Jarmuda 3. PODSUMOWANIE Artykuł przedstawia projekt hybrydowej elektrowni słoneczno-wiatrowej. W pracy przedstawiono zagadnienia, związane z wytwarzaniem energii elektrycznej z zastosowaniem turbin wiatrowych i paneli fotowoltaicznych. W opracowaniu zaprezentowano projekt elektrowni hybrydowej podwójnej, zbudowany z elektrowni wiatrowej i słonecznej. Na podstawie analizy produkcji energii elektrycznej w poszczególnych miesiącach z elektrowni wiatrowej i słonecznej stwierdzono, że najwyższa produkcja energii elektrycznej z elektrowni wiatrowej występuje w miesiącach zimowych, a najniższa w miesiącach letnich. Natomiast dla elektrowni słonecznej najwyższa produkcja energii elektrycznej ma miejsce w miesiącach letnich, a najniższa w miesiącach zimowych. Na podstawie analizy sumarycznej produkcji energii elektrycznej z elektrowni wiatrowej i słonecznej w odniesieniu do zapotrzebowania na energię w poszczególnych miesiącach stwierdzono, że największe zapotrzebowanie na energię występuje w grudniu, przy dość niskich zasobach wiatru i słońca. W miesiącach letnich występuje nadwyżka energii, która może zostać zmagazynowana. Najbardziej zasobnym w energię słońca i wiatru jest maj i w tym miesiącu nadwyżka energii z elektrowni hybrydowej jest prawie trzykrotnie wyższa niż zapotrzebowanie. LITERATURA [1] [2] [3] [4] [5] [6] [7] Daly PA, Morrison J, Understanding the potential benefits of distributed generation on power delivery systems, Rural Electric Power Conference, 2001, s.A211– A213. Kim JE, Hwang JS, Islanding detection method of distributed generation units connected to power distribution system, Proceedings of the IEEE Summer Meeting, 2001, s. 643–647. Klugmann-Radziemska E., Odnawialne źródła energii, Przykłady obliczeniowe, Wydawnictwo Politechniki Gdańskiej, Gdańsk, 2009, s. 45-46. Opracowanie własne na podstawie danych z Sitarz S., Projekt hybrydowej elektrowni słoneczno-wiatrowej, Mechanics, 2005, Vol. 24, No. 3, s. 211-219. Paska J., Generacja rozproszona z wykorzystaniem hybrydowych układów wytwórczych, Czasopismo Energetyka 6/2013 (708), ISSN 0013-7294, Oficyna Wydawnicza ENERGIA, Katowice, czerwiec 2013, s. 459. Salles MBC, Freitas W, Morelato A, Comparative analysis between, SVC and DSTATCOM devices for improvement of induction generator stability, IEEE MELECON, Dubrovnik, Croatia, 2004. Sitarz S., Projekt hybrydowej elektrowni słoneczno-wiatrowej, Mechanics, 2005, Vol. 24, No. 3, s. 211-219. Projekt hybrydowej elektrowni słoneczno-wiatrowej [8] [9] 147 Stefaniak A., Systemy hybrydowe odnawialnych źródeł energii, miesięcznik ogólnopolski „Czysta Energia”, Nr 11(147)/2013, ISSN 1643-126X, Wydawnictwo Abrys, Poznań, listopad 2013, s. 22-23. Strzelecki R., Benysek G., Power Electronics in Smart Electrical Energy Networks, Springer, Londyn, 2008, s. 300-301. THE DESIGN OF A HYBRID SOLAR-WIND POWER PLANT The article presents the design of a hybrid solar-wind power plant. The paper presents issues related to electricity generation using wind turbines and photovoltaic panels. The paper presents a hybrid dual power project built with wind and solar power. The project describes the design assumptions, structure, power, battery selection and balance of solar -wind power plant. The production of electricity in each month of the hybrid power plant and the demand for electricity was analyzed. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Damian GŁUCHY* Dariusz KURZ* Grzegorz TRZMIEL* ASPEKTY PROJEKTOWANIA I EKSPLOATACJI SYSTEMÓW PRZECIWPOŻAROWYCH W OBIEKTACH PRZEMYSŁOWYCH W pracy przedstawiono przegląd najważniejszych, zdaniem autorów, reguł stosowanych w procesie projektowania systemów przeciwpożarowych. W rozważaniach wzięto pod uwagę obowiązujące normy, przepisy i najnowsze rozwiązania układowe. Zaproponowano kanon zaleceń i wytycznych dla projektantów i konstruktorów. Zwrócono również uwagę na potrzebę skonstruowania wskazówek dla instalatorów i konserwatorów funkcjonujących systemów. SŁOWA KLUCZOWE: system alarmu pożarowego (SAP), detektory pożarów, normy i akty prawne, zalecenia projektowe i eksploatacyjne 1. WSTĘP Obiekty budowlane wraz z całą infrastrukturą są projektowane i budowane z przeznaczeniem na długi okres czasu, dlatego powinny być wykonywane w zgodzie z obowiązującymi przepisami oraz z zachowaniem fachowej wiedzy technicznej, zapewniając tym samym podstawowe wymagania prawa budowlanego [5]. Prawo budowlane wskazuje jednoznacznie, że budowle tego typu budowane są z myślą o wieloletnim użytkowaniu, a w wymaganiach podstawowych na drugim miejscu wskazuje na zachowanie bezpieczeństwa pożarowego, co pokazuje, jak ważny jest to aspekt. Instalacje systemów sygnalizacji pożarowej mają za zadanie zabezpieczyć obiekty przed skutkami tego żywiołu. Skuteczna ochrona ludzi i mienia przed pożarem jest zależna od prędkości jego wykrycia, organizacji ewakuacji, gaszenia i oddymiania. Obiekty przemysłowe, stanowiące bardzo ważne ogniwo w całym systemie funkcjonowania państwa i gospodarki zgodnie z wytycznymi Ministra Spraw Wewnętrznych i Administracji z dnia 7 czerwca 2010 r. w sprawie ochrony przeciwpożarowej budynków [6], muszą być bezwzględnie wyposażone w systemy sygnalizacji pożaru. __________________________________________ * Politechnika Poznańska. 150 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel Obiekty przemysłowe sektora prywatnego nie mają takiego obowiązku narzuconego ustawą, ale nie rzadko wyposażenie wewnętrzne tych budynków przewyższa znacznie wartość samego budynku. Stosowane obecnie linie technologiczne, zautomatyzowane, oparte na skomplikowanych maszynach i często robotach, wykonujące skomplikowane operacje, stanową ogromny majątek, który należy chronić. Koszt związany z wdrożeniem systemu wykrywania pożaru, w porównaniu z całą inwestycją, jest znikomy, a w perspektywie wieloletniego użytkowania budynku inwestycja ta pozwala na zminimalizowanie ryzyka i podnosi funkcjonalność obiektu. 2. SYSTEM ALARMU POŻAROWEGO SAP SAP, czyli System Alarmu Pożarowego jest instalacją pozwalającą na wykrywanie zagrożenia pożarowego we wczesnym stadium jego rozwoju. Wczesne wykrycie zagrożenia pozwala na automatyczne uruchomienie automatyki pożarowej oraz powiadomienie odpowiednich służb. Wczesne wykrycie niebezpieczeństwa jest kluczowym aspektem takich systemów. Zlokalizowanie ogniska pożaru w początkowym stadium pozwala na szybkie zareagowanie i eliminację przyczyny awarii. Gwarancją poprawnego działania systemu jest odpowiednie dobranie czujek pożarowych, które zagregują we wczesnej fazie pożaru, a jednocześnie nie będą powodować fałszywych alarmów. Pozwala to na uniknięcie niepotrzebnych akcji ewakuacyjnych, przestojów lub wyłączeń, które mogą przynosić konkretne straty. O doborze czujek w głównej mierze decydują: materiały znajdujące się w zabezpieczanym pomieszczeniu, geometria pomieszczenia, specyficzne warunki panujące w pomieszczeniu (np. kurz, wentylacja itp.). Zawansowane czujniki potrafią wyeliminować fałszywe alarmy, rozpoznając przyczyny i odpowiednio je interpretując. W tradycyjnych pomieszczeniach np. biurowych czy pokojach hotelowych wybór rodzaju czujek nie stanowi specjalnego problemu. Jednak w miarę zawansowania obiektu, poprawne wykonanie działającego systemu sygnalizacji pożarowej stanowi coraz trudniejsze wyzwanie. Do najtrudniejszych obiektów dla projektanta należą między innymi: wysokie pomieszczenia, np. magazyny wysokiego składowania, intensywna klimatyzacja pomieszczeń, np.: serwerownie, centrale telekomunikacyjne, zapylenie powietrza w pomieszczeniu, np.: młyny, zakłady przemysłu drzewnego, obecność niewielkich owadów, np.: hotele, silosy spożywcze, duża wilgotność powietrza, np.: chłodnie, sauny, Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 151 zabezpieczenie budynku od zewnątrz, np.: drewniane obiekty zabytkowe, skanseny, wysoka estetyka lub zabytkowy charakter wnętrz, np. kościoły. System wykrywania pożaru będzie skuteczny i spełni w pełni powierzone mu zadania, jeśli każdy element będzie spełniać wymagania ujęte w normie PN – EN 54:1998 [3]. Na zgodność z tą normą każdy element badany jest przed dopuszczeniem i otrzymuje świadectwo dopuszczenia oraz certyfikat zgodności z CNBOP (Centrum Naukowo-Badawczym Ochrony Przeciwpożarowej). Dokumenty te poświadczają, że każdy element systemu został przebadany i sprawdzony, co gwarantuje jego niezawodność. 3. ELEMENTY DETEKCYJNE Do central pożarowych za pomocą linii sygnałowych podłączane są automatyczne detektory, mające za zadanie wykryć zagrożenie pożarowe oraz wyspecjalizowane moduły wejść-wyjść, umożliwiające realizację automatyki pożarowej. W zależności od przeznaczenia centrale mogą obsługiwać od jednej do kilkunastu linii detekcyjnych w układzie pętlowym. Układ pętlowy pozwala na redundantną komunikację i zasilanie wszystkich elementów detekcyjnych i modułowych (rys. 1). Rys. 1. Przykładowa pętla detekcyjna systemów pożarowych [8] Każdy element posiada podwójną drogę komunikacji z centralą, dlatego pojedyncza awaria nie powoduje utraty transmisji. Dzięki cyfrowej komunikacji z każdym adresowalnym elementem na pętli centrala ma możliwość dokładnej identyfikacji każdego elementu, a to pozwala na dokładne określenie miejsca wystąpienia zagrożenia. Dodatkowo każdy element wyposażony w mikroprocesor może przekazywać dodatkowe informacje serwisowe do centrali. Z tego powodu możliwa jest analiza stanu każdego czujnika. 152 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel Czujki pożarowe odpowiedzialne są za wykrywanie zjawisk i czynników towarzyszących pożarom. Czujniki wykrywają produkty spalania w postaci dymu i aerozoli, ciepła (temperatura), promieniowania elektromagnetycznego (podczerwień, ultrafiolet) czy gazów pożarowych. Detektory umieszczone w obudowie zintegrowane są z elementami elektroniki odpowiedzialnej za analizę i weryfikację mierzonych sygnałów oraz za komunikację z centralą pożarową. Czujki pożarowe w zależności od przeznaczenia i budowy posiadają jeden lub więcej detektorów. Czujki wielosensorowe są dokładniejsze i mają możliwość weryfikacji wielu czynników jednocześnie, co znacznie ogranicza liczbę fałszywych alarmów. Przydatność czujek do wykrywania pożarów jest określana ich przydatnością do wykrywania pożarów testowych TF. Przykładowe wartości TF zestawiono w tabeli 1. Tabela 1. Charakterystyka przykładowych pożarów testowych [1] Test TF1 TF3 Rodzaj pożaru (paliwo) Płomieniowe spalanie celulozy (drewno) Pożar tlący (bawełna) Silny Do pominięcia Do pominięcia Do pominięcia Duża Bardzo mała Mała Mała Jest Przeważnie niewidoczne Jest Przeważnie niewidoczne Jest Przeważnie widoczne Jest Przeważnie niewidoczne Ciemna Jasna, silnie rozpraszająca Jasna, silnie rozpraszająca Jasna, silnie rozpraszająca Nie ma Duże Duże Duże Wzrost temperatury Prędkość wznoszenia Dym Widmo dymu Część widzialna dymu Występowanie CO TF7 Wolny rozkład termiczny piroliza (drewno) TF9 Powolne tlenie bawełna 540g/m2 Głównym kryterium doboru czujek są materiały znajdujące się w zabezpieczanym obszarze oraz to, jakie czynniki mogą towarzyszyć pożarowi. Przyjmuje się, że pożar rozwija się w czterech kolejno po sobie następujących fazach. Pierwsza faza rozwijania się pożaru to tlenie się materiałów, powstaje wtedy dym widzialny i niewidzialny. Przy drugiej fazie zaczyna wydobywać się z palonego materiału gęsty dym. Dla tych pierwszych faz najczęściej przewiduje się zastosowanie czujników z detektorami optycznymi i jonizacyjnymi. Faza trzecia to pojawienie się otwartego płomienia, który może zostać wykryty przez czujniki jonizacyjne oraz płomienia. Czwartej fazie towarzyszy gwałtowny przyrost temperatury otoczenia, na który reagują czujniki z detektorem termicznym. Na rysunku 2 przedstawiono przydatność różnego rodzaju detektorów na wykrywanie pożarów testowych. Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 153 Rys. 2. Przydatność detektorów do wykrywania pożarów testowych [7]: A-cz. liniowa optyczna, B-cz. temperaturowa, C-cz. płomienia, D-cz. optyczna, E-cz. jonizacyjna 4. NORMY I AKTY PRAWNE DOTYCZĄCE PROJEKTOWANIA SYSTEMÓW PRZECIWPOŻAROWYCH Projekt i dokumentacja powinny być wykonywane zgodnie z zasadami wiedzy technicznej oraz z wytycznymi projektowania instalacji sygnalizacji pożarowej Stowarzyszenia Inżynierów i Techników Pożarnictwa. Proces projektowania systemów przeciwpożarowych powinien być zgodny z zasadami ujętymi w aktach prawnych, jakimi są ustawy i rozporządzenia. Najnowszym dokumentem w tej dziedzinie jest Rozporządzenie Ministra Spraw Wewnętrznych i Administracji z dnia 7 czerwca 2010 r. w sprawie ochrony przeciwpożarowej budynków, innych obiektów budowlanych i terenów (Dz.U. 2010 nr 109 poz. 719). W rozporządzeniu tym m. in. podano wykaz budynków, w których obowiązkowe jest stosowanie stałych urządzeń gaśniczych, systemów sygnalizacji pożarowej i dźwiękowych systemów ostrzegawczych. Jedną z podstawowych ustaw jest Ustawa z dnia 24 sierpnia 1991 roku o ochronie przeciwpożarowej (tekst jednolity Dz.U. 2009 nr 178 poz. 1380), która m.in. nakłada obowiązek na właściciela, zarządcę lub użytkownika budynku zapewnienia konserwacji oraz naprawy sprzętu zgodnie z zasadami i wymaganiami gwarantującymi sprawne i niezawodne jego funkcjonowanie. 5. FUNKCJONALNOŚĆ NOWOCZESNEJ AUTOMATYKI PRZECIWPOŻAROWEJ W ramach automatyki pożarowej, przy ogłoszeniu alarmu pożarowego ogólnego, adresowalne moduły sterujące powinny automatycznie podjąć następujące działania z wykorzystaniem sygnałów sterujących: sygnalizacja niebezpieczeństwa przez automatyczne uruchomienie sygnału alarmowego za pomocą syren alarmowych w zagrożonej strefie, 154 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel zatrzymanie procesów technologicznych poprzez podanie sygnałów alarmowych na wejścia alarmowe automatyki przemysłowej, zwolnienie drzwi ewakuacyjnych z kontrolą dostępu poprzez przerwanie obwodów zasilających blokady elekromagnetyczne, wyłączenie wentylacji bytowej w całym obiekcie, zwolnienie napędów sprężynowych klap pożarowych w kanałach wentylacyjnych, uruchomienie napędów elektrycznych klap pożarowych w kanałach wentylacji pożarowej, zwolnienie grodzi pożarowych pomiędzy odrębnymi strefami, załączenie wentylacji pożarowej oddymiającej i napowietrzającej, przekazanie informacji o alarmie do urządzenia transmisji alarmu pożarowego (UTA). Z punktu widzenia niezawodności bardzo istotne są również sygnały monitorujące poprawną pracę układów odpowiedzialnych za wymienione powyżej czynności. 6. POWYKONAWCZE ZALECENIA EKSPLOATACYJNE Wszystkie czujniki i ręczne ostrzegacze pożarowe ROP powinny posiadać etykiety z numerem pętli dozorowej i adresem elementu. Miejsca montażu przycisków ROP należy oznaczać za pomocą certyfikowanych tabliczek zgodnie z wymogami przyjętymi w Polskich Normach. Należy również sporządzić spis wszystkich zamontowanych elementów wymagających przeglądu lub ingerencji administratora budynku i przekazać zarządcy budynku w celu ustalenia harmonogramu konserwacji całości systemu. Instalację powinno się pozostawić sprawdzoną, zgodnie z wymogiem Polskich Norm [4] sprawdzić funkcjonowanie wszystkich elementów, a ich działanie potwierdzić raportem. Wszystkie osoby, zatrudnione w ochronie obiektu, które przewiduje się do obsługi i kontroli systemów bezpieczeństwa, powinny być przeszkolone w zakresie obsługi centrali. Każda ze szkolonych osób musi mieć możliwość praktycznego zapoznania się z obsługą wszystkich systemów. W czasie odbioru i oddania do eksploatacji systemów bezpieczeństwa wykonawca winien przedstawić następujące dokumenty [4]: dokumentację powykonawczą rozmieszczenia wszystkich elementów na obiekcie, potwierdzoną wizją lokalną, protokoły pomiarów linii dozorowych (rezystancja izolacji, rezystancja pętli, pojemność pary) instalacji SAP, protokół z prób wszystkich automatycznych czujników pożarowych (zadymienie czujek dymu, podgrzanie czujek ciepła) i ręcznych ostrzegaczy pożarowych SAP, Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 155 plan i harmonogram konserwacji systemów niezbędny dla utrzymania gwarancji. Warunkiem niezawodnej pracy systemu jest prawidłowa i stała konserwacja. Regularna konserwacja jest podstawą zachowania gwarancji dla instalacji. Konserwacja wszystkich urządzeń wchodzących w skład systemu powinna być przeprowadzana zgodnie z odpowiednimi instrukcjami. W pomieszczeniu, w którym jest zainstalowany system SAP, powinny znajdować się następujące dokumenty związane z eksploatacją (obsługą techniczną) wszystkich systemów: plan sytuacyjny z zaznaczeniem pomieszczeń zabezpieczanych, instrukcja postępowania w przypadku alarmu pożarowego lub uszkodzenia, instrukcja obsługi centrali SAP, książka pracy centrali SAP, wykaz osób funkcyjnych, tzn. osób związanych z obiektem, nazwa, adres i numer telefonu kontaktowego konserwatora systemu. Przeglądy i obsługa techniczna powinny być wykonywane cyklicznie [4]: codziennie - przez użytkownika: sprawdzenie stanu oraz komunikatów z central, miesięcznie - przez użytkownika lub przez firmę serwisową, kwartalnie oraz rocznie - przez firmę serwisową. Konserwację całego systemu należy przeprowadzać w odstępach czasu nie większych niż 6 miesięcy. W ramach półrocznej, rutynowej konserwacji instalacji SAP należy: przejrzeć cały system ze sprawdzeniem na centralce zabrudzenia wszystkich czujek dymu, dokonać oczyszczenia czujek wykazujących zabrudzenie ponad 50 %, przetestować działanie wszystkich czujek detektorów (dymu i ciepła), przetestować działanie ręcznych ostrzegaczy pożarowych, wykonać czyszczenie wszystkich czujek ciepła, sprawdzić stany magazynowe elementów eksploatacyjnych, sprawdzić stan akumulatorów. Ponadto serwis raz w roku powinien dokonać kontrolnego rozładowania i ładowania akumulatorów zgodnie z zaleceniami producenta. Raz na cztery lata akumulatory, stanowiące rezerwowe źródło zasilania systemu, należy wymienić na nowe. Należy też okresowo sprawdzać poprawność działania wszystkich sygnalizatorów świetlnych oraz dźwiękowych centrali. 6. PODSUMOWANIE Światowy trend budowania inteligentnych, przyjaznych i bezpieczniejszych obiektów jest coraz bardziej zauważalny w Polsce. Ważnym powodem inwestowania w systemy bezpieczeństwa jest integracja i automatyzacja wielu elementów automatyki budynkowej przez centrale SAP. Taka integracja znacznie podnosi funkcjonalność obiektu oraz ułatwia w dużej mierze obsługę i zarządzanie. 156 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel Kolejnym znaczącym trendem w systemach bezpieczeństwa pożarowego jest coraz większa integracja systemów z wykorzystaniem cyfrowych technik informacyjnych. Obecnie dopuszczony jest jedynie zdalny dostęp umożliwiający monitoring, w przyszłości system będzie pozwalał na obsługę, programowanie i zdalny serwis. Dodatkowo operacje, które wykonywane były zwykle lokalnie przez programistów, obecnych podczas wdrażania instalacji na budowie, będą mogły być wykonywane zdalnie, poprzez dedykowane sieci LAN oraz Internet dzięki komunikacji po protokole TCP/IP. Koszt instalacji bezpieczeństwa w całkowitym budżecie typowego obiektu przemysłowego jest znikomy, a jego wdrożenie, wraz z integracją z pozostałymi systemami, może skutkować minimalizacją liczby urządzeń o około 20 %, a co za tym idzie oszczędnością na inwestycji [2]. Rosnąca popularność systemów SAP skłoniła autorów pracy do zaprezentowania podstawowych zasad, reguł i zaleceń obowiązujących podczas procesu doboru, projektowania i eksploatacji tego typu instalacji. LITERATURA [1] [2] [3] [4] [5] [6] [7] [8] Markowski W., Czułość czujek pożarowych cz.1, Systemy alarmowe, nr 2/2008. Mikulik J., Budynek Inteligentny, praca pod redakcją Elżbiety Niezabitowskiej, Tom II - Podstawowe systemy bezpieczeństwa w budynkach inteligentnych, Wydawnictwo Politechniki Śląskiej, Gliwice 2010. PN-EN 54-1:1998, Systemy sygnalizacji pożarowej – Część 1: Wprowadzenie. PN-EN 54-14: Systemy sygnalizacji pożarowej – Część 14: Wytyczne planowania, projektowania, instalowania, odbioru, eksploatacji i konserwacji, maj 2006 r. Prawo budowlane (Dz. U. z 1994 r. Nr 89, poz. 414) - ustawa z dnia 7 lipca 1994 r. Rozporządzenie Ministra Spraw Wewnętrznych i Administracji, Dziennik Ustaw 2010 nr 109 poz. 719 z dnia 10 czerwca 2010 r. Wytyczne projektowania instalacji sygnalizacji pożarowej – Stowarzyszenie Inżynierów i Techników Pożarnictwa, Warszawa 02:2010. http://www.krakpoz.pl/systemy_sygnalizacji_pozaru.php?id=bosch_fpa, Centrala Bosch FPA-5000, 27.01.2014 r. ASPECTS OF DESIGN AND OPERATING OF FIRE PROTECTION SYSTEMS IN INDUSTRIAL In this paper the authors present an overview of the most important, in their view, the rules used for the design of fire protection systems. The considerations were taken into account existing standards, regulations and the latest firmware solutions. Proposed canon of recommendations and guidelines for designers and constructors. It also drew attention to the need to construct guidelines for installers and maintenance functioning systems. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O UR N A L S No 79 Electrical Engineering 2014 Bartosz CERAN* Paul Anton BERNSTEIN** APPLICATION PEM FUEL CELLS IN DISTRIBUTED GENERATION In this article the laboratory stand for testing the cooperation of three energy sources has been presented. The aspects of the use of PEM cells in distributed generation have been studied. The measurement results of parallel cooperation of the fuel cell with wind turbine and photovoltaic cell have been presented. SŁOWA KLUCZOWE: PEM fuel cell, distributed generation, electrolysis 1. INTRODUCTION Energy generation in a distributed system is now a rapidly developing branch of electricity. Distributed generation means small generating units, or objects, connected directly to the distribution network or located near the load. They are not subject to central planning development and disposition of power [1]. Wind turbines operating in the power system are not fully disposable. They require startup reserve sources that could cover the needs of energy in the absence of good weather conditions (suitable wind speed). Photovoltaic systems will have the same problems in the future. For technological reasons thermal power plants are not suitable to quick changes the power generated at short intervals. The solution to this problem may be PEM (Protone Exchange Membrane) fuel cells. Fuel cells are electric – chemical devices where direct transformation of chemical energy into electric one takes place. This way of transforming one kind of energy into the other is an essential advantage of fuel cells because it gives an opportunity of reaching high efficiency of energy conversion process which is not limited by Carnot’s cycle efficiency. The following advantages of fuel cells can be listed: high efficiency, very low greenhouse gas emission, low level of noise, modular structure, ability to work with low loads, ability of reverse working, very good regulation abilities [2]. __________________________________________ * Poznan University of Technology. ** Otto von Guericke University Magdeburg. 158 Bartosz Ceran, Paul A. Bernstein 2. PEM FUEL CELLS - OPERATION OPTIMIZATION AND LOAD CHANGE RESPONSE For the application of PEM fuel cells a virtual power plant of several fuel cells (and other types of power plants) is favorable for the operation due to two main reasons. PEM fuel cells are capable of bearing quick load shifts. However, a change in the supply of the reactant gases is slow. Load shifts may result in short timespans with over- or undersupply of the reactants and therefore reducing the lifetime of a fuel cell [3]. Generally, a fuel cell with modest load changes and constant operation parameters will have a higher lifetime, so one reason for virtual power plants is the possibility of splitting the load over several fuel cells so that each fuel cell can run at optimal operation parameters. The second reason is the distribution of the fuel cell plants will help to generate the energy locally where it is needed, which will reduce transfer losses. Moreover, the generated heat of the fuel cell systems can be used for district heating. A virtual power plant has various other advantages [4, 5], nonetheless it requires a smart grid for communication between the subsystems and possibly a central power plant control (Fig 2.1). The communication is important to synchronize the decentralized subsystems not only to deal with load change response, but also to transfer status and security information. The market price can also have an influence on the production of a virtual power plant. Additionally it is possible to include the information of weather forecasts or other grid operators to predict the generation of wind and solar so load changes can be prepared in advance. As fuel cells need time to start up this advantage is crucial for the operation management. For the start process, fuel cell systems based on reformat gas require up to two hours to heat up the reformer. Systems based on pure hydrogen only require a view minutes to start up, but should not run on full load until the system temperature is stabilized at the nominal operation temperature (50-70°C for PEM fuel cells). The heat production of the stacks is enough to heat up the system and excess heat needs to be dissipated to keep the stack temperature stable. Besides the reactant and thermal operation of a fuel cell system, the electrical operation is rather simple. A fuel cell behaves like a direct current source while the voltage is dependent on the load current and the quality of the fuel cell including aging. The cell voltage will depend on the operation conditions as well as temperature, humidity and pressure of the reactants has a direct influence on the cell voltage. The load current can be changed until the power output is at the required level. However, the virtual power plant approach allows dealing with small power differences of the decentralized systems without this requirement. Therefore, a single system can run at optimal load and stable current. Application PEM fuel cells in distributed generation 159 Fig. 2.1. Structure of a virtual power plant showing connections to external systems 3. COOPERATION OF PEM FUEL CELLS WITH WIND TURBINE AND PHOTOVOLTAIC CELLS Figure 3.1 shows a block diagram of the system which includes, wind turbine, photovoltaic cell, fuel cell and electrolyzer. There are two possibilities for energy flow. First option is feeding elecrolyzer with wind turbine and solar cells. Second option is parallel cooperation of fuel cell with both renewable energy sources. Fig. 3.1. A block diagram of the test system The first purpose of the test is to obtain information about the time of produce of specifc value of hydrogen by feeding electrolyzer with renewable energy sources. The second purpose of the test is to get information is fuell cell can work in parallel with chimeric energy sources as wind turbine or photovoltaic cell and cover momentary deficits of produced power. 160 Bartosz Ceran, Paul A. Bernstein 3.1. Laboratory stand In Figure 3.2 laboratory stand has been presented. Thanks to the stand it is possible to determine the characteristics of the three energy sources fuell cell, photovoltaic cell, wind turbine as well as their cooperation. Fig. 3.2. Laboratory station 3.2. Wind turbine and photofoltaic cell feeds the elektrolyzer In Figure 3.3 a block diagram of the test system has been presented. The measurements were made at three operating points of the system. Operating points means points of intersection of the external characteristics of energy sources with the external characteristic of the electrolyzer. Figure 3.4 shows the external characteristics of the system components. Fig. 3.3. A block diagram of the test system The electrolyzer was first powered by wind turbine, second was powered by photovoltaic cell and finally from both sources at the same time. Value of the irradiance was 1200 W/m2, and wind speed value was 5.2 m/s. The time in which 20 cm3 of hydrogen was produced was measured. Application PEM fuel cells in distributed generation 161 Fig. 3.4. External characteristics of the electrolyzer, the wind turbine and photovoltaic cell Fig. 3.5. The results of measurements Figure 3.5 shows the results of measurments. Providing more power to the electrolyzer will reduce the time of production of a specific volume of hydrogen. 162 Bartosz Ceran, Paul A. Bernstein 3.3. Fuel cell parallel cooperation with wind turbine and photovoltaic cell In Figure 3.6 a block diagram of the test system has been presented. Fig. 3.6. Measuring system - block diagram Voltage and current signals were registered using a multimeter. The DC/DC convertes were gave a constant value of voltage which was 2.5 volts. Shunt resistors were used for the measurement of current signals. During the recording voltage and current signals, intensity of solar radiation and wind speed was changed. In Figure 3.7 the recorded signals have been presented. Fig. 3.7. The results of measurements - the current signals Dark gray signal represents the current flowing from the fuel cell and light gray signal represents current flowing from wind turbina and photovoltaic cell. The sum of the currents is represented by the black signal. The initial operating point was established at the 0.2 ampere from renewable energy sources and 0.3 ampere from Application PEM fuel cells in distributed generation 163 the fuel cell. After 10 seconds renewable energy sources were disabled and the current from the fuel cell with a value of 0.37 ampere has been generated. After the next 5 seconds, renewable sources restarted - the current value from the fuel cell went back to the earlier value, the system was stabilized and the current value of the load was again 0.5 ampere. After next 15 seconds the main light source was turned off. The value of current from photovoltaic cell has decreased to the minimum. The fuel cell changed the operating point and generated bigger current. Thanks to this the current value of the load was constant. After a while, the main light source has been switched on and off, then it was switched on and off again and then switched on. Thanks to the fuel cell the value of current of the load was 0.5 ampere. Wind turbine and photovoltaic cell were disabled at the end of the test. The fuel cell generated a maximum current and recording of the measured signals were completed. The fuel cell can work in parallel with renewable energy sources and cover momentary deficits of produced power 4. CONCLUSIONS The tests performed let us draw the following conclusions: Virtual power plants allow the combined operation of several fuel cell systems and other sources and will manage the load change response. Providing more power to the electrolyzer will reduce the time production of a specific volume of hydrogen. The fuel cell can work in parallel with renewable energy sources and cover momentary deficits of produced power. REFERENCES [1] [2] [3] [4] [5] R. Szczerbowski, B. Ceran, „Możliwości rozwoju i problemy techniczne małej generacji rozproszonej opartej na odnawialnych źródłach energii” Polityka Energetyczna, Tom 16, Zeszyt 3, 2013. Paska J., Wytwarzanie rozproszone energii elektrycznej i ciepła – Oficyna Wydawnicza Politechniki Warszawskiej 2010, s. 118-124. Bernstein P. A., Heuer M., Wenske M., ”Fuel Cell System as a Part of the Smart Grid” in Proc. Of POWERTECH 2013, Grenoble, France, 16-20 June 2013. Lombardi P., Stötzer M., Styczynski Z., Orths A., ”Multi-criteria optimization of an energy storage system within a virtual power plant architecutre” in Proc. of IEEE PES General Meeting, 24-28 July 2011. Ruiz N., Cobelo I., Oyarzabal J., ”A direct load control model for virtual power plant management” in IEEE Transactions on Power Systems, Volume 24, Issue 2, 2009, Pages 959-966. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Damian GŁUCHY* Dariusz KURZ* Grzegorz TRZMIEL* BADANIA EFEKTYWNOŚCI PRACY FOTODACHÓWEK UMIESZCZONYCH NA RÓŻNYCH PODŁOŻACH DACHOWYCH W pracy zwrócono uwagę na problem wpływu temperatury pracy ogniw PV, wchodzących w skład dachówek solarnych, na uzysk mocy. Przedstawiono skonstruowane stanowisko badawcze wraz z systemem pomiarowym, scharakteryzowano jego elementy składowe oraz metodykę prowadzonych badań. Zaprezentowano i skomentowano wstępne wyniki pomiarów. Wskazano możliwe korzyści wynikające z prowadzonych prac dla różnych grup odbiorców. SŁOWA KLUCZOWE: dachówka fotowoltaiczna, uzysk mocy, sprawność, temperatura ogniw PV, uwarstwienie dachu, podłoże dachowe 1. WPROWADZENIE Globalne ocieplenie klimatu, wyczerpywanie się złóż naturalnych paliw kopalnych, ograniczenia w emisji dwutlenku węgla do atmosfery oraz wiele innych czynników zmusza do poszukiwania nowych, zielonych źródeł energii odnawialnej. Niezbędne jest więc prowadzenie badań naukowych dotyczących tych źródeł a w szczególności nad podnoszeniem ich sprawności generacji energii, jej przetwarzaniem, magazynowaniem oraz efektywnym wykorzystywaniem. Na szczególną uwagę zasługuje niewątpliwie energetyka słoneczna, a zwłaszcza jej najnowsza forma, czyli fotowoltaika zintegrowana z budynkiem (ang. BIPV – Building Integrated Photovoltaics). Niektóre elementy budowlane (takie jak pustaki, dachówki, szyby) poprzez ich połączenie z ogniwami fotowoltaicznymi tworzą spójną całość i cechują się własnościami obydwu elementów. Zastępując zwykłą dachówkę ceramiczną dachówką solarną, nie tylko uzyskuje się izolację termiczną czy wodną budynku, ale także możliwość konwersji energii słonecznej w elektryczną. Dodatkowo energia tworzona jest w miejscu jej wykorzystania, co jest szczególnie istotne w obszarach miejskich o gęstej zabudowie oraz na obszarach oddalonych od elektrowni. Elementy te nie zaburzają estetyki krajobrazu __________________________________________ * Politechnika Poznańska. 166 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel ani nie wymagają dodatkowej przestrzeni, dlatego też to właśnie ten element systemu BIPV ma największe szanse na szybką popularyzację wśród inwestorów budowlanych i powszechne zastosowanie w budownictwie ekologicznym, wypierając stopniowo tradycyjne panele fotowoltaiczne. Jak powszechnie wiadomo z literatury przedmiotu, na ilość generowanej energii wpływa temperatura fotoogniw, co pokazano na rysunku 1. Jej wzrost prowadzi do obniżenia wartości uzyskiwanego napięcia, a tym samym do obniżenia sprawności panelu. Rys. 1. Charakterystyka prądowo – napięciowa fotoogniwa w zależności od temperatury komórki [4] W przypadku elementów BIPV problem ten staje się o wiele bardziej złożony, niż dla tradycyjnych paneli, montowanych na specjalnej konstrukcji wsporczej nad powierzchnią dachu. Wynika to z samego założenia konstrukcyjnego elementów BIPV, które zastępując materiały budowlane stają się integralną częścią budynku, przez co narażone są na zmienne warunki pracy. Pod powierzchnią dachówek fotowoltaicznych znajduje się o wiele mniejsza masa powietrza, niż pod tradycyjnym panelem, istnieją inne warunki wymiany ciepła z otoczeniem, a także brak jest naturalnego przewietrzania. Istotną rolę odgrywa również materiał konstrukcyjny podłoża dachowego, a w szczególności jego właściwości termiczne, współczynnik wymiany ciepła z otoczeniem, izolacja termiczna itp. Wstępne badania pozwoliły na postawienie hipotez badawczych, które planuje się dowieść poprzez przeprowadzenie równoległych, całorocznych badań wpływu rodzaju podłoża na ilość generowanej energii elektrycznej. 2. STANOWISKO BADAWCZE Prowadzone badania mają na celu wyznaczenie wpływu rodzaju materiału konstrukcyjnego podłoża dachowego na ilość generowanej energii elektrycznej, przy identycznych warunkach pogodowych. W tym celu została wzniesiona Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 167 specjalna konstrukcja dachowa (na płaskim dachu istniejącego budynku) złożona z identycznymi dachówek fotowoltaicznych umieszczonych na różnych podłożach. Widoczne na rysunku 2 fragmenty dachów składają się z następujących materiałów (odpowiednio od lewej): 1) folii dachowej z ociepleniem wełną mineralną (dach 1), 2) folii dachowej bez ocieplenia (dach 2), 3) desek pokrytych papą z ociepleniem wełną mineralną (dach 3). 1) 2) 3) Rys. 2. Stanowisko badawcze – konstrukcje dachowej z różnymi podłożami W celu odzwierciedlenia warunków pracy najczęściej spotykanych w rzeczywistości wybrano przedstawione materiały (deski, folia) oraz wykonano bądź nie ocieplenie dachu wełną mineralną. W celu zapewnienia identycznych warunków otoczenia (temperatury otoczenia, nasłonecznienia) badania prowadzone są jednocześnie na wszystkich trzech instalacjach, przez okres całego roku w wybrane dni każdego miesiąca. Dzięki temu zostanie także wyznaczony wpływ warunków pogodowych na badane parametry. W celu zapewnienia najbardziej optymalnych warunków pracy systemu przez cały rok, ogniwa zostały skierowane na południe i nachylone pod kątem 37º do powierzchni ziemi [1 - 4]. Za pomocą zautomatyzowanego systemu pomiarowego, z każdego zestawu badanych fotodachówek zbierane są informacje o wartości chwilowej prądu, napięcia i mocy, jakie uzyskane są w procesie konwersji fotowoltaicznej. 168 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel Pomiarom podlega także gęstość mocy promieniowania słonecznego (E [W/m2]) oraz temperatura powierzchni roboczej dachówki (T1 [ºC]) i przestrzeni powietrznej pomiędzy dachówką a konstrukcją dachową (T2 [ºC]). Dodatkowo mierzona jest temperatura oraz wilgotność powietrza. W skład systemu pomiarowego wchodzą: a) dachówki fotowoltaiczne FOTTON 52 W (3 dachówki połączone szeregowo na każdej instalacji) [5], b) rejestrator dwudziesto kanałowy, c) czujniki temperatury PT100, d) cęgi prądowe, e) rezystory stanowiące obciążenie (niezbędne do zdjęcia charakterystyki prądowo-napięciowej dachówki solarnej i wyznaczenia parametrów w punkcie maksymalnej mocy PMM), f) komputer PC. System pomiarowy został wykonany zgodnie z odpowiednimi wymaganiami pracy w terenie otwartym, takimi jak np. opady czy temperatura. Rys. 3. Schemat rozmieszczenia elementów składowych dachu oraz czujników Rozmieszczenie czujników oraz elementów składowych jednego z trzech dachów (z deskami, papą oraz wełną) przedstawiono na rys. 3. Dla pozostałych dwóch rodzajów podłoża umiejscowienie elementów pomiarowych jest identyczne. Zaimplementowany system pomiarowy pozwala na zapis próbek danych, zmianę parametrów pomiarowych oraz obliczanie i przechowywanie rezultatów badań. Efektem kalkulacji będą docelowo zestawienia tabelaryczne i graficzne otrzymanych wyników w celu dokonania analizy uzysków energii na różnych podłożach dachowych w tej samej lokalizacji geograficznej i przy tych samych warunkach pracy. Poprawność danych pochodzących z systemu pomiarowego będzie okresowo weryfikowana przy użyciu tradycyjnych mierników wartości gęstości mocy promieniowania, temperatury, prądu i napięcia. Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 169 3. POMIARY WSTĘPNE Analiza przykładowych pomiarów i wykonanych charakterystyk z dnia 29.06.2013 w godzinach 12-13 przy pewnym obciążeniu modułów PV (rys. 4, rys. 5 i rys. 6) pozwala wyciągnąć pierwsze wnioski dotyczące wpływu podłoża na pracę instalacji fotowoltaicznej. Rys. 4. Charakterystyka uzyskanej mocy oraz gęstości mocy promieniowania w zależności od godziny dnia: E – gęstość mocy promieniowania słonecznego, P D1 – uzysk mocy na dachu 1 (z folią i wełną), P D2 – uzysk mocy na dachu 2 (z folią), P D3 – uzysk mocy na dachu 3 (z deskami, papą i wełną) Z zamieszczonych charakterystyk jednoznacznie można zauważyć nagłe zmiany uzyskiwanej mocy w zależności od gęstości mocy promieniowania słonecznego (rys. 4). Największa moc uzyskiwana jest z instalacji położonej na folii i wełnie mineralnej, nieco mniejsza na dachu z deskami i papą, natomiast najniższa na samej folii dachowej. Różnica mocy w tym przypadku wynosi ok. 2,3 %, czyli ok. 2 W. Należy jeszcze zauważyć, że badana instalacja miała moc znamionową równą tylko 156 W (3 fotodachówki po 52 W każda). Zakładając rzeczywistą instalację, o zainstalowanej mocy np. 2 kW, różnica wynosiłaby już niecałe 50 W, czyli tyle co wartość mocy z jednej fotodachówki. Dodatkowo przy gęstości mocy promieniowania ok. 1030 W/m2 moc otrzymana z instalacji w punkcie mocy maksymalnej o godzinie 12 wynosiła odpowiednio 122,8 W na dachu 1, 119 W na dachu 2 oraz 113,2 W na dachu 3, czyli maksymalna różnica mocy wyniosła już ok. 8,4 %. Można przypuszczać, że właściwie obciążenie ogniw PV wpłynie również na powstające różnice uzyskiwanej mocy. 170 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel W celu wyznaczenia charakterystycznych parametrów elektrycznych, decydujących o własnościach ogniwa (takich jak moc P, moc maksymalna Pmax, sprawność , współczynnik wypełnienia FF) posłużono się wartościami z przeprowadzonych na stanowisku badawczym pomiarami i użyto następujących wzorów [3, 4]: P UI [W] Pmax U M I M [W] U I M M 100 [%] ES U I FF M M [-] U 0c I sc (1) (2) (3) (4) Wyznaczone wartości powyższych parametrów na trzech badanych dachach w przytoczonym dniu o godzinie 12-ej przy optymalnym obciążeniu instalacji PV oraz dla wartości średnich w godzinnym przedziale czasowym 12 – 13 zestawiono w tabeli 1. Analizując wartości sprawności otrzymane na poszczególnych instalacjach można zauważyć analogiczne zależności jak przytoczone wcześniej, dotyczące uzyskiwanej mocy. Ze względu na niemożność wyznaczenia wartości prądu zwarcia i napięcia stanu jałowego dla przedziału czasowego 12 – 13 przyjęto ich wartości empirycznie na podstawie archiwalnych pomiarów wykonywanych w analogicznych warunkach. Wartości współczynników wypełnienia FF potwierdzają także przypuszczenie, że właściwe obciążenie ogniw PV wpływa również na wartości mocy. Gdy ogniwa nie są właściwie obciążone (jak w przypadku przedziału czasowego 12 – 13) współczynnik ten wynosi ok. 0,5, natomiast o godzinie 12-ej (przy optymalnym obciążeniu) otrzymano wartość ok. 0,7. 12-13 12 Godz. Tabela 1. Wartości parametrów elektrycznych instalacji badanych na poszczególnych dachach Dach S 2 [m ] dach 1 dach 2 dach 3 dach 1 dach 2 dach 3 E 2 [W/m ] 979,4 1,2 1030,2 IM UM Pmax Isc Uoc FF [A] 4,88 4,82 4,74 3,09 3,10 3,21 [V] 25,16 24,68 23,89 26,67 27,21 26,04 [W] 122,78 119,0 113,2 82,36 84,31 83,64 [A] 5,37 5,40 5,15 5,37 5,40 5,15 [V] 31,74 31,39 30,80 31,74 31,39 30,80 [%] 9,93 9,63 9,16 6,67 6,82 6,76 [-] 0,72 0,70 0,72 0,49 0,49 0,53 Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 171 Rys. 5. Charakterystyka temperatury ogniw PV oraz gęstości mocy promieniowania w zależności od godziny dnia: E – gęstość mocy promieniowania słonecznego, T1D1 – temperatura ogniw PV na dachu 1 (z folią i wełną), T1D2 – temperatura ogniw PV na dachu 2 (z folią), T1D3 – temperatura ogniw PV na dachu 3 (z deskami, papą i wełną) Temperatura ogniw PV zmienia się także wraz ze zmianą nasłonecznienia, jednak zmiana ta zachodzi oczywiście dopiero po pewnym czasie (rys. 5). Dużo bardziej stabilna jest temperatura powietrza znajdującego się w szczelinie pomiędzy dachówką a podłożem, która rośnie wraz z upływem czasu podczas pracy instalacji (rys. 6). Folia dachowa w kolorze żółtym odbija ciepło w szczelinie dachowej i dodatkowo podgrzewa ogniwa PV od spodu (a nie tylko od góry przez promienie słoneczne). Czarna papa i deski pochłania pewną część ciepła z powietrza. Wełna mineralna izoluje dach i nie pozwala na swobodną wymianę ciepła z powietrzem znajdującym się pod dachem na poddaszu. Pomimo, że największą moc uzyskano na podłożu z folii i wełny, to tylko nieznacznie niższą wartość uzysku mocy obserwuje się na deskach z papą. To podłoże wydaje się być najodpowiedniejsze, gdyż jako jedyne z badanych charakteryzuje się dużą stabilnością mocy i temperatur, co w dłuższej perspektywie pracy może być najistotniejsze. Dokładne wnioski będzie można wyciągnąć po przeanalizowaniu wszystkich pomiarów z całego roku w różnych warunkach. Wtedy będzie można określić, które podłoże lepiej sprawdzi się na przestrzeni wszystkich pór roku oraz odnieść to do właściwości termicznych poszczególnych materiałów. 172 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel Rys. 6. Charakterystyka temperatury powietrza w szczelinie dachowej oraz gęstości mocy promieniowania w zależności od godziny dnia: E – gęstość mocy promieniowania słonecznego, T2D1 – temperatura powietrza w szczelinie na dachu 1 (z folią i wełną), T2D2 – temperatura powietrza w szczelinie na dachu 2 (z folią), T2D3 – temperatura powietrza w szczelinie na dachu 3 (z deskami, papą i wełną) 5. WNIOSKI Wyniki prowadzonych badań powinny w przyszłości wskazać rodzaj podłoża dachowego pozwalającego na uzyskanie najlepszych parametrów pracy dachówek fotowoltaicznych oraz maksymalizację uzysków mocy z instalacji PV. Dodatkowo planowana szczegółowa analiza rezultatów w ujęciu czasowym ma dostarczyć wskazówki, co do opłacalności i zwrotu kosztów inwestycyjnych potencjalnych nowoczesnych rozwiązań z obszaru technologii BIPV. Celem pracy ma być zebranie jak największej ilości wiarygodnych informacji eksploatacyjnych, wpływających na parametry pracy i opłacalności fotodachówek różnym grupom osób, takim jak: producentom, konstruktorom, naukowcom, inwestorom oraz użytkownikom końcowym. Wiedza na temat wpływu podłoża na temperaturę ogniw wskaże dalsze kierunki badań zmierzających do poprawy przewodności cieplnej materiałów konstrukcyjnych podłoży dachowych. Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 173 LITERATURA [1] Głuchy D., Kurz D., Trzmiel G., Studying the impact of orientation and roof pitch on the operation of photovoltaic roof tiles, Przegląd Elektrotechniczny, 06/2013. [2] Haberlin H., Photovoltaics. System Designed and Practice, John Wiley & Sons Ltd., 2012. [3] Jastrzębska G., Ogniwa słoneczne, Wydawnictwa Komunikacji i Łączności, 2013. [4] Sarnik M. T., Podstawy Fotowoltaiki, Oficyna Wydawnicza Politechniki Warszawskiej, 2008. [5] http://www.fotton.eu/dachowka_solarna.php, dn. 23.01.14 r. RESEARCH THE EFFECTIVENESS OF WORK PHOTOVOLTAIC ROOF TILES PLACED ON DIFFERENT ROOF SURFACES In this paper the issue of the impact of the operating temperature of PV cells, comprising the solar roof tiles on the yield power. The paper presents constructed a research position with the measuring system, characterized its components and methodology of the research. Paper presents and comments on the preliminary results of the measurements. Indicated possible benefits from ongoing work for various audiences. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Damian GŁUCHY* Dariusz KURZ* Grzegorz TRZMIEL* PHOTOVOLTAIC THERMAL AS A HYBRID FORM OF OBTAINING ENERGY FROM SOLAR RADIATION The work presents a method for hybrid connection of two systems used to obtain energy from solar radiation. The influence of temperature increase of the photovoltaic element on its efficiency was characterized. Two options for the construction of a system of the photovoltaic thermal type which are currently available for sale were presented. The advantages and disadvantages of connecting a collector installation with a photovoltaic installation were identified. KEYWORDS: photovoltaics, solar collector, Photovoltaic Thermal, PV temperature 1. INTRODUCTION An important problem raised in the media in recent years is energy security. The topic applies to all the producers and consumers of electric energy. Particular discussions conducted in relation to this subject already bear fruit in the form of a number of interesting initiatives. Their goal is both to introduce changes in the existing regulations as well as to develop the technology in order to increase production capacity. Constant increase of the demand for electric energy is visible, most of all, in the dynamically developing technology used to obtain energy from renewable sources. It is in them that the greatest hopes for assuring energy security are placed. Energy generation equipment from the RES (Renewable Energy System) group are characterized by higher and higher efficiency rates, and their process decrease to a level that makes them cost-effective from the consumer’s point of view. Apart from the development of existing technologies, also attempts at combining them are made. One of them is combining two technologies of energy generation from solar radiation, referred to as the photovoltaic technology and the thermal technology. 2. OBTAINING ENERGY FROM SOLAR RADIATION American scientists calculated a few years ago that the amount of energy that reaches our planet from the Sun every hour is equal to the amount consumed by all __________________________________________ * Poznań University of Technology. 176 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel of human civilization in a year [8]. This means that solar radiation is an efficient source for obtaining energy. The technologies of solar collectors and photovoltaic panels have been independently developed in parallel for decades as part of solar power engineering [2]. In recent years, attempts have been made to combine the two different technologies in order to create a unified hybrid system. A photovoltaic thermal system (also known as a hybrid PV/T system or PVT) is a system which converts the energy of solar radiation into electric energy or thermal energy. The system generates mainly electric energy thanks to the photovoltaic effect and the same device produces warm water thanks to the phenomenon occurring in the solar collectors (in some versions of the system, the air is heated directly). The essence of such a combination of two systems that have operated independently till now is their mutual positive influence [1, 3]. A combination of those systems is presented on Figure 1. Fig. 1. Illustration of the combination of a collector with a PV module [6] While analyzing the operation of a solar battery, it is important to remember that the increase of its temperature is always connected with the decrease of the value of the power obtained. This is caused by the increase of the frequency of vibrations of the atoms in the crystalline network that constitutes the structure of a photovoltaic cell. It should be added that vibrations of the crystalline network obstruct the flow of electrons which, in consequence, decreases the value of the electromotive force and, thus, reduces the voltage level [5]. In order to obtain energy from photovoltaic sources, one should remember that their nominal power is specified for the standard test conditions in which the temperature of the cell is 25°C. When the elements are heated by a certain value, Photovoltaic thermal as a hybrid form of obtaining energy from solar radiation 177 the power generation efficiency decreases. This dependency for a typical silicon solar battery is presented on Figure 2 [4]. Fig. 2. The graph reflecting percentage fluctuation of the power of a typical solar collector in relation to temperature [5] Co-operation of photovoltaics and solar collectors in a PVT system is focused on making the amount of electric energy generated from PV elements independent from their temperature. Cooling the cells makes it possible to increase the efficiency of their operation during hot days. Additionally, it should be remembered that the heat which, up till now, was considered as a wasteful and unwanted side effect, will now be used in an effective way. 3. TYPES OF PVT SYSTEMS Hybrid systems can be divided into two groups depending on their construction. Most of all, PVT systems based on the construction of a flat liquid collector can be distinguished. The photovoltaic cell is cooled in such a system by an absorber equipped with a heating coil in which the heating medium collecting the heat circulates. Installations of this type are connected to the building similarly to traditional solar collectors. The connection of a sample installation of PVT systems is presented on Figure 3. PVT systems based on the construction of air heating collectors in which the collector is cooled by means of the air flowing under the photovoltaic cell are much less popular in Poland. Such a solution is much simpler and cheaper but it works only in specific types of investments where the heated air is needed, particularly during the summer months [7]. An example of such a solution is the “SolarDuct PV/T” system produced by the SolarWall company. Standard PV modules are fitted on a specially prepared frame. Both parts are matched in such a way that makes the air flow directly under the 178 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel modules. In this way, the cells will be cooled and the heat will be transferred to the heating and ventilation systems of the building by a special perforated absorber. Fig. 3. Sample uses of PVT systems PVT [9] Thanks to the installation which operates in such a way, the consumption of conventional energy needed to heat the building is decreased. At the same time, the efficiency of the PV system is increased by up to o 10%. Apart from generating thermal energy, the SolarDuct PV/T system also constitutes a complete support structure for the PV system which makes the investment more cost-effective [10]. 4. THE PURPOSE OF INVESTING IN PVT 4.1. Advantages The main advantage of using PVT, apart from the reduction of the operation temperature of the photovoltaic cells, is space savings. Instead of two separate installations, solar collectors for water heating, and a photovoltaic installation for electric energy generation, just one installation is fitted on the roof. Such a solution means that part of the investors with limited usable roof space do not have to choose between heat generation and electric energy generation. Also the costs of such an installation are much lower than in the case of two traditional installations (solar collectors and photovoltaics). What is more, in the case of PVT with fully integrated construction, it is currently possible to obtain refinancing at the level of 45% for the modules including the hydraulic part of the installation. Reduction of the costs connected with the installation, which results from the lower amount of work to be conducted on the surface of the building in comparison to the implementation of two systems is also worth noticing. This is applicable also to the fitting of PVT modules itself which, in most cases, have been designed to Photovoltaic thermal as a hybrid form of obtaining energy from solar radiation 179 match traditional PV installation clamps. Figure 4 presents a photo of a PVT module which differs from PV only with hydraulic clamps. Fig. 4. Hybrid IPVT 300 Hybryda module [6] PVT is also characterized by 50% higher efficiency than comparable conventional module. At the same time, manufacturers of photovoltaic thermal systems guarantee considerably longer service life of the photovoltaic cells thanks to the operation in lower temperatures [11]. 4.2. Disadvantages A disadvantage of this system is the mutual dependency of both systems. The most appropriate system operation time from the system efficiency point of view is summer time characterized by high insolation and high temperatures. It is then that both of the implemented systems operate at the highest efficiency level. On the one hand, it is possible to obtain low-temperature heat in the form of water heated to the temperature of 45°C, on the other hand, the operation of PV at lowered temperature in favorable insolation conditions. Thus, in order for the PVT modules to operate in an efficient way, it is necessary for the operation of the cell to be maintained at a low level, that is 35-45°C. It should be underlined that a PV system is relatively rarely heated to the temperature of more than 50°C. Another disadvantage of PVT is the scale of the system. In the case of installations fitted on family houses, the photovoltaic component often takes up the area of over a dozen or a few dozen m2, which means that a problem with receiving such a great amount of heat may arise in the summer period. In winter, on the other 180 Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel hand, a hybrid PV/T system will generate considerably higher heat losses than a traditional collector installation due to the lack of a selective absorber and the appropriate amount of thermal insulation. This translates to lower temperatures of the heating medium obtained from them. The thermal insulation of hybrid modules is also not as good as in the case of traditional solar collectors. Due to that fact, they are characterized by much higher heat loss levels and the temperature of the heating medium obtained from them is lower than in solar collectors. 5. CONCLUSION Although in theory they combine the advantages of two systems whose popularity is constantly growing, in practice PVT systems seem to be a solution that has not been completely thought out. Although the manufacturers assure up to 300% higher efficiency in comparison to a traditional PV system, the increase in real operational conditions is a few dozen percent. Undoubtedly, using such systems will be economically justifiable in the case of many investments, but their installation must be preceded with diligent technology and cost analysis. REFERENCES [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] Butera F.,Adhikari R. S.: “Hybrid Photovoltaic-Thermal Technology and Solar Cooling” http://www.pvdatabase.org 14:50 27.05.2013. Jastrzębska G.: „Ogniwa słoneczne”, Wydawnictwa Komunikacji i Łączności, 2013. Mitică I., Andreea M.: “Energy efficiencies of a photovoltaic/thermal solar hybrid system”, Annals of the University of Craiova, Electrical Engineering series, No. 32, 2008. Sarnik M. T.: “Podstawy fotowoltaiki”, Oficyna Wydawnicza Politechniki Warszawskiej, 2008. Szymański B.: „Małe instalacje fotowoltaiczne”, Geosystem, Kraków 2013. Budujemy dom Nr 5/2013. Globenergia Nr 2/2011. Newsweek Polska Nr 2/2008. http://www.sklep.thermika.com.pl/attachment.php?id_attachment=28 18:37 19.10.2013 http://solarwall.com/pl/oferta/solarwall-pvt/solarduct-pvt.php 20:11 19.10.2013 http://automaeko.sklepna5.pl/ 18:54 18.10.2013 P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Marek HORYŃSKI* Jacek MAJCHER* ZDALNY NADZÓR NAD INTELIGENTNYM BUDYNKIEM W nowoczesnych budynkach większość instalacji jest ze sobą wzajemnie połączonych. Daje to możliwość nadzoru ich stanu pracy jak również odpowiednie ich konfigurowanie. W systemie EIB może to być realizowane na wiele sposobów. Jednym z prostszych sposobów jest zastosowanie wejść i wyjść binarnych. Moduły te pozwalają nadzorować pracę urządzeń, ale nie jest możliwa pełna ich kontrola. Kolejnymi urządzeniami, dzięki którym można sterować poszczególnymi instalacjami, są sensory takie jak Triton czy Prion. Obecnie coraz częściej w inteligentnych budynkach można spotkać panele dotykowe oraz home serwery dzięki którym możliwa jest zdalna kontrola nad urządzeniami. Za pomocy Internetu oraz odpowiednio skonfigurowanej aplikacji użytkownik ma możliwość podglądu stanu pracy poszczególnych urządzeń jak również może regulować poszczególne parametry takie jak temperatura w pomieszczeniu czy też załączać oświetlenie w budynku. SŁOWA KLUCZOWE: magistrala, budynek, sterowanie, energooszczędność, automatyka 1. WSTĘP Coraz to większe wymagania stawiane przed nowoczesnym budownictwem powodują konieczność integracji poszczególnych instalacji znajdujących się w budynku. Dotychczasowy model autonomicznych instalacji nie jest w stanie zapewnić wymaganego komfortu użytkowania. Zadanie to wydaje się być obecnie łatwiejsze ponieważ większość instalacji posiada w swojej strukturze elektroniczne elementy sterujące bądź wykonawcze. Należy połączyć poszczególne urządzenia tak, aby mogły wzajemnie na siebie oddziaływać. Jednym z rozwiązań jest opracowana przez czołowych producentów elektroinstalacyjnych magistrala EIB (European Installation Bus). Magistrala ta zastępuje klasyczną instalację elektryczną znacząco rozszerzając jej możliwości. Dzięki niej można załączać, sterować, regulować oraz nadzorować pracę urządzeń elektrycznych. Jest to system o strukturze rozproszonej (rys. 1), każde urządzenie wyposażone jest w mikrokomputer posiadający własną aplikację. Urządzenia te połączone są przez magistralę za pomocą odpowiedniego portu. Rozwiązanie to podnosi niezawodność systemu ponieważ uszkodzenie jednego elementu nie wpływa na pracę pozostałych __________________________________________ * Politechnika Lubelska. 182 Marek Horyński, Jacek Majcher urządzeń. Port magistralny to swego rodzaju mikrokomputer składający się z następujących elementów: jednostki procesorowej CPU, pamięci: ROM, RAM. Dane przesyłane są po magistrali w sposób asynchroniczny z dostępem do magistrali typu CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). Mechanizm ten polega na unikaniu kolizji w przypadku, gdy kilka urządzeń nadaje jednocześnie. Każde urządzenie posiada odpowiedni priorytet. Jeśli zaczynają nadawać dwa urządzenia pierwszeństwo ma urządzenie o wyższym priorytecie. Natomiast jeśli nadające urządzenia mają ten sam priorytet, pierwsze zaczyna nadawać to o wyższym adresie fizycznym [2]. Rys. 1. Struktura drzewa magistrali KNX/EIB [4, 5] Instalacja inteligentnego budynku daje użytkownikowi wiele możliwości, lecz najważniejszymi funkcjami są: energooszczędność, bezpieczeństwo, łatwa kontrola całego systemu i urządzeń podłączonych do niego oraz komfort użytkowania. Bardzo ważne jest zarządzanie tymi funkcjami, łatwy w obsłudze interfejs i szybki dostęp do potrzebnych usług. Zdalne zarządzanie to właśnie prosty dostęp do wszystkich funkcji danego budynku. Tradycyjna instalacja pozwala na zastosowanie zdalnego sterowania na przykład poprzez port podczerwieni, ale tylko w pojedynczych przypadkach (np. sterowanie oświetleniem). Do takiego sterowania wymagane są dodatkowe elementy nie wchodzące w skład konwencjonalnej instalacji. Użytkownik nie ma możliwości sterowania wieloma funkcjami z jednego urządzenia, a tym bardziej z dalszych odległości, na przykład będąc w pracy. Jako nadzór należy rozumieć możliwość podglądu stanu pracy urządzeń, jak również zmianę ich nastaw. Magistrala EIB może nadzorować pracę takich instalacji jak: sterowanie oświetleniem, Zdalny nadzór nad inteligentnym budynkiem 183 sterowanie urządzeniami HVAC, sygnalizacja przeciwpożarowa i sterowanie urządzeniami przeciwpożarowymi, sterowanie urządzeniami informatycznymi, sterowanie urządzeniami antywłamaniowymi i kontroli dostępu, sterowanie instalacjami (np. c.w.u. [9]) i urządzeniami monitorującymi stan techniczny wybranych obwodów, zarządzanie energią. W przypadku instalacji SSWiN (Systemy Sygnalizacji Włamania i Napadu) jaki i SKD (System Kontroli Dostępu) instalacja EIB nie ma możliwości nadzoru nad tymi instalacjami. Możliwy jest jedynie podgląd stanu pracy tych instalacji [1]. Wynika to z braku odpowiednich certyfikacji urządzeń EIB niezbędnych w technice alarmowej. 2. NADZÓR NAD INTELIGENTNĄ INSTALACJĄ Urządzenia służące do nadzoru pracy instalacji inteligentnej mogą zmieniać jej stan jak również sygnalizować zachodzące w niej zmiany. Do najprostszych urządzeń mogących realizować powyższe funkcje można zaliczyć Universal Concentrator. Urządzenie to posiada 32 niezależne kanały, które mogą pracować jako wejścia lub wyjścia. Aby określić status odpowiednich kanałów, należy je odpowiednio sparametryzować w programie ETS (Engineering Tool Software). a) b) Rys. 2. Urządzenia sterujące firmy Busch Jaeger [6]: a) Busch-Prion, b) Touch Panel Obecnie dużą popularnością cieszą się urządzenia sterujące, które w sposób graficzny prezentują stan instalacji. Przykładem takich urządzeń jest Busch Triton oraz nowsze rozwiązania Busch Prion firmy Busch-Jaeger (rys. 2). Natomiast zastosowanie modułów GPRS i serwerów oraz urządzeń mobilnych typu smartfon lub tablet umożliwia zdalne monitorowanie i zarządzanie instalacją. 184 Marek Horyński, Jacek Majcher W Laboratorium Elektrycznych Systemów Inteligentnych Politechniki Lubelskiej zostało opracowane stanowisko badawcze, dzięki któremu badane są interakcje między komponentami inteligentnego systemu KNX/EIB. Jego konstrukcja zapewnia również możliwość zdalnego sterowania urządzeniami automatyki budynkowej. Wykorzystano urządzenia magistralne produkcji ABB. Otwartość systemu KNX/EIB pozwala na zamienne stosowanie urządzeń innych producentów. 3. STANOWISKO BADAWCZE Podstawowymi urządzeniami zastosowanymi w stanowisku są: wyłącznik nadmiarowo prądowy do zabezpieczenia stanowiska, zasilacz firmy ABB SV/S 30.320.S, służący do zasilania urządzeń magistralnych (sensorów i aktorów), port RS_232, umożliwiający oprogramowanie aparatów podłączonych do magistrali danych, pozwalający na odczytanie błędów występujących podczas pracy systemu i wprowadzenie zmian usprawniających jego pracę, port magistralny wraz z czujnikiem natężenia oświetlenia ABB LR/ 2.2.1, port magistralny wraz z modułem czujnika obecności ABB 6120 U-102, port magistralny wraz z przyciskiem Triton ABB 6120 U-101-500. W obiekcie rzeczywistym powyższe urządzenia znajdują się w pomieszczeniu. Stanowisko można uzupełnić o moduł stacji pogodowej ABB WZ/S 1.1, monitorujący warunki panujące na zewnątrz pomieszczenia. Pozostałe urządzenia (aktory) znajdujące się w rozdzielnicy to: moduł ściemniacza HAGER TXA 210, pozwalający na regulację oświetlenia w zależności od zapotrzebowania, sterownik żaluzji ABB JA/S 4.6.1, zapewniający sterowanie żaluzjami bądź roletami, aktor energii ABB SE/S 3.16.1, zapewniający monitorowanie parametrów napięcia, prądu, mocy czynnej, częstotliwości, czasu, scen, pomiaru energii, bezpieczeństwa, komunikacyjnych, funkcyjnych, a także kopiowanie i wymianę kanałów, brama internetowa ABB IG/S 1.1, zapewniająca, łącznie ze specjalistycznym oprogramowaniem narzędziowym, zdalną komunikację z urządzeniami umieszczonymi w instalacji. Pozwala także na programowanie urządzeń systemu KNX/EIB za pośrednictwem sieci LAN. Jako odbiorniki zastosowano świetlówkę i halogen. Symulacja działania żaluzji została wykonana za pomocą diod LED. Schemat elektryczny zawiera zabezpieczenia nadmiarowo-prądowe poszczególnych obwodów, doprowadza zasilenie do opraw oświetleniowych, gniazdek i innych odbiorników (rys. 3, 4). Zdalny nadzór nad inteligentnym budynkiem Rys. 3. Schemat obwodu sterowania 185 Rys. 4. Schemat elektryczny Ważne zadanie, z punktu widzenia zarządzania energią w obiekcie, spełnia aktor energii, który pozwala na monitorowanie większości parametrów instalacji i przełączanie pomiędzy kanałami w zależności od zmieniającego się obciążenia. W połączeniu z modułem internetowym umożliwia zdalne zarządzanie energią w pomieszczeniu. Parametryzacja urządzeń magistralnych przeprowadzana jest w środowisku ETS4. Na rysunku 5 przedstawiony są przykładowe ustawienia aktor energii. Urządzenia zastosowane w stanowisku pozwalają na efektywnie zarządzanie energią zużywaną w pomieszczeniu, w zależności od zapotrzebowania i obecności osób. Czujnik natężenia oświetlenia pozwala określić zapotrzebowanie na światło naturalne i sztuczne. Projekt zdalnego zarządzania i monitorowania energii w jednym pomieszczeniu z łatwością można zaadoptować do większych instalacji np. domu jednorodzinnego, co pozwoliłoby na znaczne ułatwienie w kontrolowaniu instalacji i dopasowaniu do potrzeb użytkowników [7]. Zastosowanie aktorów energii pozwala zoptymalizować zarządzanie energią w budynku. Zainstalowana brama internetowa IG/S pozwala na wykonanie własnej aplikacji webowej do kontroli, nadzoru oraz wizualizacji systemu KNX/EIB. Może ona mieć zastosowanie zarówno w aplikacjach komercyjnych, np. instalacjach elektrotechnicznych, ogrzewaniu, wentylacji, klimatyzacji, jak i dla domów mieszkalnych, np.: zapewnia rozszerzenie możliwości już istniejących instalacji, zdalny dostęp do już istniejących systemów bezpieczeństwa, zdalny nadzór domów letniskowych oraz całorocznych [8]. 186 Marek Horyński, Jacek Majcher Rys. 5. Okno topologii Aktora Energetycznego z wyszczególnionymi parametrami Połączenie z modułem video umożliwia przekazywania obrazów w czasie rzeczywistym. Brama internetowa automatycznie informuje użytkownika o zdarzeniach i alarmach poprzez wysłanie wiadomości e-mail. Przy stosowaniu zdalnego sterowania inteligentną instalacją elektryczną procedury bezpieczeństwa są podobne jak w bankowości internetowej. Wszystkie strony są kodowane (protokół SSL) oraz występuje 3-poziomowa autoryzacja [4]. 4. PODSUMOWANIE Systemy automatyki i zarządzania budynkami BAS/BMS są zaawansowanymi rozwiązaniami technicznymi, których celem jest efektywne sterowanie instalacjami znajdującymi się w obiekcie takimi jak: instalacje elektryczne, wentylacyjne, grzewcze czy chłodnicze i dostosowanie ich pracy do zmieniających się warunków otoczenia. Głównym zadaniem systemu jest minimalizacja kosztów eksploatacji budynku, przy jednoczesnym zwiększeniu jego funkcjonalności i bezpieczeństwa oraz zapewnieniu optymalnego komfortu jego użytkownikom. Systemy BAS/BMS na bieżąco gromadzą, archiwizują i przetwarzają dane związane ze stanem konkretnych instalacji, a także sterują nimi w sposób Zdalny nadzór nad inteligentnym budynkiem 187 automatyczny lub półautomatyczny. Dzięki ciągłemu monitoringowi stanu urządzeń krytycznych, tj. rozdzielnic sterujących oświetleniem, central wentylacyjnych, klimatyzatorów, kurtyn powietrznych, itp. oraz otoczenia, osoby odpowiedzialne za stan danego obiektu handlowego lub sieci sklepów są na bieżąco informowane o ewentualnych pojawiających się w nich zdarzeniach czy anomaliach, np.: wzroście zużycia energii elektrycznej, przekroczeniu mocy zamówionej (15-minut), nagłym spadku temperatury w hali handlowej, awarii klimatyzatora czy sytuacji alarmowej wynikającej z próby kradzieży. W zależności od potrzeby, informacje te są dostępne w lokalnym stanowisku nadzoru lub mogą być przesyłane osobie odpowiedzialnej za zarządzanie stanem technicznym budynku np.: drogą e-mailową lub SMS. Dzięki temu możliwa jest natychmiastowa reakcja na zdarzenia wymagające interwencji. Systemy BAS/BMS umożliwiają integrację systemów bezpieczeństwa, zwiększając ich efektywność, dostęp do informacji o zdarzeniach alarmowych oraz ułatwiając automatyczne reagowanie. W jednym obiekcie, lub też w całej sieci obiektów, można zintegrować takie systemy jak: telewizja przemysłowa (CCTV), systemy antykradzieżowe (EAS), kontrola dostępu, instalacje gaszeniowe, a także urządzenia wykonawcze, tj. agregaty chłodnicze, urządzenia grzewcze i energetyczne. Umożliwia to pełną obsługę wielu podsystemów z jednego miejsca i śledzenie poprawności ich pracy. Jedną z najważniejszych funkcji systemów BAS/BMS jest optymalizacja wykorzystania energii elektrycznej zużywanej m.in. na oświetlenie i pracę urządzeń takich jak klimatyzatory czy wentylatory i możliwość uzyskania dużych oszczędności w tym obszarze. Uzyskuje się to przede wszystkim dzięki pełnej, prowadzonej w wielu punktach obiektu, kontroli zużycia mediów i możliwości zintegrowanego sterowania podsystemami. Przedstawione stanowisko pozwala na badanie wpływu urządzeń systemu KNX/EIB, zrównoważone zarządzanie energią w budynkach oraz opracowywanie nowych rozwiązań z zakresu automatyki budynkowej. Jacek Majcher jest uczestnikiem projektu "Kwalifikacje dla rynku pracy - Politechnika Lubelska przyjazna dla pracodawcy" współfinansowanego przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. LITERATURA [1] Horyński M., Majcher J.: Możliwość wizualizacji stanu instalacji w inteligentnych budynkach. Napędy i Sterowanie, nr 12 (140), s. 90 – 92, 2010. [2] Majcher J., Horyński M.: Use of building management elements of the EIB system in safety system. TEKA Komisji Motoryzacji i Energetyki Rolnictwa. Volume X. Lublin, s. 256-264, 2010. 188 Marek Horyński, Jacek Majcher [3] Markiewicz H.: Instalacje elektryczne, Wydanie 8 zmienione, WNT, Warszawa, 2012. [4] [5] [6] [7] Mikulik J.: Europejska magistrala instalacyjna, COSiW SEP, Warszawa, 2008. Materiały firmowe ABB, 2013. Materiały firmowe Busch-Jaeger, 2013. Niezabitowska E.: Budynek inteligentny. Tom 1. Potrzeby użytkownika a standard budynku inteligentnego. Wydawnictwo Politechniki Śląskiej, Gliwice 2005. [8] Nowak M., Szymczak A.: Wykorzystanie technologii mobilnych do sterowania instalacjami w inteligentnym budynku. Napędy i Sterowanie, nr 12, s.82-86, 2011. [9] Sroczan E., Nowoczesne wyposażenie techniczne domu jednorodzinnego. Instalacje elektryczne. PWRiL Poznań, 2004. REMOTE SUPERVISION OF INTELLIGENT BUILDING In modern buildings most installations are inter-connected. This gives the ability to view the status of devices as well as to change their settings. In EIB system, this can be accomplished in many ways. One simple way is to use binary inputs and outputs. These modules allow you to monitor the operation of the devices but it is not possible to complete their inspection. Other devices by which we can control the respective units are sensors such as Triton or Prion. Today, more and more frequently touch panels and home servers can be met in intelligent buildings which enable remote control devices. With the help of the Internet and properly configured application, the user can view the status of individual devices and can also adjust the individual parameters such as room temperature or switch on the lighting in the building. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Marek PALUSZCZAK* Alicja TWARDOSZ** Grzegorz TWARDOSZ*** ROZWÓJ SYSTEMÓW POMIAROWYCH W INTELIGENTNYCH SIECIACH ELEKTROENERGETYCZNYCH W pracy przedstawiono stan rozwoju systemów pomiarowych w inteligentnych sieciach energetycznych. Przedstawiono wpływ uwarunkowań formalno-prawnych na rozwój AMI. Przeprowadzono analizę porównawczą Polski z pozostałymi krajami należącymi do Unii Europejskiej. Wskazano na możliwość wykorzystania linii niskiego i średniego napięcia do transmisji danych. SŁOWA KLUCZOWE: inteligentna sieć energetyczna, systemy pomiarowe, transmisja danych, media transmisyjne 1. WSTĘP Wdrożenie zaawansowanych technologicznie systemów pomiarowych, określanych jako AMI (ang. Advanced Metering Infrastructure) jest korzystne z kilku przyczyn dla Operatora Sieci Dystrybucyjnej (OSD). Korzyści dzieli się na dwie grupy, tj. bezpośrednie i pośrednie. Do korzyści bezpośrednich zalicza się obniżenie strat handlowych i technicznych. Do strat handlowych zalicza się między innymi straty spowodowane przez nieuprawniony pobór energii elektrycznej. Obecnie tego rodzaju straty szacuje się na około 9%. Ważnym ogniwem systemu AMI jest licznik energii elektrycznej. Musi on zapewniać dwukierunkową komunikację z Operatorem Pomiarów, a z drugiej strony także z infrastrukturą sieci np. domowej, w ramach inteligentnej sieci elektroenergetycznej, nazywanej Smart Grid. W Smart Grid dąży się do osiągnięcia poziomu samodiagnozowania i samooptymalizacji procesów przesyłu, dystrybucji i rozdziału energii elektrycznej. Transmisja danych, niezależnie od hierarchi systemu, jest realizowana przez media. Media transmisyjne dzieli się na przewodowe i bezprzewodowe. __________________________________________ * Energia Operator, Techniczna Obsługa Odbiorców w Koszalinie. ** WEGA, Poznań. *** Politechnika Poznańska. 190 Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz 2. ROZWÓJ AMI W POLSCE Stan wdrożenia systemów AMI w krajach europejskich ocenia się na podstawie różnych kryteriów. Jednym z często stosowanych jest podział państw należących do Unii Europejskiej na grupy UE15 i UE13. Do grupy UE15 zalicza się kraje, które zostały członkami UE przed 1 maja 2004. Podział terytorialny, w którym Polska jest zaliczana do krajów Europy centralnej i południowo-wschodniej, stosuje m.in. w swoich opracowaniach Ernst&Young [1]. Możliwości wdrożenia AMI oceniano w [1], według siedmiu kryteriów, z określoną wagą (tabela 1). Każdemu z kryteriów przypisano skalę ważności. Tabela 1. Kryteria wdrażania AMI [opr. własne] Kryterium 1. Wielkości rynku 2. Średnie zużycie energii 3. Średnie opłaty za zużycie 4. Redukcja strat sieciowych 5. Jakość dostaw energii 6. Planowany udział OZE w produkcji energii w 2030 r. 7. Złożoność projektu, liczba OSD Waga w [pkt] 2 2 5 3 4 5 Polska średnia ważona 26 12 25 30 48 20 Miejsce w rankingu 2 8 10 5 2 11 1 10 11 W rankingu uczestniczyły następujące kraje: Grecja, Rumunia, Cypr, Słowenia, Węgry, Estonia, Turcja, Polska, Bułgaria, Malta, Łotwa, Czechy, Słowacja i Litwa. Łączna liczba punktów, w przypadku Polski wyniosła 171 pkt, co stanowi około 55,5%. Polska w tym zestawieniu zajęła miejsce 12. Pierwsze miejsce przypadło Grecji, z liczbą zdobytych punktów 222 (72,2%). Ostatnie miejsce zajęła Litwa z liczbą punktów 132 (43,1%). Jednym z głównych czynników mających wpływ na rozwój zaawansowanych technologicznie systemów pomiarowych jest wielkość i struktura rynku energii. Strukturę rynku określa liczba i rodzaj odbiorców energii. Polska jest drugim, co do wielkości, rynkiem. Obecnie liczbę odbiorców energii elektrycznej określa się jako 16,5 mln. Odbiorcy indywidualni stanowią około 86%, MSP, a przemysł 14%. MSP oznacza małe i średnie przedsiębiorstwa lub SME (ang. Small and Medium Enterprises). Według różnych szacunków odbiorcy indywidualni zużywają 25-30% energii elektrycznej. W tabeli 2 przedstawiono działające w Polsce OSD, ich udział w rynku energii elektrycznej oraz zaangażowanie w wdrażanie AMI. Z analizy wyników przedstawionych w tabeli 2, wyraźnie widać wiodącą rolę koncernu ENERGA w wdrożeniu AMI i SMART GRID w Polsce. Do końca 2014 roku Grupa Kapitałowa ENERGA S.A. planuje, że około 22,8% odbiorców energii Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych 191 elektrycznej będzie miało zainstalowane inteligentne liczniki, tzw. SM (ang. Smart Meter). Drugie miejsce zajmuje TAURON (5,7%). W jakości dostaw energii elektrycznej, Polska zajmuje 7 miejsce za Czechami, Cyprem, Słowacją, Słowenią, Estonią i Litwą [1]. Tabela 2. Wdrażanie AMI przez OSD [opr. własne] Lp. OSD 1 2 3 4 5 PGE ENERGA RWE Stoen ENEA TAURON Liczba odbiorców [mln] ~5,1 ~3,5 ~0,8 ~20 ~5,3 Wdrożenie AMI 15 tys. do końca 2014r. 800 tys. do końca 2014r. 100 tys. w trakcie instalacji projekty pilotażowe 350 tys. do końca 2014r. Liczbę przerw w dostawach energii rocznie na jednego odbiorcę określa się jako SAIFI (ang. System Average Interruption Frequency). Czas braku dostępu odbiorcy do sieci elektroenergetycznej określa współczynnik SAID (ang. System Average Interruption Duration Index). Wartość współczynnika SAIFI pozwala na określenie poziomu niezawodności elementów sieci elektroenergetycznej. Wartość SAIDI określa sprawność działania właściwych służb w usuwaniu przerw i awarii systemu AMI. Dla Polski współczynnik SAIFI osiąga wartość ~3,7, a współczynnik SAIDI ~315 min. Na rysunku 1 przedstawiono schemat Smart Grid. Organizacja systemu różni się od wcześniej omawianych [2] wprowadzeniem dwóch nowych ogniw tj. inteligentnego zakładu SF (ang. Smart Factory) i inteligentnego miasta SC (ang. Smart City). Miasta zajmują zaledwie 2% powierzchni Ziemi, ale są miejscem zamieszkania prawie 50% ludzi na świecie. Miasta są źródłem 80% całkowitej emisji CO2 i 75% całkowitego zużycia energii elektrycznej. Koncepcja rozwoju SC dotyczy nie tylko zwiększenia efektywności energetycznej, ale jest ściśle związana z ogólnym kierunkiem zrównoważonego rozwoju. Pierwszym etapem wdrażania systemów AMI jest montaż SM i związany z tym wybór technologii komunikacji pomiędzy odbiorcą końcowym a Operatorem Informacji Pomiarowych (OIP). W raporcie [3] przedstawiono obecny stan rozwoju AMI w krajach należących do Unii Europejskiej i Norwegii. Kraje zostały podzielone na pięć grup, w zależności od stopnia zaawansowania wdrożenia AMI. Zaliczenie do określonej grupy jest związane bezpośrednio z obowiązującą w danym kraju podstawą formalno-prawną wdrożenia inteligentnego opomiarowania w sektorze elektroenergetycznym. Na rysunku 2 przedstawiono kwadrat Gartnera ukazujący rozwój AMI w EU27 i Norwegii. 192 Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz Rys. 1. Schemat Smart Grid [opr. własne] . Jednoznaczna strategia rozwoju AMI . . . . . . . . . . .. .... ... .. ..... . Dynamiczny rozwój AMI Prawidłowy rozwój AMI Włochy Finlandia Hiszpania Malta Holandia Portugalia Francja Norwegia W.Brytania Dania Niemcy Czechy Ambiwalentne działanie w zakresie AMI Estonia Grecja Łotwa Austria Belgia Rumunia Litwa Słowacja Bułgaria Słowenia Luksemburg Węgry Cypr Brak strategii rozwoju AMI Irlandia Szwecja Polska Brak zdecydowanych działań w rozwoju AMI Brak uregulowań prawnych Rys. 2. Rozwój AMI w EU27 i Norwegii [3] Uregulowania prawne jednoznaczne Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych 193 Stan formalno prawny umożliwiający wdrożenie AMI w Polsce jest porównywalny do Austrii, Portugali i Estonii. Pod tym względem wyprzedzamy m.in. Czechy, Niemcy i Danię. Pod względem implementacji liczników inteligentnych Polska jest na poziomie Belgi, Grecji, Rumunii i Litwy. W raporcie [3] Polska została zaliczona do grupy 3, czyli do krajów, które cechuje brak jasno określonej strategii rozwoju AMI, przy ponad średnim poziomie stanu formalnoprawnego. W raporcie [3] wskazuje się również na wiodącą rolę Grupy Kapitałowej ENERGA w wprowadzaniu AMI w Polsce. Do najważniejszych aktów prawnych i innych dokumentów stanowiących podstawę formalno-prawną wdrożenia inteligentnego opomiarowania zalicza się: dyrektywę 2006/32/WE Parlamentu Europejskiego i Rady z dnia 5 kwietnia 2006 r. w sprawie efektywności końcowego wykorzystania energii i usług energetycznych oraz uchylająca dyrektywę Rady 93/76/EWG, dyrektywę Parlamentu Europejskiego i Rady 2009/72/WE z dnia 13 lipca 2009 r. dotycząca wspólnych zasad rynku wewnętrznego energii elektrycznej i uchylająca dyrektywę 2003/54/WE, dyrektywę Parlamentu Europejskiego i Rady 2012/27/UE z dnia 25 października 2012 r. w sprawie efektywności energetycznej, zmiany dyrektyw 2009/125/WE i 2010/30/UE oraz uchylenia dyrektyw 2004/8/WE i 2006/32/WE, komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 12 kwietnia 2011 roku pt. „Inteligentne sieci energetyczne: od innowacji do wdrożenia”, skargę Komisji Europejskiej z dnia 20.12.2012 r. wniesiona do Trybunału Sprawiedliwości w Luksemburgu przeciwko Rzeczpospolitej Polskiej zarzucająca niewdrożenie szeregu postanowień dyrektywy 2009/72/WE, dokument pt. „Polityka Energetyczna Polski do 2030 roku”, poselski projekt ustawy o zmianie ustawy - Prawo energetyczne (druk nr 946) z dnia 5 marca 2013 r. Omówienie w/w aktów prawnych i dokumentów zawierają m.in. prace [3-5]. 3. MEDIA TRANSMISYJNE W INTELIGENTNYCH SIECIACH ELEKTROENERGETYCZNYCH Transmisja danych niezależnie od hierarchii systemu jest realizowana przez media. Media dzieli się na przewodowe i bezprzewodowe. W Polsce dwukierunkowy przesył danych pomiędzy dostawcą i odbiorcą przewiduje się realizować drogą przewodową. Do tego celu mają być wykorzystane linie niskiego i średniego napięcia. Tę metodę transmisji danych nazywa się PLC (ang. Power 194 Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz Line Communication). Na rysunku 3 przedstawiono różne drogi komunikacji stosowanych w Smart Grid. Na rysunku 3 przedstawiono jedynie najczęściej stosowane technologie transmisji danych. W Smart Grid w Finlandii i Wielkiej Brytanii przeważają technologie bezprzewodowe. We Francji, Niemczech, Szwecji, Holandii i Hiszpanii stosuje się w AMI obie metody transmisji. Odbiorca końcowy jest użytkownikiem infrastruktury technicznej domowej sieci HAN (ang. Home Area Network) [6, 7]. Zarządzanie urządzeniami w ramach Smart Grid wymaga od SM interoperacyjności czyli współdziałania m.in. z systemami komunikacyjnymi stosowanymi w HAN. Do często stosowanych technologii w HAN należy zaliczyć: ZigBee, WiMax, M-Bus, Ethernet. PLC jest technologią, którą również stosuje się do zarządzania infrastrukturą techniczną domowej sieci. Często stosowanym standardem w HAN jest Home Plug. Rys. 3. Media transmisyjne w Smart Grid [opr. własne] Wybór standardu komunikacji w HAN zależy przede wszystkim od odbiorcy. W najprostszych przypadkach wykorzystuje się transmisję FSK, S-FSK czy BPSK. Najnowocześniejsze urządzenia wykorzystują standardy PRiME czy MAXIM. Istniejące linie niskiego i średniego napięcia są uznane przez Operatorów Sieci Dystrybucyjnych za główne medium transmisyjne. 4. PODSUMOWANIE I WNIOSKI Wdrożenie inteligentnego opomiarowania obejmującego instalację liczników, zgodnie z dyrektywami UE, musi być zakończone do końca 2020 roku. W Polsce zostanie zainstalowanych około 13 mln liczników. Przyjmuje się, że wdrożenie systemów teleinformatycznych umożliwiających zarządzanie danymi na poziomie Operatora Informacji Pomiarowych będzie trwać od 2 do 3 lat. Dane pomiarowe będą gromadzone w Centralnym Zbiorze Informacji Pomiarowych. Przyjmuje się Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych 195 również, że tylko połowa liczników zamontowanych w danym roku osiągnie pełną funkcjonalność. Przy tym, przez pełną funkcjonalność rozumie się osiągnięcie dwukierunkowej transmisji danych w standardzie określonym przez OIP. Na rysunku 4 przedstawiono graficznie wyniki analizy wdrożenia wariantu bazowego inteligentnego opomiarowania [4, 5]. W 2020 roku osiągnięto poziom montażu 80% liczników inteligentnych, przy pełnej funkcjonalności licznika 62,5%. Przewiduje się, że saldo w latach 2013-2020 wyniesie 43 mln PLN, a w latach 2013-2026 odpowiednio 4,6 mld PLN. W wariancie optymalnym prognozy wynoszą 790 mln PLN i 5,6 mld PLN. Rys. 4. Montaż SM w Polsce, poziom funkcjonalności w latach 2014-2020 [opr. własne] W liniach niskiego napięcia wykorzystuje się najczęściej przesyłanie metodą PLC. W tak zwanym wąskopasmowym PLC wykorzystuje się częstotliwości od 1,6 kHz – 148,5 kHz. W metodzie transmisji danych BPL, tzw. szerokopasmowy PLC, wykorzystuje się częstotliwości od 4 do 20 MHz. Przesyłanie danych metodą BPL (ang. Bradband Powerline) ma w Polsce zarówno zwolenników jak i przeciwników. Wykorzystanie częstotliwości w wąskopasmowym PLC nie wymaga uzyskania licencji, a więc opłat. Jest to pasmo o tzw. dostępie swobodnym ISM (ang. Industrial Scientific Medical). Podczas transmisji danych muszą być spełnione wymagania określone w regulacjach prawnych. Oddzielnym zagadnieniem mającym wpływ na rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych jest ochrona danych przed nieuprawnionym dostępem oraz możliwością zmiany danych. 196 Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz LITERATURA [1] Ernst&Young: Nowoczesna infrastruktura pomiarowa w krajach Europy Centralnej i Południowo-wschodniej, aktualny stan wdrożeniowy, plany i perspektywy. 2012. [2] Kołaciński R., Paluszczak M., Twardosz G.: Reactive power management in wind power plants with induction machines in Smart Grid. Computer Applications in Electrical Engineering, Poznan University of Technology, Poznań, 2012, s. 181-188, [3] Hierzinger R., and others: European Smart Metering Landscape Report 2012 – update may 2013. AEA, Vienna, October 2012. [4] Minister Gospodarki: Analiza skutków społeczno-gospodarczych wdrożenia inteligentnego opomiarowania. Warszawa, kwiecień 2013r. www.mg.gov.pl. [dostęp: 2014.02.25]. [5] Minister Gospodarki: Aneks do analizy skutków społeczno-gospodarczych wdrożenia inteligentnego opomiarowania. Warszawa, kwiecień 2013r. www.mg.gov.pl. [dostęp: 2014.02.25]. [6] Masiąg R.: Wdrożenie systemu AMI w Energia-Operator S.A. Materiały konferencji: Wdrażanie Smart Grid – ramy standardów, ryzyka, konflikty. Warszawa, 1011.12.2013, s. 1-21. [7] Pisarczyk P.: Komunikacja w Smart Grid – konflikt protokołów/procesorów. Materiały konferencji: Wdrażanie Smart Grid – ramy standardów, ryzyka, konflikty. Warszawa, 10-11.12.2013, s. 1-28. THE EVOLUTION OF MEASUREMENT SYSTEMS IN SMART GRID In this paper are presented state of technology metering systems in Smart Grid. Are discussed influence of formal-legal factors on development AMI. Are made comparative analysis between Poland and the EU-26. Are pointed out possibility practical application of LV power line to transmission date. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Michał FILIPIAK* ANALIZA WYBRANYCH UKŁADÓW UMOŻLIWIAJĄCYCH BEZPRZEWODOWY PRZESYŁ ENERGII ELEKTRYCZNEJ W artykule przedstawiono podstawowe układy umożliwiające przesyłanie energii elektrycznej bezprzewodowo z wykorzystaniem zjawiska indukcji elektromagnetycznej, Na wstępie określono możliwości doboru cewek do układu. A następnie przeprowadzono symulacje obwodów rezonansowych z kompensacją szeregową i równoległą. Przeanalizowano sprawności poszczególnych układów oraz przedstawiono zalety stosowania układów rezonansowych. SŁOWA KLUCZOWE: układy rezonansowe, kompensacja, bezprzewodowe zasilanie 1. WSTĘP Zmiany w produkcji energii elektrycznej oraz jej przesyłu zostały wprowadzone na przełomie XIX i XX wieku przez Nikola Teslę. Dzięki niemu możliwe stało się przesyłanie energii na duże odległości. W dobie gdzie infrastrukturę energetyczną dopiero zaczynano rozbudowywać powstał pomysł, aby przesłać energię bez użycia kabla. Niestety w tamtych czasach ta technologia nie doczekała się rozwoju gdyż większy zysk upatrywano w energetyce przewodowej. Prawie wiek później bezprzewodowe zasilanie wraca do rozważań naukowych. Już dziś popularne stają się urządzenia takie jak ładowarki do urządzeń mobilnych, elektryczne szczoteczki do zębów czy myszki bezprzewodowe. Technologia bezprzewodowego przesyłu energii elektrycznej opiera się na zasadzie indukcji elektromagnetycznej. Niestety sprawność takiego rozwiązania jest niewielka. Sprzężenie między cewką pierwotną i wtórną transformatora bez rdzenia jest również bardzo małe, co przekłada się na duże straty. W artykule rozważono kilka układów poprawiających sprawność przesyłu energii elektrycznej bezprzewodowo. 2. TRANSFORMATOR POWIETRZNY Transformatory powietrzne, możemy podzielić na transformatory rdzeniowe i bezrdzeniowe. Do przesyłu energii elektrycznej bezprzewodowo za pomocą indukcji elektromagnetycznej mają zastosowanie transformatory bezrdzeniowe. Taki transformator charakteryzuje się dużą indukcyjnością rozproszenia oraz __________________________________________ * Politechnika Poznańska. 198 Michał Filipiak dużymi stratami. W przypadku przesyłu energii elektrycznej cechy te nie są korzystne gdyż przy większych odległościach rzędu kilku centymetrów rozproszenie jest na tyle wysokie, że sprawność urządzenia spada do kilku procent. W celu uzyskania jak największej sprawności urządzenia część nadajnika wprowadza się w stan rezonansu. W układzie rezonansowym wartość pojemności można dobra z dużego przedziału produkowanych kondensatorów różnego typu. Natomiast w przypadku cewki, aby otrzymać zadaną indukcyjność, jest to znacznie bardziej skomplikowane, z uwagi na dobór wielkości, kształtu i ilości zwojów. W tym przypadku bardzo pomocne są wzory określające parametry kształtu i grubości użytego drutu. W celu określenia dokładności podanych wzorów przez firmę MICROCHIP przebadano kilka cewek powietrznych różnego typu. W układach zasilania bezprzewodowego najczęściej spotyka się cewki spiralne oraz cewki wielowarstwowe okrągłe lub prostokątne. Do wykonania cewek wykorzystano następujące zależności [5]: Cewka spiralna: Rys. 1. cewka spiralna jednowarstwowa gdzie: a (ri+ro)/2 [cm], b ro+ri [cm], N liczba zwojów, ri promień wewnętrzny, ro promień zewnętrzny [5] L 0.3937(aN ) 2 [ H ] 8a 11b Cewka okrągła wielowarstwowa: Rys. 2. Cewka okrągła wielowarstwowa, gdzie: a- średnia długość promienia [cm], N liczba zwojów, b grubość uzwojenia [cm], h wysokość uzwojenia [cm] [5] L 0.31(aN ) 2 [ H ] 6a 9 h 10b Analiza wybranych układów umożliwiających bezprzewodowy przesył energii … 199 Zostały one wykonane z drutu emaliowanego o przekroju 0,6 mm. Wartości obliczone oraz pomierzone zostały zamieszczone w tabeli poniżej. Pomiary wykonano miernikiem Motech MT4080A. Cewka spiralna Wymiary cewki a[cm] b[cm] N ro 5,46 ri 1,08 18 6 4,92 Wartość obliczona Wartość zmierzona D drutu [cm] L[uH] L[uH] 0,06 68,44 77,98 Cewka wielowarstwowa Wymiary cewki Wartość obliczona Wartość zmierzona a[cm] b[cm] N h[cm] D drutu [cm] L[uH] L[uH] 4,12 70,58 72,31 0,24 20 0,3 0,06 Zgodnie z praktyką przy nawijaniu cewek dowinięto 10% zwojów więcej gdyż w przypadku ich braku może okazać się ze indukcyjność jest zbyt mała w stosunku do obliczonej. Jeśli natomiast będzie za duża to kilka zwojów zawsze można odwinąć. Zgodnie z obliczeniami indukcyjności były bardzo zbliżone do siebie. Wartości zmierzone były nieco wyższe, co stwarza możliwość dokładnego dopasowania indukcyjności do przyszłego układu. Pozostaje jeszcze określenie pojemności cewki, która będzie miała również wpływ na dostrojenie układu. Wykonane cewki mają posłużyć w kolejnych badaniach przy budowie prototypowego urządzenia. W tym celu przeprowadzono kilka symulacji. 3. SYMULACJE UKŁADÓW PRZESYŁU ENERGII ELEKTRYCZNEJ W celu sprawdzenie wad i zalet możliwych do zastosowania układów do bezprzewodowego przesyłu energii elektrycznej zasymulowano kilka różnych obwodów elektrycznych. Sprawdzono różnice w stosowaniu obwodu bez i w rezonansie z uwzględnieniem kompensacji oraz porównano moce uzyskane na wyjściu z nadajnika. Powyższe parametry zostały przetestowane w programie PSpice 9.1 w wersji studenckiej, który charakteryzował się ograniczeniami w zakresie stosowanej ilości bibliotek i elementów elektronicznych. Dobór parametrów układu został tak dobrany, aby każdy z układów oddawał największą moc. 200 Michał Filipiak 3.1. Układ RL Na rysunku 3 przedstawiono schemat transformatora powietrznego obciążony rezystancją R2 = 100 Ω i zasilany napięcie UAC = 10 V, indukcyjność uzwojenia pierwotnego oraz wtórnego wynosiła L = 62 uH. Sprzężenie między cewkami przyjęto na poziomie k = 0,2 ze względu na dużą indukcyjność rozproszenia. Rys. 3. Schemat obwodu transformatora powietrznego Wobec bardzo małego sprzężenia cewek powietrznych w układzie przesyłu energii elektrycznej sprawdzono, w jakich zakresach częstotliwości można uzyskać największą moc na odbiorniku R2. Zależność tę przedstawia charakterystyka na rysunku 4. Rys. 4. Wpływ częstotliwości na moc wydzielaną na odbiorniku Z przedstawionego wykresu wynika, że maksymalna moc dla danego układu na odbiorniku wynosi około 0,036 W. Natomiast moc nadajnika wynosiła 7 W. Oznacza to, że większość energii uległa rozproszenia a sprawność takiego układu wynosi 0,51%. Analiza wybranych układów umożliwiających bezprzewodowy przesył energii … 201 3.2. Układ z zastosowanym rezonansem szeregowy od strony zasilającej Kolejny schemat przedstawia identyczny obwód jak w punkcie 3.1 lecz z dołączonym kondensatorem wprowadzającym rezonans szeregowy w obwodzie pierwotnym. Częstotliwość pracy przyjęto z norm ISO 18000 stosowaną dla urządzeń opartych na technologii RFID (ang. Radio-frequency identification). Wartość kondensatora dla częstotliwości rezonansowej 145,7 kHz dobrano ze wzoru na pulsację rezonansową, który wynosi C1 = 20 nF. W dalszej części przeanalizowano również obwody z kompensacją szeregowo-szeregową oraz szeregowo-równoległą. Po podłączeniu układu zauważalne jest zwiększenie mocy pobieranej przez odbiornik oraz wzrost mocy na odbiorniku, co zostało pokazane na rysunku 8. Sprawność układu dla rezystancji 100 Ω i sprzężenia 0,2 wynosiła odpowiednio dla: obwodu bez kompensacji 16%, obwodu z kompensacja szeregową 24,5%, obwodu z kompensacją równoległą 44%. Rys. 5. Schemat obwodu transformatora powietrznego z obwodem rezonansowym bez kompensacji Rys. 6. Schemat obwodu transformatora powietrznego z obwodem rezonansowym z kompensacją szeregową 202 Michał Filipiak Rys. 7. Schemat obwodu transformatora powietrznego z obwodem rezonansowym z kompensacją równoległą Rys. 8. Wpływ częstotliwości na moc wydzielana na odbiorniku dla układu w rezonansie napięciowym Dla częstotliwości rezonansowej moc na odbiorniku wzrosła. Chociaż układ pobierał więcej energii to jego sprawność była kilkukrotnie większa od układu bez rezonansu. Sprawdzono również wariant dla układu pobierającego identyczną moc jak w pkt. 3.1 w celu porównania mocy wyjściowych na odbiorniku. W drugim przypadku również sprawność przesyłu energii była znacznie większa niż w punkcie 3.1. Dobroć układu wynosi Q = 11,35. Wykonano symulacje dla różnego obciążenia odbiornika w zakresie do 1 kΩ, którą przedstawiono na rysunku poniżej. Powyższy wykres został wykonany dla częstotliwości 143,8 kHz i sprzężeniu cewek k = 0,2. Zmiana rezystancji obciążenia jak również zmiana sprzężenia Analiza wybranych układów umożliwiających bezprzewodowy przesył energii … 203 między cewkami wyprowadza układ z częstotliwości rezonansowych a tym samym zmniejsza się moc wydzielana na odbiorniku. Taka sytuacja może wystąpić szczególnie w urządzeniach mobilnych ładowanych z podstawek indukcyjnych. Niedokładne ułożenie odbiornika na podstawce w celu jego naładowania powoduje mniejszy przesył energii a tym samym niedoładowanie urządzenia lub większe straty energii. W tym celu należy zapewnić odpowiednie sterowanie częstotliwością albo wykorzystać pozycjonowanie mechaniczne. Rys. 9. Wpływ rezystancji obciążenia na moc wydzielaną na odbiorniku 4. PODSUMOWANIE Dobór elementów w układach zasilania indukcyjnego przy stałej częstotliwości może powodować wiele problemów konstrukcyjnych. Bardzo często zdarza się, że zakupione podzespoły nie posiadają zadanych parametrów, gdyż tolerancja ich wykonania jest bardzo duża. Podobnie w przypadku doboru cewki parametry związane zarówno z kształtem jak i dokładnością nawinięcia powoduje zmiany indukcyjności oraz pojemności między zwojami. W układach wykorzystujących indukcję elektromagnetyczną dochodzi również sprzężenie cewek powietrznych, który wpływa na moc w części nadajnika. Z powyższych zależności wynika, że takie układy powinny być sterowane tak, aby częstotliwość była ustalana dla danego układu indywidualnie w celu uzyskania jak najmniejszych strat w układzie. 5. WNIOSKI Układy rezonansowe są najbardziej efektywnymi układami (bezprzewodowego) przesyłania energii elektrycznej. Odpowiednio dobrane parametry układu RLC pozwolą działać ze znacznie większą sprawnością niż układy RL. Największą sprawność uzyskał układ z kompensacją szeregowo-równoległą. Natomiast w zakresie 204 Michał Filipiak obciążenia do około 100Ω najbardziej wydajny był układ z kompensacją szeregowoszeregową. Poprzez wprowadzenie układu nadajnika w stan rezonansu można uzyskać kilkudziesięciokrotne zwiększenie sprawności przesyłanej mocy. Przy bardzo niskim sprzężeniu cewek i małej dobroci układu uzyskano dostateczną moc wyjściową do zasilania urządzeń codziennego użytku. Niestety, istnieje wiele niebezpieczeństw przy stosowaniu układów rezonansowych, do których zaliczamy między innymi możliwość wystąpienia przepięć w obwodzie. Skutkiem takiego stanu jest uszkodzenie sprzętu elektronicznego. Brak odpowiednio zaprojektowanego układu może wywołać uszkodzenia przy zmianie odległości miedzy cewkami. Zaletami układów RLC będzie również większy zasięg zasilania. Podstawą kolejnych badań nad układami bezprzewodowego zasilania wykorzystujące zjawisko rezonansu będzie analiza analityczna układu wraz z jego budową. LITERATURA [1] Bolkowski S.: Teoria Obwodów Elektrycznych, WNT, Warszawa 2003. [2] Moradewicz A., Miśkiewicz R.: Systemy bezstykowego zasilania komputerów przenośnych. Prace Instytutu Elektrotechniki, Zeszyt 236, 2008, str 51. [3] Kuen-Cheng Wang, Che-Wei Hsu Tung- Jung Chan Tsung-Shih Chien Tsair-Rong Chen Study of Applying Contactless Power Transmission System to Battery Charge PEDS2009, str. 257. [4] Du Guiping, Li Xiongtao, Sheng Songtao Modeling and Simulation of Contactless Power Transmission System by Inductance Coupling ISIEA 2009 str. 123. [5] MICROCHIP,: Antena circuit design for RFID aplications, datascheet. [6] Judek S., Karwowski K.: Analiza systemu przekazywania energii na drodze indukcyjnej przy dużej szczelinie powietrznej i wysokiej częstotliwości, WPK, Kraków 2007. ANALYSIS CHOSEN OF WIRELESS TECHNOLOGY TRANSFER THE ELECTRICITY This paper presents the basic systems which transmit electricity wirelessly using electromagnetic induction phenomenon, a preliminary set of selection possibilities of coils into the system. And then conducted simulations of resonant circuits with compensation for serial and parallel. Were analyzed the efficiency of the different systems and presents the advantages of using resonant circuits. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Krzysztof WANDACHOWICZ* OPTYMALIZACJA KSZTAŁTU ODBŁYŚNIKA Z WYKORZYSTANIEM RÓŻNYCH POSTACI FUNKCJI CELU W artykule przedstawiono wyniki badań dotyczących obliczania kształtu zwierciadlanego odbłyśnika, który zapewnia uzyskania jak największej wartości średniego natężenia oświetlenia oraz równomierności oświetlenia. Obliczenia optymalizacyjne przeprowadzono z zastosowaniem dwóch, różnych postaci funkcji celu. SŁOWA KLUCZOWE: obliczanie opraw oświetleniowych, optymalizacja 1. WSTĘP Algorytmy optymalizacji stosują iteracyjną procedurę wielokrotnej oceny funkcji celu. Poszukiwane jest ekstremum funkcji, która może przybierać wartości światłości lub natężenia oświetlenia albo różnicy pomiędzy aktualnie obliczaną wartością i wartością zakładaną. W trakcie procesu optymalizacji zmienia się kształt elementów optycznych oprawy. W dotychczas zrealizowanych badaniach przedstawiono metodę oraz przykłady obliczeń w różnych konfiguracjach kształtu i wymiarów odbłyśników jak i powierzchni świecących źródeł światła [1, 2]. Zrealizowano między innymi obliczenia dla odbłyśnika zbudowanego w ten sposób, że jego otwór górny jak i otwór dolny mają kształt kwadratu (rys. 1). Kształt czterech bocznych ścian jest tworzony przez krzywą profilową opisaną za pomocą wielomianu interpolacyjnego Hermite’a [3, 4]. W otworze górnym umieszczony jest model tzw. modułu LED. Moduł ten utworzono na podstawie danych technicznych modułu Fortimo LED DLM 2000. Element świecący modułu stanowi powierzchnia w kształcie koła o średnicy około 6 cm, którą pokryto luminoforem. Powierzchnia ta ma rozsył strumienia świetlnego prawie lambertowski. Strumień świetlny ma wartość 2000 lm. Powierzchniowe źródło światła o średnicy 6 cm ma wymiary zbliżone do wymiarów odbłyśnika, którego górny otwór ma szerokość 6 cm, dolny około 10 cm, a wysokość wynosi około 8 cm. Projektowany odbłyśnik umieszczony jest na wysokości trzech metrów nad środkiem kwadratowej powierzchni o szerokości trzech metrów i ma za zadanie zapewnić jak największą wartość natężenia oświetlenia (przy założonej równomierności). Sprawność oświetlenia definiowana jako stosunek strumienia __________________________________________ * Politechnika Poznańska. 206 Krzysztof Wandachowicz świetlnego, padającego na oświetlaną powierzchnię, do sumy strumieni świetlnych lamp w instalacji oświetleniowej może służyć do oceny właściwości zaprojektowanej oprawy. Biorąc pod uwagę obliczoną, średnią wartość natężenia oświetlenia (116,4 lx) oraz pole oświetlanej powierzchni (9 m2), uzyskujemy sprawność oświetlenia równą 52%. Nie jest to zbyt duża wartość. Jednak przy dużej powierzchni świecącej źródła światła, porównywalnej z wymiarami odbłyśnika nie ma możliwości aby w tym przypadku ograniczyć wypromieniowanie strumienia świetlnego wyłącznie do przyjętego do oświetlenia obszaru. Strumień świetlny będzie wysyłany również poza ten obszar. Zjawisko to potęguje fakt niedopasowania kształtu powierzchni świecącej źródła światła (koło) z kształtem otworu odbłyśnika (kwadrat). Dla zapewnienia odpowiedniej równomierności natężenia oświetlenia na oświetlanej, kwadratowej powierzchni, otwór wyjściowy powinien mieć również kształt kwadratu. Tworzona na powierzchni odbłyśnika figura jasnych punków, jeżeli ma wypełniać całą powierzchnię odbłyśnika spowoduje, że część strumienia musi zostać wysłana poza kąt wyznaczony przez kierunek obserwacji. Pomimo trudnego do zrealizowania zadania sprawność eksploatacyjna zaprojektowanej oprawy wynosi 85%. Rys. 1. Rysunek przedstawiający model odbłyśnika z dolnym i górnym otworem w kształcie kwadratu, uzyskana krzywa światłości (linia ciągła – płaszczyzna C0-C180, linia przerywana – płaszczyzna C45-C225) Przedstawione wyżej zadanie było trudne w realizacji ze względu na konieczność uzyskania skomplikowanego kształtu bryły fotometrycznej oraz niedopasowanie kształtu powierzchni świecącej źródła światła i dolnego otworu odbłyśnika. Uzyskana wartość sprawności oświetlenia może wydawać się niewielka. Nie można jej jednak porównać ze sprawnościami produkowanych aktualnie opraw oświetleniowych, które realizują podobne jak projektowana oprawa zadania gdyż nie znaleziono podobnych rozwiązań dostępnych na rynku. Prezentowane są przykłady opraw oświetleniowych z odbłyśnikami, których zadaniem jest oświetlenie powierzchni z zakładaną równomiernością. Jednak najczęściej są tam postawione prostsze wymagania, kiedy światłość w osi odbłyśnika jest równa światłości źródła światła, a odbłyśnik ma na celu zapewnienie odpowiedniej wartości światłości przy większych kątach. W prezentowanym przykładzie światłość w osi odbłyśnika pochodząca od powierzchni świecącej źródła światła zapewnia uzyskanie z odległości trzech metrów natężenia oświetlenia o wartości jedynie 70-ciu luksów. Jest to zbyt mało aby zrealizować Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu 207 zakładany cel, to znaczy wysoką wartość średniego natężenia oświetlenia (powyżej 100 lx) i równomierność na poziomie 0,7. Odbłyśnik musi brać udział w tworzeniu bryły fotometrycznej zarówno w kątach zbliżonych do zera (oś odbłyśnika) jak i kątach granicznych wyznaczanych przez krawędź oświetlanej powierzchni. 2. MODEL ODBŁYŚNIKA ZE ŹRÓDŁEM ŚWIATŁA O MAŁYCH ROZMIARACH W przykładzie opisanym w poprzednim punkcie zastosowano źródło światła o dużym rozmiarze w stosunku do rozmiaru odbłyśnika. Ponadto kształt źródła światła (koło) był niedopasowany do kształtu otworu wyjściowego odbłyśnika (kwadrat). Konsekwencją tych cech było uzyskanie stosunkowo niewielkiej wartości sprawności oświetlenia. Niniejszy przykład ma za zadanie wykazać, czy zastosowanie źródła światła o mniejszym rozmiarze spowoduje poprawę sprawności oświetlenia. Krzywa określająca profil odbłyśnika przechodzi przez punkty P, które tworzą tzw. węzły interpolacji (rys. 2). Pomiędzy węzłami interpolacji kształt profilu odbłyśnika interpoluje się za pomocą wielomianów Hermite’a trzeciego stopnia [3, 4]. Dx P1 z2 z3 z4 Dx x2 Dx x3 Dx x4 x5 Z ub P2 Pi źródło światła X Pp P3 P4 lb z5 P5 Pk dx ag Rys. 2. Profil odbłyśnika z węzłami interpolacji P1÷P5, linie ub i lb wyznaczają dopuszczalne granice położenia węzłów interpolacji; kąt graniczny g wypromieniowania strumienia Model odbłyśnika powstaje poprzez obrót krzywej profilowej wokół osi Z. Ustalono jako niezmienne położenie punktu początkowego P1. Pozostałe punkty zmieniają zarówno położenia w osi Z jak również w osi X. Działanie algorytmu optymalizacji może w tym przypadku prowadzić do zmiany wysokości i szerokości odbłyśnika. Ustalenie położenia węzłów interpolacji w osi X dokonywane jest za pomocą jednej zmiennej dx, która odpowiada za zmianę wartości współrzędnej X ostatniego punktu 208 Krzysztof Wandachowicz P5. Współrzędne pozostałych punktów obliczane są z uwzględnieniem jednakowego odstępu x w osi X pomiędzy kolejnymi punktami. Stworzono dwa modele odbłyśnika. W pierwszym zastosowano cztery punkty będące węzłami interpolacji, w drugim natomiast zwiększono ich liczbę do pięciu. Zastosowanie zwiększonej liczby węzłów interpolacji pozwoli na dokładniejszą kontrolę kształtu profilu odbłyśnika. Jest to szczególnie istotne, w przypadku źródła o niewielkich rozmiarach gdzie małe różnice w kształcie odbłyśnika mogą powodować stosunkowo duże zmiany w kształcie krzywej światłości. Algorytm optymalizacji operuje na pięciu zmiennych w pierwszym przypadku (z2, z3, z4, z5, dx) oraz na sześciu zmiennych w drugim przypadku (z2, z3, z4, z5, z6, dx) . W otworze górnym umieszczono model źródła światła, którego element świecący ma średnicę 6 mm (dziesięciokrotnie mniej niż w poprzednio opisanym przykładzie), a strumień świetlny ma wartość 2000 lumenów. Przyjęto, że powierzchnia źródła światła charakteryzuje się rozsyłem lambertowskim. Niezwykle istotne, szczególnie w przypadku źródeł o małych rozmiarach jest ustalenie początkowych wymiarów odbłyśnika, które będą poddawane korekcie przez algorytm optymalizacji w procesie obliczeń. Źle dobrane wstępne założenia mogą prowadzić do uzyskania rozwiązania bardzo odbiegającego od optymalnego. Linia tworząca kąt graniczny g wypromieniowania strumienia powinna przecinać się z krawędzią oświetlanej powierzchni (rys. 2). Tabela 1. Początkowe współrzędne punktów określających wymiary odbłyśnika Nazwa Punkt początkowy Pp Punkt końcowy Pk Współrzędne x = 0.01 m z = 0.00 m x = 0.05 m ± 0.02 m z = -0.10 m ÷ -0.80 m Przyjmując powyższe ustalenia wyznaczone zostały początkowe współrzędne punktów określających wymiary odbłyśnika (tab. 1). Oznaczenie punktu początkowego Pp odpowiada punktowi P1 z rysunku 2, a punktu końcowego Pk punktowi P5. Punkt początkowy Pp nie zmienia swojego położenia w trakcie działania algorytmu optymalizacji, podczas gdy punkt końcowy zmienia zarówno położenie w osi X jak i w osi Z. Dzięki temu działanie algorytmu prowadzi do zmiany wymiarów odbłyśnika. 3. OPTYMALIZACJA KSZTAŁTU ODBŁYŚNIKA Zmieniono siatkę punktów obliczeniowych. Poprzednio konstruowane założenia zmierzały do osiągnięcia jak największej wartości natężenia oświetlenia przy założonej równomierności na powierzchni w kształcie kwadratu. Stąd do Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu 209 takiego zadania wybrano odbłyśnik z kwadratowym otworem wyjściowym. Teraz obliczenia będą dotyczyły odbłyśnika z okrągłym otworem. Taki odbłyśnik nie nadaje się do równomiernego oświetlenia powierzchni kwadratowej. Jego zadaniem jest oświetlenie powierzchni w kształcie koła. Y i+3 i+2 i+1 i ri ri+1 ri+2 ri+3 X Rys. 3. Ilustracja rozmieszczenia punktów obliczeniowych wzdłuż promienia oświetlanej powierzchni Model odbłyśnika umieszczony jest na wysokości trzech metrów nad środkiem okrągłej powierzchni o średnicy trzech metrów. Piętnaści punktów obliczeniowych rozmieszczonych jest wzdłuż promienia oświetlanej powierzchni ze skokiem wynoszącym 0,1 metra (od 0,05 m do 1,45 m). Obliczenie średniej arytmetycznej z tak rozmieszczonych punktów nie jest równoznaczne z obliczeniem średniej wartości natężenia oświetlenia na powierzchni koła. Wartość średniego natężenia oświetlenia Eśr obliczana jest wtedy z zależności (1). Przyjmując odstępy pomiędzy punktami siatki wynoszące 0,1 metra, ułamek we wzorze (1) będący sumą stosunku kwadratów promieni siatki przybierze postać ciągu z wartościami od 1 do 29 zmieniającymi się ze skokiem równym 2. n E śr Ei i 1 ri ri1 2 r12 n ri ri1 2 r12 i 1 (1) gdzie: Ei - wartość natężenia oświetlenia w punkcie i, ri - promień wyznaczający granice siatki, i = 1, 2, …, n, r0 = 0 (rys. 3). W dotychczas wykonywanych badaniach stosowano funkcję celu z funkcją kary. Zastosowanie funkcji kary miało na celu odrzucanie rozwiązań nie spełniających przyjętego kryterium równomierności oświetlenia [1]. W opisywanym przykładzie wprowadzono funkcję celu w postaci ważonej sumy kwadratów różnic pomiędzy wartością obliczoną a wartością oczekiwaną (2). n 2 F ( X ) Wi H i H ci (2) i 1 gdzie: Hi - obliczona w wyniku działania algorytmu optymalizacji wartość określonego parametru (np. wartość natężenia oświetlenia), Hci - oczekiwana 210 Krzysztof Wandachowicz wartość określonego parametru (np. natężenia oświetlenia), Wi – waga określająca udział danego parametru w wartości funkcji celu. W tym, konkretnym przypadku nowa postać funkcji celu skonstruowana jest w następujący sposób: dla i=(1, 2, …, 15): Hi – wartość natężenia oświetlenia w punkcie i; Hci =300; Wi+1 = Wi +2, W1 =1, dla i=(16, 17, …, 20): Hi – wartość natężenia oświetlenia w punkcie i; Hci =0; Wi =100, dla i=21: Hi – wartość równomierności oświetlenia obliczona dla punktów i=(1, 2, …, 15); Hci =0,7; Wi =1000 dla Hi < Hci, Wi =0 dla Hi > Hci.. Pierwszych piętnaście punktów obliczeniowych rozmieszczonych jest ze skokiem 0,1 m w obrębie oświetlanej powierzchni. Kolejne punkty (od 16 do 20) usytuowane są na zewnątrz oświetlanej powierzchni (od 1,55 m do 1,95 m). Celem, do którego dąży algorytm optymalizacji jest uzyskanie takiego kształtu odbłyśnika, który zapewni: na oświetlanej powierzchni natężenie oświetlenia o wartości jak najbardziej zbliżonej do 300 luksów, poza oświetlaną powierzchnią natężenie oświetlenia o wartości jak najbardziej zbliżonej do 0 luksów, dodatkowo premiowane są rozwiązania zapewniające uzyskanie równomierności o wartości co najmniej 0,7. Obliczenia optymalizacyjne (poszukiwanie minimum funkcji celu) wykonano za pomocą algorytmu genetycznego, w którym zastosowano następujące rozwiązania [5, 6]: reprezentacja zmiennoprzecinkowa – pozwala na przybliżenie algorytmu do przestrzeni zadania, dwa punkty leżące blisko siebie w przestrzeni reprezentacji będą także leżały blisko siebie w przestrzeni zadania, skalowania funkcji celu metodą nadawania rang wyrównuje punktacje słabiej przystosowanych osobników przy jednoczesnym zachowaniu dużej różnorodności w populacji, selekcja elitarna przenosi do następnego pokolenia dwa najlepsze rozwiązania, krzyżowanie heurystyczne i mutacja z rozkładem Gaussa (wielkość mutacji zmniejsza się w każdym nowym pokoleniu), strategia zmiany różnorodności populacji [7]. W tabeli 2 przedstawiono zestawienie uzyskanych wyników dla modelu z czterema (4p) i pięcioma (5p) węzłami interpolacji. Najlepszy wynik uzyskano dla modelu odbłyśnika z pięcioma węzłami interpolacji kiedy funkcja celu miała postać ważonej sumy kwadratów. Uzyskana wartość średniego natężenia oświetlenia wynosi 251,3 lx, a pole oświetlanej powierzchni 7,1 m2 (pole koła o średnicy 3 m). Sprawność oświetlenia oprawy z obliczonym odbłyśnikiem o współczynniku odbicia = 0,9 równa się 89%. Jest to wartość Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu 211 znacząco wyższa od wartości sprawności odbłyśnika z otworem w kształcie kwadratu i źródłem światła o dużej powierzchni. Niniejszym potwierdzone zostały wcześniejsze przypuszczenia dotyczące wpływu dużej powierzchni źródła światła oraz niedopasowania kształtu otworu odbłyśnika do kształtu źródła światła na uzyskaną wartość sprawności oświetlenia. Sprawność oprawy wynosi 91 % co oznacza, że tylko 2 % strumienia wypromieniowana zostaje poza oświetlaną powierzchnię. Tabela 2. Zestawienie uzyskanych wyników Opis modelu Funkcja celu Eśr [lx] Równomierność oświetlenia Emin/Eśr 4p Z funkcją kary 246,9 0,69 4p Ważona suma kwadratów (2) 246,7 0.75 5p Z funkcją kary 247,1 0,70 5p Ważona suma kwadratów (2) 251,3 0,89 W tabeli 3 przedstawiono podsumowanie wyników dla najlepszego rozwiązania. Na rysunku 4 przedstawiono obliczony kształt profilu odbłyśnika. Algorytm optymalizacji doprowadził do uzyskania trójkrzywiznowego profilu, a krzywa profilowa posiada wyraźnie zaznaczone dwie części. Część górną odpowiedzialną za doświetlenie środkowej strefy oświetlanej powierzchni, oraz część dolną odpowiedzialną za doświetlenie stref leżących na skraju oświetlanej powierzchni. Rys. 4. Rysunek obliczonego profilu odbłyśnika, dyskretyzacja powierzchni odbłyśnika, widok z boku i widok z dołu Na rysunku 5 przedstawiono rozkład natężenia oświetlenia wzdłuż promienia oświetlanej powierzchni. Na rysunku 6 pokazano krzywą światłości oprawy oświetleniowej z odbłyśnikiem (suma światłości modułu LED i odbłyśnika), którego kształt obliczono w wyniku działania algorytmu optymalizacji. Brak monotoniczności w środkowej części krzywej jest spowodowane skomplikowanym, trójkrzywiznowym 212 Krzysztof Wandachowicz kształtem odbłyśnika. Wyraźnie widać podział na części krzywej, które zapewniają doświetlenie środkowej i skrajnej strefy oświetlanej powierzchni. Tabela 3. Zestawienie uzyskanych wyników Nazwa Wynik Wartość funkcji celu 9 635 493,1 Najlepsze rozwiązanie P2 P3 P4 P5 P6 dx x = 0,016786 m z = -0,005725 m x = 0,023571 m z = -0,021004 m x = 0,030357 m z = -0,020719 m x = 0,037142 m z = -0,030925 m x = 0,043928 m z = -0,085665 m -0,006072 m Eśr [lx] 251,3 Równomierność oświetlenia Emin/Eśr 0,89 Liczba iteracji / czas obliczeń [s] (Intel Core Duo T2450 2,0 GHz) 0,55 300 250 E [lx] 200 150 100 50 0 0.0 0.5 1.0 r [m] 1.5 2.0 Rys. 5. Rozkład natężenia oświetlenia wzdłuż promienia oświetlanej powierzchni Rys. 6. Krzywa światłości obliczonej oprawy oświetleniowej Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu 213 4. WNIOSKI Przeprowadzone badania pokazują, że nowa postać funkcji celu zapewnia polepszenie skuteczności algorytmu optymalizacji. Jest to szczególnie istotne w przypadkach, kiedy niewielka zmiana danych powoduje dużą zmianę wyniku. Jednocześnie wykazano, że niewielka wartość sprawności oświetlenia jaką osiągnięto ze źródłem światła o dużych rozmiarach nie wynika z niewłaściwego działania algorytmu optymalizacji. Dla źródła światła o małych rozmiarach i kształcie dostosowanym do kształtu odbłyśnika uzyskano dużą wartość sprawności oświetlenia. LITERATURA [1] [2] [3] [4] [5] [6] [7] Wandachowicz K.: Optymalizacja kształtu odbłyśnika zapewniającego uzyskanie zakładanego poziomu równomierności oświetlenia. Przegląd Elektrotechniczny 5a/2012. Warszawa, Sigma-Not. 181-183. Wandachowicz K., Kuczko W.: Weryfikacja metody obliczania odbłyśników opraw oświetleniowych. Przegląd Elektrotechniczny, nr 1/2014, Warszawa, Sigma-Not, PL ISSN 0033-2097, 281-284. Wandachowicz K.: Obliczanie profilu odbłyśnika z wykorzystaniem interpolacji Hermite'a. Materiały konferencyjne: XV Conference Computer Applications in Electrical Engineering, ZKwE'2010, Poznań, 19-21.04.2010, 231-232. Fritsch F. N., Carlson R. E.: Monotone Piecewise Cubic Interpolation. SIAM Journal on Numerical Analysis, 17 (1980), 238-246. Michalewicz Z.: Algorytmy genetyczne + struktury danych = programy ewolucyjne. WNT Warszawa 2003. Global Optimization Toolbox User’s Guide. The MathWorks, Inc. Wandachowicz K.: Optymalizacja profilu odbłyśnika z zastosowaniem strategii zmiany różnorodności populacji, XXII Krajowa Konferencja Oświetleniowa Technika Świetlna 2013, Warszawa 21-22 listopada 2013, materiały konferencyjne. OPTIMIZATION OF REFLECTOR SHAPE USING DIFFERENT FORMS OF OBJECTIVE FUNCTION There are presented research results that concern of calculation of mirror reflector profile that is using for obtaining the highest value of average illumination and uniformity ratio on the illuminated surface. The evolutiony algorithm with different forms of objective function was used. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Małgorzata ZALESIŃSKA* ANALIZA WARUNKÓW WYKONYWANIA BADAŃ WYDOLNOŚCI WZROKOWEJ KIEROWCÓW Z ZASTOSOWANIEM SYMULATORA JAZDY Na poziom wydolności wzrokowej mają wpływ warunki oświetleniowe panujące na drodze i w jej otoczeniu, własności geometryczne i fotometryczne przeszkód, jak i warunki obserwacji. Do badania wydolności wzrokowej kierowców zbudowano w laboratorium Zakładu Techniki Świetlnej i Elektrotermii Politechniki Poznańskiej symulator jazdy samochodem. W trakcie badań prowadzonych w ramach grantu MNiSW nr N N510 666140 zauważono konieczność sformułowania zaleceń i wytycznych dotyczących przeprowadzania pomiarów wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy samochodem. W artykule przedstawiono procedurę badawczą oraz wyniki badań. Przeprowadzono analizę uzyskanych wyników oraz ocenę możliwości zastosowania symulatora jazdy do badania wydolności wzrokowej kierowców. SŁOWA KLUCZOWE: wydolność wzrokowa kierowcy, symulator jazdy samochodem, oświetlenie drogowe, rozkład luminancji w polu widzenia kierowcy 1. WPROWADZENIE Bezpieczne prowadzenie pojazdu wymaga bardzo wielu informacji pochodzących ze wzrokowej analizy obszaru drogi i jej otoczenia. Kierowca musi rozpoznawać zarys drogi, przejścia dla pieszych, chodniki, znaki i światła drogowe, punkty orientacyjne, obecność innych użytkowników, ich położenie, prędkość oraz kierunek poruszania się. Ponadto wszystkie te informacje muszą być odebrane w odpowiednim czasie, aby możliwe było ich zidentyfikowanie i przetworzenie oraz podjęcie decyzji i wykonanie odpowiedniego manewru. Wraz z nadejściem zmroku warunki widzenia kierowców ulęgają znacznemu pogorszeniu. Uzyskanie w takich warunkach odpowiedniego poziomu niezawodności wzrokowej kierowców możliwe jest dzięki zapewnieniu właściwych warunków oświetleniowych panujących na drodze oraz w jej bezpośrednim otoczeniu. Uznaje się, że spełnienie wymagań normatywnych [1] w zakresie luminancji średniej drogi (natężenia oświetlenia), równomierności ogólnej oraz wzdłużnej, a także ograniczenia olśnienia oraz zapewnienia prawidłowego prowadzenia wzrokowego pozwala na uzyskanie odpowiednich, z punktu widzenia wydolności wzrokowej oraz wygody widzenia kierowcy, warunków oświetleniowych __________________________________________ * Politechnika Poznańska. 216 Małgorzata Zalesińska na drodze. W przypadku otoczenia drogi sprawa jest o wiele trudniejsza, gdyż często szybki rozwój nowych technologii wyprzedza ustawodawstwo i normalizację. Przykład stanowić mogą wielkopowierzchniowe reklamy LED instalowane w bezpośrednim otoczeniu dróg [2, 3, 4]. Dlatego też istnieje konieczność systematycznego prowadzenia badań nad wydolnością wzrokową kierowców w różnych warunkach oświetleniowych. 2. SYMULATOR JAZDY SAMOCHODEM ZBUDOWANY W LABORATORIUM ZAKŁADU TECHNIKI ŚWIETLNEJ I ELEKTROTERMII POLITECHNIKI POZNAŃSKIEJ W trakcie prac badawczych związanych z realizacją grantu MNiSW nr N N510 666140 pt. Badanie wpływu wielkopowierzchniowych reklam z diodami świecącymi na warunki widzenia kierowców w ruchu drogowym [5] w Zakładzie Techniki Świetlnej i Elektrotermii Politechniki Poznańskiej zbudowany został statyczny symulator jazdy samochodem. Zgodnie z klasyfikacją zawartą w literaturze [6] symulator ten można zaliczyć do symulatorów klasy średniej. Podstawowymi elementami symulatora są: model kabiny samochodu osobowego (przednia część Fiat Seicento) posiadający klasyczną deskę rozdzielczą z przyciskami, radiem, działającymi nawiewem i prędkościomierzem wskazującym aktualną prędkość jazdy oraz manualną skrzynię biegów, pedały sprzęgła gazu i hamulca. Ponadto we wnętrzu kabiny zastosowano zastępcze źródło olśnienia przeszkadzającego, pochodzącego od opraw oświetlenia drogowego. Widok fragmentu kabiny oraz jej usytuowanie na stanowisku laboratoryjnym przedstawiono na rysunku 1. układ projekcji obrazu zbudowany został z ekranu o wymiarach 3,90 m na 2,90 m oraz projektorów multimedialnych głównego i pomocniczego. Projektor główny wyświetla obraz drogi w zakresie kątów 26,7 º w lewo oraz 25,8 º w prawo od osi optycznej obserwatora. Projektor dodatkowy zastosowany został w celu uzupełnienia obrazu pod reklamą LED, która jest integralną częścią stanowiska laboratoryjnego i ułatwienia kierowcy skrętu w prawo, oświetlenie peryferyjnego pola widzenia kierowcy zasymulowane poprzez oświetlenie bocznych ścian laboratorium liniami LED, przesłoniętymi mlecznymi płytami rozpraszającymi oraz przeświecalnymi szarymi zasłonami. Zastosowane diod świecących oraz ich sterowanie umożliwiły uzyskanie stałego podkładu luminancji średniej, zbliżonego do luminancji elewacji budynków znajdujących się w otoczeniu drogi oraz zmiennej luminacji symulującej ruch pojazdu względem otoczenia (okien, witryn ), stanowisko sterowania symulacją, w skład którego wchodzą dwa połączone ze sobą komputery klasy PC. Komputer główny odpowiedzialny jest za Analiza warunków wykonywania badań wydolności wzrokowej kierowców … 217 sterowanie wyświetlaną symulacją drogi oraz zbieranie danych dotyczących przebiegu eksperymentu. Komputer dodatkowy steruje wyświetlaniem obrazu na ekranie LED. Przykład symulacji wyświetlanej na ekranie przedstawiono na rysunku 2. Szczegółowy opis symulatora jazdy oraz sposób kalibracji stanowiska laboratoryjnego opisano w literaturze [7, 8, 9]. Rys. 1. Wygląd symulatora jazdy samochodem oraz moduł reklamy LED: 1 – widok fragmentu kabiny kierowcy, 2 – ekran, na którym wyświetlana jest symulacja drogi, 3 – moduł rzeczywistej reklamy LED Rys. 2. Przykład symulacji wyświetlanej na ekranie Symulator jazdy samochodem osobowym zbudowany w Zakładzie Techniki Świetlnej i Elektrotermii jest pierwszym w Polsce symulatorem, jaki został wykorzystany w badaniach wpływu różnych warunków oświetleniowych panujących na drodze po zapadnięciu zmroku na wydolność wzrokową kierowców. Metodologia badań nad wydolnością wzrokową kierowców z zastosowaniem symulatora jazdy samochodem nie jest opisana w literaturze, dlatego też istnieje konieczność ustalenia warunków wykonywania takiego rodzaju badań. Z tego względu, w laboratorium Zakładu techniki Świetlnej i Elektrotermii Politechniki Poznańskiej, przeprowadzono badania pilotażowe zmierzające do ustalenia kryteriów i warunków przeprowadzania badań wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy samochodem. 218 Małgorzata Zalesińska 3. WARUNKI WYKONYWANIA BADAŃ WYDOLNOŚCI WZROKOWEJ KIEROWCÓWZ ZASTOSOWANIEM SYMULATORA JAZDY 3.1. Opis procedury badawczej Wydolność wzrokowa kierowcy jest wydolnością systemu wzrokowego, która określa jego zdolność do zauważania subtelnych zmian w polu widzenia. Stopień wydolności wzrokowej ma istotny wpływ na prawdopodobieństwo oraz zdolność spostrzegania, odległość spostrzegania obiektu na drodze, wydolność reakcji, czy spostrzeganie ruchu względnego. Na zbudowanym stanowisku laboratoryjnym wydolność wzrokowa oceniana była na podstawie czasu reakcji obserwatora na zasymulowane zdarzenie drogowe. Zdarzeniem drogowym było pojawienie się przeszkód na jezdni przed obserwatorem bez święcących reklam w pobliżu drogi, przeszkód przy świecących reklamach o zadanej luminancji oraz świecących reklam, które miały zmylić czujność obserwatora. Czas reakcji mierzony był od momentu pojawienia się przeszkody na drodze do reakcji kierowcy na to zdarzenie. Reakcją kierowcy mogło być naciśnięcie pedału hamulca lub gwałtowny ruch kierownicą, pozwalający na ominięcie przeszkody. System sterująco – kontrolny umożliwia rejestrację czasu reakcji oraz rodzaju reakcji np. hamowanie, skręt kierownicą, kolizja z przeszkodą lub z otoczeniem. Reakcja obserwatora na wszystkie zdarzenia drogowe rejestrowana była z dokładnością do 1 ms. W trakcie badań zastosowano przeszkody różnego typu: pieszy, pies, piłka leżąca na ziemi, kwadraty o różnych luminancjach: 0.7, 1.2 i 3 cd/m2 (luminacja średnia drogi wynosiła 1,5 cd/m2). Przykładowy wygląd przeszkód zamieszczono na rysunku 3. W celu jednoznacznego określenia czasu reakcji obserwatora na pojawienie się przeszkody na drodze założono, tak samo, jak we wcześniej prowadzonych badaniach [5, 10], natychmiastowe pojawienie się przeszkody na drodze. Do przeprowadzenia badań przygotowano sześć tras jazdy symulatorem – jedną trasę (trasa nauka), na której osoby badane zapoznawały się ze sposobem jazdy symulatorem, rodzajami zdarzeń drogowych, wyglądem przeszkód, sposobem pojawiania się na drodze oraz pięć tras, na których badaniom poddano różne kryteria wykonywania pomiarów. Konstrukcja tras została tak przygotowana, aby możliwa była analiza wyników ze względu na: rodzaj przeszkody, miejsce położenie przeszkody na trasie przejazdu (prosty odcinek drogi, łuk), zastosowany scenariusz kolejności przeszkód i reklam na drodze (same przeszkody przeplatane przeszkodami ze świecącymi reklamami lub przeszkody z reklamami na początku i na końcu trasy, a same przeszkody, bez reklam - w części środkowej), stopień złożoności zadania wzrokowego (proste zadanie wzrokowe – obserwowanie drogi oraz bardziej złożone – obserwowanie pobocza i szukanie określonych obiektów lub obserwowanie i zapamiętywanie treści reklamowych), sposób powiększania obrazu reklamy Analiza warunków wykonywania badań wydolności wzrokowej kierowców … 219 symulujący zbliżanie się obserwatora do obiektu (powolne oraz szybkie), rodzaj trasy (trasa z samymi tylko przeszkodami bez świecących reklam oraz trasa, gdzie oprócz samych przeszkód były także przeszkody pojawiające się na drodze w trakcie świecenia reklamy LED). W celu na wyeliminowania konstrukcji samej trasy przejazdu na czas reakcji obserwatora trasy zostały tak zaprojektowane, aby składały się z tej samej liczby skrętów, skrzyżowań, odcinków prostych, wyświetlanych w dokładnie tej samej kolejności, ale z różną scenerią otoczenia (inny wygląd budynków). Na początku badania każdy obserwator poinformowany został o celu i sposobie przeprowadzenia eksperymentu oraz o możliwości rezygnacji w dowolnym momencie jego trwania. Następnie przystępowano do nauki jazdy symulatorem (trasa nauka) oraz przejazdów trasami podstawowymi. W celu wyeliminowania wpływu kolejności tras na otrzymywane wyniki, wszystkich obserwatorów podzielono na grupy, którym przypisano różną kolejność tras przejazdów w trakcie badań. Po zakończeniu części badań związanych z jazdą na symulatorze obserwatorzy poddawani byli badaniu czułości kontrastowej wzroku w warunkach mezopowych oraz ostrości widzenia w warunkach fotopowych. Następnie wypełniali kwestionariusz osobowy, zawierający podstawowe informacje demograficzne, ankietę dotyczącą przeprowadzonych badań oraz przeprowadzano badania koordynacji wzrokowo-ruchowej z zastosowaniem testu krzyżowego. Rys. 3. Przykładowy wygląd przeszkód pojawiających się na drodze w trakcie symulacji 3.2. Wyniki i analiza badań laboratoryjnych Do badań pilotażowych przystąpiło 39 wolontariuszy w wieku od 20 – 50 lat; średnia wieku wynosiła 27 lat. Wszyscy posiadali prawo jazdy kategorii minimum B. Większość osób posiadała prawo jazdy nie dłużej niż 10 lat. Jedna osoba była kierowcą zawodowym. Sześciu, spośród badanych, nie ukończyło pełnego cyklu badań. U obserwatorów wystąpiły objawy choroby symulatorowej. Opis typowych objawów choroby symulatorowej przedstawiono w literaturze [6, 11, 12]. W tabeli 3.1. zamieszczono średnie czasy reakcji obserwatorów tśr w [ms] na przeszkody różnego typu, występujące na trasie, bez działających reklam LED wraz 220 Małgorzata Zalesińska ze wskazaniem miejsca położenia na drodze oraz kolejnością czasów reakcji od najkrótszego do najdłuższego. W tabeli 3.2. zestawiono średnie czasy reakcji obserwatorów na określone zdarzenia drogowe w zależności od przyjętego kryterium analizy - tpśr średni czas reakcji dla przeszkód, które pojawiały się na drodze bez działających reklam oraz trśr średni czas reakcji dla przeszkód, które pojawiały się na drodze podczas świecenia reklamy. Na podstawie przeprowadzonych badań pilotażowych, zdaniem autora, można stwierdzić, że: Obserwatorzy mieli krótszy czas reakcji na pojawienie się przeszkód bez działającej reklamy na poboczu drogi dla przejazdów, w trakcie których występowały same tylko przeszkody, niż w przypadku umieszczenia na trasie także przeszkód z działającymi reklamami (wymieszanie zdarzeń drogowych). W trakcie przejazdu trasą, na której znajdowały się tylko same przeszkody, bez działających reklam, najkrótszy czas reakcji uzyskano dla przeszkody typu pies, a najdłuższy dla piłki. Maksymalna różnica pomiędzy czasami wynosiła 71 ms. Dla trasy, na której pojawiały się same przeszkody oraz przeszkody wraz ze świecącymi reklamami najkrótszy czas reakcji uzyskano dla psa, a najdłuższy dla pieszego, ale występował mniejszy wpływ typu przeszkody na czasy reakcji. Różnica czasów pomiędzy najkrótszym i najdłuższym wynosiła 20 ms. W przypadku kwadratów, których pojawienie się na pasie ruchu zasymulowano tylko w przypadku trasy bez świecących reklam, najkrótszy czas uzyskano dla kwadratu o kontraście dodatnim względem tła. Fakt ten można uzasadnić wyższą czułością kontrastową oka w zakresie kontrastów dodatnich, aniżeli ujemnych. W przypadku najniższego kontrastu kwadratu z tłem potwierdzono wynikami badań najniższą wydolność wzrokową obserwatorów. Dla każdego rozpatrywanego przypadku położenia przeszkody na łuku drogi uzyskano krótszy czas reakcji obserwatorów. Przyczyną tego może być niższa prędkość jazdy na łuku drogi, aniżeli po odcinku prostym. Na uzyskane średnie czasy reakcji miał wpływ zastosowany scenariusz dotyczący pojawiania się przeszkód na drodze. Dłuższe czasy reakcji uzyskano w przypadku, gdy wymieszane były zdarzenia drogowe, pojawienie się przeszkód bez działającej reklamy przeplatane było przeszkodami ze świecącą reklamą. Odnotowano wpływ prędkości powiększania się reklamy, symulującej zbliżanie się pojazdu do reklamy, na czas reakcji obserwatorów dla przeszkód pojawiających się w trakcie działania reklamy. Dłuższy czas powiększania się reklamy skutkował wydłużeniem czasu reakcji osób badanych. Fakt ten można tłumaczyć dłuższym czasem oddziaływania olśnienia na narząd wzroku, a tym samym mniejszą wydolnością wzrokową obserwatorów. Przeprowadzone badania nie potwierdziły hipotezy sformułowanej w trakcie badań [5], a dotyczącej przewidywania momentu pojawienia się przeszkody na drodze wraz z rozpoczęciem wyświetlania reklamy na ekranie LED. Analiza warunków wykonywania badań wydolności wzrokowej kierowców … 221 Tabela 3.1. Średnie czasy reakcji obserwatorów tśr w [ms] na przeszkody różnego typu występujące na trasie, bez działających reklam LED wraz ze wskazaniem miejsca położenia na drodze oraz kolejnością czasów reakcji od najkrótszego do najdłuższego Kolejność przeszkody na trasie 1 2 3 4 5 6 7 Rodzaj przeszkody Pieszy Kwadrat o L=3 cd/m2 Piłka Kwadrat o L=0.7 cd/m2 Kwadrat o L=0.7 cd/m2 Pies Pieszy Położenie przeszkody na trasie Czas reakcji tśr [ms] Kolejność czasów reakcji prosta 769 8 prosta 800 10 Łuk 695 3 prosta 780 9 łuk 713 4 prosta 753 6 łuk 713 4 8 Kwadrat o L=1.2 cd/m2 prosta 762 7 9 Piłka prosta 764 11 łuk 645 1 łuk 744 5 łuk 665 2 10 11 12 Kwadrat o L=3 cd/m2 Kwadrat o L=1.2 cd/m2 Pies Wartość średnia z czasów reakcji dla wszystkich przeszkód 742 Odchylenie standardowe 61 Zgodnie z tą hipotezą dłuższy czas wyświetlania treści reklamowych powinien skutkować skupieniem uwagi obserwatorów na drodze i wyczekiwaniem na pojawienie się przeszkody, a tym samym krótszym czasem reakcji. Skrócenie czasu rozwijania reklamy do pełnego wymiaru ekranu LED powinno być zaskoczeniem dla obserwatorów, a więc czasy reakcji powinny być dłuższe. W przypadku samych tylko przeszkód na drodze uzyskano bardzo zbliżone wyniki świadczyć to może o dużej powtarzalności wyników pomiarów wykonanych w podobnych warunkach. 222 Małgorzata Zalesińska Tabela 3.2. Porównanie czasów reakcji obserwatorów na zdarzenia drogowe różnego typu dla analizowanych kryteriów Lp 1 2 Rodzaj przeszkody na trasie ze świecącymi reklamami Rodzaj trasy 4 Położenie przeszkody na trasie przejazdu 5 Zastosowany scenariusz zdarzeń 6 7 8 741 709 780 723 753 747 Pieszy 789 - Pies 769 - Piłka 778 - 742 - 779 788 - Łuk Przeszkody bez reklam przed oraz pomiędzy przeszkodami z reklamami Przeszkody bez świecącej reklamy umieszczone pomiędzy przeszkodami ze świecącą reklamą Obserwacja drogi Obserwowanie otoczenia Obserwowanie reklam 702 - 779 864 761 807 809 856 827 861 879 1007 Brak doświadczenia 793 888 Przynajmniej raz wcześniej uczestniczyli w badaniach 725 807 Powolny 770 861 Szybki 774 836 Zastosowane kryterium podziału Rodzaj przeszkody na trasie bez reklam 3 Pieszy Pies Piłka Kwadrat o L = 3 cd/m2 Kwadrat o L = 1.2 cd/m2 Kwadrat o L = 0.7 cd/m2 Średni czas reakcji dla przeszkód z reklamami trśr [ms] - Rodzaj zadania wzrokowego Doświadczenie obserwatorów w jeździe symulatorem Sposób powiększania obrazu reklamy Trasa tylko z samymi przeszkodami bez reklam Trasa z przeszkodami i reklamami Prosta Średni czas reakcji dla samych przeszkód tpśr [ms] Analiza warunków wykonywania badań wydolności wzrokowej kierowców … 223 Potwierdzono fakt, że rodzaj postawionego przed obserwatorami zadania ma istotny wpływ na uzyskane wyniki. Trudniejsze zadanie wzrokowe, polegające na obserwowaniu trasy oraz bezpośredniego otoczenia drogi, skutkowało wydłużeniem czasu reakcji na pojawienie się przeszkód na drodze. W przypadku dodatkowego zadania wzrokowego, jakim było obserwowanie treści reklamowych, uzyskano najdłuższe czasy reakcji na przeszkody pojawiające się na drodze w trakcie świecenia reklamy. Fakt ten spowodowany był olśnieniem powodowanym przez wysokie luminancje powierzchni reklamy i dłuższym czasem odzyskiwania przez osoby badane wydolności wzrokowej. Doświadczenie w jeździe symulatorem osób badanych ma istotne znaczenie na uzyskiwane wyniki pomiarów. Obserwatorzy, którzy już wcześniej uczestniczyli w badaniach, znali sposób wykonywania badań, posiadali większa pewność w obsłudze symulatora, byli przyzwyczajeni do sposobu pojawiania się przeszkód na drodze oraz wiedzieli na co należy zwracać uwagę, dlatego też uzyskali niższe średnie czasy reakcji. Na podstawie przeprowadzonych badań pilotażowych sformułować można następujące zalecenia, dotyczące metodyki wykonywania badań wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy samochodem: 1. Badania wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy powinny być poprzedzone praktyczną nauką jazdy symulatorem samochodu osobowego. Najlepiej jeżeli istnieje możliwość przeprowadzenia przygotowań w osobnym terminie, niż badania właściwe. Przed badaniami właściwymi należy wykonać przejazd trasą, która powinna być traktowana jako przypomnienie obsługi symulatora. 2. Każdy cykl badań powinien być powtórzony przez tych samych obserwatorów po pewnym odstępie czasu. 3. W celu uniknięcia wpływu kolejności tras na wynik pomiarów należy badaną grupę obserwatorów podzielić na mniejsze podgrupy, dla których należy zastosować różne kolejności tras przejazdu. 4. W trakcie badań należy stosować na trasie przeszkody różnego typu, aby rodzaj zastosowanej przeszkody nie miał istotnego wpływu na uzyskane wyniki pomiarów. 5. Przeszkody na trasie powinny być umieszczane w równej liczbie, zarówno na odcinkach prostych jak i na łukach drogi, aby uniknąć wpływu usytuowania przeszkody na trasie na wyniki pomiarów. 6. Ze względu na zmęczenie i znużenie osób badanych, badania wydolności wzrokowej kierowców z wykorzystaniem symulatora jazdy nie powinny trwać dłużej niż 30 minut (dotyczy to czasu samej jazdy symulatorem). 7. Do badań na symulatorze jazdy powinny przystępować osoby wypoczęte, w dobrej kondycji psychicznej. 224 Małgorzata Zalesińska 4. PODSUMOWANIE Zastosowanie symulatora jazdy samochodem w badaniach nad wydolnością wzrokową kierowców pozwalana na zbliżenie warunków zewnętrznych do rzeczywistości i umożliwia uzyskanie efektu prowadzenia pojazdu po ulicach miasta. Wykonanie badań w laboratorium pozwala na wyeliminowanie wpływu wielu czynników dodatkowych, mogących mieć wpływ na ostateczny wynik badań, a występujących w rzeczywistych warunkach drogowych np. nieprzewidywalne zachowanie innych uczestników ruchu drogowego, różne natężenie ruchu pojazdów, warunki atmosferyczne. Poprzez zastosowanie w badaniach nagłego wtargnięcia przeszkody na jezdnię możliwe jest także zbadanie rzeczywistego czasu reakcji kierowcy na pojawienie się przeszkody na drodze. Przez zastosowanie takiego rozwiązania możliwe jest wyeliminowanie czasu związanego z podejmowaniem decyzji o wykonaniu jakiegokolwiek manewru. W warunkach rzeczywistych stworzenie takiej sytuacji byłoby niemożliwe. Podstawową jednak wadą badań laboratoryjnych jest przeprowadzanie pomiarów w warunkach bardziej lub mniej zbliżonych do rzeczywistości zarówno pod względem doznań związanych z prowadzeniem samochodu, jak i pod względem wykonywanego zadania wzrokowego – w rzeczywistości, w trakcie jazdy po mieście, kierowca rzadko kiedy jest skupiony tylko i wyłącznie na pasie ruchu. W literaturze nie ma podanych zasad, zgodnie z którymi powinny być wykonywane badania wydolności wzrokowej kierowców przy wykorzystaniu symulatorów jazdy samochodem. Uzyskane wyniki oraz przeprowadzona analiza wykazały istotny wpływ wielu czynników na otrzymane wyniki pomiarów. Dlatego też niezbędne jest prowadzenie dalszych prac badawczych, w trakcie których ustalone zostaną warunki, zasady i kryteria wykonywania badań wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy. LITERATURA [1] [2] [3] [4] PN _ EN 13201:2007 - Oświetlenie dróg. Wandachowicz K., Zalesińska M., Domke K., Mroczkowska S., Skrzypczak P.: Wielkopowierzchniowe reklamy z diodami świecącymi a bezpieczeństwo ruchu drogowego. Przegląd Elektrotechniczny, ISSN 0033-2097, Nr 4/2011, s. 73 – 77. Domke K., Wandachowicz K., Zalesińska M., Mroczkowska S., Skrzypczak P.: Digital billboards and road safety. In: Lighting in Engineering, Architecture and the Environment, ed. Domke K., Brebbia C.A., WIT PRESS 2011, Southampton, Boston, ISBN: 978-1-84564-550-2, pp. 119-131. K. Domke, K. Wandachowicz, M. Zalesińska, S. Mroczkowska, P. Skrzypczak, Large-sized digital billboards hazard. Design & Nature and Ecodynamics. Vol. 7, No. 4 (2012) 367–380, ISSN: 1755-7437 (paper format), ISSN: 1755-7445 (online), http://journals.witpress.com. Analiza warunków wykonywania badań wydolności wzrokowej kierowców … [5] [6] [7] [8] [9] [10] [11] [12] 225 Badanie wpływu wielkopowierzchniowych reklam z diodami świecącymi na warunki widzenia kierowców w ruchu drogowym. Sprawozdanie merytoryczne projektu badawczego MNiSW nr N N510 666140. Poznań 2013. Lozia Z.: Symulatory jazdy samochodem. Wydawnictwa Komunikacji i Łączności Warszawa 2008. Zalesińska M., Wandachowicz K.: Badanie reklam zewnętrznych z diodami świecącymi za pomocą miernika rozkładu luminancji. Poznan University of Technology, Academic Journals, Electrical Engineering, Issue 69, Poznań 2012, s. 275-282, ISSN 1897-0737. Zalesińska M., Wandachowicz K., Research of luminance distribution in driver’s field of view in the places where electronic billboards exists. LUMEN V4 IV Lighting Conference of the Visegrad Countries, Bratyslava, 26-28. 09.12, ISBN 978-80-89275-32-8 EAN 9788089275328, p. 146-153. Zalesińska M., Wandachowicz K.: Odtworzenie na stanowisku laboratoryjnym rozkładów luminancji występujących w polu widzenia kierowców, Przegląd Elektrotechniczny, ISSN 0033-2097, R. 90 NR 1/2014, s. 277-280. Zalesińska M., Wandachowicz K., Domke K., Skrzypczak P., Mroczkowska S.: Badanie wpływu reklam elektronicznych na warunki widzenia kierowców z wykorzystaniem symulatora jazdy, XXII Krajowa Konferencja Oświetleniowa, Technika Świetlna’ 2013, 21-22.11.2013,Warszawa, s. 117-120, ISNN 1506-6223. Biernacki M., Dziuda Ł.: Choroba symulatorowa jako realny problem badań na symulatorach. Medycyna Pracy, 63(3) s. 377-388. www.ciop.pl/22384.html (dostęp 31.01.2013). ANALYSIS OF CONDITIONS FOR RESEARCH OF DRIVERS VISUAL PERFORMANCE USING DRIVING SIMULATOR The level of visual performance is affected by the lighting conditions prevailing on the road and its surroundings, the geometric and photometric properties of the obstacles, the conditions of observation. The study visual performance of drivers built in the laboratory of the Department of Lighting Engineering and Electroheat Poznan University of Technology driving simulator. During research conducted under the Ministry of Science and Higher Education Grant no. N N510 666140 noted the need for the formulation of recommendations and guidelines for the measurement of driver’s visual performance using a driving simulator. The paper presents the test procedure and test results. Carried out an analysis of the results obtained and the possibility of using driving simulator to study visual performance. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Piotr KIEDROWSKI* ZASTOSOWANIE PROTOKOŁU HOT POTATO W STEROWANIU OŚWIETLENIEM DROGOWYM ANALIZA WŁAŚCIWOŚCI RUCHOWYCH W OPARCIU O TEORIĘ GRAFÓW W pracy przedstawiono metodę obliczania czasu komunikacji między oprawami latarni a węzłem akwizycji i dystrybucji danych w sieci telemetrycznej przeznaczonej do sterowania oświetleniem drogowym. Prezentowana metoda dotyczy wszystkich sieci komunikacyjnych, w których dla powiększenia zasięgu stosuje się technikę multi-hop. Oprawy źródła światła drogowego traktowane są jako węzły sieci telemetrycznej wykorzystujące do komunikacji wspólne medium. W pracy rozważono dwie technologie transmisji: bezprzewodową w paśmie ISM oraz przewodową PLC wykorzystującą do transmisji przewody przeznaczone do zasilania latarni. Zastosowanie protokołu routingowego hot-potato wynika ze specyficznej topologii sieci, jaką tworzy ciąg latarni drogowych, tzn. połączenia kaskadowego. W przypadku takiej topologii sieci, jak również uwzględniając liczbę węzłów obsługiwanych przez pojedynczy węzeł akwizycji i dystrybucji danych, protokół hot-potato jest ciągle wydajny przy zachowaniu swej głównej zalety, jaką są małe wymagania w zakresie zasobów obliczeniowych oraz pamięci RAM i ROM. SŁOWA KLUCZOWE: Smart Lighting, Smart Grid, sterowanie indywidualne, oświetlenie drogowe, oświetlenie uliczne, PLC, WSN 1. WPROWADZENIE Sterowanie oświetleniem drogowym stosuje się przede wszystkim w celu zmniejszenia kosztów oświetlenia dróg i ulic. Poza zmniejszeniem kosztów istotnym jest również zmniejszenie emisji CO2 związanym z produkcją energii elektrycznej. Według [1] szacuje się, że w Polsce ok. 20% całkowitego zużycia energii elektrycznej konsumowane jest na oświetlenie, z tego znaczna część na oświetlenie drogowe. Zmniejszenie zużycia energii realizuje się na kilka sposobów, ważniejsze z nich to: zastosowanie sprawnych energetycznie źródeł; redukcja natężenia światła w określonych sytuacjach z zachowaniem wymaganych parametrów świecenia; precyzyjne sterowanie chwilami włączania, wyłączania i redukcji oświetlenia; uwzględnienie sprawności źródeł światła w czasie ich eksploatacji długo i __________________________________________ * Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy. 228 Piotr Kiedrowski krótkoterminowej (tu w szczególności źródeł LED); sposoby utrzymania i konserwacji systemu oświetlenia oraz uwzględnienie warunków termicznych. Obecnie najpopularniejszą metodą sterowania oświetleniem drogowym jest regulacja wartości napięcia zasilania całego odcinka (ciągu) drogowego z precyzyjnym uwzględnieniem chwili włączeń, wyłączeń i redukcji wartości napięcia w zależności od miejsca geograficznego. Mimo oczywistych oszczędności rozwiązanie takie ma dwie zasadnicze wady. Pierwsza wada to brak możliwości sterowania oświetleniem LED, którego natężenie światła nie jest regulowane napięciem; druga wada to brak możliwości zdalnego sterowania pojedynczą latarnią w ciągu, a jedynie zdalne sterowanie całym ciągiem. Na poniższym rysunku przedstawiono sposoby sterowania oświetleniem zewnętrznym. Rys. 1. Sposoby sterowania oświetleniem zewnętrznym Sposób klasyfikacji prezentowany na rysunku 1 służy jedynie łatwiejszemu zrozumieniu niniejszego artykułu. Sterowanie lokalne to takie, kiedy sterownik znajduje się w obszarze oświetlanym przez sterowane źródło. Przykładem sterowania lokalnego oświetleniem może być sterowanie z wykorzystaniem sensorów ruchu. Przykładem zdalnego sterowania ciągiem lub jego odcinkiem jest najpopularniejsza obecnie stosowana metoda sterowania oświetleniem drogowym i ulicznym z wykorzystaniem centralnego reduktora napięcia. Przedmiotem niniejszej pracy jest zdalne sterowanie indywidualne z wykorzystaniem dwóch niezależnych technologii transmisji: bezprzewodową w paśmie ISM oraz przewodową PLC (ang. Power Line Communication). Możliwe jest również zastosowanie technologii hybrydowej bezprzewodowej ISM i PLC. Zdalne sterowanie indywidualne ma ogólniejsze zastosowanie niż zdalne sterowanie ciągiem i zawsze umożliwia sterowanie w obu trybach zdalnych. Istniejące obecnie systemy zdalnego sterowania indywidualnego wykorzystujące technikę PLC są w fazie instalacji demonstracyjnych lub pilotażowych i opierają się głównie na starszych technologiach PLC i technologii ZigBee. Sytuacja taka wynika z dwóch powodów, tzn. oczekiwania na nowe przepisy [2] określające nowe wymagania i normy w zakresie oświetlenia drogowego oraz definicji nowego standardu interfejsu PLC- Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym … 229 PRIME, obejmującego nie tylko pasmo transmisji CELENEC A, ale również pasma znajdujące się w zakresie powyżej 100 kHz [3, 4]. Powyższe rozwiązania znalazły zastosowania w Smart Metering, będącym częścią komunikacyjną systemu Smart Grid. W odróżnieniu do Smart Metering, gdzie topologią charakterystyczną była siatka [5], w systemach Smart Lighting mamy do czynienia z topologią kaskadową, jako naturalną konsekwencję instalacji latarni wzdłuż dróg. W przypadku, gdy sieć ma topologię kaskadową oraz kierunek transmisji danych jest rozróżnialny przez węzły, protokół hot-potato jest szczególnie wydajny w rozumieniu szybkości wymiany informacji, niezawodności i małych wymagań [6]. 2. CHARAKTERYSTYKA PROTOKOŁU HOT-POTATO Protokół hot-potato został po raz pierwszy opublikowany w [7], jako alternatywa dla protokołów typu store-and-forward. Protokół hot-potato nazywany jest również deflekcyjnym protokołem routingowym [6]. Przekazywane pakiety nie są kolejkowane, w przypadku, gdy optymalna droga jest zajęta, lecz kierowane są inną drogą. Zakładając, że optymalna droga nie jest zajęta lub inne drogi są skierowane we właściwym kierunku (tak jak w przypadku kaskady), protokół hotpotato będzie szybszym protokołem routingowym w porównaniu z tymi stosowanymi w Smart Metering [8]. Kolejną zaletą protokołu hot-potato to niska emisyjność i brak kolizji w odróżnieniu do protokołów typu „flooding”. W systemach wykorzystujących wspólne medium transmisyjne, takich jak bezprzewodowe czy PLC, węzeł odbierając pakiet nie zna adresu węzła, który go nadał. Dlatego w rozważanym przypadku konieczne jest wprowadzenie dodatkowego, trzeciego adresu węzła pośredniczącego. Takie rozwiązanie, wymaga istnienia w węzłach tablicy, zawierającej listę sąsiadów (nie koniecznie wszystkich), co i tak jest rozwiązaniem o wiele korzystniejszym (z punktu widzenia obciążenia pamięci) od przechowywania tablic routingowych opisujących całą sieć. Ponadto ze względu na 24 godzinny cykl włączania i wyłączania (odmiennie niż w Smart Metering) oświetlenia, rozwiązanie polegające na zbieraniu informacji o łączach z całej sieci jest nie do przyjęcia, gdyż wymaga czasu. W przypadku hot-potato węzeł musi znać tylko adresy węzłów sąsiednich i identyfikator opisujący jakość łączy do tych węzłów. Identyfikator jakości łączy najczęściej tworzony jest na podstawie wartości mocy odbieranego sygnału i odstępu sygnału od szumu. 3. UKŁADY TOPOLOGICZNE Jak już sygnalizowano, węzły komunikacyjne latarni tworzą sieci o innej topologii niż np. liczniki energii elektrycznej, mimo że w obydwu przypadkach stosuje się te same rozwiązania elektroniczne, czyli SRD (ang. Short Range 230 Piotr Kiedrowski Devices). Podobnie jak w sieciach AMR (ang. Automatic Meter Reading) liczba łączy w sieci jest zmienna w czasie, jako konsekwencja zmiennych warunków propagacyjnych. Z własnych obserwacji (w systemach telemetrycznych do zdalnego odczytu liczników energii elektrycznej) wynika, że stosując technologie bezprzewodowe w paśmie 433 MHz i 868 MHz zmiany warunków propagacyjnych mają wolniejszy charakter niż w przypadku technologii PLC. W przypadku (opisywanej) sieci o dużym zagęszczeniu, dużej liczbie węzłów, gdzie wykorzystywane jest wspólne medium, z reguły mamy do czynienia z nadmiarem łączy. Z jednej strony nadmiar łączy komplikuje procedury routingowe, z drugiej rozładowuje ruch. Biorąc po uwagę przeznaczenie opisywanej sieci można stwierdzić, że ruch jest znikomy, a prostota schematu komunikacyjnego jest pożądana. To powody, dla których zastosowanie hot-potato wydaje się być najwłaściwszym rozwiązaniem. 3.1. Układy topologiczne dla połączeń bezprzewodowych Stosując rozwiązania bezprzewodowe w paśmie ISM 433 MHz lub 868 MHz, gdzie maksymalna, dopuszczalna, wyemitowana moc wynosi 10 mW, zasięgi transmisji wynoszą kilkaset metrów. Biorąc pod uwagę odstępy między latarniami, które wynoszą kilkadziesiąt metrów mamy do czynienia z sytuacją, w której węzły mają bardzo dużo sąsiadów, z którymi są połączone zawodnymi łączami. Na rysunku 2, w postaci grafu, przedstawiono typowy, ogólny układ topologiczny, jaki tworzą latarnie posiadające jedną oprawę, gdzie do transmisji, wybrano najlepsze (i najkrótsze) łącza do czterech sąsiadów. Rys. 2. Graf opisujący sieć w ciągu drogowym oświetlanym latarniami posiadającymi jedną oprawę Oprócz węzłów brzegowych, wszystkie pozostałe to węzły czwartego stopnia, posiadające dwa łącza krótkie i jedno dłuższe tzn. łącza pomiędzy węzłami (n) i (n+1) oraz węzłami (n) i (n+2), odpowiednio. Dla identycznego kryterium doboru węzłów sąsiednich, lecz innego układu topologicznego, na rysunku 3 przedstawiono graf dla latarni posiadających po dwie oprawy, węzły (n) i (n+12) są w niewielkiej odległości od siebie. Rys. 3. Graf opisujący sieć w ciągu drogowym oświetlanym latarniami posiadającymi po dwie oprawy Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym … 231 Oczywiście można zaprezentować grafy dla latarni posiadających trzy, cztery a nawet pięć opraw. Istotny z punktu widzenia zależności ruchowych w sieci jest fakt, że łącza (pionowe) pomiędzy węzłami (n) i (n+12) są zbyteczne, bo odbierają te same informacje i nie muszą ich sobie przekazywać. Na rysunku 4 zaprezentowano graf, gdzie łącza pomiędzy węzłami opraw zainstalowanych na tym samym słupie wyeliminowano. Rys. 4. Graf opisujący sieć w ciągu drogowym jak na rysunku 3, w której zostały wyeliminowane łącza pomiędzy węzłami opraw zainstalowanych na tym samym słupie Oprócz wspomnianej wcześniej niezasadności stosowania łączy „pionowych”, wynikających z właściwości ruchowych, kolejny problem to brak możliwości przekształcenia grafu zaprezentowanego na rysunku 3 w graf skierowany. W praktyce prowadzić to będzie do wyboru (przez węzeł) dróg nieoptymalnych z prawdopodobieństwem p/D, gdzie p to liczba łączy pionowych, a D stopień węzła. 3.2. Układy topologiczne dla połączeń PLC w trójfazowej sieci nN Stosując rozwiązania komunikacyjne w oparciu o technikę PLC, transmisja odbywa się nie w jednym, lecz w trzech wspólnych mediach, jako konsekwencja trójfazowego zasilania ciągu drogowego. Węzeł akwizycji i dystrybucji danych (WADD) posiada trzy porty fizyczne PLC lub sprzężenie pojemnościowe umożliwiające transmisję z jednej fazy do drugiej. Pierwsze rozwiązanie jest nieco droższe, ale korzystniejsze; WADD oprócz swych podstawowych funkcji pełni rolę routera łączącego trzy podsieci, a w przypadku drugiego rozwiązania jedynie huba. W odróżnieniu od rozwiązań bezprzewodowych, przy zastosowaniu PLC nie występuje problem nadmiaru łączy albo jest on znacznie mniejszy. Sytuacja taka wynika z trzykrotnie mniejszej liczby węzłów w każdej sieci oraz z faktu, że oprawy zasilane są różnymi fazami naprzemiennie, co nawet trzykrotnie zwiększa odstęp między węzłami. 4. METODYKA MODELOWANIA I ANALIZY Graf może opisywać sieć, w tym sieć komunikacyjną do sterowania np. oświetleniem drogowym. Z kolei każdy graf można opisać jako macierz przyległości [MP], która opisuje wzajemne związki między węzłami sieci [9]. [MP] jest macierzą kwadratową o wymiarach w x w (gdzie w to liczba węzłów w 232 Piotr Kiedrowski sieci). Elementy [MP] mogą przyjmować wartość ze zbioru {0; 1} zgodnie z zasadą: mpij = 1 kiedy istnieje krawędź łącząca od węzła wi do węzła wj, mpij = 0 kiedy nie istnieje krawędź łącząca od węzła wi do węzła wj. W sieciach komunikacyjnych krawędź to łącze jednokierunkowe. Wartości elementów mpij macierzy [MP]h określają liczbę możliwych tras pomiędzy węzłem i a j o długości h [10]. Długość trasy to liczba skoków. W analizie właściwości ruchowych liczba tras jest przydatną informacją w przypadku stosowania techniki transmisji multi-path. Multi-path zawsze towarzyszy technika multi-hop. W przypadku zastosowania protokołu hot-potato nie stosuje się techniki multi-path, a jedynie multi-hop [5]. Dlatego w analizie właściwości ruchowych sieci opartych wyłącznie na multi-hop przydaną informacją jest liczba skoków potrzebna do komunikacji między parami węzłów, wraz z prawdopodobieństwem wystąpienia takiego zdarzenia, a nie liczba możliwych tras. W tym celu zamiast macierzy [MP] należy zastosować macierz, nazwijmy[MPp], której elementami są wartości prawdopodobieństwa, że węzeł i przekaże informację dalej do węzła j. Transformacja [MP] do [MPp] polega na zastąpieniu jedynie wartości elementów macierzy mpij = 1 wartością z zakresu [0; 1], zgodnie z prawdopodobieństwem wyboru takiej trasy przez węzeł przekazujący. Węzeł docelowy nigdy nie jest węzłem przekazującym, dlatego wszystkie elementy wiersza macierzy [MPp] o numerze równym numerowi węzła docelowego są równe 0. Zakładając, że węzeł docelowy ma numer j, to macierz [MPp] z wyzerowanymi elementami wiersza j zapisywana będzie jako [MPp]j. Sposób tworzenia macierzy [MPp]j można również wyjaśnić na przykładzie. Dla sieci jak na rysunku 2, zakładając, że węzeł 6 jest WADD oraz węzły 5 i 7 muszą traktować łącze 5-7 jako dwukierunkowe, to graf opisujący taką sieć przedstawiono na rysunku 5. Łączy oznaczonych linią przerywaną nie uwzględniono w analizie przeprowadzonej w tym rozdziale. Rys. 5. Graf opisujący możliwe trasy z węzła numer 6 do pozostałych węzłów sieci Dla grafu z rysunku 5, zakładając, że węzeł 12 jest węzłem docelowym, macierz [MPp]12 ma postać jak poniżej. Wartości elementów macierzy [MPp]12h mpp6,12 określają wartość prawdopodobieństwa dotarcia informacji z węzła 6 do węzła 12 po h skokach. Wartość takiego prawdopodobieństwa oznaczana będzie jako pi,j(h). Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym … MPp12 233 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 2 1 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 12 12 0 0 0 13 13 0 0 13 0 0 0 0 0 0 0 14 14 14 14 0 0 0 0 0 0 0 0 0 0 13 0 0 13 13 0 0 0 0 0 0 0 0 0 0 0 12 12 0 0 0 0 0 0 0 0 0 0 12 12 0 0 0 0 0 0 0 0 0 0 0 0 1 2 1 2 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 Do analizy porównawczej użyty zostanie parametr ETX (ang. Expected Transmissions), który powszechnie jest stosowany w analizie sieci WSN (ang. Wireless Sensor Network). Parametr ETX to prognozowany lub wyznaczony z próby wskaźnik, określający liczbę nadań pakietu lub jego kopii przez węzły sieci w celu przesłania go między dwoma węzłami. W przypadku protokołu hot-potato ETX jest również prognozowaną długością trasy lub po prostu prognozowaną wartością liczby skoków wymaganych do komunikacji między i a j. Dla protokołu hot-potato wartość ETX można obliczyć z poniższej formuły. m ETX i , j h pi , j h (1) h 1 gdzie m to zmienna taka, że pi,j(h > m) = 0. Bardzo często m ma wartość nieskończoną, wtedy z (1) można obliczyć jedynie ^ estymator ETX, oznaczany dalej, jako ETX i , j . Protokół hot-potato nie wymaga stosowania czasu zwłoki w procesie przekazywania pakietów, dlatego bardzo łatwo oszacować czas komunikacji będący iloczynem: długości ramki, prędkości transmisji i liczby skoków. Z zależności (2) można obliczyć prawdopodobieństwo dotarcia pakietu z określoną liczbą skoków (w określonym czasie) - fi,j(h). h f i , j h pi , j n (2) n 1 Zależność (2) ma duże zastosowanie praktyczne, pozwala np. na określanie czasu oczekiwania na odpowiedź czy czasu, po którym należy wysłać ponowne zapytanie. Do oceny efektywności protokołu w połączeniu i-j proponuje się wykorzystanie współczynnika efektywności Ei,j zdefiniowanego w następujący sposób: ETX i , j (3) Ei , j SPi , j gdzie: SP to długość najkrótszej trasy. 234 Piotr Kiedrowski 5. PRZYKŁADOWE ROZWIĄZANIA IMPLEMENTACYJNE Do dalszej analizy w tabeli 5.1 zestawiono wartości pi,j(h) i fi,j(h) uzyskane dla przykładu z poprzedniego rozdziału i grafu zaprezentowanego na rysunku 5. Tabela 5.1. Parametry ruchowe ścieżki 6-12 dla układu topologicznego z rys. 5 h p f 1 2 3 4 5 6 7 8 9 10 11 0 0 0 0 0,083 0,083 0,122 0,205 0,074 0,279 0,033 0,313 0,013 0,326 0,005 0,331 0,002 0,332 0,0006 0,333 0,0002 0,3332 Estymator wartości ETX dla m = 11 wynosi około 1,8, a długość najkrótszej trasy SP wynosi 3. Wartość f6,12 jest bardzo mała i praktycznie od h = 8 nie wzrasta wraz z liczbą skoków. Jeżeli ETX < SP oznacza to, że część prób komunikacji w ogóle nie dochodzi do skutku nie ze względów zawodności łączy a rozwiązań systemowych – współczynnik E nie może być mniejszy od 1. Zjawisko to łatwo wyjaśnić analizując graf z rysunku 5. Jeżeli węzeł 6 skieruje pakiet do węzła 4 (prawdopodobieństwo takiego zdarzenia wynosi 0,25) to pakiet nigdy nie dotrze do węzła 12; jeżeli 6 skieruje pakiet do 5 (prawdopodobieństwo 0,25) to z prawdopodobieństwem 1/3 zostanie on przesłany do 7; z 7 może być przekazany do 8 albo 9, ale również z powrotem na lewą stronę od 6. Ta niekorzystna sytuacja wynika z faktu, że łącze 5-7 jest dwukierunkowe. Zmiana łącza 5-7 na jednokierunkowe - od 5 do 7 poprawia parametry ruchowe do węzła 12, ale pogarsza do 1. Jest to drugi powód (pierwszy powód podano w 3.1), dla którego należy eliminować łącza dwukierunkowe. Trzeci powód to problemy implementacyjne, np. komplikacja algorytmu protokołu w module węzła oprawy. Eliminując łącze 5-7, elementy macierzy mpp5,7 = 0 i mpp5, 7= 0 , a mpp5,4, mpp5,3, mpp7,8, mpp8,9 zmieniają wartość z 1/3 na 1/2. Dla tak zmodyfikowanej macierzy [MPp]12 estymator wartości ETX dla m = 11 wynosi około 1,6 jest zatem korzystniejszy niż przed modyfikacją, ale współczynnik E6,12 wynosi ok. 0,53 czyli mamy do czynienia z błędem systemowym. Wartość f6,12(h > 5) = 0,5, czyli również dla nieskończenie dużego h, gdzie wartość f dla takiego h musi wynieść 1. Sytuacja taka jest spowodowana tym, że spośród czterech łączy WADD jedynie 2 (50% wszystkich) skierują pakiet we właściwym kierunku. O ile nie można ze względów implementacyjnych komplikować algorytmu w węźle oprawy, o tyle węzeł WADD ma wystarczającą ilość pamięci, aby do tablicy wszystkich węzłów sieci (którą już posiada) dodać dane o preferowanym łączu lub łączach, przez które ma się z nimi komunikować. Bardziej eleganckim rozwiązaniem jest stworzenie tablicy łączy własnych i przyporządkowanie im adresów węzłów oprawy. Stosując takie rozwiązania graf z rysunku 5 ulega modyfikacji i wygląda jak na rysunku 6. Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym … 235 Rys. 6. Docelowa postać grafu opisującego możliwe trasy z węzła numer 6 do pozostałych węzłów sieci (po modyfikacji algorytmu wyboru łączy w WADD) Po dokonaniu modyfikacji algorytmu w WADD, dla grafów zaprezentowanych w rozdziale 3 w komunikacji węzeł 6 - pozostałe węzły, średnie wartości ETX6,j i E6,j zestawiono w tabeli 5.2. Tabela 5.2. Średnie wartości ETX6,j i E6,j dla grafów z rozdziału 3 graf Rys. 2 Rys. 4 ETX6,j E6,j 2,109 1,411 2,885 2,055 Rys.5 z uwzględnieniem dodatkowych dwu łączy 1,875 1,333 Otrzymane wyniki łatwo jest interpretować. Sieć reprezentowana grafem z rysunku 4 ma gorsze parametry od tej z rysunku 2, ponieważ posiada więcej węzłów i łączy, w tym 75% to łącza krótkie. Sieć reprezentowana grafem z rysunku 5 ma lepsze parametry od tej z rysunku 2, ponieważ posiada dwa dodatkowe długie łącza wychodzące z WADD. Większa liczba łączy długich wychodzących z WADD wynika z faktu, że ten może być wyposażony w antenę o lepszych parametrach. W przypadku technologii PLC takiej zasady nie można przyjąć. 6. PODSUMOWANIE Przedstawione w pracy metody badania właściwości ruchowych dotyczą wszystkich rodzajów sieci, w których wykorzystywany jest protokół hot-potato. Zaproponowana metoda wymiernej oceny właściwości ruchowych umożliwia porównanie parametrów sieci wykorzystującej hot-potato z siecią o identycznej topologii, w której wykorzystano „idealny” protokół umożliwiający wybór najkrótszej ścieżki, co stanowi pośrednią metodę do porównania hot-potato z innymi protokołami routingowymi. Porównując uzyskane wartości współczynnika efektywności protokołu hot-potato z innymi protokołami [11, 12] można stwierdzić, że idealnie nadaje się on do zastosowania w sterowaniu oświetleniem drogowym (albo innych sieciach o podobnych układach topologicznych), ponieważ posiada w większości przypadków lepszy współczynnik efektywności. Wyjątek stanowią dwa protokoły, z których jeden charakteryzuje aż pięciokrotnie większą wartością ETX, a drugi wymaga długiego czasu samokonfiguracji, co jest czynnikiem dyskwalifikującym ze względu na 24 godzinny cykl regulacji 236 Piotr Kiedrowski oświetleniem drogowym. Protokół hot-potato znalazł wiele zastosowań na przestrzeni ostatnich 50 lat. Zdaniem autora protokół hot-potato będzie znajdować coraz większe zastosowanie w wielu innych obszarach (takich jak te opisane w [6] czy [13]) klasyfikowanych, jako systemy komunikacyjne dla Smard Grid. LITERATURA [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] Górczewska M., Mroczkowska S., Skrzypczak P., Badanie wpływu barwy światła w oświetleniu drogowym na rozpoznawalność przeszkód, Electrical Engineering, No. 73, 2013, pp. 165-172. PN-EN 13201 – 2007, Oświetlenie dróg (prEN 13 201 – 2014 Current Status ‘Under Approval’). EN 50065-1:2011, Signalling on low-voltage electrical installations in the frequency range 3 kHz to 148,5 kHz - Part 1: General requirements, frequency bands and electromagnetic disturbances. Matanza J, Alexandres S., Rodriguez-Morcillo C., Difference sets-based compressive sensing as denoising method for narrow-band power line communications, IET Communications Vol. 7 ( 15 ), 2013, pp. 1580-1586. Dubalski B., Kiedrowski P., Petersen J. M., An Analysis of the Applicability of "Hot-Potato" Routing in Wireless Sensor Networks Used in Energy Consumption Monitoring Systems, Zeszyty Naukowe UTP - Seria: Elektrotechnika, nr 15 (257), 2010, pp. 5-24. Busch C., Herlihy M., Wattenhofer R., Routing without Flow Control, Proceedings of the 13th Annual ACM Symposium on Parallel Algorithms and Architectures, Hersonissos, Greece, 2001, pp. 11-20. Baran P., On Distributed Communications Networks, IEEE Trans. Commun. Syst. vol. CS-12, 1964, pp. 1-9. Kiedrowski P., Image Processing & Communications Challenges (ed. R. S. Choraś & Antoni Zabłudowski), Easy Applicable Algorithm for Accelerate Reading Process in AMR Systems based on WSN Solutions, Academy Publishing House EXIT, 2009, pp. 482-487. Graham R.L., Knuth D.E., Patashnik O., Concrete Mathematics, Addison-Wesley Comp. Inc. 1994. Korzan B., Elementy teorii grafów i sieci - Metody i zastosowania, Wydawnictwo Naukowo-Techniczne, Warszawa 1978. Al-Karaki A.N., Kamal A.E., Routing Techniques in Wireless Sensor Networks: a Survey, IEEE Wireless Comm., pp. 6-28, 2004. Głąbowski M, Musznicki B., Nowak P., Zwierzykowski P.,Image Processing and Communications Challenges 5, Advances in Intelligent Systems and Computing, An Algorithm for Finding Shortest Path Tree Using Ant Colony Optimization Metaheuristic, Publisher: Springer International Publishing, pp. 317-326, 2014. Jędrychowski R., Kontrola pracy małych źródeł energii elektrycznej w sieci niskiego napięcia, Rynek Energii, No 1 (104) pp.16-20, 2013. Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym … 237 APPLICATION OF HOT-POTATO PROTOCOL IN ROAD LIGHTING CONTROL – TRAFFIC ANALYSIS BASED ON GRAPH THEORY The paper presents a method for calculating the communication time between road lighting nodes and the data acquisition and distribution node in telemetric networks designed for road lighting control. The presented method is adequate for all types of networks in which to enlarge the range a multi-hop technique is used. The study considered two transmission technologies: wireless in ISM band and wired PLC, which uses the same wires both for power supplying as well as data transmission. The usage of hot-potato routing protocol is a consequence of the specific topology which is created by road lighting infrastructure. In the case of such a network topology, as well as taking into account the number of nodes supported by a single sink protocol hot-potato is still effective at keeping its main advantages, which are small requirements in terms of computing resources and RAM and ROM. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Małgorzata GÓRCZEWSKA* Sandra MROCZKOWSKA* ILUMINACJA WSPÓŁCZESNYCH OBIEKTÓW ARCHITEKTONICZNYCH NA PRZYKŁADZIE COLLEGIUM NOVUM W POZNANIU W artykule, na przykładzie budynku Collegium Novum w Poznaniu, opisano wybrane problemy związane z iluminacją współczesnych obiektów architektonicznych. W wielu przypadkach, twórca obiektu ma istotny wpływ na wybór ostatecznego rozwiązania oświetlenia fasady. Wskazano na istotną rolę wizualizacji komputerowej efektów plastycznych, możliwych do uzyskania, zależnie od przyjętych, technicznych rozwiązań oświetleniowych, dotyczących wyboru metody iluminacji, doboru rodzaju sprzętu oświetleniowego oraz sposobu montażu opraw. Porównanie wizualizacji różnych wariantów ułatwia podjęcie decyzji realizacyjnej. SŁOWA KLUCZOWE: oświetlenie, iluminacja, komputerowa wizualizacja obiektów 1. WPROWADZENIE Ważną rolą oświetlenia iluminacyjnego obiektów architektonicznych czy zespołów urbanistycznych jest przywołanie światłem ich widoku, znanego z dziennego wyglądu ulicy lub panoramy miasta. Odpowiednio dobrane światło, eksponując interesujące obiekty, kształtuje nastrój, wpływa na podświadomość, tworząc zapamiętywany, nocny wizerunek oświetlonego, pojedynczego budynku lub miasta [1, 2]. Opracowanie projektu iluminacji wiąże się z koniecznością oceny szeregu uwarunkowań, mających wpływ na ostatecznie przyjęte rozwiązania techniczne. Najogólniej ujmując, zagadnienie to obejmuje ocenę: aspektów estetycznych, emocjonalnych, aspektów techniczno-ekonomicznych. Kryteria estetyczne i emocjonalne dotyczą głównie analizy perspektyw widokowych obiektów, ich historycznej lub architektonicznej wartości i znaczenia, atrakcyjności poszczególnych detali, itp. W odniesieniu do obiektów współczesnych, których twórcy żyją, należy uwzględnić ich decyzje, zazwyczaj sprowadzające się do zachowania spójności pomiędzy dziennym i nocnym widokiem budynku, w powiązaniu z jego otoczeniem. __________________________________________ * Politechnika Poznańska. 240 Małgorzata Górczewska, Sandra Mroczkowska Kryteria techniczno-ekonomiczne dotyczą doboru odpowiednich źródeł światła i opraw oświetleniowych, miejsc i sposobu ich montażu, zasilania, sterowania. W praktyce projektowania iluminacji stosuje się metodę zalewową, punktową lub obie łącznie [4]. Każdej z tych metod towarzyszą inne uwarunkowania realizacyjne. W metodzie zalewowej wykorzystuje się stosunkowo niewiele opraw dużej mocy. Metoda ta nadaje się głównie do oświetlania obiektów o znacznych gabarytach, obserwowanych z dużej odległości. W metodzie punktowej wykorzystuje się więcej opraw małej mocy. Niewielkie źródła światła dają możliwość uzyskania w oprawach dobrej optyki a także umożliwiają montaż opraw bezpośrednio na elewacji budynków. Taka metoda realizacji iluminacji nie wymaga prowadzenia instalacji na zewnątrz budynku oraz zapewnia większą swobodę w operowaniu grą światła i cienia. Stosowanie metody punktowej, wykorzystującej oprawy montowane na elewacji, ma swoje ograniczenia. Podświetlenie detali architektonicznych „od dołu” tworzy silne cienie nad elementami poziomymi oraz zbyt mocno eksponuje wertykalny układ elewacji. Często zniekształca całościowy odbiór bryły budynku. 2. OPIS OBIEKTU Budynki Collegium Novum UAM, zaprojektowane i wzniesione w latach 60tych XX wieku, zlokalizowane są na obszarze ograniczonym ulicami: Kościuszki, Powstańców Wlkp. i Al. Niepodległości. Najbardziej wyeksponowanym obiektem zespołu jest budynek, przedstawiony na rysunku 1, doskonale widoczny w perspektywie Al. Niepodległości. Rys. 1. Widok budynku Collegium Novum w Poznaniu w perspektywie Al. Niepodległości Iluminacja współczesnych obiektów architektonicznych na przykładzie ... 241 W doborze sposobu iluminacji obiektów Collegium Novum należy się kierować szczególną potrzebą całościowego wyeksponowania interesującego wyrazu architektonicznego elewacji podłużnych budynków, z powtarzającym się rytmem poziomych i pionowych detali. 3. WIZUALIZACJA KOMPUTEROWA ILUMINACJI OBIEKTU Wizualizacja komputerowa iluminacji polega na realistycznym odtworzeniu obiektu w przestrzeni wirtualnej komputera. Istnieje wiele programów umożliwiających tworzenie grafiki 3D. Do wizualizacji iluminacji stosowane są rendery, gdyż to właśnie one generują obraz trójwymiarowy oraz umożliwiają nakładanie tekstur i efektów świetlnych [3]. Przykładami takich programów są 3D Studio Max, LightWave 3D, 3D VIZ. Wizualizację można również zaprojektować za pomocą zaawansowanych technicznie programów do projektowania oświetlenia, takich jak Relux Professional oraz DIALux. Wizualizację Collegium Novum w Poznaniu, który stanowi przykład współczesnego obiektu architektonicznego, stworzono w programie 3ds Max. Pracę nad wizualizacją komputerową rozpoczęto od zamodelowania geometrii obiektu, którego podstawę stanowią plany architektoniczne i zdjęcia obiektu. Po stworzeniu modelu geometrycznego, określono wygląd powierzchni poprzez odpowiedni dobór parametrów, takich jak barwa, nasycenie i współczynnik odbicia. Wartości tych parametrów wpłynęły na ostateczny efekt wizualny elewacji obiektu. Rys. 2. Wizualizacja komputerowa budynku Collegium Novum w widoku od Al. Niepodległości Kolejny etap wizualizacji komputerowej plastycznych efektów iluminacji polegał na wprowadzeniu rozsyłów i odpowiednim rozmieszczeniu opraw oświetleniowych, dobranych przez autora koncepcji iluminacji. Stworzono 242 Małgorzata Górczewska, Sandra Mroczkowska komputerowe wizualizacje poszczególnych wariantów oświetleniowych, co ułatwiło podjęcie ostatecznej decyzji realizacyjnej. Rys. 3. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu kinkietów wąskostrumieniowych, montowanych bezpośrednio na elewacji Iluminacja budynku oprawami montowanymi bezpośrednio na elewacji, której wizualizację przedstawiono na rysunku 3, nie zapewnia uzyskania oczekiwanego efektu, ponieważ bryła budowli zostaje „przecięta” intensywnymi, pionowymi plamami światła. Równocześnie, wnęki okienne pozostają w całkowitym cieniu. Z uwagi na niewielką odległość opraw od elewacji, niemożliwe jest doświetlenie górnych pięter budynku. W odbiorze wizualnym tego wariantu dominują zbyt intensywne efekty świetlne, natomiast bryła budynku, jako całość, nie jest eksponowana. Taki sposób iluminacji byłby zasadny w odniesieniu do budynków, których wysokość należałoby oświetleniowo zredukować. Dla Collegium Novum takie rozwiązanie byłoby błędem. Odsunięcie opraw od elewacji poprzez zastosowanie wysięgników, w celu wyrównania poziomu oświetlenia fasady, jest niemożliwe z estetycznego punktu widzenia. Z tego powodu korzystniejsze wydaje się rozwiązanie iluminacji z wykorzystaniem opraw montowanych w gruncie, o odpowiednio dobranym rozsyle strumienia świetlnego. W wizualizacjach efektu oświetleniowego, uzyskanego dla wybranego sposobu iluminacji, to jest dla rozwiązania wykorzystującego oprawy doziemne, porównano warianty zastosowania opraw o różnych rozsyłach strumienia świetlnego. Wariant przedstawiony na rysunku 4, zrealizowany z użyciem opraw o rozsyle asymetrycznym, nie spełniał oczekiwań, ponieważ niedostatecznie doświetlał górne Iluminacja współczesnych obiektów architektonicznych na przykładzie ... 243 poziomy budynku. Korekta rozkładu oświetlenia poprzez odsunięcie opraw od budynku nie była możliwa z uwagi na rosnące w pobliżu drzewa, widoczne na rys. 1. Rys. 4. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu opraw montowanych w gruncie – wariant z rozsyłem asymetrycznym Rys. 5. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu opraw montowanych w gruncie – wariant z rozsyłem symetrycznym 244 Małgorzata Górczewska, Sandra Mroczkowska Wariant pokazany na rysunku 5, zrealizowany z zastosowaniem opraw o rozsyle symetrycznym, uznano za najkorzystniejszy, najbardziej równomiernie oświetlający elewację budynku. Takie rozwiązanie uzyskało również aprobatę twórcy obiektu, architekta Zygmunta Skupniewicza, któremu zależało na możliwie całościowym, spójnym odbiorze bryły budynku. 4. WNIOSKI Przedstawiony przykład wyboru sposobu rozwiązania iluminacji współczesnego obiektu architektonicznego, w którego dziennym odbiorze dominuje bryła, jako całość, a nie detale, wskazuje na celowość wykorzystywania nowoczesnych metod komputerowego wspomagania projektowania oświetlenia. Warianty wizualizacji oczekiwanych oświetleniowych efektów plastycznych, ułatwiają podjęcie decyzji zarówno przez projektanta iluminacji jak i architekta, twórcę obiektu. LITERATURA [1] [2] [3] [4] Górczewska M., Some aspects of architectural lighting of historical buildings. Conf. Light in Engineering, Architecture and the Environment, WIT Press, Southampton, Boston 2011, ISSN: 1743-3509, str. 107 – 116. Górczewska M., Mroczkowska S., Iluminacja dziedzińca Collegium Maius UAM w Poznaniu. Przegląd Elektrotechniczny, ISSN 0033-2097, R. 88 NR 5a/2012, str.173-176. Żagan W., Wasserfurth N. Wizualizacja komputerowa oświetlenia – nowa jakość w projektowaniu. Przegląd Elektrotechniczny, 78 (2009), nr.9, 388-392. CIE Technical Report No 94 - Guide for Floodlighting. ARCHITECTURAL ILLUMINATION OF CONTEMPORARY BUILDINGS Chosen aspects of illumination concepts of contemporary buildings are described in the article. The computer visualizations of lighting variants and final solution of Collegium Novum illumination in Poznan are presented. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Tomasz STANKOWIAK* Sandra MROCZKOWSKA* BADANIA OGÓLNODOSTĘPNYCH ZAMIENNIKÓW LAMP CIEMNIOWYCH Celem badań było sprawdzenie czy ogólnodostępne lampy czerwone mogłyby pełnić funkcję lamp ciemniowych w amatorskiej ciemni. W artykule zaprezentowano pomiary fotometryczne i elektryczne kilku lamp czerwonych. Wyniki zaprezentowano na wykresach. Do badań wykorzystano cztery rodzaje papierów fotograficznych, które poddano naświetlaniu i wywołaniu. Wywołane papiery porównano ze sobą organoleptycznie oraz poddano pomiarom densytometrycznym co potwierdziło spodziewane efekty. SŁOWA KLUCZOWE: fotografia, lampy ciemniowe, lampy czerwone, ciemnia 1. WSTĘP W czasach fotografii cyfrowej, analogowa odchodzi już w zapomnienie, nie zmienia to jednak faktu, że nadal są rzesze amatorów tradycyjnego wywoływania zdjęć. W związku z tym pojawia się problem z dostępnością niezbędnych urządzeń do wyposażenia ciemni, a zwłaszcza lamp ciemniowych. Nowoczesne profesjonalne źródła światła stosowane w pracowniach artystycznych czy RTG są poza zasięgiem finansowym zwykłego amatora. Za obiekt badań posłużyły ogólnodostępne czerwone lampy, które z łatwością można nabyć w obiektach handlowych. Badania obejmowały zarówno sprawdzenie źródeł światła pod względem elektrycznym i fotometrycznym oraz oddziaływanie lamp na różnego rodzaju papiery fotograficzne. 2. OPIS STANOWISKA BADAWCZEGO Pomiar parametrów elektrycznych oraz strumienia świetlnego lamp ciemniowych wykonano na stanowisku badawczym z lumenomierzem kulistym o średnicy 2 m. Pomiar wykonano metodą porównawczą z wzorcem strumienia świetlnego, przy wykorzystaniu ogniwa krzemowego skorygowanego do V(λ) i cyfrowego miernika prądu fotoelektrycznego na bazie luksomierza typu __________________________________________ * Politechnika Poznańska. 246 Tomasz Stankowiak, Sandra Mroczkowska LUXMETER L50 firmy SONOPAN. Do zasilania lamp wykorzystany został laboratoryjny zasilacz typu PCR2000M firmy KIKUSUI. Pomiary parametrów elektrycznych przeprowadzono z zastosowaniem laboratoryjnego analizatora mocy LEM Power Analyzer Norma 4000. Zakres badań elektrycznych obejmował: moc P [W], współczynnik mocy cos natężenie prądu I [mA]. Pomiar rozkładu widmowego źródeł wykonano na ławie fotometrycznej z wykorzystaniem spektrofotemetru typu X4 LIGHT ANALYZER firmy GIGAHERTZ-OPTIK. Jako wzorzec strumienia wykorzystano wzorzec strumienia świetlnego produkcji firmy PRC Krochman GMbH: nr 043 typ WI 5 Narva Φw = 1231lm ± 1,2%. Badania oddziaływania lamp na papiery fotograficzne przeprowadzono w warunkach całkowitej ciemności. Do wykonania badań wykorzystano statyw fotograficzny, badane źródła, maskownicę fotograficzną, czasomierz, kuwety z chemią fotograficzną. Po wywołaniu papierów próbki przebadano densytometrem Eye-One pro i wyniki porównano ze sobą. 3. PRZEBIEG BADAŃ Źródła światła wykorzystane do naświetlania papieru zgodnie z wymaganiami normatywnymi zostały poddane wyświecaniu (dojrzewaniu) przez okres ponad 100 godzin. Do badań wykorzystano następujące źródła światła (tabela 1). Tabela 1. Dane katalogowe i wyniki pomiarów dla badanych źródeł światła (bd – brak danych) Nazwa źródła światła Velleman T3 Spiral OSRAM Star Deco OSRAM Lumilux Red L OSRAM Decospot LED ANS Glob mini LED ANS LED 20 Trzonek Moc katalogowa zmierzona W Trwałość godziny Strumień świetlny katalogowy zmierzony lm E27 13 12,69 8000 850 132,22 E27 1 0,96 50 000 8 7,84 G13 18 17,90 12 000 900 1039,50 E14 1 0,87 25 000 bd 10,58 E27 1,2 1,24 bd 15 9,30 GU10 1 0,92 25 000 bd 8,40 Wykorzystano następujące rodzaje papierów: Fomabrom V112, Fomaspeed V312, Ilford RC XPRESS MGP. 44M, ILFORD RC DELUXE MGD.25M. Badania ogólnodostępnych zamienników lamp ciemniowych 247 Po przeprowadzeniu badań fotometrycznych i elektrycznych źródeł światła, sprawdzono czy przebadane lampy naświetlają papier fotograficzny. W tym celu na statywie umieszczano poszczególne źródła światła w odległościach od oświetlanych próbek papieru dobieranych tak, aby uzyskać na powierzchni roboczej natężenie oświetlenie o wartości 1 lx. Każda próbka papieru została podzielona na 4 części, a następnie każdy fragment poddano ekspozycji światła w czasie 0, 1, 3 oraz 7 minut. Po naświetleniu próbek poddano je procesowi wywołania (rys. 1). Rys. 1. Wpływ czasu naświetlania na stopień zadymienia papieru Każdy fragment wywołanego papieru zmierzono densytometrem, aby uzyskać wyniki w przestrzeni barw CIELab. 4. WYNIKI Na podstawie pomiarów fotometrycznych i elektrycznych źródeł światła uzyskano wyniki, z których sporządzono wykresy rozkładów widmowych: Rys. 2. Wykres rozkładu widmowego dla lampy Velleman T3 Spiral 13 W/E27 Świetlówka kompaktowa Vellwman (rys. 2) emituje promieniowanie ciągłe w zakresie fal od około 600 nm do 730 nm. Posiada trzy dominujące prążki, ich długość fali wynosi 613 nm, 631 nm oraz 711 nm. 248 Tomasz Stankowiak, Sandra Mroczkowska Rys. 3. Wykres rozkładu widmowego dla lampy Osram Lumilux Red L 18 W/60 Świetlówka liniowa OSRAM Lumilux Red (rys. 3) emituje promieniowanie ciągłe w zakresie od około 570 nm do 660 nm, ponadto występują pojedyncze prążki dla długości fal około 400 nm, 430 nm, 540 nm oraz 712 nm. Największa moc emitowana jest dla 613 nm. Lampa ledowowa Osram Star Deco (rys. 4) emituje promieniowanie widzalne w zakresie od około 590 nm do 675 nm. Najwięcej energi wypromieniowywane jest dla 641 nm. Rys. 4. Wykres rozkładu widmowego dla lampy Osram Star Deco 1W/E27 Lampa ledowowa Osram Decospot LED (rys. 5) emituje promieniowanie widzalne w zakresie od około 590 nm do 675 nm. Największa moc wypromieniowywana jest dla 632 nm. Rys. 5. Wykres rozkładu widmowego dla lampy Osram Decospot LED 1 W/E14 Badania ogólnodostępnych zamienników lamp ciemniowych 249 Lampa ledowowa ANS Glob mini LED (rys. 6) emituje promieniowanie widzalne w zakresie od około 580 nm do 665 nm. Największa moc wypromieniowywana jest dla 635 nm. Rys. 6. Wykres rozkładu widmowego dla lampy ANS Glob mini LED 1,2 W/E27 Lampa ledowowa ANS LED 20 (rys. 7) emituje promieniowanie widzalne w zakresie od około 600 nm do 650 nm. Największa moc wypromieniowywana jest dla 633 nm. Rys. 7. Wykres rozkładu widmowego dla lampy ANS LED 20 1 W/GU10 Po wywołaniu papierów fotograficznych porównano efekty naświetleń lamp. Lampa Velleman T3 Spiral w żaden zauważalny sposób nie oddziałała na papiery firmy Ilford. Widoczny efekt zadymienia zaobserwowano na papierach Fomaspeed V312 oraz Fomabrom V112.Po wystawieniu papierów na ekspozycję lampy Osram Lumilux Red ich stopień zadymienia okazał się na tyle wysoki, że papiery po wywołaniu były czarne. Lampy Osram Star Deco, ANS Glob mini LED, ANS LED 20 nie zadymiły w zauważalny sposób żadnej próbki papieru. Źródło Osram Decospot LED wykazała podobny wpływ jak poprzednie lampy za wyjątkiem papieru Fomaspeed V312. Na podstawie pomiarów przeprowadzonych densytometrem uzyskano wyniki w przestrzeni barw CIELab. Pomiary te potwierdziły wcześniejsze porównania organoleptyczne. W poniższej tabeli przedstawiono wyniki widocznej reakcji papieru na światło emitowane przez poszczególne lampy (tabela 2). Składowa L 250 Tomasz Stankowiak, Sandra Mroczkowska mieści się w przedziale od 0 do 100 i określa luminancję. Składowa a reprezentuje oś zielono-czerwoną, a składowa b oś niebiesko żółtą. Obie mieszczą się w zakresie -120 do 120 [3]. Różnica pomiędzy dwiema barwami w przestrzeni CIELab opisywana jest za pomocą wzoru : 2 2 2 (1) E L a b Przyjmuje się, że standardowy obserwator zauważa różnicę, gdy: 0< E < 1 - brak zauważalnej różnicy, 1< E <2 - różnica zauważalna dla doświadczonego obserwatora, 2< E <3,5 - różnica zauważalna również dla niedoświadczonego obserwatora, 3,5< E <5 - wyraźnie zauważalna różnica barw, 5< E - wrażenie dwóch różnych barw [3]. Tabela 2. Wyniki pomiarów densytometrycznych przedstawione w przestrzeni barw Cielak Nazwa lampy Valleman T3 spiral Osram Decospot LED Nazwa papieru Współrzędne CIELab dla poszczególnych czasów t = 0 [min] t = 1 [min] t = 3 [min] t = 7 [min] L/a/b L/a/b L/a/b L/a/b Fomaspeed V312 94,1/0,5/-6,1 93,8/0,6/-6,1 93/0,5/-6,3 76,3/0,4/-3,6 Fomabrom 96,9/1,4/-3,7 96,9/1,3/-3,7 94,5/1,3/-3,5 86,1/1,3/-2,6 Fomaspeed V312 96,3/0,9/-6,6 96,3/0,9/-6,6 94,2/0,8/-6,6 92,6/0,8/-6,4 Przykładowe obliczanie różnicy barw dla papieru Fomaspeed V312 oświetlanego lampą Valleman T3 spiral przy czasie naświetlnia 0 minut i 1 minuta: E L 2 a 2 b 2 94,1 93,8 2 0,5 0,6 2 6,1 6,12 = 0,09 0,01 0 0,316 - brak zauważalnej różnicy 5. WNIOSKI Przeprowadzono badania rozkładu widmowego sześciu lamp czerwonych dostępnych w sklepach. Przebadano czerwoną zintegrowaną świetlówkę kompaktową, świetlówkę liniową, oraz lampy diodowe. Porównując wyniki obliczeń z danymi katalogowymi, można zauważyć zbieżności w wartości mocy [W] oraz znaczące rozbieżności w wartości strumienia świetlnego ɸ [lm] (tabela 1). Analizując rozkłady widmowe poszczególnych lamp widać, że wszystkie lampy świecą w podobnym zakresie, a największa ilość światła jest wypromieniowywana Badania ogólnodostępnych zamienników lamp ciemniowych 251 dla długości fali około 630 nm. Kolejny etap badań dotyczył prób ciemniowych dla różnych rodzajów papierów oraz sprawdzania stopnia zadymienia próby papieru. Przyglądając się próbką wywołanego papieru (rys. 8) oraz wynikom obliczeń (tabela 3) widać, że ocena wizualna pokrywa się z pomiarami. Lampa, która nie nadaje się do oświetlania ciemni to świetlówka liniowa Osram Lumilux Red. Lampy, które naświetliły papier w niewielkim stopniu to Valleman T3 spiral oraz Osram Decospot LED. Pozostałe lampy nie naświetliły papieru w żaden zauważalny sposób, co zostało potwierdzone pomiarami densytometrycznymi. Wyniki badań dla drugiego etapu wskazują na potencjalną możliwość stosowana niektórych ogólnodostępnych lamp czerwonych do wyposażenia amatorskiej ciemni zamiast drogich profesjonalnych lamp ciemniowych. Rys. 8. Próbka papieru Fomabrom poddana ekspozycji lampą Valleman T3 spiral Tabela 3. Wyniki obliczeń różnicy pomiędzy dwiema barwami w przestrzeni Cielak Nazwa lampy Nazwa papieru Fomaspeed V312 Valleman T3 spiral Fomabrom Osram Decospot LED Fomaspeed V312 Odległość pomiędzy dwoma punktami w przestrzeni trójwymiarowej t = 0 [min] t = 1 [min] a t = 3 [min] a a t = 1 [min] t = 3 [min] t = 7 [min] E E E 0,316 0,83 16,91 Brak Brak zauważalnej Wrażenie zauważalnej różnicy dwóch różnych różnicy barw 2,4 0,1 Różnica 8,44 Brak zauważalna Wrażenie zauważalnej również dla dwóch różnych różnicy niedoświadczonego barw obserwatora 2,1 1,6 0 Różnica Różnica Brak zauważalna zauważalna dla zauważalnej również dla doświadczonego różnicy niedoświadczonego obserwatora obserwatora 252 Tomasz Stankowiak, Sandra Mroczkowska LITERATURA [1] Felhorski W., Stanioch S.: Kolorymetria trójchromatyczna, WNT, Warszawa 1973. [2] www.kodak.com/global/en/consumer/products/techInfo/k4/k4TestSafelite.shtml [3] Jan Zabrodzki i inni: Grafika komputerowa metody i narzędzia, Wydawnictwo Naukowo Techniczne, Warszawa 1994. [4] Ralph W. Lamberecht, Chris Woodhouse: Way Beyond Monochrome, Focal Press, Oxford 2011. PARAMETERS OF POPULAR, COMMERCIALLY AVAILABLE, RED LAMPS FOR DARKROOM USE Nowadays the most popular is digital photography. However there are still some people keen on traditional photo printing. According to that situation the problem of availability darkroom lamps occurs. The article contains information and comparison of spectrum and electrical parameters popular commercially available red lamps. In addition results of paper fogging of most popular brands will be presented. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Janusz GONDEK* Sławomir KORDOWIAK** Krzysztof RATYŃSKI*** CYFROWE PROGRAMOWALNE STEROWNIKI HYBRYDOWE DLA DIOD LED Diody LED stosowane w technice świetlnej charakteryzują się dużą żywotnością 60 000 – 100 000 godzin, skutecznością świetlną powyżej 100 lm/W, są odporne na narażenia mechaniczne i wielokrotne włączanie, nie wymagają układów zapłonowo–stabilizacyjnych występujących w lampach wyładowczych, świecą od razu pełnym strumieniem, sterowane są analogowo lub cyfrowo. Koszty eksploatacji źródeł światła LED są wielokrotnie niższe od lamp tradycyjnych. Do sterowania i zasilania diod LED opracowane są nowoczesne układy ze sterowaniem prądowym i PWM [2], [3], [4], [7], [12], [13]. SŁOWA KLUCZOWE: diody LED i LED RGB, matryca diodowa, programowalne sterowniki diod LED, protokół DALI, PWM 1. WSTĘP Diody LED znajdują coraz większe zastosowanie w technice oświetleniowej, rozszerzając jej możliwości aplikacyjne. W tym celu szereg znanych firm w świecie opracowało monolityczne układy zasilająco–sterujące, które rozszerzają zakres aplikacji diod LED. Artykuł przedstawia wyniki prac badawczych prowadzonych na Politechnice Krakowskiej, w firmie ENTERIUS i Prywatnym Instytucie Technik Elektronicznych w Krakowie, w zakresie nowoczesnych rozwiązań układowych, cyfrowych programowalnych sterowników hybrydowych diod LED umożliwiających regulację natężenia światła i programowanie scen świetlnych z protokołem DALI [6], [8], [10], [12], [13]. 2. CYFROWE STEROWNIKI HYBRYDOWE DIOD LED Przykładem nowoczesnych sterowników LED stosowanych w zasilaniu LED, mogą być układy firmy STMicroelectronics serii VIPer. Są to sterowniki impulsowe, z wysokonapięciowymi końcówkami mocy, wykonane technologią __________________________________________ * Prywatny Instytut Technik Elektronicznych w Krakowie. ** Politechnika Krakowska. *** ENTERIUS Krzysztof Ratyński, Kraków. 254 Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński monolitycznych układów scalonych [5], [6], [7], [8], [10]. Na ich bazie, można budować zasilacze sieciowe LED z separacją galwaniczną wyjścia od wejścia. Przykład takiego układu podaje rys. 1. Wszystkie sterowniki serii VIPer są wyposażone w układ tzw. miękkiego startu oraz zabezpieczone przed przepięciami, a także zbyt niskim napięciem zasilającym, przed zwarciem obwodu wyjściowego i przed przekroczeniem bezpiecznej temperatury struktury układu scalonego. Rys. 1. Zasilacz LED ze sterownikiem VIPer – 12A Napięcie zmienne230VAC po wyprostowaniu (mostek M1) zasila układ przetwornicy impulsowej zrealizowany na układzie scalonym VIPer/12A. Napięcie z wtórnego uzwojenia transformatora Tr, po wyprostowaniu (D3) i filtrowaniu podawane jest na wyjście zasilacza LED. Tranzystor T1 wraz z diodą Zenera D4 i transoptorem (U2) pełni rolę stabilizatora napięcia wyjściowego. Z kolei rys. 2 przedstawia układ programowalnego sterownika LED realizowanego na układzie scalonym PIC10F322T, który umożliwia regulację jasności (PWM) podłączonych taśm LED (lub innych źródeł światła LED), za pomocą dowolnego łącznika impulsowego (chwilowego). Układ umożliwia regulację jasności od minimum do maksimum. Można też zmieniać kierunek regulacji jasności. Układ sterownika zapamiętuje ustawioną jasność (tylko do czasu odłączenia zasilania) i przywraca ją po ponownym załączeniu. Rys. 2. Programowalny sterownik LED typu MD–1 (ściemniacz) Układ MD–1 jest przeznaczony do małych instalacji oświetleniowych LED, gdzie moc pojedynczego obwodu nie przekracza P 84W. Miniaturowe rozmiary ściemniacza, pozwalają na jego instalację np. w puszce elektrycznej. Układ jest Cyfrowe programowalne sterowniki hybrydowe dla diod LED 255 zasilany z napięcia U = 12 VDC 10%, pobór prądu w stanie spoczynku wynosi < 3mA, posiada maksymalną obciążalność wyjścia LED równą 7A. Częstotliwość PWM wynosi 500 Hz a rozdzielczość strumienia PWM sięga 10 bit. Inny typ programowalnego sterownika przedstawia rys. 3. Jest to trójkanałowy sterownik scen świetlnych LED i LED RGB. Rys. 3. Programowalny sterownik scen świetlnych EC–11S Sterownik umożliwia zaprogramowanie pięciu scen świetlnych, które mogą być statyczne lub dynamiczne. Sceny statyczne programuje się, określając jasność diod LED każdego z trzech kanałów wyjściowych. Z kolei programowanie scen dynamicznych polega na wybraniu konkretnej sceny, z listy wcześniej zaprogramowanych scen dynamicznych. W zależności od rodzaju podłączonego oświetlenia LED sceny te określają jasność każdego z kanałów lub wypadkowy kolor w przypadku systemu RGB. Sceny dynamiczne są wpisane do pamięci mikrokontrolera na zasadzie programów w układzie EC–11 RGB. Sterowanie odbywa się poprzez łączniki impulsowe łączące z masą. Impulsy „masy” (min. 200 ms, max. nie określony). Po wykryciu masy na jednym z wejść, sterownik nie reaguje na podanie masy, jednocześnie na inne wejścia, do czasu zaniku masy, na pierwszym wejściu. Do programowania używany jest łącznik PRG, natomiast łącznik A zmniejsza jasność danego kanału, a łącznik B – zwiększa jasność. Czas płynnego zaświecania i wygaszania oraz przejścia pomiędzy różnymi scenami, jest ustawiony na stałe i wynosi t = 2s. Wyboru jednej z pięciu scen dokonuje się poprzez podanie masy na jedno z wejść (15) mikrokontrolera. Jeśli na żadnym z wejść, nie pojawia się masa, to sterownik pozostaje wyłączony (w trybie czuwania). Z kolei rys. 4. przedstawia schemat ideowy układu sterownika DALI dla oświetlenia LED, typu: EC–133DL. 256 Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński Rys. 4. Programowalny sterownik DALI dla oświetlenia LED typu: EC–133DL Sterownik LED typu EC–133DL jest trójkanałowym ściemniaczem LED, kontrolowanym za pomocą protokołu DALI (Digital Addressable Lighting Interface). Umożliwia sterowanie większością dostępnych na rynku źródeł światła LED, zasilanych napięciowo (np. taśmy LED, moduły LED). Sterownik może również współpracować ze źródłami światła LED sterowanymi prądowo. Wówczas do wyjść sterownika EC–133DL, należy podłączyć dodatkowe drivery typu ED–700 firmy Enterius, które są typowymi interfejsami. Każde z wyjść sterownika może być niezależnie sterowane za pomocą sygnałów DALI. W zależności od rodzaju podłączonych źródeł światła LED, sterownik EC–133DL może pracować jako ściemniacz trzech niezależnych obwodów LED lub jako sterownik LED RGB. Dzięki wysokiej rozdzielczości sterowania PWM, sięgającej 16 bit, sterowanie każdym z wyjść, przejścia pomiędzy barwami lub zmiany jasności są niezwykle płynne. Dodatkowo, dzięki możliwości wyboru charakterystyki zmian jasności (funkcja protokołu DALI) między liniową a logarytmiczną, dostosowanie pracy sterownika EC133DL do wymagań danej instalacji LED jest bardzo dogodne. Każdy z trzech kanałów wyjściowych, jest osobno adresowany i zgodnie ze standardem DALI, programowanie adresu, możliwe jest w trybie automatycznym (wywoływanym ze sterownika Master) lub ręcznym, z wykorzystaniem łącznika impulsowego PROG. Wejście sygnałów DALI, posiada pełną separację galwaniczną od pozostałej części układu. Sterownik EC–133DL posiada trzy wejścia typu OC (podające masę), o dużej obciążalności prądowej, sięgającej 7A każde. Trójkolorowa dioda LED sygnalizuje stan pracy sterownika. Podczas normalnej pracy kiedy sterownik EC–133DL nie odbiera żadnych komunikatów, przeznaczonych dla niego dioda nie świeci. Odebranie komunikatu przeznaczonego dla kanału Nr 1 jest sygnalizowane błyskiem koloru czerwonego, dla kanału Nr 2 błyskiem zielonym, a dla kanału Nr 3 błyskiem niebieskim. Cyfrowe programowalne sterowniki hybrydowe dla diod LED 257 Rys. 5. Schemat interfejsu DALI sterownika EC–133DL Sterownik EC–133DL jest zasilany napięciem U=12VDC ±30%. Posiada częstotliwość PWM ~730Hz. Jest przeznaczony do montażu na szynach DIN (TS– 35, TH–35) w szafach i rozdzielniach elektrycznych. a) b) Rys. 6. Schemat aplikacyjny sterownika DALI typu: EC–133DL a) dla taśm LED itp., b) dla taśm LED RGB itp. Inny typ programowalnego sterownika LED, przedstawia rys. 7. Jest to skomplikowany sterownik (x–y) umożliwiający zaświecanie, w sposób programowalny jednej lub wielu diod LED wyświetlacza składającego się z 96 diod LED. Matryca diodowa LED jest sterowana driverami LED w sposób programowalny. Diody LED są zaświecane impulsami (multipleksowane). Tego typu praca diod pozwala na mniejsze nagrzewanie się diod LED, co w przypadku 258 Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński matryc diodowych jest zagadnieniem istotnym. Matryce diodowe LED znajdują zastosowanie do podświetlania próbek w analizach mikroskopowych oraz w specjalizowanych układach sygnalizacyjnych. Rys. 7. Programowalny sterownik matrycy diodowej LED 3. PODSUMOWANIE Opracowane sterowniki LED umożliwiają sterowanie większością dostępnych na rynku źródeł światła LED zasilanych napięciowo. Uzyskano przy tym wysoką rozdzielczość sterowania PWM. Tego typu sterowniki mogą być zastosowane w inteligentnych systemach sterowania w budynkach etc. Sterowniki LED wykonano Cyfrowe programowalne sterowniki hybrydowe dla diod LED 259 technologią powierzchniowego montażu, możliwa jest wersja hybrydowa. Technologia hybrydowa zwiększa niezawodność działania i trwałość cyfrowych sterowników LED. W specjalnych zastosowaniach koniecznym staje się wykonanie sterowników w mikroelektronicznej technologii warstw grubych, która jest bardzo odporna na działanie niekorzystnych czynników techno-klimatycznych (wysokie i niskie temperatury, wysoka wilgotność powietrza). Umożliwia maksymalną miniaturyzację sterowników i znacznie wydłuża ich trwałość. LITERATURA [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] Elektronika Praktyczna, nr 3/2007. Energooszczędne oświetlenie, perspektywy rozwoju w Europie i w Polsce. 20 czerwca 2007, Warszawa, Poland. Gondek J., Kordowiak S.: Cyfrowe sterowniki Hybrydowe LED. XIII Conference Computer Applications in Electrical Engineering. Poznan, April 14 - 16, 2008. Wiśniewski A.: Diody elektroluminescencyjne (LED) dużej mocy. Przegląd Elektrotechniczny, 05/2007. Zaremba K., Pawlak A.: Parameters of model luminare with high power LED diodes. Przegląd Elektrotechniczny, 05/2007. Ronat O.: The Digital Addressable Lighting Interface (DALI). An Emerging Energy-Conserving Lighting Solution. International Rectifier. Gondek J., Kordowiak S., Habdank-Wojewódzki T.: Hybrydowe sterowniki LED do opraw oświetlenia awaryjnego. XVII Conference Computer Applications in Electrical Engineering 2012, ISSN 1897-0757. Poznan University of Technology Academic Journals No 69, 2012. Materiały informacyjne firmy Power Integrations, 2012. Oświetlenie INFO Nr 4 (36), październik – grudzień 2011. Zasilacze stabilizowane LED, PITE, materiały własne, 2012. Żagań W.: Podstawy techniki świetlnej. Wydawnictwo Politechniki Warszawskiej 2005, ISBN 83-7207-541-7. www.enterius.pl Oświetlenie INFO Nr 4 (40), październik – grudzień 2012. DIGITAL PROGRAMMABLE HYBRID LED DRIVERS The paper contains the result of research work carried out in Private Institute of Electronic Engineering together with Cracow University of Technology and ENTERIUS Company. The works were dedicated for elaboration new digital programmable hybrid LED drivers, thick-film technology and surface technology were used. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Łukasz PUTZ* OPTIMIZATION ANALYZE OF THE LED LIGHTING INSTALLATION FOR A QUALITY OF ELECTRICAL ENERGY The author of this paper plans to make a measurement of quality parameters for existing and used lighting installation, made from electroluminescent diodes (LED). The measurements will be made in a few different working states of installation. Based on research will be conducted the analyze and this allow define the worst working state. In the further will be selected elements which generate the most of distortion. The research will aim to create optimal solution, that is maximal reduction of higher harmonics voltage and current level, while minimal costs of influence in lighting installation. KEYWORDS: words: electroluminescent lighting, higher harmonics of voltage and current, LED, lighting installation, online UPS power supply, quality of electrical energy 1. INTRODUCTION The concept of quality of electrical energy appeared relatively recently, in the 80s of the twentieth century. It is a collection of various electrical quantities (eg. voltage, frequency, harmonics, etc.) that determine is the electrical energy provided to customers retain the appropriate parameters, allowing for the correct operation of all electrical equipment [3]. Maintaining proper quality of electrical energy required to meet certain minimum requirements that have been defined and stored in the Standards and Directives. Poland has a Standard PN-EN 50160:1998 "Parameters of the voltage supply in public distribution networks" [6]. The LED technology in electrical lighting is a method of producing light using light-emitting diodes. This method based on the phenomenon of electroluminescence (returning of energy through the excited electrons as the photons of light). Light sources based on LED technology greatly affect on the quality of electrical energy in power grids. The number of LED lamps is still increasing and cause more and more noise. The work on reducing the negative impact of LED on the electricity network are becoming necessary [2]. __________________________________________ * Poznan University of Technology. 262 Łukasz Putz Bad parameters which determining the quality of electrical energy may cause incorrect work of devices which distribute electricity, starting from overheating transmission lines, through rough running motors, generators and transformers, to the total destruction of these devices. For private customers generating higher harmonics to the energy grid causes a lot of interference in devices connected to this grid, while causes increasing consumption of electrical energy [1]. 2. IMPROVING THE QUALITY OF ELECTRICAL ENERGY Power companies must provide electrical energy to customers with the parameters defined in the Standard. Therefore in power plants, transformer stations and substations are mounted devices which control and improve the quality of electrical energy. Large customers are also required to control quality and minimize distortion introduced into the power grid. They can take care of it directly by replacing harmful elements in the electrical installations or indirectly by using the systems or devices to prevent ingress of higher harmonic voltage and current to the grid [1]. At present are using several technical solutions to improve the quality of electrical energy [3]: a) improving the design of the equipment that emits noise rarely used and difficult task which is not always bringing the desired effect; b) using the passive filters, which are bent on a specific type of distortion, continuously operating only in this one purpose - the solution is often used because it allows to get quite good results with a relatively low price (good price to quality ratio); c) using active filters, which continuously are analyzing interference in real time to reduce them - it is quite beneficial effect, allows to get satisfying results, but rather expensive, although increasingly used; d) using active power supply, which keeps the electrical equipment always on, working in online mode, what means the device which fulfil so to say two functions, first: allow to keep power supply into devices when a sudden power failure in the electrical grid, second: at all times it is converting the voltage signal passes through the device and forming an almost undisturbed sinusoidal signal with a frequency of electrical grid (50 Hz). 3. PRE-MEASUREMENTS OF LIGHTING SYSTEM Preliminary research allowed to determine the basic parameters of the installation and the level of potential danger. Pre-measurements were performed using a high class power quality meter FLUKE 434/PWR. Optimization analyze of the LED lighting installation for a quality of … 263 The research was conducted in the momentary mode, that means the measurement in short period of time [5]. Performed research allowed to determine the electrical parameters of electroluminescent lighting installed. The supply voltage of installation is 240 V and is slightly higher than the nominal (230 V), because the measurement were performed in the main switchboard, when most electrical equipment was turned off. The active power of installed lighting in the lobby was 720 W. The system absorb very little reactive power (73 var), so is achieved a very high power factor cos φ = 0.99. Effective current in the installation is 4.99 A [5]. From the observation of a levels of higher harmonics voltage and current it can be seen that the odd harmonics of current intensity are highly raised (Fig. 1a). It affects on the significant distortion of the current intensity. The current signal is quite different from a sinusoidal signal (Fig. 1b). a) b) Fig. 1. Current distortion: a) the levels of higher harmonics, b) the current waveform 4. DETAILED MEASUREMENTS OF LIGHTING SYSTEM The whole process of conducting of detailed research was very similar to preliminary research. Only one difference was to performed more measurements at different times of day and night. Additionally, to observe the changes taking place in the lighting installation, was made measurements in the tracking mode of quantity of the power quality in 6-hour periods. The main purpose of any measurements was to determine the levels of higher harmonics of voltage and current intensity. Behind the measurements in different points of time was also conducted the observation of every higher harmonics in a long period of time. In addition to tracking higher harmonics of voltage and current were also observed changes of other electrical quantities in a long period of time. These were mainly: voltage, current intensity (Fig. 2), frequency, active power, reactive power, apparent power and power factor [4]. 264 Łukasz Putz Fig. 2. The trend of RMS current intensity in 6 hours - tracking mode (screenshot from meter) 5. THE ANALYZE OF MEASUREMENTS OF ELECTRICAL INSTALLATION After processing the data stored in memory of the meter FLUKE 434/PWR drawn graphs harmonic content of voltage and current. The analysis was performed for three different working states of lighting installation: a) full load of lighting installation - all light sources and power supplies are enabled in the rated load (Fig. 3), b) only power supplies working - light sources are disabled at the secondary side of power supplies, power supplies are turned on (Fig. 4), c) disabled lighting installation light sources and power supplies are disconnected from the electrical grid, the grid parameters were measured at the connection point of the lighting installation. In bar charts are presented the individual harmonics up to the 50th in the values of effective current. To receive the percentage content of the of higher harmonics should be taken the value of the first harmonic (50 Hz) as 100% and the proportional determine the higher harmonics. After summing up the basic harmonic and all higher harmonics (up to 50th) in the Fourier series is achieved current waveform in time presented on Fig. 5. The waveform does not have the shape of sinusoid, and it is very distorted [4, 5]. In the Standard PN-EN 61000-3-2:1997 "Electromagnetic Compatibility. Acceptable levels. Limits for harmonics current emissions (equipment input current ≤ 16 A" specified ambiguously defined levels of harmonic current, while these values are oversized. Nevertheless part of the harmonics current in the tested installation is approaching the limits of normative levels [7]. Optimization analyze of the LED lighting installation for a quality of … Fig. 3. Full load work - all light sources and power supplies enabled, higher harmonics of current intensity before modernization Fig. 4. Idle work - enabled power supplies, disconnect the light source, higher harmonics of current intensity before modernization Fig. 5. Waveform of current in lighting installation before modernization 265 266 Łukasz Putz 6. IMPROVEMENT THE PARAMETERS OF POWER QUALITY IN TESTED LIGHTING INSTALLATION Tested lighting installation was simulated numerically and optimized to improve the power quality, and at the same time the lowest cost of interfering on the installation are achieved. Three possible solutions were checked: a) regulators of higher harmonics of voltage and current - the most expensive solution because it would be necessary to use separate systems for each higher harmonic, and there are too many higher harmonics in the tested installation, b) capacitor batteries - the cheapest solution, but not giving satisfactory results in the case of reduction the levels of higher harmonics of voltage and current, c) UPS Online power supplies - the best solution, these power supplies are cheaper than regulators of higher harmonics and at the same time they adjust voltage and current harmonics better than capacitors. The best solution in simulations was tested on the actual installation. In the switchboard was connected UPS online power supply with power up to 1 kW between lighting installation and switchboard. Then measured and analyzed the results of measurement of higher harmonics voltage and current intensity. On the Fig. 6 and Fig. 7 was presented a graphic view the content of higher harmonics of current after the modernization of lighting installation. From the comparison results before and after modernization of lighting installation it is evident that higher harmonics content has been reduced by about 70%. It is a very good result. In the installation are dominating odd harmonics. The value of the basic harmonic (50 Hz) was increased. After summing up all the harmonics in the Fourier series is achieved current waveform close to a sinusoid (fig. 8). Consequently, the current effective value is higher [4, 5]. Fig. 6. Full load work - all light sources and power supplies enabled, higher harmonics of current intensity after modernization Optimization analyze of the LED lighting installation for a quality of … 267 Fig. 7. The idle work - enabled power supplies, disconnect the light source, higher harmonics of current intensity after modernization Fig. 8. Waveform of current in lighting installation after modernization 6. CONCLUSION From the comparison above it shows, that the undertaken work have produced the desired effect. As a result it was reduced the content of higher harmonics of current in the lighting system of lobby in an office building. Comparing the values of higher harmonics of current intensity before the research with values after the research was achieved nearly 70-percent improvement. BIBLIOGRAPHY [1] [2] [3] Bolkowski S.: „The Theory of Electrical Circuit”, pub. WNT, Warsaw 2013. Collective Work: “Lighting Technology’09. Guide - Newsletter”, pub. PKO-SEP, Warsaw 2009. Krakowski M.: ”The Theoretical Electrical Engineering. Vol. 1. Linear and nonlinear circuit”, pub. PWN, Warsaw 1999. 268 [4] [5] [6] [7] Łukasz Putz Putz Ł., Nawrowski R.: ”Energy efficiency analysis of lighting installations using LED technology”, Electrical Review, pp: 296-298, Warsaw, VI.2013. Putz Ł., Typańska D.: ”Analysis of the electrical parameters of electroluminescent lighting in the lobby of an office building”, Proceedings from International Conference Advanced Methods of Theory of Electrical Engineering, pp: VI-3, Roztoky u Krivoklatu (Czech Republic), 4-6.IX.2013. Standard PN-EN 50160:1998 "Parameters of the voltage supply in public distribution networks". Standard PN-EN 61000-3-2:1997 ”Electromagnetic Compatibility. Acceptable levels. Limits for harmonics current emissions (equipment input current ≤ 16 A)”. P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S No 79 Electrical Engineering 2014 Marcin WESOŁOWSKI* Ryszard NIEDBAŁA* Jacek HAUSER** WYZNACZANIE DYFUZYJNOŚCI CIEPLNEJ PRZY WYKORZYSTANIU KAMERY TERMOWIZYJNEJ Niniejsza praca dotyczy zagadnień wyznaczania dyfuzyjności cieplnej ciał stałych, przy wykorzystaniu technik termowizyjnych. Pomiary parametrów cieplnych charakteryzujących elementy termoizolacyjne są zazwyczaj długotrwałe, co ogranicza ich przydatność w zastosowaniach praktycznych. Pomiary takie nie mogą być wykonywane w warunkach produkcyjnych, do monitorowania jakości wszystkich produktów. W artykule zaprezentowano nową metodę eksperymentalno-obliczeniowego wyznaczania dyfuzyjności cieplnej. Metoda charakteryzuje się krótkim czasem pomiaru, wysoką dokładnością oraz niewielką wrażliwością na warunki zewnętrzne. Dzięki temu istnieje możliwość jej łatwej implementacji w aplikacjach o charakterze przemysłowym. W pracy przedstawiono koncepcję metody pomiarowej oraz modelu urządzenia badawczego, wykorzystującego zespół promienników podczerwieni i kamerę termowizyjną. Wykonane analizy oraz wstępne badania potwierdzają skuteczność i wysoką dokładność proponowanych rozwiązań. SŁOWA KLUCZOWE: pomiar dyfuzyjności cieplnej, kamera termowizyjna 1. WPROWADZENIE Przewodność cieplna właściwa oraz dyfuzyjność cieplna są podstawowymi parametrami charakteryzującymi ciała stałe pod względem zdolności przewodzenia energii cieplnej odpowiednio: w stanie cieplnie ustalonym oraz cieplnie nieustalonym. Istnieje wiele metod wyznaczania tych wielkości, zarówno w stanach statycznych, jak i dynamicznych [1, 2, 3]. Bardzo często, w przypadkach wymagających wysokiej dokładności, badania przewodności cieplnej właściwej oraz dyfuzyjności wymagają wykonywania długotrwałych pomiarów w warunkach laboratoryjnych [2]. Tego rodzaju pomiary nie mogą być wykonywane na szeroką skalę, na przykład w warunkach produkcyjnych. Istnieje zatem potrzeba opracowania i wykorzystywania procedur i urządzeń umożliwiających wyznaczanie przewodności cieplnych w sposób szybki, oraz gwarantujących __________________________________________ * Politechnika Warszawska. ** Politechnika Poznańska. 270 Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser wysoką dokładność. Przykładem stosowalności tego rodzaju rozwiązań są procesy wytwórcze materiałów i przegród termoizolacyjnych (lodówki, szyby okienne, itp.), gdzie dodatkowo nie ma możliwości montażu czujników temperatury wewnątrz analizowanego obiektu. Niniejsza praca dotyczy zastosowania nowoczesnych technik pomiarowych w zagadnieniu wyznaczania dyfuzyjności cieplnej materiałów, bądź elementów, na podstawie dynamicznych zmian temperatury na powierzchni zewnętrznej badanych ciał stałych. Zaprezentowane obliczenia dotyczące propagacji ciepła w analizowanych elementach umożliwiło opracowanie przesłanek do metody pomiarowej. Wyszczególniono podstawowe źródła błędów oraz sposoby ich eliminacji bądź ograniczenia. Opracowane stanowisko pomiarowe wykorzystane zostało do wykonania wstępnych pomiarów umożliwiających ocenę dokładności i stosowalności proponowanej metody. 2. KONSTRUKCJA STANOWISKA POMIAROWEGO Niestacjonarne metody pomiarowe dyfuzyjności cieplnej, polegają zazwyczaj na ocenie dynamicznych zmian temperatury wywoływanych przez kontrolowane źródło ciepła. Ogólny schemat stanowiska pomiarowego, zgodnego ze standardami przy tego rodzaju pomiarach, pokazany został na rysunku 1. Rys. 1. Stanowisko do pomiaru dyfuzyjności cieplnej: 1- obiekt badany; 2- zespół promienników; 3- kamera termowizyjna; 4- komputer nadrzędny Stanowisko składa się z zespołu promienników podczerwieni o konstrukcji umożliwiającej izotermiczne nagrzanie badanej powierzchni płaskiej. Stopień jednorodności pola temperatury jest wyznaczany na podstawie termogramów. Warto zaznaczyć, iż wysoka dokładność metody pomiarowej możliwa jest do osiągnięcia jedynie w przypadku jednokierunkowego przepływu ciepła, co wymaga jednomiernego napromieniowania badanej powierzchni. W takich warunkach możliwe jest stosowanie dowolnego sposobu pomiaru temperatury powierzchni, na przykład przy wykorzystaniu pirometru umożliwiającego dokonywanie bardzo szybkich pomiarów. W przypadku detekcji miejscowych wad materiałów termoizolacyjnych, kamery termowizyjne stanowią obecnie najlepsze rozwiązanie. Z tego względu, w proponowanej metodzie pomiarowej kamera Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej 271 stanowi drugi element, istotnie wpływający na poszerzenie spektrum stosowalności i dokładność metody pomiarowej. Trzecim elementem stanowiska jest komputer nadrzędny z zaimplementowanym oprogramowaniem umożliwiającym szybkie wyliczanie poszukiwanej wartości dyfuzyjności cieplnej. 3. WYMIANA CIEPŁA NA POWIERZCHNIACH CIAŁ STAŁYCH Zagadnienia związane z analizą stanu pól temperatury na zewnętrznych powierzchniach ciał stałych wymagają zazwyczaj rozpatrywania szeregu zjawisk związanych z dyfuzją ciepła do wnętrza, oraz wymianą ciepła pomiędzy rozpatrywaną powierzchnią a jej otoczeniemi. Określanie dyfuzyjności cieplnej a (w m2/s), równej: a cp (1) gdzie: - przewodność cieplna właściwa (w W/(m∙K); cp- ciepło właściwe (w J/(kg∙K)); - gęstość (w kg/m3), wymaga dokładnej ilościowej analizy wspomnianych zjawisk. Określenie zasad pomiaru dyfuzyjności cieplnej rozpoczęto od przeprowadzenia podstawowych obliczeń strumieni cieplnych wymienianych z powierzchni ciała stałego na drodze konwekcji, radiacji oraz kondukcji. Podstawowe zależności podane w [2, 3] wykorzystano do wyznaczania mocy cieplnych w stanie ustalonym. Założono izotermiczność ciała stałego oraz otoczenia. Jedynie analizowana powierzchnia charakteryzowała się temperaturą wyższą o 1 K, w stosunku do pozostałego obszaru układu. Na rysunku 2 pokazano przebieg wartości współczynnika p - będącego ilorazem wartości mocy cieplnej przewodzonej do wnętrza ciała stałego i sumie mocy cieplnych traconych przez konwekcję i radiację - w funkcji przewodności cieplnej właściwej , zmienianej w granicach 0 – 100 W/(m∙K). Rys. 2. Charakterystyki stosunku mocy cieplnych przewodzenia do sumy mocy cieplnych traconych przez konwekcję (1) i radiację (2) z powierzchni ciała stałego 272 Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser Przy niskich wartościach przewodności cieplnych właściwych, wartości mocy cieplnych traconych do otoczenia są porównywalne z mocą przewodzoną do wnętrza ciała stałego. Precyzyjna znajomość strat cieplnych jest zatem niezmiernie istotna przy wyznaczaniu dyfuzyjności cieplnych materiałów termoizolacyjnych. Opracowanie metody wyznaczania dyfuzyjności cieplnej poprzedzone zostało analizą zjawiska przewodzenia ciepła w ciałach stałych o zróżnicowanych parametrach materiałowych. Celem obliczeń było dokonanie oceny wpływu poszczególnych parametrów materiałowych oraz geometrycznych, na stan pola temperatury badanego ciała. Obliczenia i analizy wykonano w oparciu o równanie przewodzenia ciepła dla nie poruszających się ciał stałych (równanieFouriera – Kirchoffa) o postaci [4]: p t V 2t c p c p (2) gdzie: t- temperatura (w K), τ- czas (w s), pV - gęstość objętościowa mocy cieplnej (w W/m3). Model matematyczny zagadnienia brzegowego wymiany ciepła zakładał, iż energia cieplna od promiennika podczerwieni wydzielana jest w przypowierzchniowej warstwie ciała stałego o grubości 1 nm. W pozostałym obszarze zależność (2) została uproszczona poprzez pominięcie gęstości objętościowej mocy pV. Równania przewodzenia ciepła uzupełniono warunkami granicznymi. Jako warunek początkowy przyjęto jednorodną temperaturę całego układu termokinetycznego na poziomie t0 = 20ºC. Temperatura ta była charakterystyczna dla otoczenia rozpatrywanego ciała i nie zmieniała się podczas całej analizy. Na zewnętrznych powierzchniach analizowanego ciała założono warunek brzegowy trzeciego rodzaju o postaci:. t F t 0 dt dn (3) 3 gdzie: α- całkowity współczynnik przejmowania ciepła (w W/(m ∙K)); tFtemperatura powierzchni; t0- temperatura otoczenia. W celu uwzględnienia konwekcyjnej i radiacyjnej wymiany ciepła, całkowity współczynnik przejmowania ciepła, równy sumie konwekcyjnego i radiacyjnego współczynnika przejmowania ciepła, podano w postaci: C Gr Pr T n k r c 0 F T0 TF2 T02 (4) gdzie: Gr- liczba Grashofa; Pr- liczba Prandtla; ε- emisyjność. Zaprezentowany model matematyczny stanowił kompletny opis analizowanego układu. Z uwagi na ogólny charakter prowadzonych analiz, przyjęto model jednowymiarowy, charakterystyczny dla jednostkowego przewodzenia ciepła w nieskończenie rozległym układzie płaskim. Obliczenia wykonano przy wykorzystaniu autorskiego algorytmu, zaimplementowanego w środowisku Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej 273 MathCad. Wykonano szereg analiz, których podstawowym celem było opracowanie metody wyznaczania parametrów ciała stałego na podstawie zmian temperatury na jego powierzchni, oraz określenie dopuszczalnych granic stosowalności metody, przy których charakteryzować się ona będzie akceptowalną dokładnością. Podstawowe wymagania, co do metody pomiarowej sformułowano następująco: szybkość działania, gwarantująca możliwość implementacji w warunkach produkcyjnych; wysoka dokładność, umożliwiająca detekcję wadliwych konstrukcji powłok termoizolacyjnych; niewrażliwość na środowisko robocze, zwłaszcza na zmienne warunki temperaturowe otoczenia. Z uwagi na powierzchniowy charakter pomiarów temperatury, wyodrębniono grupę czynników istotnie wpływających na proces dyfuzji. Zgodnie z założeniami proponowanej metody, pomiar dyfuzyjności cieplnej powinien odbywać się w warunkach o możliwie odmiennych wartościach temperatury otoczenia. Badane ciało w chwili początkowej będzie miało temperaturę równą temperaturze otoczenia, a jego powierzchnia poddawana będzie działaniu impulsu energii cieplnej. Wykonano obliczenia wpływu temperatury otoczenia na charakterystyki nagrzewania i chłodzenia analitycznego ciała stałego, przy temperaturze otoczenia zmienianej od 5ºC, do 50 ºC. Wybrane charakterystyki temperaturowe dla analizowanych przypadków pokazano na rysunku 3. Rys. 3. Przebiegi temperatur powierzchni ciała stałego, dla zróżnicowanych temperatur otoczenia: 1. t0 = 5ºC; 2. t0 = 20 ºC; 3. t0 = 35 ºC Otrzymane wyniki są charakterystyczne dla modelu liniowego. Charakterystyki zmian temperatury w czasie są analogiczne i przesunięte względem siebie o wartość temperatur otoczenia. Wpływ temperatury otoczenia może być zatem korygowany, poprzez dwukrotny pomiar temperatury powierzchni próbki, w 274 Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser ustalonych chwilach czasowych. Nieznajomość mocy cieplnej wydzielającej się na powierzchni badanego ciała oraz dokładnych warunków początkowych podczas pomiarów, może być przyczyną znacznych błędów wynikających z niepoprawnej korekcji warunków otoczenia. Dodatkowe analizy uwzględniające zmienny współczynnik przejmowania ciepła umożliwiły stwierdzenie znikomego wpływu tego parametru na wyliczane charakterystyki temperaturowo – czasowe. W zagadnieniach praktycznych nagrzewania promiennikowego, trudno jest określić rzeczywistą wartość mocy padającą na nagrzewaną powierzchnię. Zależna jest ona od mocy promiennika (mogącej zmieniać się podczas nagrzewania), parametrów powierzchni ciała stałego, oraz współczynników konfiguracji układu grzejnego. Opracowany model obliczeniowy wykorzystano do ustalenia wpływu mocy padającej na nagrzewaną powierzchnię na charakterystyki nagrzewania i chłodzenia powierzchni ciała stałego. Zakładano, iż moc wydzielana w przypowierzchniowej warstwie zmienia się w zakresie 2 – 5.5 kW. Założono niezmienne parametry materiałowe ciała, oraz stałą wartość współczynnika przejmowania ciepła. Wyniki obliczeń zaprezentowano na rysunku 4. Rys. 4. Przebiegi temperatury powierzchni ciała stałego przy stosowaniu różnych mocy grzejnych. 1. P = 2 kW; 2. P = 3.5 kW; 3. P = 5.5 kW Na podstawie obliczeń wykazano, iż nawet przy stosowaniu modelu liniowego, o niezmiennych parametrach i warunkach granicznych, charakterystyki nagrzewania i chłodzenia różnią, pod względem ilościowym, jak i jakościowym. Zarówno stałe czasowe chłodzenia, jak i wartości temperatur w kolejnych chwilach czasowych są odmienne. Nawet w skali bezwymiarowej nie udało się zunifikować i uogólnić otrzymanych wyników. Wpływ mocy powierzchniowego źródła ciepła (o nieznanej wartości) w połączeniu ze zmiennymi warunkami otoczenia, praktycznie uniemożliwia zastosowanie pojedynczego impulsu energii do powierzchniowego badania dyfuzyjności cieplnej ciał stałych. Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej 275 4. METODA POMIARU DYFUZYJNOŚCI CIEPLNEJ Wykonane obliczenia umożliwiły opracowanie nowej metody pomiaru dyfuzyjności cieplnej, wykorzystującej stanowisko o konstrukcji pokazanej na rysunku 1. Analiza źródeł błędów wykazanych podczas obliczeń była podstawą doboru odpowiedniej procedury, gwarantującej akceptowalną dokładność wyników uzyskiwanych podczas jej wykorzystywania. Algorytm pomiarowy pokazano na rysunku 5. Rys. 5. Procedura pomiarowa dyfuzyjności cieplnej Wykorzystanie dwóch serii pomiarowych umożliwiło eliminację błędów metod opierających się na pojedynczych impulsach, poprzez: uniezależnienie wpływu warunków zewnętrznych na współczynnik będący podstawą wyznaczania dyfuzyjności cieplnej; brak potrzeby znajomości mocy wydzielanej w analizowanym ciele; eliminację błędów metody pomiaru temperatury. Badania poprawności przyjętych rozwiązań potwierdzono odpowiednimi obliczeniami. Powtórnej analizie poddano wpływ mocy cieplnej oraz warunków otoczenia. Przebiegi temperatur przy symulacji pracy układu w warunkach odmiennych mocy źródeł ciepła pokazano na rysunku 6. Rys. 6. Przebiegi temperatury na powierzchni ciała stałego, w odpowiedzi na dwa 1- sekundowe impulsy mocy, przy zróżnicowanych mocach źródła ciepła. 1. P = 2 kW; 2. P = 3.5 kW; 3. P = 5.5 kW 276 Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser Dla wszystkich zaprezentowanych przebiegów wyznaczono stosunek różnic temperatur w chwilach czasowych oznaczonych jako (I) i (II), oraz (III) i (IV), zgodnie z zależnością (5): w t ( I ) t ( II ) t ( III ) t ( IV ) (5) Wartość zmiennej Δw we wszystkich przypadkach była stała, i wynosiła 0.892. Wykazano zatem, iż w modelu liniowym, moc stosowanego źródła ciepła nie ma wpływu na względny stosunek spadków temperatury w odpowiedzi na dwa impulsy mocy grzejnej. Założenie to jest słuszne jedynie dla ciał charakteryzujących się stałymi parametrami materiałowymi i stałymi wartościami współczynników przejmowania ciepła. Podobne analizy wykonano podczas badania wpływu warunków cieplnych otoczenia, na charakterystyki temperatury wyznaczone w rozpatrywanym modelu. Wyniki obliczeń pokazano na rysunku 7. Rys. 7. Przebiegi temperatury na powierzchni ciała stałego, w odpowiedzi na dwa 1- sekundowe impulsy mocy, przy zróżnicowanych temperaturach otoczenia. 1. t0 = 5ºC; 2. t0 = 20ºC; 3. t0 = 35ºC Również w tym przypadku wyznaczono zmienną Δw (5). We wszystkich przypadkach stosunek temperatur w wybranych chwilach czasowych wynosił 0.892, analogicznie do poprzednio rozpatrywanego przypadku. Uzyskane wyniki wykazały jednoznacznie brak wpływu czynników zewnętrznych oraz rodzaju i mocy źródeł ciepła, na wartość zmiennej określonej zależnością (5). Możliwe jest zatem jej zastosowanie w zagadnieniu pomiaru dyfuzyjności cieplnej. Wartość tej zmiennej jest bowiem zależna jedynie od jej wartości, po przyjęciu liniowości warunków granicznych i parametrów materiałowych. Fakt ten nie stanowi poważnego źródła błędów w proponowanej metodzie, z uwagi na niską różnicę temperatur pomiędzy badaną powierzchnią i otoczeniem. Na podstawie wyliczeń współczynnika Δw (5) w funkcji dyfuzyjności cieplnej, otrzymano zbiór wartości pokazany w skali półlogarytmicznej na rysunku 8. Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej 277 Rys. 8. Wartości współczynnika Δw w funkcji dyfuzyjności cieplnej Na podstawie wyników, dobrano dwie funkcje interpolujące wyniki, dla niskich (materiały termoizolacyjne) i wysokich (przewodniki ciepła) wartości dyfuzyjności cieplnych. Metoda pomiarowa wykorzystana została do konstrukcji stanowiska pomiarowego, widocznego na rysunku 9. Rys. 9. Stanowisko pomiarowe podczas pracy Przykładowe wyniki badania termograficznego wycinka płaskiej powierzchni aluminiowej pokazano na rysunku 10, dla charakterystycznych (5) chwil czasowych. Rys. 10. Termogramy wykonane dla powierzchni aluminium po czasie: a) 1 s; b) 2 s; c) 3 s; d) 4 s 278 Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser Wartość współczynnika Δw dla analizowanego przypadku wynosiła 0.966. Dla tej wartości, wyznaczona dyfuzyjność cieplna wynosiła 0.387 m2/s. Porównując tą wartość z danymi katalogowymi (0,392 m2/s), otrzymano błąd względny na poziomie 1.27 %. Jest to wartość niewielka, potwierdzająca przydatność opracowanej metody pomiarowej. 5. PODSUMOWANIE W pracy zaproponowano prostą metodę wyznaczania dyfuzyjności cieplnej na podstawie pomiarów temperatury powierzchni próbki. Krótki czas wykonywania pomiarów umożliwia jej implementację w warunkach produkcyjnych. Wykonane obliczenia analityczne i numeryczne uwidoczniły szereg czynników mogących negatywnie wpływać na dokładność metod tej klasy. Dzięki wykonanym obliczeniom, opracowano algorytm pomiarowy niewrażliwy na warunki środowiskowe, wartość mocy cieplnej oraz błędy urządzenia pomiarowego temperatury. Podczas badań wykazana została prawidłowość funkcjonowania algorytmu pomiarowego oraz jego wystarczająca dokładność. Pewnym mankamentem jest znaczna wrażliwość metody na odchyłki mierzonych temperatur. Fakt ten jest wynikiem silnego wpływu temperatur mierzonych, na wartość dyfuzyjności. LITERATURA [1] Minialaga V., Paulaukas R.: Heat Dissipati1on Investigation by Thermivision, Medical Physics in the Baltic States, Kaunas, 2010. [2] Chudzik S.: Thermal Diffusivity measurement of Insulating Material Using Infrared Thermogrphy, Opto-Electronics Review, nr 1/2012. [3] Laskar J. M., Bagavathiappan S., Sardar M., Jayakumar T., Philip J., Raj B.: Measurement of Tejrmal Diffusivity of Solids Using Infrared Thermography, Materials Letters, no 62/2008. [4] Dane ze strony matweb.com (01.06.0213). [5] Hauser J.: Elektrotechnika. Podstawy Elektrotermii i Techniki Świetlnej. WPP 2006. THERMOVISION MEASUREMENTS OF THERMAL DIFFUSIVITY The article deals with thermal diffusivity measurements by using of thermovision techniques. Methods for determination of thermal parameters of insulating bodies are time consuming and so that, their utility in industry is inconsiderable. For example such measurements can’t be used for online inspection of product quality. In the article, new method for determination of thermal diffusivity was presented. Basic concept and model of measuring device were discussed. The method is characterized by short measuring time, high accuracy and low dependence on external conditions. Exemplary measuring results were presented and all advantages of proposed method were proved. POZNAN UNIVERSITY OF TECHNOLOGY ACADEMIC JOURNALS No 79 Electrical Engineering 2014 Jurij WARECKI* Michał GAJDZICA* ANALIZA PROCESÓW ZACHODZĄCYCH PODCZAS ZAŁĄCZANIA TRANSFORMATORA PIECA ŁUKOWEGO ZASILANEGO Z UKŁADU Z FILTRAMI WYŻSZYCH HARMONICZNYCH Praktyka eksploatacji układów zasilania pieców łukowych prądu przemiennego pokazała, że wielokrotne komutacje technologiczne transformatorów piecowych mogą stać się przyczyną uszkodzenia transformatora systemowego i innych urządzeń sieci zasilającej. W pracy zbadano wpływ konfiguracji sieci zasilającej na charakter procesów przejściowych jednostki piecowej średniej mocy 50 MVA. Analizę zachodzących procesów przejściowych w układzie zasilania pieca łukowego przeprowadzono stosując model zrealizowany w pakiecie Matlab/Simulink. SŁOWA KLUCZOWE: prąd rozruchowy, transformator piecowy, filtr wyższych harmonicznych 1. WPROWADZENIE Piece łukowe prądu przemiennego (Alternating Current Electric Arc-Furnace (ACEAF)) zaliczane są do odbiorników skupionych dużej mocy, o nieliniowych charakterystykach dynamicznych. Praktyka eksploatacji pieców łukowych wielkiej mocy wykazuje, że urządzenia układów ich zasilania ulegają częstym awariom na skutek przetężeń oraz przepięć komutacyjnych. Zmiany mocy elektrycznej podczas wytopu zależą głównie od jakości wsadu, dokładności pracy układu sterowania, a także od zachodzących procesów cieplnych. Dane statystyczne informują, że w ciągu doby liczba komutacji transformatora piecowego wynosi średnio 20-40 [4, 5]. Cykl topienia metalu w piecach łukowych prądu przemiennego obejmuje trzy podstawowe, uogólnione etapy technologiczne: 1) roztapianie wsadu, 2) świeżenie kąpieli oraz 3) rafinowanie kąpieli. Każde stadium charakteryzuje określona zmiana mocy czynnej w czasie oraz liczba wymaganych komutacji, z tendencją do jej zmniejszania oraz stabilizacji procesów w ostatnim z cyklów. Pierwsze stadium w chwili roztapiania wsadu charakteryzuje się największym poborem mocy elektrycznej, a piec w tym czasie zużywa 60-80% całej energii elektrycznej cyklu technologicznego. W kolejnych __________________________________________ * Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. 280 Jurij Warecki, Michał Gajdzica obserwuje się mniejsze wahania mocy spowodowane stabilniejszym paleniem łuku elektrycznego. Mając na celu zapewnienie kompatybilności elektromagnetycznej pieców łukowych prądu przemiennego z układami zasilania stosuje się różne rozwiązania techniczne. Najskuteczniejszą poprawę jakości energii elektrycznej w sieci zasilającej zapewniają tyrystorowe kompensatory statyczne (Static Var Compensator (SVC)) [8]. Eksploatacja układów zasilania wykorzystujących SVC wykazała, że zapewniają one dynamiczną kompensację mocy biernej, wprowadzają symetryzację napięć i prądów a także zmniejszają wahania napięcia. Z kolei wykorzystanie w układach SVC filtrów wyższych harmonicznych, skutkuje ograniczeniem zniekształcenia napięć w sieci zasilającej. W artykule przeprowadzono analizę wpływu mocy transformatora systemowego oraz konfiguracji układu kompensacyjno-filtracyjnego SVC na charakter prądów przejściowych podczas włączeń technologicznych transformatora piecowego. 2. CHARAKTERYSTYKA MODELOWANEGO SYSTEMU ZASILANIA ELEKTRYCZNEGO AC-EAF Wybierając wariant zasilania AC-EAF dużej mocy, uwzględnia się następujące czynniki: moc zwarcia w punkcie przyłączenia pieca lub grupy pieców, liczbę oraz ich typ, moc znamionową transformatorów piecowych wraz z dysponowanymi poziomami napięć zewnętrznego zasilania elektrycznego, charakterystyki częstotliwościowe sieci elektrycznej względem węzła przyłączenia a także środki polepszenia kompatybilności elektromagnetycznej AC-EAF z układami zasilania elektrycznego. Realizacja topologii połączeń systemu przemysłowego między punktem przyłączenia transformatora systemowego a transformatorów piecowych, wynika bezpośrednio z układu hutniczego, mocy oraz liczby pieców łukowych. Sposób połączeń wewnętrznych w chwili komutacji AC-EAF, ma bezpośredni wpływ na wartość amplitud prądów łączeniowych oraz charakter zachodzących procesów nieustalonych. Symulację procesów włączania transformatora piecowego oraz badanie wpływu różnych kombinacji układu kompensacyjnego na przebiegi przejściowe, zrealizowano z wykorzystaniem schematu układu zasilania z rys. 1. Układ przemysłowy pieca łukowego prądu przemiennego zasilany jest z sieci wysokiego napięcia 110 kV poprzez transformator mocy TS, o układzie połączeń Yd11. Instalację zasilania AC-EAF tworzą: szyna średniego napięcia SN zasilająca układ kompensacyjny oraz transformator piecowy TP o mocy 50 MVA i grupie połączeń Yd1. Układ filtrujący FC (Filter Circuit) tworzą filtry: F-2, F-3, F-5 o parametrach elementów umieszczonych w tabeli 1, pracujące w wskazanym zakresie strojenia dla poszczególnych filtrów. Za płynną regulację składowej biernej podstawowej harmonicznej prądu dławika odpowiada układ TCR (Thyristor Controlled Reactor). W zależności od Analiza procesów załączania transformatora pieca łukowego w środowisku … 281 struktury układu przemysłowego, zasilanie jednostki piecowej może odbywać się z transformatorów systemowych o mocach: 80, 120 i 160 MVA. a) b) Rys. 1. Schematy modelowanego układu zasilania pieca łukowego AC-EAF z udziałem układu kompensacyjnego: a) topologia układu , b) układ symulacyjny Tabela 1. Parametry elementów układu FC Filtr Obszar strojenia Pojemność C [μF] Indukcyjność L [mH] Rezystancja R [Ω] Inom [A] F2 1,86 89,51 28,30 0,24 447,51 F3 2,79 70,74 15,91 0,19 398,52 F5 4,65 152,81 2,64 0,05 921,24 Układ symulacyjny elektrycznego pieca łukowego tworzą: transformator mocy TS, zasilany z trójfazowego źródła napięcia przemiennego E o parametrach sieci Rs, Ls. Zasilanie pieca łukowego odbywa się poprzez transformator piecowy TP, włączany wyłącznikiem Q1. W chwilach komutacji TP, układ kompensatora SVC pozostaje załączony zapewniając bilansowanie mocy biernej na szynie średniego napięcia. 282 Jurij Warecki, Michał Gajdzica 3. PRĄD ROZRUCHOWY TRANSFORMATORA Transformatory średniej mocy przeznaczone do stalowniczych procesów elektrotermicznych charakteryzują typowe wartości parametrów: Sn = 15...55 MVA, Uz(%) = 3,1 - 8,2 %, Io(%) = 1,08 - 1,3 %. Głównym elementem odróżniającym transformator piecowy od typowego transformatora mocy jest obecność dużej liczby zaczepów, zlokalizowanych od strony niskiego napięcia. Komutacjom technologicznym transformatora piecowego zasilającego piec łukowy towarzyszą duże amplitudy prądów włączania. Ich wartości przewyższają wartości znamionowe prądów obciążenia 5-7 krotnie. Przyczyną powstawania przetężeń podczas włączania transformatorów do sieci zasilającej, jest głębokie nasycenie rdzeni układów magnetycznych, prowadzące do wzrostu prądów magnesowania. W najcięższych warunkach komutacji, a w szczególności w chwili przejścia napięcia zasilającego przez zero, największe amplitudy strumienia magnetycznego wynoszą: Φo = (2,2÷2,3)Φm. Głębokie nasycenie nieliniowego obwodu magnetycznego o reluktancji Rμ wzrasta tysiące razy, co z kolei przyczynia się odpowiednio do zwiększania prądu magnesowania. Prąd rozruchowy w chwili włączania jednostek transformatorowych pieców łukowych, oprócz dużej amplitudy charakteryzują: jednokierunkowość, osiąganie wartości maksymalnej w pierwszej połowie okresu po załączeniu oraz oddziaływanie do chwili aż rdzeń transformatora nie osiągnie pełnego, nominalnego namagnesowania. Przykładowy oscylogram prądu włączania trójfazowej jednostki piecowej średniej mocy 50MVA zamieszczono na rys. 2. Rys. 2. Prądy włączenia transformatora piecowego, otrzymany z pomiarów Prąd włączania cechują również wyższe harmoniczne typu ciągłego, których zmiana utrzymuje się aż do chwili osiągnięcia przez prąd magnesujący stanu ustalonego. Powyższy fakt potwierdza przeprowadzona analiza Fouriera dla stanu włączania transformatora piecowego, rys. 3. Analiza procesów załączania transformatora pieca łukowego w środowisku … 283 Rys. 3. Zmiana wyższych harmonicznych prądu podczas włączenia jednostki piecowej 50 MVA 4. CHARAKTERYSTYKA UKŁADU SVC Układ SVC to układ nadążny systemu zasilania pieca łukowego prądu przemiennego, należący do grupy układów typu TCR-FC, o tyrystorowo regulowanej indukcyjności dławika. Tworzą go dwa rodzaje elementów: regulowane dławiki TCR oraz stałe filtry wyższych harmonicznych FC. Moc bierna pracującego układu SVC, wynika z wypadkowej mocy filtrów oraz dławika, a jej regulacja odbywa się w sposób ciągły poprzez sterowanie kątem zapłonu tyrystorów. Moc układu FC jest sumą mocy biernych poszczególnych filtrów pasywnych: QF2 + QF3 + QF5 = QFC. Z kolei dobór parametrów poszczególnych filtrów wyższych harmonicznych odbywa się z uwzględnieniem poziomu wyższych harmonicznych pieca łukowego i TCR. Przy tym należy brać pod uwagę odchylenia pojemności kondensatorów i indukcyjności dławików filtrów występujące wskutek warunków środowiskowych i niedokładności technologicznych. W przypadku większości kondensatorów zmiany wartości pojemności z powodu warunków środowiskowych wynoszą ±2% oraz (-5%...+10)% - z powodów technologicznych. W konsekwencji, dopuszcza się zmiany pojemności filtru w zakresie -7%...+12%. W przypadku indukcyjności przyjmuje się odchyłkę technologiczną w zakresie ±3%. Stąd możliwy zakres odchylenia punktu rezonansowego od wyznaczanej wartości zawiera się w przedziale 0,93h ≤ hr ≤ 1,05h. W praktyce inżynierskiej przyjmuje się, że bezpieczny punkt rezonansowy filtru hr przypada na obszar między 2 - 10% poniżej wartości dokładnej częstotliwości rezonansowej filtru. Prowadzi to do przesuwania punktów rezonansowych charakterystyk impedancyjno-częstotliwościowych całego systemu zasilającego w kierunku niższych wartości. Eksploatacja układów filtrujących w warunkach przemysłowych, strojonych powyżej obszaru bezpiecznego dowiodła, że wraz z upływem czasu oraz wskutek postępującego starzenia elementów, pracujące układy stają się przyczyną rezonansów prądowych dla częstotliwości innych harmonicznych. Modelując trójfazowe układy filtrujące badanego systemu zasilania, wprowadzono częstotliwości strojenia poszczególnych filtrów zgodnie z tabelą 1. Jurij Warecki, Michał Gajdzica 284 5. SYMULACJA PROCESÓW WŁĄCZENIOWYCH A. Prądy włączenia transformatora piecowego Wartości prądów włączania transformatora piecowego zależne są od mocy zwarciowej na szynie przyłączenia jednostki piecowej. Na moc zwarciową w największym stopniu ma wpływ transformator systemowy. Wartości maksymalnych amplitud prądów rozruchowych transformatora piecowego dla układów zasilania o różnych mocach transformatorów systemowych umieszczono w tabeli 2. W modelu uwzględniono resztkową wartość namagnesowania na poziomie 0,6Ψnom . Z punktu widzenia prądów łączeniowych badanej topologii zasilania AC-EAF, maksymalne amplitudy prądu początkowego obserwuje się w przypadku układu z transformatorem systemowym o największej mocy. Zmniejszenie indukcyjności wypadkowej toru zasilania, w połączeniu z głębokim nasyceniem rdzenia transformatora piecowego, prowadzi do wzrostu wartości prądu w chwili komutacji. Tabela 2. Maksymalne amplitudy prądów rozruchowych transformatora piecowego Moc znamionowa transformatora układu zasilania [MVA] 80 120 160 Amplituda prądu transformatora piecowego [kA] 6,32 8,16 8,55 B. Wpływ topologii filtrów na procesy przejściowe Określając sposób oddziaływania konfiguracji filtrów wyższych harmonicznych na procesy przejściowe podczas włączania transformatora piecowego, przebadano poszczególne układy pracy zgodnie z tabelą 3. Tabela 3. Topologia połączeń układu FC Klasyfikacja układu Konfiguracja układu Układ I Podłączono pojedynczy filtr – F2, lub F3, lub F5 Układ II Podłączono wszystkie filtry – F2+F3+F5 Na rysunku 4 podano oscylogramy prądów chwilowych dla wybranej fazy podczas włączenia transformatora piecowego, w układzie zasilającym z transformatorem systemowym o mocy 160 MVA, przy podłączeniu układu FC z pojedynczym filtrem F5. Można wyraźnie zaobserwować, że maksymalne amplitudy prądu przejściowego w obwodzie filtru występują po pewnym czasie od początku włączenia TP, kiedy prąd piątej harmonicznej transformatora piecowego Analiza procesów załączania transformatora pieca łukowego w środowisku … 285 osiąga maksymalne amplitudy. Wskutek oddziaływania prądu filtru F5 następuje silne zmniejszenie amplitud prądu przejściowego transformatora zasilającego, co skutkuje łagodzeniem mechanicznych stresów w mocowaniach jego uzwojeń. Na rysunku 5 pokazano przebiegi prądów w układzie zasilającym jak dla przypadku powyżej z transformatorem 160MVA, w sytuacji pracy wszystkich filtrów układu FC. Porównując wyniki modelowania z rysunku 4 i rysunku 5 można stwierdzić tak zmianę charakteru prądów przejściowych transformatora systemowego i filtru F5, jak i zmianę ich amplitud. Obecność wszystkich filtrów, skutkuje zmianą charakterystyk częstotliwościowych układu zasilania, co powoduje wskazane zmiany. Rezultaty pozostałych badań stanów włączania transformatora piecowego zamieszczono w tabeli 4. Rys. 4. Prądy przejściowe transformatorów oraz filtru F-5, Układ I Rys. 5. Oscylogramy prądów chwilowych transformatorów oraz filtrów, Układ II 286 Jurij Warecki, Michał Gajdzica Tabela 4. Maksymalne amplitudy prądów w obwodach układów filtrujących Moc TS [MVA] Układ połączeń FC Amplituda prądu F2 [kA] Amplituda prądu F3 [kA] Amplituda prądu F5 [kA] 80 I 2,4 1,8 3,0 120 II 2,7 2,1 5,2 I 2,3 2,0 8,2 160 II 2,9 2,1 3,5 I 2,3 2,0 7,0 II 2,8 2,2 3,0 Z przeprowadzonej analizy amplitud prądów obwodów filtrujących wynika, że decydujący wpływ na ich wartość oraz charakter zmian mają charakterystyki częstotliwościowe układu zasilania, które zależne są od liczby pracujących w systemie filtrów wyższych harmonicznych. 6. WNIOSKI Wykonane badania wskazują, że moc transformatora systemowego zasilającego przemysłowe układy AC-EAF wpływa na wartość amplitud prądu rozruchowego transformatora piecowego. Praca układu filtrującego w różnych konfiguracjach podczas włączania jednostki piecowej objawia się silnym wpływem wypadkowych charakterystyk częstotliwościowych układu na wartości amplitud oraz charakter prądów przejściowych poszczególnych filtrów. LITERATURA [1] Varetsky Y., Damping transients in compensated power supply system. // Proc. of VI Sc. Conf. „Electrical power networks-SIECI 2008” Poland, Szklarska Poręba, September 10–12, 2008. P.397-404. [2] Abou-Safe A., Kettleborough G., Modeling and Calculating the In-Rush Currents in Power Transformers, Damascus Univ., Journal Vol. (21)-No. (1)2005. [3] Turner Ryan A.,Smith Kenneth S., Transformer Inrush Currents, Harmonic analysis in interconnected systems, IEEE industry applications magazine, Sept|Oct 2010. [4] Sawicki A., Zagadnienia energetyczne wybranych urządzeń elektrycznychsystemów stalowniczych, Częstochowa 2010. [5] Wciślik S., Elektrotechnika pieców łukowych prądu przemiennego- zagadnienia wybrane, Kielce 2011. [6] Dudley Richard F., Fellers Clay L., Special Design Considerations for Filter Banks in Arc Furnace Installations, IEEE Transactions on industry applications, vol. 33, no. 1, January/February 1997. [7] Arya S., Bhalja B., Simulation of Steel Melting Furnace in MATLAB and its effect on power Quality problems, National Conference on Recent Trends in Engineering & Technology, 13-14 May 2011. [8] www.ABB.com/FACTS SVC the key to better arc furnace economy. Analiza procesów załączania transformatora pieca łukowego w środowisku … 287 TRANSIENTS ANALYSIS DURING ARC FURNACE TRANSFORMER ENERGIZATION IN ENVIRONMENT OF HARMONIC FILTERS The practice of operating AC electrical arc furnace power supply systems has shown that frequent energizing unloaded furnace transformer can cause damage of the system transformer and other system devices. To examination of supply system configuration impact on switching transient nature an example of 50 MVA arc furnace unit was chosen. The transient analysis has been carried out by simulating within Matlab/Simulink software. Authors index Authors Piotr Paul A. Artur Bartosz Anna Rafał Michał Grażyna Michał Dariusz Alicja Damian Janusz Małgorzata Jacek Marek Jarosław Tomasz Tomasz Robert Marcin Leszek Piotr Marta Sławomir Zbigniew Dariusz Jacek Krzysztof Justyna Sandra Ryszard Ryszard Marek Łukasz Krzysztof Tomasz Bakalarek Bernstein Bugała Ceran Cysewska-Sobusiak Długosz Filipiak Frydrychowicz-Jastrzębska Gajdzica Gloger Głów Głuchy Gondek Górczewska Hauser Horyński Jajczyk Jarmuda Jeżyk Jędrychowski Jukiewicz Kasprzyk Kiedrowski Kolasa Kordowiak Krawiecki Kurz Majcher Matwiejczyk Michalak Mroczkowska Nawrowski Niedbała Paluszczak Putz Ratyński Stankowiak 289 No of paper 5 19 6, 7, 8, 9 19 1 11 24 6, 7, 8, 9 33 2 14 18, 20, 21 30 28 32 22 4 16, 17 15 10 3 5 27 11 30 2 14, 18, 20, 21 22 4 13 28, 29 16, 17 32 23 31 30 29 Page 41 157 47, 55, 63, 71 157 9 87 197 47, 55, 63, 71 279 17 113 149, 165, 175 253 239 269 181 31 131, 141 121 79 25 41 227 87 253 17 113, 149, 165, 175 181 31 105 239, 245 131, 141 269 189 261 253 245 290 Authors index Authors Krystian Adam Andrzej Grzegorz Alicja Grzegorz Krzysztof Jurij Marcin Małgorzata Szymczak Tomaszuk Tomczewski Trzmiel Twardosz Twardosz Wandachowicz Warecki Wesołowski Zalesińska No of paper 1 12 15, 16 18, 20, 21 23 23 25 33 32 26 Page 9 97 121, 131 149, 165, 175 189 189 205 279 269 215