PDF - Instytut Elektrotechniki i Elektroniki Przemysłowej

Transkrypt

PDF - Instytut Elektrotechniki i Elektroniki Przemysłowej
This series presents continuation of Zeszyty Naukowe Politechniki Poznańskiej Elektryka
Editorial Board
prof. dr hab. inż. RYSZARD NAWROWSKI (Chairman), dr hab. inż. JÓZEF LORENC, prof. nadzw.,
dr hab. inż. ZBIGNIEW NADOLNY, dr hab. inż. ANDRZEJ KASIŃSKI, prof. nadzw.
Scientific Secretaries of the Conference ZKwE
dr inż. ANDRZEJ TOMCZEWSKI (Scientific Secretary of the Conference)
mgr DOROTA WARCHALEWSKA-HAUSER (Organising Secretary of the Conference)
Reviewers
KAROL BEDNAREK, KRZYSZTOF BUDNIK, ARKADIUSZ DOBRZYCKI, KONRAD DOMKE,
JERZY FRĄCKOWIAK, GRAŻYNA FRYDRYCHOWICZ-JASTRZĘBSKA, JACEK HAUSER,
PAWEŁ IDZIAK, JAROSŁAW JAJCZYK, LESZEK KASPRZYK, RYSZARD NAWROWSKI,
ANDRZEJ ODON, WŁADYSŁAW OPYDO, PRZEMYSŁAW OTOMAŃSKI, WOJCIECH PIETROWSKI,
RYSZARD PORADA, KRZYSZTOF SROKA, ANDRZEJ TOMCZEWSKI, GRZEGORZ TRZMIEL,
GRZEGORZ TWARDOSZ, GRZEGORZ WICZYŃSKI, ROBERT WRÓBLEWSKI,
MAŁGORZATA ZALESIŃSKA, MARIA ZIELIŃSKA
Cover design
PIOTR GOŁĘBNIAK
Edition based on ready-to-print materials submitted by authors
ISSN 1897-0737
Edition I
© Copyright by POZNAN UNIVERSITY OF TECHNOLOGY, Poznan, Poland, 2014
PUBLISHING HOUSE OF POZNAN UNIVERSITY OF TECHNOLOGY
60-965 Poznań, pl. M. Skłodowskiej-Curie 2
tel. +48 (61) 6653516, fax +48 (61) 6653583
e-mail: [email protected], www.ed.put.poznan.pl
Sale of the publication:
Poznańska Księgarnia Akademicka
61-138 Poznań, ul. Piotrowo 3
tel. +48 61 6652324; fax +48 61 6652326
e-mail: [email protected], www.politechnik.poznan.pl
Księgarnia Uniwersytetu Ekonomicznego
ul. Powstańców Wielkopolskich 16 61-695 POZNAŃ
tel. +48 61 8543148, faks 61 8543147
e-mail: [email protected]
http://www.ksiegarnia-ue.pl
Press: Binding and duplication in Perfekt Druk
60-321 Poznań, ul. Świerzawska 1
tel. +48 61 8611181-83
CONTENTS
Preface............................................................................................................... 7
1.
Krystian SZYMCZAK, Anna CYSEWSKA-SOBUSIAK
Zastosowanie ultradźwięków w inżynierii biomedycznej ................................
9
2.
Zbigniew KRAWIECKI, Dariusz GLOGER
Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego
z zastosowaniem światła z lasera półprzewodnikowego ................................
17
3.
Marcin JUKIEWICZ
Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy
dyskryminacyjnej jako klasyfikatorów cech w interfejsach mózgkomputer ................................................................................................ 25
4.
Jarosław JAJCZYK, Krzysztof MATWIEJCZYK
Diagnostyka magistrali CAN w pojazdach .........................................................
31
5.
Piotr BAKALAREK, Leszek KASPRZYK
Przepływowy podgrzewacz paliwa dla pojazdów z silnikiem Diesla ..................
41
6.
Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA
Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla
lokalnych warunków miejskich ................................................................ 47
7.
Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych
warunków miejskich – część I ................................................................ 55
8.
Artur BUGAŁA, Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych
warunków miejskich – część II ................................................................................
63
9.
Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA, Artur BUGAŁA
Układy fotowoltaiczne współpracujące z koncentratorami ................................
71
10. Robert JĘDRYCHOWSKI
System kontroli pracy małych źródeł energii elektrycznej w sieciach
inteligentnych oparty na sterownikach PLC .......................................................
79
11. Marta KOLASA, Rafał DŁUGOSZ
Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji
elementów powodujących pogorszenie jakości energii elektrycznej
w sieciach średniego napięcia ................................................................ 87
12. Adam TOMASZUK
Simulation of high-efficiency interleaved step-up DC-DC boost97
flyback converter to use in photovoltaic system .................................................
4
Contents
13. Justyna MICHALAK
Ryzyko w projektach inwestycyjnych energetyki odnawialnej ...........................
105
14. Alicja GŁÓW, Dariusz KURZ
Sposoby ochrony instalacji fotowoltaicznych przed następstwami
zacienień ................................................................................................ 113
15. Tomasz JEŻYK, Andrzej TOMCZEWSKI
Krótkoterminowe prognozowanie zużycia energii elektrycznej
z wykorzystaniem sztucznej sieci neuronowej ............................................
121
16. Ryszard NAWROWSKI, Andrzej TOMCZEWSKI,
Tomasz JARMUDA
Koncepcja optymalizacji struktury hybrydowej elektrowni solarnowiatrowej .....................................................................................................................
131
17. Ryszard NAWROWSKI, Tomasz JARMUDA
Projekt hybrydowej elektrowni słoneczno-wiatrowej ................................141
18. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL
Aspekty projektowania i eksploatacji systemów przeciwpożarowych
w obiektach przemysłowych ..............................................................................
149
19. Bartosz CERAN, Paul A. BERNSTEIN
Application PEM fuel cells in distributed generation ................................157
20. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL
Badania efektywności pracy fotodachówek umieszczonych na różnych
165
podłożach dachowych ........................................................................................
21. Damian GŁUCHY, Dariusz KURZ, Grzegorz TRZMIEL
Photovoltaic thermal as a hybrid form of obtaining energy from solar
radiation ................................................................................................ 175
22. Marek HORYŃSKI, Jacek MAJCHER
Zdalny nadzór nad inteligentnym budynkiem .....................................................
181
23. Marek PALUSZCZAK, Alicja TWARDOSZ, Grzegorz TWARDOSZ
Rozwój systemów pomiarowych w inteligentnych sieciach
elektroenergetycznych .......................................................................................
189
24. Michał FILIPIAK
Analiza wybranych układów umożliwiających bezprzewodowy
przesył energii elektrycznej ...............................................................................
197
25. Krzysztof WANDACHOWICZ
Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci
funkcji celu .................................................................................................................
205
Contents
5
26. Małgorzata ZALESIŃSKA
Analiza warunków wykonywania badań wydolności wzrokowej
kierowców z zastosowaniem symulatora jazdy ...................................................
215
27. Piotr KIEDROWSKI
Zastosowanie protokołu hot potato w sterowaniu oświetleniem
drogowym – analiza właściwości ruchowych w oparciu o teorię
grafów ...............................................................................................................
227
28. Małgorzata GÓRCZEWSKA, Sandra MROCZKOWSKA
Iluminacja współczesnych obiektów architektonicznych na
przykładzie Collegium Novum w Poznaniu .......................................................
239
29. Tomasz STANKOWIAK, Sandra MROCZKOWSKA
Badania ogólnodostępnych zamienników lamp ciemniowych .............................
245
30. Janusz GONDEK, Sławomir KORDOWIAK, Krzysztof RATYŃSKI
Cyfrowe programowalne sterowniki hybrydowe dla diod LED ..........................
253
31. Łukasz PUTZ
Optimization analyze of the LED lighting installation for a quality of
electrical energy ................................................................................................
261
32. Marcin WESOŁOWSKI, Ryszard NIEDBAŁA, Jacek HAUSER
Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery
termowizyjnej ................................................................................................
269
33. Jurij WARECKI, Michał GAJDZICA
Analiza procesów zachodzących podczas załączania transformatora
pieca łukowego zasilanego z układu z filtrami wyższych
harmonicznych ................................................................................................
279
Authors index ................................................................................................ 289
PREFACE
The publication includes contents of selected lectures delivered during the
debates of the Conference on Computer Application in Electrical Engineering that
was held in Poznan on April 28-29, 2014.
The Institute of Electrical Engineering and Electronics of the Poznan University
of Technology organized the Conference on Computer Application in Electrical
Engineering for the 19th time. The first Conference was held in 1996 and, since that
time, has been held every year. Total number of 3302 lectures have been published
from 1996 to 2014. During the past eighteenth years about 3500 persons
participated to the Conferences, inclusive of the workers of universities, research
centres, and industry, also from Czech, Germany, Romania and Ukraine.
The Conference is aimed at presenting the applications of existing computer
software and original programs in the field of modelling, simulation,
measurements, graphics, databases, and computer-aided scientific and engineering
works related to electrical engineering.
The following thematic groups are foreseen:
1. ELECTRICAL ENGINEERING
a.
b.
c.
d.
e.
f.
g.
h.
i.
j.
k.
l.
m.
Electromagnetic field, electromagnetic compatibility
Theory of circuits and signals
Bioelectromagnetism
Power engineering, renewable energy
Electronics and power electronics
Electrical engineering of vehicles
Electrical heating
Electrical machines, electrical drive
Materials technology
Mechatronics
Electrical and electronic metrology
Microprocessor technology and control systems
Lighting technology
2. DIDACTICS, EDUCATION AND SCIENTIFIC INFORMATION
Chairman of the Organising Committee ZKwE'2014
Prof. Ryszard Nawrowski, DSc
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Krystian SZYMCZAK*
Anna CYSEWSKA-SOBUSIAK*
ZASTOSOWANIE ULTRADŹWIĘKÓW
W INŻYNIERII BIOMEDYCZNEJ
W artykule omówiono wybrane zagadnienia dotyczące wykorzystania fal ultradźwiękowych
w inżynierii biomedycznej. W wielu przypadkach ultrasonografia jest jedyną możliwą do
zastosowania metodą obrazowania, a nowoczesne ultrasonografy są złożonymi urządzeniami
sterowanymi komputerowo. W pierwszej części pracy opisano wybrane zastosowania
ultrasonografii w położnictwie. Wykorzystanie efektu przesunięcia dopplerowskiego umożliwia
wykrycie ruchu narządu odbijającego wiązkę ultradźwięków i może zostać użyte do
nieinwazyjnego wykrywania uderzeń serca płodu. Przedstawiono różne rodzaje prezentacji
pozyskiwanych danych. W drugiej części pracy skupiono się na dezintegracji kamieni
nerkowych za pomocą ultradźwiękowych fal uderzeniowych. Omówiono problematykę
jednoczesnego generowania i ogniskowania fal ultradźwiękowych oraz precyzyjnej lokalizacji
kamieni nerkowych. Poruszono również kwestię bezpiecznego stosowania ultradźwięków na
potrzeby diagnostyki medycznej, skupiając się na środkach ochrony przed szkodliwym
wpływem „hałasu” ultradźwiękowego i na bezpieczeństwie badań ultradźwiękowych.
SŁOWA KLUCZOWE: inżynieria biomedyczna, ultradźwięki, ultrasonografia, litotrypsja
1. ZASTOSOWANIE ULTRASONOGRAFII W GINEKOLOGII
I POŁOŻNICTWIE
1.1. Wstęp
Ocena stanu płodu odgrywa istotną rolę we współczesnym położnictwie [2 – 4].
Celem monitorowania jest upewnienie się, że wszystkie narządy płodu są
prawidłowo ukrwione i utlenowane, tak aby procesy metaboliczne mogły
przebiegać w sposób prawidłowy. Spośród różnych technik rejestracji czynności
serca płodu najczęściej stosowana jest pośrednia nieinwazyjna metoda
dopplerowska. Wyznaczenie chwilowej częstości uderzeń serca płodu polega na
rejestracji skurczów i rozkurczów serca, na podstawie analizy efektu przesunięcia
dopplerowskiego wiązki ultradźwiękowej odbitej od poruszających się zastawek
lub ścian serca płodu. Współczesne ultrasonografy umożliwiają obliczanie widm
sygnałów dopplerowskich, co pozwala na zobrazowanie rozkładów prędkości
__________________________________________
* Politechnika Poznańska.
10
Krystian Szymczak, Anna Cysewska-Sobusiak
przepływów krwi w naczyniach [3, 4]. Nieprawidłowy przepływ krwi w badaniu
dopplerowskim jest bardzo ważnym sygnałem do intensywnego monitorowania
płodu i przebiegu ciąży.
1.2. Tor pomiarowy
Badanie dopplerowskie jest badaniem ultrasonograficznym pozwalającym na
ocenę przepływów w krążeniu maciczno-łożyskowym. Dzięki badaniu
dopplerowskiemu można ocenić ukrwienie poszczególnych struktur płodu oraz
zbadać przepływy w małych naczyniach niewidocznych podczas standardowego
USG. Wykorzystując efekt przesunięcia dopplerowskiego, możliwe jest wykrycie
ruchu narządu odbijającego wiązkę ultradźwięków. Fala ultradźwiękowa dość
łatwo przenika przez tkankę miękką, a część tej fali odbija się od powierzchni,
gdzie skokowo zmienia się impedancja akustyczna tkanki, np. na styku dwóch
różnych organów. Jeśli połącznie tkanek jest w ruchu względem źródła fal
ultradźwiękowych, to częstotliwość odbitego sygnału będzie przesunięta względem
pierwotnego sygnału zgodnie z efektem Dopplera. Dzięki temu zjawisku możliwe
jest wykrywanie uderzeń serca płodu. Fale ultradźwiękowe są generowane w
przetworniku sprzężonym akustycznie z powierzchnią brzucha matki dzięki
zastosowaniu odpowiedniego żelu. Najczęściej stosuje się wiązkę ultradźwiękową
w zakresie częstotliwości (12) MHz, gdyż fala wnika na tyle głęboko, aby w
wystarczającym stopniu objąć płód.
Fala ultradźwiękowa zostaje częściowo odbita od różnych powierzchni
rozdzielających dwa ośrodki płodu: serce i krew. Dotyczy to szczególnie płatków
zastawki. W tym przypadku, w niektórych fazach cyklu serca występują
stosunkowo duże wartości prędkości ruchu. Wówczas wiązka ultradźwiękowa,
odbita na granicy zastawka  krew, ma częstotliwość znacznie zmienioną. Zmiana
częstotliwości jest związana z prędkością odbijającej powierzchni, dzięki czemu
możliwy do wykrycia jest każdy cykl uderzenia serca.
Kardiotokografia jest jedną z głównych metod oceny stanu płodu, kontrolując
czynności serca płodu na tle aktywności skurczowej macicy [2, 4]. Podstawowe
składowe toru do ultradźwiękowej rejestracji czynności serca płodu w klasycznym
kardiotokografie przedstawiono na rys. 1.
1.3. Obrazowanie ultrasonograficzne
W zależności od rodzaju badania stosuje się różne rodzaje prezentacji danych
ultradźwiękowych: prezentację typu A (Amplitude), typu B (Brightness) i typu M
(Motion) [3]:
 Prezentacja typu A  jest to najstarszy i najprostszy sposób prezentacji danych
ultradźwiękowych, który polega na wyświetlaniu chwilowych wartości
Zastosowanie ultradźwięków w inżynierii biomedycznej
11
odbieranego sygnału USG w funkcji czasu. Do uzyskania obrazów w
prezentacji A wystarczy głowica USG z pojedynczym przetwornikiem
piezoelektrycznym, nadająca impuls pobudzający i odbierająca echa powstające
w badanym ośrodku. Ten sposób prezentacji danych stosowany jest do tej pory
w okulistyce. Umożliwia on łatwą ocenę struktur oka, w tym np. stwierdzenie
odklejenia się siatkówki.
Rys. 1. Schemat toru pomiarowego w klasycznym kardiotokografie [2]
 Prezentacja typu B  polega na wizualizacji dwuwymiarowego przekroju, w której
wartość chwilowa odbieranego sygnału moduluje jaskrawość kolejnych punktów
obrazu. Obraz generowany jest w ten sposób, że głowica ultradźwiękowa emituje
impulsy w postaci wąskiej wiązki w ściśle określonym kierunku. Następnie odbiera
z tego kierunku echa, powstające na niejednorodnościach struktur biologicznych.
Często charakterystyka kierunkowa odbiorcza jest bardziej ostra i lepiej określona,
niż charakterystyka nadawcza. Wypadkowa charakterystyka kierunkowa jest
iloczynem charakterystyk nadawczych i odbiorczych. Inaczej mówiąc, sygnał
odbierany ze zbioru punktów ośrodka jest iloczynem zbiorów punktów
pobudzonych przy nadawaniu i odsłuchanych przy odbiorze. W ten sposób
tworzony jest jeden promień akustyczny. Po odsłuchaniu i zapamiętaniu wszystkich
ech z tego promienia, głowica ultradźwiękowa emituje kolejny promień. Po
zapamiętaniu ech ze wszystkich promieni (w współczesnych aparatach USG jest
ich od 100 do 400) aparat wyświetla zapamiętany obraz. Prezentacja typu B jest
najczęściej stosowana w diagnostyce USG. Możliwości jej są dodatkowo
12
Krystian Szymczak, Anna Cysewska-Sobusiak
zwiększone przez liczne algorytmy pomiarowe. Rysunek 2 przedstawia płód w
obrazowaniu typu B [6].
 Prezentacja typu M – nazywana dawniej TM (Time Motion), polega na
odsłuchu echa z tego samego kierunku w kolejnych momentach. Odebrane echa
wyświetlane są w taki sposób jak w prezentacji B, tzn. wartość chwilowa
sygnału modeluje jaskrawość wyświetlanych punktów, a kolejne linie są
wyświetlane obok siebie, pionowo. Obraz w prezentacji jest przewijany, to
znaczy w danym kierunku jest na bieżąco zapisywana i wyświetlana ostatnia
linia z prawej strony. Wcześniejsze linie przesuwane są w lewo.
Rys. 2. Ultrasonograficzny obraz płodu w 14-tym tygodniu ciąży wykonany aparatem USG Logiq
200 firmy General Electric [6]
 USG 3D/4D – ten typ obrazowania w porównaniu z prezentacją typu B
umożliwia uzyskanie obrazu trójwymiarowego lepszej jakości i o wiele
większej rozdzielczości. Obraz uzyskiwany w wyniku badania USG 4D jest
dodatkowo rejestrowany w czasie rzeczywistym.
2. DEZINTEGRACJA KAMIENI NERKOWYCH ZA POMOCĄ
ULTRADŹWIĘKOWYCH FAL UDERZENIOWYCH
2.1. Wstęp
Fala ultradźwiękowa ulega osłabieniu wskutek pochłaniania, rozpraszania i odbicia
[1 – 4]. W diagnostyce wykorzystuje się głównie zjawisko odbicia, a w terapii
zjawisko pochłaniania. Wpływ ultradźwięków na kamienie moczowe zaczęto badać na
początku lat pięćdziesiątych XX wieku, ale przełom w tym zakresie nastąpił pod
koniec lat siedemdziesiątych, gdy została opracowana metoda ESWL (Extracorporeal
Shock Wave Lithotripsy), polegająca na kruszeniu kamieni w sposób najmniej
Zastosowanie ultradźwięków w inżynierii biomedycznej
13
inwazyjny, za pomocą wysokoenergetycznych fal uderzeniowych generowanych poza
ciałem człowieka [2, 4]. W Polsce zainicjowano pierwsze badania nad litotrypsją
kamieni nerkowych w roku 1987, a zaowocowały one zbudowaniem w 1989 roku
pierwszego eksperymentalnego urządzenia.
W 1988 roku powstało w Polsce pierwsze centrum litotrypsji w klinice Urologii
AM w Warszawie, wyposażone w litotryptor Lithostar firmy Simens. W 1995
roku, w tej samej klinice, pomyślne badania przeszedł prototyp litotryptora
opracowanego w Zakładzie Ultradźwięków IPPT PAN.
2.2. Podstawy fizyczne
Dezintegracja kamieni nerkowych działa na zasadzie wytworzenia wysokiego
ciśnienia (do 100 MPa) na kamieniu nerkowym, powodując jego kruszenie się na
piasek. Ciśnienie o krótkim czasie trwania i dużej amplitudzie jest wytwarzane w
procesie propagacji fal uderzeniowych. Fale uderzeniowe, w przeciwieństwie do
fal stosowanych w diagnostyce, tworzą krótkie impulsy o charakterystycznym,
nanosekundowym narastaniem czoła impulsu (rys. 3). Fale te wykazują małe
tłumienie podczas przechodzenia przez wodę i tkanki miękkie, nie powodując w
nich uszkodzeń.
Rys. 3. Lokalizacja i monitorowanie kamienia z zastosowaniem dwóch systemów rentgenowskich
w urządzeniu DORNIERA HM-1 [2]; LR- lampy rentgenowskie, WO-wzmacniacze obrazu
Dezintegracja kamieni falami uderzeniowymi spowodowana jest kilkoma
zjawiskami mogącymi wystąpić pojedynczo lub jednocześnie:
 Amplituda ciśnienia fali uderzeniowej może od razu przewyższać krótkotrwały
opór ciśnieniowy kamienia. Kamień zostaje wówczas zniszczony w wyniku
przejścia fali uderzeniowej.
14
Krystian Szymczak, Anna Cysewska-Sobusiak
 Fala rozciągająca, która pojawia się wskutek odbicia na tylnej stronie kamienia,
prowadzi do kruszenia materiału nawet przy niewielkiej amplitudzie w związku
z niską granicą wytrzymałości substancji mineralnych na rozciąganie.
Wytrzymałość kamieni nerkowych na ściskanie zawarta jest w granicach
(1,9217,5) MPa, a na rozciąganie (0,08–3,43) MPa.
 Zjawiska kawitacyjne. W trakcie ekspozycji kamienia na impuls fali
uderzeniowej, na jego powierzchni i w szczelinach powstają pęcherzyki gazu
(kawitacyjne), które zapadając się są źródłami fali uderzeniowej. Powstaje
wówczas lokalny wzrost ciśnienia do 10 MPa. Zjawiska te prowadzą do erozji
powierzchniowej i mikropęknięć.
2.3. Lokalizacja kamieni
Efektywność procesu dezintegracji kamienia metodą ESWL zależy od precyzji
zlokalizowania kamienia w nerce chorego i od pozycjonowania pacjenta tak, aby
kruszony kamień znajdował się w ognisku fali uderzeniowej. Na rysunku 3
przedstawiono urządzenie DORNIERA [2], gdzie zastosowano system składający
się z dwóch aparatów rentgenowskich monitorujących w czasie rzeczywistym
nerkę pacjenta, a obraz obserwowano na dwóch monitorach. Uzyskiwano precyzję
lokalizacji kamieni do 1 mm, ale pacjent poddawany był napromieniowaniu przez
około 1 godzinę. Lokalizację USG, korzystną z punktu widzenia bezpieczeństwa
pacjenta, wprowadzono po raz pierwszy w urządzeniu LT-01 (EDAP). Jednakże
tylko około 50% kamieni moczowych można lokalizować tą metodą, gdyż obraz
kamienia jest prezentowany w postaci trudnego do interpretacji cienia
akustycznego. Doskonalenie techniki RTG, polegające na wprowadzeniu
wzmacniaczy obrazu z pamięcią cyfrową i zmniejszenie ekspozycji na
promieniowanie, spowodowało obecne lokalizowanie kamieni tą techniką.
Podstawą skutecznej litotrypsji zlokalizowanego kamienia jest jego precyzyjne
umieszczenie w ognisku głowicy udarowej i utrzymanie go w tej pozycji podczas
kruszenia. Czynności te są realizowane za pomocą specjalnego, sterowanego
komputerowo stołu, na którym leży pacjent. W wycięciu blatu takiego stołu
znajdują się jedna lub dwie głowice udarowe, osłonięte kołpakami gumowymi i
sprzęgnięte akustycznie z ciałem pacjenta warstwą żelu.
3. BEZPIECZEŃSTWO STOSOWANIA ULTRADŹWIĘKÓW
W DIAGNOSTYCE MEDYCZNEJ
Jedną z głównych przyczyn, dla których metody ultrasonograficzne stosuje się
powszechnie w diagnostyce medycznej, jest przekonanie, że metody te są
całkowicie nieszkodliwe dla zdrowia pacjenta. Kilkudziesięcioletnie
doświadczenia potwierdzają tezę, że fale ultradźwiękowe o natężeniach
Zastosowanie ultradźwięków w inżynierii biomedycznej
15
stosowanych w diagnostyce medycznej nie wywołują skutków ubocznych [3, 4]. W
rezultacie jedyną powszechnie dostępną metodą obrazowania stosowaną w
monitorowaniu ciąży i prognozowaniu terminu porodu jest ultrasonografia.
Propagacja fali ultradźwiękowej wiąże się jednak z depozycją w ośrodku
energii, która doprowadza do lokalnego wzrostu temperatury o wartości zależnej
od natężenia fali i czasu jej oddziaływaniania. Największe wartości natężenia (do
800 mW·cm-2) występują przy badaniach typu cwD (continuous wave Doppler).
Przy obrazowaniu echograficznym wartość natężenia rzadko przekracza 100
mW·cm-2. Czas badania wynosi kilkadziesiąt sekund. Aby wywołać wzrost
temperatury powyżej 42ºC, tj. hipertermię, jak wykazują próby stosowania
ultradźwięków w terapii nowotworowej, konieczne jest zastosowanie natężeń fali
ultradźwiękowej o wartościach znacznie większych niż na potrzeby diagnostyczne.
Kolejnym szkodliwym zjawiskiem jest tzw. kawitacja (powstawanie w cieczy
pęcherzyków wypełnionych gazem przy spadku ciśnienia poniżej wartości
progowej). Czynnikami, które do tego prowadzą, są: wartość ujemnego ciśnienia
wywołanego propagacją fali akustycznej i czas trwania impulsu ultradźwiękowego.
W 1976 roku Amerykański Instytut Ultradźwięków określił dopuszczalne
dawki ultradźwięków stosowanych w medycynie. Zgodnie z nimi nie zauważono
żadnych znamiennych oddziaływań ultradźwięków in vivo na tkanki ssaków przy
natężeniach fali poniżej 0,1 W/cm2 (bez ogniskowania) oraz 1W/cm2 przy
ogniskowaniu (wartość szczytowa w przestrzeni, uśredniona w czasie, oznaczona
skrótem SPTA (Space Peak Time Average), mierzona w wodzie). Przy większych
natężeniach nie stwierdzono zmian biologicznych, gdy iloczyn natężenia i czasu
działania ultradźwięków był mniejszy niż 50 Ws/cm2, przy czasie działania
ultradźwięków w zakresie (1500) s (bez ogniskowania) oraz krótszego niż 50 s
dla wiązki zogniskowanej. W 1992 roku amerykańskie organizacje NEMA (North
American Manufactures Association) i AIUM (American Institute of Ulrasound in
Medicine) wyraziły zgodę na dobrowolną standaryzację ultradźwiękowego sprzętu
diagnostycznego oraz umieszczanie odpowiedniej informacji na ekranie aparatu.
4. PODSUMOWANIE
Nowoczesne ultrasonografy są złożonymi urządzeniami sterowanymi
komputerowo. Ultrasonografia znajduje obecnie coraz szersze zastosowanie w
inżynierii biomedycznej zarówno na potrzeby diagnostyki, jak i terapii. W artykule
przedstawiono przykłady: diagnostycznego zastosowania obrazowania USG we
współczesnym położnictwie oraz terapeutycznego zastosowania ultradźwiękowych
fal uderzeniowych do kruszenia kamieni nerkowych. Postęp technologiczny
umożliwia budowę wielofunkcyjnej aparatury o bardzo wysokiej rozdzielczości i
specjalistycznym oprogramowaniu pozwalającym na 2-, 3- i nawet 4-wymiarowe
obrazowanie. W pracy poruszono również kwestię bezpieczeństwa badań
16
Krystian Szymczak, Anna Cysewska-Sobusiak
ultradźwiękowych. Ultrasonografię uznaje się za skuteczną i bezpieczną technikę,
ale ze względu na możliwość powstawania w organizmie człowieka efektów
termicznych i kawitacyjnych konieczny jest dobór fali akustycznej o odpowiedniej
częstotliwości i możliwie najmniejszej mocy.
LITERATURA
[1] Pawlicki G., Podstawy inżynierii biomedycznej, Oficyna Wydawnicza Politechniki
Warszawskiej, Warszawa 1997.
[2] Polska Akademia Nauk, Biocybernetyka i Inżynieria Biomedyczna 2000, Tom 2,
Biopomiary, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001.
[3] Polska Akademia Nauk, Biocybernetyka i Inżynieria Biomedyczna 2000, Tom 8,
Obrazowanie biomedyczne, Akademicka Oficyna Wydawnicza EXIT, Warszawa
2003.
[4] Hrynkiewicz Z.A., Rokita E., Metody diagnostyki medycznej i terapii, Wydawnictwo
Naukowe PWN, Warszawa 2000.
[5] Tadeusiewicz R., Śmietański J., Pozyskiwanie obrazów medycznych, Wyd.
Studenckiego Towarzystwa Naukowego, Kraków 2011.
[6] http://www.ginekolog.krakow.pl/usg.htm Dostęp 01.2014 r.
APPLICATION OF ULTRASOUNDS IN BIOMEDICAL ENGINEERING
This paper describes the selected problems concerned with the common use of
ultrasounds in biomedical engineering. The modern USG units are the complex computercontrolled devices. In a lot of cases ultrasonography is only one method which may be
safely used in medical imaging. Firstly, some selected applications of ultrasonography in
obstetrics are presented. Different kinds of the acquired data presentation are described.
Secondly, specific questions concerning disintegration of the kidney stones by the use of
the ultrasonic shock waves are mentioned. Safe applying the ultrasounds has been also
raised, focusing on the means of the protection from the harmful influence „noise” of
ultrasounds and on the safety of ultrasonic investigations.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Zbigniew KRAWIECKI*
Dariusz GLOGER*
WIRTUALNY PRZYRZĄD POMIAROWY DO REJESTRACJI
SYGNAŁU DŹWIĘKOWEGO Z ZASTOSOWANIEM
ŚWIATŁA Z LASERA PÓŁPRZEWODNIKOWEGO
W artykule opisano budowę i działanie wirtualnego przyrządu pomiarowego służącego
do rejestracji sygnałów dźwiękowych. Nośnikiem informacji jest modulowane falą
akustyczną światło z lasera półprzewodnikowego. W pracy opisano poszczególne elementy
wchodzące w skład przyrządu oraz aplikację sterującą jego działaniem. Aplikacja została
napisana w środowisku programistycznym LabVIEW. Jest ona narzędziem, które może być
wykorzystywane do pozyskiwania, interpretacji, odtwarzania oraz analizy sygnałów
dźwiękowych. Zrealizowany etap prac potwierdzony został przykładowymi pomiarami.
SŁOWA KLUCZOWE: wirtualny przyrząd pomiarowy, fotodetektor, laser półprzewodnikowy
1. WPROWADZENIE
Technika rejestracji fali akustycznej z wykorzystaniem światła lasera jest
alternatywą do rozwiązań, w których stosuje się tradycyjny mikrofon. Nie jest
jednak tak powszechnie stosowana. Rozważając praktyczną realizację układu
pomiarowego należy zwrócić uwagę na szereg czynników, które związane są m.in.
ze specyfiką sygnału pomiarowego jako nośnika informacji oraz właściwościami
optycznymi zestawianego kanału pomiarowego. Należą do nich: rozpraszanie i
pochłanianie promieniowania optycznego w torze pomiarowym, odległość, kąt
padania, kąt odbicia światła laserowego pomiędzy nadajnikiem, źródłem dźwięku
(powierzchnią odbijającą) i odbiornikiem itd. Są to czynniki, które ze względów
metrologicznych mają znaczenie gdyż wpływają na wartość i jednocześnie jakość
rejestrowanego sygnału.
W niniejszym artykule opisany został pierwszy (początkowy) etap prac, który
związany jest z wykonaniem wirtualnego przyrządu pomiarowego do rejestracji i
analizy sygnałów akustycznych, których nośnikiem będzie odbite od źródła
dźwięku promieniowanie optyczne (światło z lasera półprzewodnikowego).
__________________________________________
* Politechnika Poznańska.
18
Zbigniew Krawiecki, Dariusz Gloger
2. ZAŁOŻENIA PROJEKTOWE
Przyjęto, że konstruowany przyrząd będzie wykonany jako mobilne stanowisko
pomiarowe. Wobec tego urządzenia zastosowane do budowy powinny posiadać
własne zasilanie np. z baterii lub akumulatora. Dodatkowo przewiduje się
możliwość ich zasilania także z sieci energetycznej. Sterowanie będzie realizowane
z poziomu komputera PC i najlepszym rozwiązaniem w takim przypadku jest
zastosowanie jednostki mobilnej (laptopa) oraz wykorzystanie komunikacji z
urządzeniami peryferyjnymi w oparciu o dostępne magistrale. Komputer PC z
napisanym oprogramowaniem sterującym będzie pełnił funkcję kontrolera, tzn.
jednostki nadzorującej działanie wirtualnego przyrządu z funkcją wyzwalania
pomiarów. Urządzenia peryferyjne będą tworzyły funkcjonalnie dwa bloki: jeden
odpowiedzialny za sterowanie diodą laserową czyli będzie to blok nadajnika i
drugi pełniący funkcję odbiornika sygnału. Przewiduje się, że sprzętowo blok
nadajnika promieniowania optycznego zostanie zrealizowany z diody laserowej z
układem kontrolno-sterującym. Układ ten będzie sterowany (wyzwalany)
zewnętrznym sygnałem. Natomiast blok odbiornika sygnału będą tworzyły:
detektor promieniowania optycznego, przedwzmacniacz sygnału, filtr
dolnoprzepustowy i karta pomiarowa. Schemat blokowy takiego stanowiska
(wirtualnego przyrządu pomiarowego) został przedstawiony na rysunku 1.
Rys. 1. Schemat blokowy wirtualnego przyrządu pomiarowego
Na obecnym etapie uruchamiania przyrządu pomiarowego pewne elementy
budowy zostaną uproszczone tzn. pominięty zostanie w części nadawczej układ
kontrolno-sterujący z diodą laserową a w to miejsce zostanie wykorzystany typowy
wskaźnik laserowy. Przyjęto, że pomiary sygnałów będą wykonywane dla
stosunkowo niewielkich odległości, nie przekraczających 1 m między nadajnikiem
a źródłem dźwięku oraz między źródłem dźwięku i fotodetektorem.
Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego …
19
Aplikacja sterująca pracą stanowiska powinna umożliwiać rejestrację „surowych”
wyników pomiarów do pliku tzn. próbek sygnału, rejestrację pliku muzycznego z
rozszerzeniem wav oraz późniejszy odczyt tych danych. Wyniki pomiarów kartą
DAQ powinny być prezentowane na wyświetlaczu graficznym w funkcji czasu.
Program powinien z zarejestrowanych próbek wyznaczyć wartość maksymalną,
minimalną i skuteczną napięcia oraz poziom sygnału w decybelach. Wśród
dodatkowych funkcji przewiduje się analizę sygnału z zastosowaniem transformaty
FFT, wyznaczenia widma tercjowego i oktawowego rejestrowanego sygnału.
3. BUDOWA I ZASADA DZIAŁANIA STANOWISKA
W oparciu o przyjęte założenia zbudowane zostało stanowisko i napisana
aplikacja do jego obsługi. Komputer z aplikacją steruje działaniem karty
pomiarowej, która pełni funkcję urządzenia rejestrującego sygnał pomiarowy.
Zastosowany został model karty NI-USB 6210 firmy National Instruments [2]. Jest
to karta, którą producent wyposażył w 16 bitowy przetwornik A/C o maksymalnej
częstotliwości próbkowania 250 kS/s, 16 analogowych multipleksowanych
kanałów pomiarowych, 2 wyjścia analogowe, 4 wejścia cyfrowe i 4 wyjścia
cyfrowe. Do rejestracji sygnału wykorzystany został jeden z kanałów analogowych
karty, przy czym jego numer jest ważny przy zmianie połączeń w układzie. Pomiar
sygnału może być wykonywany na jednym z czterech zakresów pomiarowych
karty: ±0,2 V, ±1 V, ±5 V, ±10 V. Niedokładność pomiaru wyznaczona dla pełnej
skali najmniejszego zakresu pomiarowego wynosi Δ = ± 0,088 mV a dla zakresu
największego Δ = ± 2,69 mV. Komunikacja między komputerem PC (kontrolerem)
a kartą jest realizowana z użyciem magistrali USB 2. Do obsługi magistrali
komunikacyjnej
wykorzystano
sterowniki
zastosowanego
środowiska
programistycznego. Konfiguracja ustawień parametrów przetwarzania i pracy karty
jest wykonywana programowo.
Jako źródło promieniowania optycznego wykorzystano typowy wskaźnik
laserowy, który składa się z lasera półprzewodnikowego o mocy 1 mW,
emitującego światło barwy czerwonej w zakresie długości fali od 650 nm do
670 nm i układu optycznego z soczewką skupiającą (kolimatorem). Detektorem
jest fotodioda BPW34 pracująca w zakresie długości fali od 430 nm do 1100 nm, z
maksymalną czułością dla długości fali 900 nm. Pole powierzchni światłoczułej tej
fotodiody wynosi 7,5 mm2 a kąt detekcji φ = ±65°[3]. Dodatkowo, wyłącznie do
celów testowych, na stanowisku jako powierzchnia odbijająca została
przygotowana z polichlorku winylu membrana o grubości 0,15 mm. Jest
bezbarwna, z obu stron posiada połyskująca powierzchnię. Została zamocowana na
statywie i osadzona w okrągłej aluminiowej ramce o średnicy 160 mm.
Źródłem dźwięku, również do celów testowych, jest wysokiej klasy głośnik
stosowany jako monitor studyjny M1Active MKII, firmy Alesis, o paśmie
20
Zbigniew Krawiecki, Dariusz Gloger
przenoszenia mieszczącym się w zakresie od 40 Hz do 23,5 kHz [6]. Układ
fotodetektora (fotodioda z szeregowo połączonym rezystorem) zamienia padające
na powierzchnię światłoczułą fotodiody promieniowanie optyczne na sygnał
elektryczny. Do wstępnej obróbki odebranego sygnału zastosowano
przedwzmacniacz i filtr dolnoprzepustowy. Urządzenie zostało zaprojektowane,
wykonane i przebadane eksperymentalnie [5]. Wyniki testów wskazują, że
przedwzmacniacz charakteryzuje się bardzo dobrą transmisją sygnału w szerokim
paśmie częstotliwości słyszalnych od 20 Hz do 20 kHz oraz małymi szumami
własnymi układu przy dużym wzmocnieniu.
Na rys. 2 przedstawiono widok wykonanego stanowiska pomiarowego.
Rys. 2. Widok wykonanego stanowiska pomiarowego, gdzie: a) wskaźnik laserowy, b) fotodetektor,
c) membrana, d) źródło dźwięku, e) przedwzmacniacz sygnału, f) karta pomiarowa,
g) komputer z aplikacją w LabVIEW
Położenie źródła światła i detektora promieniowania optycznego względem
zbudowanej membrany zostało dobrane doświadczalnie. Przy wyłączonym źródle
dźwięku, odbite od powierzchni membrany światło z lasera tworzy plamkę na
powierzchni światłoczułej fotodiody. Wzajemne położenie elementów w układzie
optycznym dobrano tak, aby plamka w możliwie największym stopniu obejmowała
powierzchnię fotodiody. Dźwięk z głośnika gdy dociera do umieszczonej przed
nim dodatkowej membrany wprawia ją w drgania. Odbita od drgającej membrany
wiązka światła laserowego zaczyna zmieniać swoje położenie jednocześnie
zmieniając pole oświetlanej powierzchni fotodiody. Wywołuje to zmianę prądu
płynącego przez fotodiodę i jednocześnie zmianę napięcia na włączonym w szereg
rezystorze. W dalszej kolejności sygnał jest odpowiednio wzmocniony w
przedwzmacniaczu, odfiltrowany przy użyciu filtru dolnoprzepustowego i
Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego …
21
doprowadzony do wejścia analogowego karty pomiarowej. Za pomocą aplikacji
sterującej stanowiskiem uruchomiona zostaje rejestracja sygnału, który możemy
nazywać sygnałem audio, ponieważ odwzorowuje dźwięk i mieści się w granicach
częstotliwości słyszalnych. Sygnał ten może zostać zapisany do popularnego
formatu muzycznego wav lub pliku z rozszerzeniem tdms, który zawiera dane o
zarejestrowanych próbkach.
4. APLIKACJA STERUJĄCA PRZYRZĄDEM
Oprogramowanie zostało napisane w środowisku LabVIEW firmy National
Instruments [1, 7]. W algorytmie aplikacji wyodrębnione zostały cztery
podstawowe moduły: moduł do sterowania kartą pomiarową, moduł do rejestracji
wyników pomiarów, moduł do odczytu wyników z pliku, moduł przetwarzania i
analizy wyników pomiarów.
Moduł do sterowania kartą pomiarową wykorzystuje dostępny w środowisku
LabVIEW kreator konfiguracji zadania pomiarowego. Kreator ten obsługuje „rodzinę”
kart wielofunkcyjnych oznaczonych symbolem DAQmx i umożliwia ustawienie
wybranych parametrów pracy karty DAQ. W swojej strukturze ma zaimplementowane
algorytmy pomiaru różnych wielkości np. napięcia, temperatury, odkształceń
(naprężeń), prądu, rezystancji, częstotliwości, położenia, wibracji, natężenia dźwięku
itd. Okno dialogowe kreatora zostało przedstawione na rysunku 3.
Rys. 3. Okno dialogowe kreatora zadania pomiarowego dla wielofunkcyjnych kart DAQmx
22
Zbigniew Krawiecki, Dariusz Gloger
W związku z tym, że kreator przystosowany został do obsługi znacznej grupy kart
pomiarowych niektóre z wyświetlonych wielkości nie są obsługiwane przez
zastosowany model karty. W prezentowanym rozwiązaniu wirtualnego przyrządu
zadanie pomiarowe skonfigurowano na pomiar napięcia, do którego „przypisany”
został wirtualny kanał pomiarowy. W kolejnym oknie dialogowym możliwa jest
zmiana częstotliwości próbkowania (1), liczby zbieranych próbek (2), zakresu
mierzonego sygnału (3), trybu pracy wzmacniacza programowalnego w karcie (4).
Parametry te są ustawiane w panelu konfiguracyjnym przedstawionym na rysunku 4.
Zamieszczone na rysunku wartości parametrów są to nastawy standardowe ustawione
przez producenta sprzętu i możliwa jest ich zmiana w trakcie realizacji pomiarów.
Rys. 4. Panel konfiguracji parametrów przetwarzania sygnału i pracy karty DAQ
Przyjęto częstotliwość próbkowania o takiej wartości, która jest powszechnie
stosowana w cyfrowych urządzeniach rejestrujących tzn. 44100 S/s. Natomiast
liczba próbek będzie ulegała zmianie w zależności od czasu rejestracji.
W aplikacji oprócz funkcji, które zarządzają stanowiskiem zaimplementowano
algorytmy wyznaczania: wartości maksymalnej, minimalnej i wartość skutecznej
napięcia. Wartość skuteczna napięcia obliczana jest zgodnie z zależnością (1):
U
1 n 1 2
ui
n i 0

(1)
gdzie: n oznacza numer próbki pomiarowej o wartości chwilowej napięcia ui.
Na rysunku 5 przedstawiono panel programu do odczytu danych z pliku z
prezentacją wyników w formie graficznej w postaci przebiegu czasowego i widma
częstotliwościowego. Pozostałe wymienione w pracy funkcje pomiarowe są
dostępne na kolejnych panelach aplikacji.
Wirtualny przyrząd pomiarowy do rejestracji sygnału dźwiękowego …
23
Rys. 5. Panel programu do odczytu danych z pliku
Widoczny na rysunku 5 wynik przykładowego pomiaru jest to sygnał
zarejestrowany przy użyciu wykonanego wirtualnego przyrządu pomiarowego gdy
do głośnika M1Active MKII doprowadzony został przebieg sinusoidalny o
częstotliwości 1 kHz. Widoczne zniekształcenia obwiedni sygnału, które są
dodatkowo potwierdzone występowaniem składowych harmonicznych (analiza
FFT), prawdopodobnie wynikają z właściwości fizycznych zastosowanej na
stanowisku membrany, stopnia jej naprężenia w aluminiowej ramce, właściwości
akustycznych otoczenia itd. Przypuszcza się, że w wyniku dalszych prac będzie
możliwa modyfikacja stanowiska w celu poprawy właściwości metrologicznych
tak, aby ograniczyć wpływ tych elementów, które powodują zniekształcenie
sygnału w torze pomiarowym.
5. PODSUMOWANIE
Opisany w pracy wirtualny przyrząd pomiarowy został wykonany z
zastosowaniem nowoczesnych technik, w których do budowy stanowisk
pomiarowych wykorzystuje się elementy sprzętowe i programowe. Podstawowym
jego przeznaczeniem jest pomiar sygnałów akustycznych z wykorzystaniem
Zbigniew Krawiecki, Dariusz Gloger
24
światła laserowego jako nośnika informacji dźwiękowej w układzie lasermembrana-fotodetektor. Przewiduje się, że zastosowania mogą być szersze jak np.:
wykrywanie drgań, wibracji, prędkości wirowania ruchomych elementów maszyn
itd. Napisana w środowisku LabVIEW aplikacja działa poprawnie i umożliwia
konfigurację karty pomiarowej, rejestrację wyników pomiarów do pliku, odczyt
wyników z pliku oraz przetwarzanie i ich analizę. Przeprowadzone zostały
przykładowe pomiary w celu sprawdzenia poprawności działania przyrządu.
Na dalszym etapie prac przewiduje się wykonanie serii pomiarów dla różnych
membran i różnych sygnałów testowych, przeprowadzenie pomiaru sygnału w
funkcji jego częstotliwości, wykonanie badań porównawczych z zastosowaniem
analizatora sygnałów akustycznych XL2 firmy NTI.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
LabVIEW User Manual, National Instruments Corporation, 2003.
NI USB-621x User Manual, 2009.
Dokumentacja techniczna fotodiody BPW34 firmy Vishay.
Davis G., Jones R., The Sound Reinforcement Handbook Second Edition, Hal
Leonard Publishing Corporation, USA 1989.
Gloger D., Odon A., Microphone preamplifier for professional purposes, Academic
Journals, Poznań 2010.
M1 Active Mk2 Reference Manual, Alesis Corporation, 2001-2005.
Otomański P., Krawiecki Z., Odon A., The application of the LabVIEW
environment to evaluate the accuracy of alternating voltage measurements, Journal
of Physics: Conference Series, 13th IMEKO TC1-TC7 Joint Symposium: Without
Measurement No Science, Without Science No Measurement, vol 238, 1-3
September 2010, City University London, UK, pp. 1-6.
VIRTUAL MEASURING INSTRUMENT FOR RECORDING SOUND SIGNAL
WITH THE USE OF SEMICONDUCTOR LASER LIGHT
This paper describes the structure and operation of a virtual measuring instrument
designed to record sound signals. The light beam coming from a semiconductor laser,
modulated by acoustic wave is the information carrier. All the particular elements of the
instrument and the application controlling its operation are presented. The application was
created in the LabVIEW software environment. It is a tool that can be used in order to
obtain, interpret, play and analyze the sound signals. The achieved stage of the work has
been confirmed with the selected measurements.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Marcin JUKIEWICZ*
WYKORZYSTANIE MASZYNY WEKTORÓW NOŚNYCH
ORAZ LINIOWEJ ANALIZY DYSKRYMINACYJNEJ
JAKO KLASYFIKATORÓW CECH W INTERFEJSACH
MÓZG-KOMPUTER
Głównym celem artykułu jest porównanie skuteczności klasyfikacji cech dwóch
algorytmów klasyfikujących wykorzystywanych w interfejsach mózg-komputer: SVM (ang.
Support Vector Machine, Maszyna Wektorów Nośnych) oraz LDA (ang. Linear Discriminant
Analysis, Liniowa Analiza Dyskryminacyjna). W artykule przedstawiono interfejs, w którym
użytkownikowi prezentowane są dwa bodźce migające z różną częstotliwością (10 i 15 Hz), a
następnie za pomocą elektrod elektroencefalografu mierzona jest odpowiedź elektryczna
mózgu. W takich interfejsach sygnał zbierany jest zwykle w okolicach potylicznych (nad korą
wzrokową). W prezentowanym rozwiązaniu sygnał mierzony jest z okolic czołowych. W
przetwarzaniu i analizie sygnału zastosowano algorytmy statystycznego uczenia maszynowego.
Do ekstrakcji cech sygnału wykorzystano Szybką Transformatę Fouriera, do selekcji cech: test
t-Welcha, a do klasyfikacji cech: SVM oraz DLA. Na podstawie odpowiedzi uzyskanej z
klasyfikatora możliwe jest np. wysterowanie kierunku skrętu robota mobilnego lub włączenie
czy wyłączenie oświetlenia.
SŁOWA KLUCZOWE: interfejs mózg-komputer, brain-computer interface, Support
Vector Machine, Maszyna Wektorów Nośnych, Linear Discriminant Analysis, Liniowa
Analiza Dyskryminacyjna
1. WSTĘP
1.1. Interfejsy mózg-komputer
Interfejs mózg-komputer (BCI) to urządzenie, które pozwala osobom
sparaliżowanym sterować np. robotem, protezą bądź wózkiem inwalidzkim
wykorzystując jedynie reakcje własnego mózgu. Pozwala ono na bezpośrednie
przełożenie intencji człowieka na sygnały sterujące, tworząc bezpośrednią ścieżkę
komunikacji pomiędzy ludzkim mózgiem a urządzeniami zewnętrznymi, bez udziału
mięsni i obwodowego układu nerwowego. Urządzenia te mogą być jedynym
możliwym sposobem komunikacji osób niepełnosprawnych, np. z porażeniem
dziecięcym, po udarze lub z urazami mózgu czy rdzenia kręgowego [1, 2].
__________________________________________
* PolitechnikaPoznańska.
26
Marcin Jukiewicz
W interfejsach nieinwazyjnych powszechnie stosowany jest elektroencefalograf
(EEG) z uwagi na szybką odpowiedź elektryczną mózgu na zmieniające się bodźce,
względną łatwość akwizycji sygnału oraz niższe koszty systemu w porównaniu z
innymi metodami monitorowania aktywności mózgu (magnetoencefalografia,
spektroskopia bliskiej podczerwieni, pozytonowa emisyjna tomografia komputerowa
lub funkcjonalny rezonans magnetyczny) [2, 3].
Interfejsy wymagają bodźców zewnętrznych. Bodźce mogą być słuchowe,
somatosensoryczne lub wzrokowe [2]. Oznacza to, że takimi bodźcami mogą być
różne dźwięki, stymulacja dotykowa lub migające światła o różnych
częstotliwościach. Spontaniczna, elektryczna reakcja mózgu pojawiająca się na
powierzchni mózgu w wyniku zarejestrowania przez człowieka zewnętrznego
bodźca nazywana jest potencjałem wywołanym. W typowym interfejsie mózgkomputer każdy bodziec jest związany z poleceniem, które steruje aplikacją bądź
urządzeniem zewnętrznym. Aby wybrać polecenie, użytkownik musi skupić swoją
uwagę na odpowiednim bodźcu.
1.2. Wzrokowe potencjały wywołane
Aby wybrać polecenie, użytkownik musi skupić swoją uwagę na odpowiednim
bodźcu. Wzrokowe potencjały wywołane stanu ustalonego SSVEP (ang. Steady
State Visual Evoked Potentials) to reakcja mózgu obserwowalna głównie w korze
wzrokowej, podczas gdy osoba badana skupia uwagę na obrazie (wyświetlanym
na ekranie monitora) migoczącym z częstotliwością powyżej 4 Hz.
Częstotliwością dominującą w sygnale elektrycznym zmierzonym w okolicach
potylicznych jest więc częstotliwość, z jaką migocze bodziec obserwowany przez
badanego oraz jego harmoniczne.
Rys. 1. Umiejscowienie elektrod przedczołowych i potylicznych wg standardu 10-20
W sytuacji, kiedy bodźców jest więcej i każdy pulsuje z inną częstotliwością,
można stwierdzić, na który z obiektów patrzy badany [2, 7].
Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy …
27
Do pomiaru sygnału znad kory wzrokowej (obszar potyliczny),
wykorzystywane są głównie elektrody encefalografu oznaczone jako O1, O2 i Oz,
zgodnie z międzynarodowym standardem 10-20 (rys. 1) [2].
1.3. Przedstawienie problemu
Montaż i korygowanie umiejscowienia elektrod na potylicy może być
uciążliwe z uwagi na owłosienie w tym rejonie głowy oraz szczególnie kłopotliwe
u osób o ograniczonej sprawności ruchowej (np. pacjenci leżący). Dlatego warto
rozważyć możliwość pomiaru reakcji SSVEP w rejonach innych niż płat
potyliczny. W tym artykule zaproponowano wykorzystanie sygnału mierzonego z
kory przedczołowej [5, 6]. Jest to miejsce istotne z uwagi na brak owłosienia
czoła, ma jednak pewne wady. Sygnał z tej okolicy zawiera głównie tak zwane
fale alfa o częstotliwości (8-13) Hz i beta (13-30) Hz, związane z poziomem
skupienia i zrelaksowania osoby badanej oraz składowe pochodzące od
aktywności mięśni czoła [4]. Częstotliwość, z jaką miga bodziec, nie jest więc
częstotliwością dominującą w sygnale pozyskiwanym z tych okolic.
2. BADANIA WŁASNE
Badanemu prezentowane były bodźce w postaci dwóch żółto-zielonych
szachownic, z których każda była kwadratem o wymiarach (7x7) cm.
Szachownicę lewą wyświetlano z częstotliwością 15 Hz, natomiast szachownicę
prawą z częstotliwością 10 Hz. Prezentowano je na 14-calowym monitorze LED,
umieszczonym w odległości 50 cm od osoby badanej.
Do pomiaru sygnału z głowy użyto jednej, suchej elektrody czołowej Fp1 (rys.
1) oraz jednej elektrody referencyjnej zamontowanej na uchu. Sygnał rejestrowano
z częstotliwością próbkowania równą 512 Hz.
W każdym z piętnastu powtórzeń badany proszony był, aby najpierw skupiał
wzrok na lewej szachownicy przez 1 s, a następnie, także przez 1 s, na prawej
szachownicy. W ten sposób uzyskano 30 jednosekundowych próbek. Do analizy
sygnału wykorzystano środowisko MATLAB.
Na rys. 2 przedstawiono kolejne etapy analizy sygnału, omówione poniżej.
Sygnał został poddawany filtracji cyfrowej za pomocą filtru pasmowoprzepustowego tak, aby do dalszej analizy pozostało jedynie pasmo częstotliwości (5,049,5) Hz. Następnie wykorzystano 1024-punktową FFT do ekstrakcji cech sygnału.
Uzyskane w ten sposób cechy zostały znormalizowane w przedziale od 0 do 1.
Selekcja wykorzystywana jest do minimalizacji liczby cech poddawanych
dalszej analizie, poprzez uszeregowanie ich od cech „najistotniejszych” do
„najmniej istotnych”. Odrzucenie cech nieistotnych pozwala na znaczne
przyspieszenie działania interfejsu w czasie rzeczywistym. Do selekcji użyto testu
t-Welcha.
28
Marcin Jukiewicz
Rys. 2. Schemat blokowy prezentujący kolejne etapy przetwarzania sygnału
W ostatnim etapie uczenia interfejsu próbki poddawane są pięciokrotnemu
sprawdzianowi walidacji krzyżowej. Z pełnego zbioru wydzielanych jest 6 próbek,
które stają się zbiorem testowym, reszta próbek to zbiór treningowy. Do
klasyfikacji używane są dwa algorytmy: Maszyna Wektorów Nośnych SVM (ang.
Support Vector Machine) oraz Liniowa Analiza Dyskryminacyjna LDA (ang.
Linear Discriminant Analysis). Klasyfikacja odbywa się przy użyciu k cech (gdzie
k = 1,2,…,90), W zebranych wynikach klasyfikacji obu algorytmów ustala się,
które odpowiedzi są prawidłowe, a które nie i na tej podstawie wyznaczana jest
skuteczność danego klasyfikatora.
W ostatniej fazie ustalana jest optymalna (o największej skuteczności
rozpoznania bodźca) liczba wyselekcjonowanych wcześniej cech. Tylko te cechy
wykorzystywane są w etapie testowania interfejsu. W tym etapie badany
poddawany jest kolejnym 30 próbom. W każdej z prób informuje się go, na której
z szachownic ma skupić wzrok.
3. ANALIZA WYNIKÓW
W tabeli 1 zamieszczono wyniki pozyskane w badaniach 10 osób. Tabela
przedstawia skuteczność klasyfikacji w fazie testowej dwóch algorytmów:
Maszyny Wektorów Nośnych oraz Liniowej Analizy Dyskryminacyjnej. Maszyna
Wektorów Nośnych umożliwiła uzyskanie skuteczności w przedziale od 63% do
87%. Średnia wartość skuteczności tego algorytmu wyznaczona na podstawie
wyników uzyskanych od wszystkich osób wynosi 77%. Liniowa Analiza
Dyskryminacyjna umożliwiła uzyskanie skuteczności w przedziale od 67% do
90%. Średnia wartość skuteczności tego algorytmu wyznaczona na podstawie
wyników uzyskanych od wszystkich osób wynosi 80%.
Wykorzystanie maszyny wektorów nośnych oraz liniowej analizy …
29
Tabela 1. Skuteczność klasyfikacji w fazie testu
Faza testu
Podmiot
LDA
SVM
Osoba 1
90%
83%
Osoba 2
67%
63%
Osoba 3
90%
87%
Osoba 4
80%
63%
Osoba 5
57%
77%
Osoba 6
80%
80%
Osoba 7
87%
87%
Osoba 8
90%
67%
Osoba 9
77%
80%
Osoba 10
83%
80%
średnia
80%
77%
4. PODSUMOWANIE
W przedstawionych badaniach dokonano analizy dwóch algorytmów uczenia
maszynowego na potrzeby dwuklasowego interfejsu mózg-komputer, bazującego
na analizie sygnału pobranego z kory przedczołowej. Lepszym rozwiązaniem od
Maszyny Wektorów Nośnych okazała się Liniowa Analiza Dyskryminacyjna. Dla
algorytmu LDA średnia (dla 10 osób) skuteczność klasyfikacji jest o 3% większa
niż w przypadku algorytmu SVM, dając skuteczność rozpoznania bodźca w
przedziale od 67 do 90%.
Należy sądzić, że polepszenie wyników rozpoznania bodźca oraz zwiększenie
liczby klas powinny być możliwe przez zwiększenie liczby elektrod pomiarowych
zamontowanych na czole badanej osoby. Otrzymane dotąd wyniki są na tyle
obiecujące, że przedmiotem planowanych dalszych prac nad interfejsem mózgkomputer będzie modyfikacja układu pomiarowego.
30
Marcin Jukiewicz
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
Birbaumer N., Breaking the silence: Brain–computer interfaces (BCI) for
communication and motor control. Psychophysiology, Volume 43, 517–532, ISSN
0048-5772, 2005.
Graimann B., Allison B., Pfurtscheller G., Brain–Computer Interfaces: A Gentle
Introduction, Brain-Computer Interfaces The Frontiers Collection. 2010.
Schalk G., McFarland D. J., Hinterberger T., Birbaumer N., Wolpaw J R., BCI2000:
A General-Purpose Brain-Computer Interface (BCI) System, IEEE Transations on
Biomedical Engineering, vol. 51, no. 6, pp. 1034-1043, 2004.
van Drongelen W., Signal Processing for Neuroscientists, Academic Press, 2006.
Vialatte F,, Maurice M., Dauwels J., Cichocki A., Steady-state visually evoked
potentials: Focus on essential paradigms and future perspectives, Progress in
Neurobiology 90, pp. 418–438, 2010.
Wang R., Zhang Y., Gao X., Gao S., “Lead selection for SSVEP-based binocular
rivalry,” in 2005 First International Conference on Neural Interface.
Wolpaw J. R., Birbaumer N., McFarland D. J., Pfurtscheller G., T. M. Vaughan,
Brain–computer interfaces for communication and control, Clinical
Neurophysiology 113, pp. 767–791, 2002.
USING SUPPORT VECTOR MACHINE AND LINEAR DISCRIMINANT
ANALYSIS FOR FEATURES CLASSIFICATION IN BRAIN-COMPUTER
INTERFACES
The main aim of this article is to compare the effectiveness of the classification of the
two classifiers used in brain-computer interfaces: SVM (Support Vector Machine) and
LDA (Linear Discriminant Analysis). The article presents an interface in which the subject
is presented the two stimuli flashing at different frequencies (10 and 15 Hz) and then by
using EEG electrodes electrical response of the brain is measured. In these interfaces, the
signal is typically collected in the occipital area (on the visual cortex). In the presented
solution the signal is measured form the prefrontal cortex. For signal processing and
analysis statistical machine learning algorithms were used. For features’ extraction Fast
Fourier Transform was used. For features’ selection Welch’s t test was used. For features’
classification was used SVM and DLA. Based on the responses obtained from the classifier
it is possible to control the direction of a mobile robot’s movement or turning the lights on
and off.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Jarosław JAJCZYK*
Krzysztof MATWIEJCZYK*
DIAGNOSTYKA MAGISTRALI CAN W POJAZDACH
Artykuł zawiera informacje na temat magistrali CAN jako sieci transmisji danych
stosowanej w przemyśle motoryzacyjnym do komunikacji pomiędzy poszczególnymi
układami sterowania. Przybliżono budowę tego systemu oraz omówiono sposoby
przesyłania komunikatów. Zaprezentowano metody umożliwiające wykrycie usterek przy
fizycznym uszkodzeniu magistrali CAN.
SŁOWA KLUCZOWE: magistrala danych, diagnostyka, elektronika pojazdowa
1. WSTĘP
Szybki rozwój elektroniki na świecie spowodował, że jest ona również
obiektem zainteresowań inżynierów pracujących w koncernach motoryzacyjnych.
Jej zastosowanie pozwala na wyposażenie pojazdów w skomplikowane systemy,
które zwiększają komfort i bezpieczeństwo jazdy. Na szczególną uwagę zasługują
informatyczne sieci komunikacji, które w krótkim czasie stały się podstawowym
systemem wymiany danych w pojazdach. Dzięki nim ograniczona została masa
własna pojazdów oraz poprzez zastosowanie cyfrowego sygnału poprawiona
została jakość transmisji. Najpopularniejszą siecią stosowaną powszechnie przez
producentów pojazdów jest magistrala CAN (ang. Controller Area Network). Po
raz pierwszy została ona zastosowana przez koncern Mercedesa w 1992 roku a już
na początku dwudziestego pierwszego wieku była podstawowym systemem
każdego samochodu [1]. Aby ujednolicić to rozwiązanie, powołana została
organizacja CAN in Automation, która opracowała standardy związane z
magistralą CAN. Wprowadziła ona obowiązującą normę europejską ISO 11898,
która odpowiada amerykańskiej normie SAE J1939 i opisuje warstwę fizyczną
systemu CAN oraz warstwę aplikacji [4, 5, 10].
Magistrala CAN jest odpowiedzią na zwiększającą się liczbę czujników,
sterowników oraz elementów wykonawczych w pojazdach. Mnogość systemów w
jakie zostały wyposażone samochody utrudnia przejrzystą wymianę danych, stąd
też podzespoły grupuje się np. w systemy oświetlenia, nadwozia, napędu itd. W
pojazdach znajduje się więcej niż jedna magistrala CAN, a dane są często
__________________________________________
* Politechnika Poznańska.
32
Jarosław Jajczyk, Krzysztof Matwiejczyk
przesyłane pomiędzy poszczególnymi systemami. Oprócz międzywęzłowej
wymiany danych tego typu sieć pozwala na sprawną diagnostykę usterek.
Elektroniczne sterowniki poszczególnych systemów monitorują swoją pracę a
każda niezgodność zapisywana jest w pamięci w postaci kodu symbolizującego
określoną usterkę. Poprzez podłączenie interfejsu diagnostycznego przez złącze
OBD kody te są odczytywane a następnie dekodowane [3, 4].
2. BUDOWA MAGISTRALI CAN
Magistrala CAN pozwala łączyć między sobą urządzenia poprzez trzy
topologie: linearną, pierścieniową oraz gwieździstą. Ze względów technicznych
powszechnie stosowana jest struktura liniowa, która mimo uszkodzeń
poszczególnych węzłów zapewnia ciągłą wymianę danych.
Warstwa fizyczna magistrali CAN składa się z dwuprzewodowej skrętki
łączącej wszystkie nadajniki i odbiorniki. Na obu końcach skrętki montowane są
rezystory zwane termistorami, których zadaniem jest zapobieganie zjawisku
odbicia się fali elektromagnetycznej. Dane przesyłane są w postaci sygnału
różnicowego [9, 10]. Zasadę jego tworzenia przestawiono na rysunku 1.
Rys. 1. Transmisja sygnału w skrętce CAN
Skrętka magistrali składa się z dwóch przewodów oznaczanych jako CAN_L (niska
magistrala CAN) oraz CAN_H (wysoka magistrala CAN). Kiedy występuje bit
recesywny w obu przypadkach jest taka sama wartość napięcia, która wynosi 2,5 V.
Stan dominujący odzwierciedlają następujące potencjały: dla CAN_L – 1,5 V, zaś dla
CAN_H – 3,5 V. W stanie dominującym różnica napięć jest na poziomie ok. 2 V
(rys. 1). Ewentualne zakłócenia działające na skrętkę znoszą się, przez co zachowana
zostaje wysoka jakość transmisji danych.
Długość przewodów magistrali ma znaczenie i wpływa na jakość transmisji.
Maksymalna długość magistrali lmax na etapie projektowania wyznaczana jest za
pomocą zależności (1) [4].
C
l max  Cu
(1)
Vt
gdzie: Vt – szybkość transmisji, CCu – prędkość rozchodzenia się sygnału w miedzi
(CCu = 2108 m/s).
Diagnostyka magistrali CAN w pojazdach
33
Zgodnie z normą ISO 11898 zaleca się, aby długość magistrali nie przekraczała
40 m (ma to sens ze względu na budowę i rozmiary pojazdów) [6, 7, 8].
Warstwa łącza danych odpowiada za nadawanie adresu urządzeniom, który
pozwala odbierać komunikaty wysyłane w postaci ramek danych (rys. 2).
Rys. 2. Struktura ramki standardu CAN [1]
Komunikat składa się z [2, 5, 10]:
- pola/bitu startowego (SOF) – rozpoczyna nadawaną ramkę; jego wartość jest
zawsze dominująca,
- pola statusu (identyfikator wiadomości) – określa priorytet komunikatu i w
zależności od przyjętego standardu CAN może składać się z 11 bitów
(CAN2.0A) lub 29 bitów (CAN2.0B),
- pola sterującego – informuje o standardzie CAN, jaki został przyjęty oraz
zawiera informację o długości kolejnego pola ramki (pola danych),
- pola danych – maksymalnie 8 bajtów w których zawiera się główna informacja
przesyłana w komunikacie,
- pola zabezpieczenia – odpowiada za wykrywanie zakłóceń transmisji na
podstawie sumy kontrolnej CRC, która jest tworzona przez nadajnik i
zapisywana w tym miejscu; przy odbiorze ramki odbiornik tworzy drugą taką
sumę i porównuje jej wartość z tą zawartą w polu zabezpieczenia,
- pola potwierdzenia (ACK) – dwubitowe pole zawierające informację zwrotną
nadaną przez odbiornik o potwierdzeniu odebranej ramki,
- pola końcowego (EOF) – siedem bitów o wartości recesywnej, które kończy
ramkę danych.
Każdy komunikat zawiera również 3-4 bity separujące, które oddzielają między
sobą poszczególne ramki. W poprawnie nadawanej ramce nie powinno być sześciu
kolejnych bitów o tej samej wartości logicznej. Gdy sterownik wyśle ciąg równych
bitów, tranceiver dopisuje dodatkowy bit po pięciu tych samych wartościach.
Odbiornik pomija ten bit przy dekodowaniu komunikatu. Ciąg tego typu bitów
nazywa się bitami odstępowymi [3, 10]. Rysunek 3 przedstawia część ramki z
podziałem na bity. Obszary zacieniowane to bity dopisane.
34
Jarosław Jajczyk, Krzysztof Matwiejczyk
Rys. 3. Ciąg bitów z wyszczególnionymi bitami odstępowymi
Ostatnią warstwą standardu CAN jest warstwa aplikacji, która nie została
określona w żadnych dokumentach prawnych. Przez to, że nie narzucono na tę
część żadnych ograniczeń, koncerny samochodowe zbudowały własne protokoły,
które ze względów polityki prywatności są utajone. Przykładem tego typu danych
są m.in. protokoły sterujące modułami we współczesnych pojazdach.
3. KOMUNIKACJA W MAGISTRALI CAN
Urządzenia sterujące i wykonawcze nie mogą być bezpośrednio wpięte do
magistrali CAN, ponieważ nie są przystosowane do odbierania i nadawania
danych. Aby zapewniona była wymiana informacji, każde z nich musi być
wyposażone w dodatkowe układy elektroniczne. W jego skład wchodzi:
mikrokontroler, procesor CAN oraz tranceiver.
Mikrokontroler odbiera sygnał i przekazuje go w postaci danych do kontrolera
CAN. Tworzona jest typowa ramka CAN zawierająca dane. Jej wysyłanie jest
realizowane za pomocą tranceivera, który stanowi układ nadający lub odbierający
komunikaty. Układy odbierające pozostałych sterowników pobierają dane z
magistrali, które przekazują do kontrolerów CAN, gdzie na podstawie
identyfikatora odbywa się weryfikacja, czy dany komunikat adresowany był do
danego węzła. Jeżeli wiadomość zostanie przyjęta jest ona dalej przetwarzana.
Podmieniany jest bit pola potwierdzenia z wartości dominującej na recesywną i
odsyłany z powrotem jako rodzaj raportu doręczenia komunikatu dla nadawcy. W
pozostałych przypadkach, gdy identyfikator nie zostanie zaakceptowany, odbiór
danych jest przerywany [2, 5, 6].
Podstawową metodą dostępu do magistrali jest metoda CSMA/CA –
wielostacyjny dostęp do informacji. Urządzenie nadaje informację tak długo,
dopóki zapis jej jest zgodny z sekwencją bitów obecnych w magistrali. Jeżeli
wysłany zostanie bit recesywny, natomiast sygnał główny będzie miał w tym
Diagnostyka magistrali CAN w pojazdach
35
momencie wartość równą logicznemu zeru (bit dominujący), dany węzeł przerywa
nadawanie i przechodzi w stan odbioru informacji.
Odpowiedzialny za poprawne funkcjonowanie transmisji jest proces arbitrażu,
w którym na podstawie identyfikatora ramek nadawany jest priorytet komunikatu.
Korzysta się w nim z tzw. metody operacji logicznej „Wired-And”, która polega na
nadpisywaniu bitów recesywnych przez bity dominujące. Przebieg arbitrażu
gwarantuje, że żaden bit nie jest tracony, a przy tym nie wydłuża się czas
nadawania komunikatu [4, 10].
Magistrala CAN jest siecią informatyczną o wysokiej niezawodności. Aby
jednak móc na bieżąco kontrolować połączenia oraz wymianę danych, stosuje się
systemy wykrywania i korekcji błędów. Informacja o błędzie jest przesyłana
najpóźniej pod koniec komunikatu, aby układ nadający mógł powtórzyć wysłanie
ramki danych. Wśród metod detekcji błędów wyróżniono [1, 4, 9, 10]:
- kontrola nadmiarowa CRC – wykrywanie błędu poprzez porównanie sumy
kontrolnej na końcu transmisji w układzie odbierającym komunikat z jej
wartością początkową w układzie nadawczym,
- sprawdzanie formatu ramki – sprawdzenie poszczególnych pól komunikatu, czy
na pewno ich wartości logiczne są zgodne z tymi określonymi w protokole
CAN; kontroli podlega struktura komunikatu,
- błąd potwierdzenia – brak komunikatu zwrotnego z układu odbiorczego, który
informuje nadawcę o poprawnym przebiegu transmisji,
- błąd synchronizacji danych - monitorowanie poprawności kodu ramki zgodnie z
regułą, że maksymalnie pięć kolejnych bitów może mieć tę samą wartość
logiczną.
Po wykryciu błędu kontroler CAN przerywa wysyłanie ramki danych.
Nadawana jest wtedy tzw. ramka błędu. Jest to sześć kolejnych bitów
dominujących (active error flag) lub recesywnych (passive error flag). Sytuacja ta
pokazana została na rysunku 4, gdzie od chwili 0,83 ms przerwana została
transmisja i nadano ramkę błędu.
Rys. 4. Przebieg sygnałów w magistrali CAN podczas nadania ramki błędu
36
Jarosław Jajczyk, Krzysztof Matwiejczyk
Nadajnik, któremu przerwano wysyłanie ramki, spróbuje wznowić proces
transmisji później, aby inne węzły magistrali przez przypadek nie odebrały
błędnych informacji. Po sześciu bitach dominujących następuje osiem bitów
recesywnych, które są traktowane jako odstęp po ramce błędu.
4. DIAGNOSTYKA MAGISTRALI CAN
Magistrala CAN nie służy jedynie do wymiany informacji pomiędzy
przyłączonym do niej urządzeniami. Istnieje możliwość przyłączenia złącza
diagnostycznego standardu OBD, przez które za pomocą zewnętrznych interfejsów
diagnostycznych można odczytywać parametry poszczególnych układów oraz
informacje o zaistniałych błędach. Poprawne funkcjonowanie układu wymaga, aby
magistrala nie posiadała żadnych uszkodzeń mechanicznych. Norma ISO 11898
opisuje m.in. usterki mechaniczne magistrali CAN, które mogą powstać w trakcie
eksploatacji pojazdów:
- przerwany przewód CAN_H lub CAN_L,
- przewód CAN_H lub CAN_L zwarty do źródła napięcia,
- przewód CAN_H lub CAN_L zwarty do masy,
- zwarcie między przewodami magistrali – CAN_H z CAN_L,
- przerwanie któregoś z przewodu magistrali,
- uszkodzenie rezystora krańcowego magistrali.
W celu diagnozy jednej z powyższych usterek stosuje się specjalne interfejsy
wyposażone w odpowiednie oprogramowanie. Po ich podłączeniu do magistrali
odczytuje się sygnały wysyłanych ramek i na ich podstawie określa typ usterki.
Należy w tych przypadkach postępować według następującej strategii [3, 9]:
1) Sprawdzenie magistrali transmisji danych za pomocą testera bądź interfejsu
komputerowego.
2) Zapoznanie się z budową całego systemu w badanym samochodzie, a następnie
dokonanie pomiarów sieci multimetrem bądź oscyloskopem.
3) Naprawa uszkodzonego przewodu bądź wymiana sterownika z wadliwym
złączem, a po przywróceniu sprawności magistrali wykasowanie błędu z
pamięci rejestru i ponowne sprawdzenie systemu.
W pracy zostały przeprowadzone badania magistrali odpowiedzialnej za
systemy silnika i napędu (przepustowość 250 kb/s). Pojazdem, na którym
przeprowadzono opisywane doświadczenia, był autobus marki Solaris Urbino U18
z silnikiem gazowym CNG. Jako sprzęt diagnostyczny użyto oscyloskopu
PicoScope 3200, posiadającego dwa kanały analogowe oraz szesnaście cyfrowych.
Zasymulowano następujące usterki:
a) Brak rezystora dopasowującego
Na oscylogramie zamieszczonym na rysunku 5 zauważyć można duże oscylacje
przy zboczu narastającym sygnału wysokiego i opadającym sygnału niskiego.
Diagnostyka magistrali CAN w pojazdach
37
Przekłada się to na zaburzenia sygnału różnicowego. Ciąg bitów stanu niskiego na
poszczególnych przewodach odbiega od linii prostej prostej.
Rys. 5. Transmisja danych w magistrali CAN przy wypiętym rezystorze krańcowym
b) Zwarcie przewodu CAN_L z masą
W tym przypadku napięcie na przewodzie CAN_L wynosi 0 V. Sygnałem na
magistrali jest przebieg z przewodu CAN_H. Magistrala nie przestaje działać, a
jedynie przechodzi w tryb jednoprzewodowy (rys. 6).
Rys. 6. Przebieg sygnałów w magistrali CAN podczas zwarcia przewodu CAN_L do masy
c) Zwarcie przewodu CAN_H z masą
W chwili wystąpienia zwarcia sygnał w przewodzie CAN_H zanika, a napięcie
w przewodzie spada do 0 V. W przewodzie CAN_L pojawiają się pojedyncze piki,
które oznaczają próbę rozpoczęcia nadawania (rys. 7). Przesył danych w takim
przypadku nie jest możliwy, a sieć CAN przestaje pracować poprawnie
(począwszy od 1,6 ms – rys. 7). Praca jednoprzewodowa w tym przypadku jest
niemożliwa). Stanowi to zabezpieczenie systemowe, aby sygnał różnicowy
(UCAN_H – UCAN_L) nie przyjmował ujemnych wartości napięcia.
38
Jarosław Jajczyk, Krzysztof Matwiejczyk
Rys. 7. Przebieg sygnałów w magistrali CAN podczas zwarcie przewodu CAN_H do masy
d) Zwarcie przewodu CAN_H z CAN_L
W początkowej chwili zauważalne są mocne oscylacje, po których napięcia w
przewodach magistrali wyrównują się na poziomie 2,5 V. Pojawia się szereg
oscylacji, które deformują komunikaty (rys. 8).
Rys. 8. Zwarcie między przewodami skrętki magistrali CAN
Początkowo występuje próba nadania komunikatu, jednak od momentu zwarcia
(2,6 ms) sygnały z obu przewodów pokrywają się ze sobą. Sygnał różnicowy nie
występuję o czym świadczy jego wartość równa 0 V. W przypadku tego typu
zwarcia magistrala CAN przestaje funkcjonować.
e) Zwarcie przewodu CAN_L lub CAN_H z plusem zasilania
W tego typu uszkodzeniach magistrala CAN przechodzi w jednoprzewodowy tryb
pracy. Napięcie na przewodzie zwartym z plusem zasilania wynosi 12 V lub 5 V. W
takich sytuacjach istnieje możliwość uszkodzenia układów elektronicznych.
f) Przerwanie któregoś z przewodów magistrali
W tym przypadku występuje otwarty obwód jednego przewodu, co oznacza,
że magistrala CAN przechodzi w tryb pracy jednoprzewodowej. Sygnał magistrali
odpowiada przebiegowi na nieuszkodzonej żyle skrętki. Określenie tego typu
usterek nie wymaga zaawansowanej techniki. Każdy producent aut posiada
odpowiedni kod usterki, który jest odczytywany poprzez tester diagnostyczny.
Diagnostyka magistrali CAN w pojazdach
39
5. WNIOSKI
Magistrala CAN to uniwersalny system, który pozwala na integrację wielu
urządzeń przy wykorzystaniu wspólnego medium transmisyjnego. Dzięki
dwuprzewodowej skrętce i cyfrowemu sygnałowi różnicowemu otrzymuje się wysoką
jakość przesyłu. Ważne jest zapoznanie się z zachowaniem magistrali w przypadku
uszkodzeń mechanicznych. Tego typu awarie nie są precyzyjnie rozpoznawane przez
testery diagnostyczne, dlatego też do weryfikacji miejsca uszkodzenia magistrali CAN
używane są multimetry oraz oscyloskopy.
Przeprowadzone w pracy badania symulacyjne miały na celu przedstawienie
przebiegów napięciowych występujących podczas zaistnienia usterki. Przebieg sygnału
różnicowego występuje zawsze, kiedy magistrala jest w trybie pracy dwu lub
jednoprzewodowym. Ten drugi tryb odzwierciedla stan awaryjny sieci, który pozwala
utrzymać transmisję. Przy projektowaniu magistrali CAN należy przestrzegać norm
oraz brać pod uwagę rozmieszczenie instalacji w pojeździe w celu uniknięcia
ewentualnych usterek mechanicznych.
LITERATURA
[1] Czasopismo Elektronika dla wszystkich, s. 97-100, czerwiec 2000.
[2] Estchberger K., Controller Area Network, Wyd. 3. Hanser Verlag 2006.
[3] Frei Martin, Samochodowe magistrale danych w praktyce warsztatowej, Wydanie 1
WKŁ Warszawa 2010.
[4] Fryskowski B., Grzejszczyk E., Systemy transmisji danych, Wydanie 1 WKŁ
Warszawa 2010.
[5] Informator techniczny Robert Bosch GmbH, Sieci wymiany danych w pojazdach
samochodowych, Wydanie 1, Warszawa 2008.
[6] ISO 11898-1:2003 Road vehicle – Controller area network (CAN) – Part 1: Data
link layer and physical signaling.
[7] ISO 11898-2:2003 Road vehicle – Controller area network (CAN) – Part 2: High
speed medium access unit.
[8] ISO 11898-1:2003 Road vehicle – Controller area network (CAN) – Part 3: Low
speed, fault-tolerant, medium-dependent interface.
[9] Materiały udostępnione przez Politechnikę Łódzką www.dsod.pl, 29.10.2013.
[10] Zimmermann W., Schmidgall R., Magistrale danych w pojazdach. Protokoły
i standard, Wydanie 1 WKŁ Warszawa 2008.
DIAGNOSTICS OF CAN BUS IN VEHICLES
This paper presents more information about CAN Bus System as data transmission
network used in automotive industry for communication between other systems. It also
describes the elaborated structure and how to create control messages which come from
drivers sent by CAN Bus System. This paper also contains ways of searching mechanical
faults when bus is broken.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Piotr BAKALAREK*
Leszek KASPRZYK*
PRZEPŁYWOWY PODGRZEWACZ PALIWA
DLA POJAZDÓW Z SILNIKIEM DIESLA
W artykule przedstawiono koncepcję przepływowego elektrycznego podgrzewacza
paliwa przeznaczonego do pojazdów z silnikiem Diesla z automatyczną regulacją mocy
grzewczej w funkcji temperatury, który został wykonany w ramach pracy dyplomowej
inżynierskiej.
Omówiona
została
warstwa
sprzętowa
podgrzewacza
oraz
zaimplementowane funkcje realizowane przez urządzenie. W pracy zostały także
omówione problemy wynikające z użytkowania oleju napędowego w niskich temperaturach
oraz zasadność stosowania podgrzewaczy paliwa.
SŁOWA KLUCZOWE: podgrzewacz paliwa, pojazdy spalinowe, układy sterowania
1. WSTĘP
Układ paliwowy jest najbardziej newralgicznym układem w pojeździe.
Zatankowanie złej jakości paliwa może prowadzić do unieruchomienia pojazdu, a
nawet do uszkodzenia podzespołów mechanicznych takich jak wtryskiwacze lub
pompa wysokiego ciśnienia. Duże znaczenie ma jego czystość, lecz podczas pracy
pojazdu w niskich temperaturach pojawia się kolejny istotny problem – wytrącenie
parafiny. Jest ona jednym z podstawowych składników oleju napędowego, która w
niskich temperaturach wydziela się w postaci zlepiających się kryształów, tworzących
ciało stałe. Zostaje ono zatrzymane przez filtr paliwa, doprowadzając do jego
całkowitej niedrożności. W klimacie umiarkowanym w okresie zimowym paliwa
przystosowane są do pracy w temperaturze powyżej -20 °C. Gdy nastąpi spadek
temperatury poniżej tej wartości, mogą zacząć się problemy z poprawną pracą silnika.
Istnieją specjalne dodatki zwane depresatorami, które obniżają temperaturę wytrącania
parafiny. Są one jednak skuteczne tylko zanim substancja ta wydzieli się z paliwa.
Dodatkowo dla ich poprawnego zadziałania należy doprowadzić do dobrego
rozprowadzenia depresatora w paliwie. Nie ma skutecznej substancji rozpuszczającej
parafinę w ujemnych temperaturach, która nie byłaby szkodliwa dla zdrowia człowieka
lub działająca destrukcyjnie na podzespoły silnika. Jedynym znanym skutecznym i
nieszkodliwym sposobem jest jej ogrzanie do temperatury, w której ulegnie stopieniu.
__________________________________________
* Politechnika Poznańska.
42
Piotr Bakalarek, Leszek Kasprzyk
Z tego właśnie powodu pojazdy zaczęto wyposażać w różnego typu podgrzewacze
paliwa. Umożliwiają one poprawną pracę silnikom w niskich temperaturach, nawet
przy użyciu gorszego jakościowo paliwa [1].
Aktualnie można spotkać się z wieloma rozwiązaniami podgrzewaczy,
różniącymi się przede wszystkim źródłem dostarczania ciepła oraz mocą
grzewczą, a ich zadanie nie ogranicza się już tylko do uniemożliwienia powstania
kryształów parafiny w paliwie, czy też ich roztopienia. Drugi istotny argument
świadczący o konieczności stosowania podgrzewaczy, związany jest z zależnością
lepkości kinematycznej oleju napędowego od temperatury – im niższa temperatura
paliwa tym większa jego lepkość i większa trudność prawidłowego rozpylenia w
komorze spalania [2]. W przypadku dużej lepkości strumień paliwa sięga głęboko
do komory spalania, lecz krople są stosunkowo duże, co utrudnia ich prawidłowe
odparowanie i spalenie. Wpływa to niekorzystanie zarówno na pracę silnika, jego
trwałość, ale także na środowisko. Złe rozpylenie paliwa skutkuje spalaniem
niecałkowitym i niezupełnym. W związku z tym w spalinach pojawiają się cząstki
stałe w postaci sadzy oraz gazowe w postaci tlenku węgla. Substancje te są
częściowo utleniane w katalizatorze, lecz w przypadku nadmiernej ich ilości może
dojść do jego przegrzania i uszkodzenia.
Należy jednak zwrócić uwagę, że podgrzewanie paliwa wymaga kontroli,
ponieważ wraz ze zmniejszaniem się lepkości paliwa, wzrastają straty nieszczelności
w pompie wysokiego ciśnienia, a także pogarszają się jego właściwości smarne.
Dawniej pompy wtryskowe smarowane były olejem. Aktualnie zarówno
wtryskiwacze, jak i pompy wysokiego ciśnienia są smarowane przepływającym
paliwem. Wraz z zastosowaniem systemu zasilania common rail, znacząco zwiększyła
się dokładność wykonania układu wtryskowego – wtryskiwacze w niektórych
rozwiązaniach otwierają się nawet 7 razy w ciągu jednego cyklu pracy silnika (w
starszych rozwiązaniach był tylko jeden wtrysk na cykl). W związku z powyższym w
nowych pojazdach nadmierne zmniejszenie właściwości smarnych paliwa może w
krótkim czasie doprowadzić do uszkodzenia wtryskiwaczy oraz pompy wysokiego
ciśnienia. Wymusza to konieczność stosowania układów regulujących temperaturę
paliwa. Układy takie mogą być zintegrowane z samym podgrzewaczem lub
występować niezależnie np. w filtrze paliwa [1].
2. KONCEPCJA PODGRZEWACZA PALIWA
Podstawowym założeniem projektu było opracowania koncepcji oraz
wykonanie prototypowego przepływowego podgrzewacza oleju napędowego wraz
z systemem regulacji mocy grzewczej elementu grzejnego. Dodatkowym celem
było opracowanie algorytmu sterującego współpracą układu z drugim
podgrzewaczem, który do ogrzania paliwa wykorzystuje ciecz układu chłodzącego.
Podgrzewacz miał na celu spełnienie dwóch podstawowych zadań:
Przepływowy podgrzewacza paliwa dla pojazdów z silnikiem Diesla
43
 niedopuszczenie do zatkania filtra paliwa przez rozpuszczenie kryształów
parafiny w paliwie w temperaturze do -40 °C,
 poprawienie jakości wtrysku paliwa przez podgrzanie go do optymalnej
temperatury.
Opracowywany podgrzewacz przeznaczony będzie do pracy w samochodowym
pojeździe osobowym, w związku z tym ustalono jego znamionowe napięcie jako
napięcie zasilania: 13,8 V (12 – 15 V). Wymiennik ciepła będzie wykonany w
formie walca o średnicy 22 mm z króćcami przyłączeniowymi do węży
paliwowych o średnicy 8 mm, natomiast element grzejny będzie w postaci spirali z
drutu oporowego o średnicy 2 mm.
Ponadto układ zostanie wyposażony w następujące zabezpieczenia:
 automatyczne załączenie podgrzewacza wykorzystującego ciecz chłodzącą po
jej ogrzaniu,
 zabezpieczenie przed przeciążeniem alternatora,
 zabezpieczenie przed przegrzaniem paliwa.
Po przeprowadzeniu szczegółowej analizy ekonomiczno-technicznej różnych
rozwiązań podgrzewaczy paliwa, jako element grzejny wykorzystano drut oporowy o
średnicy 2 mm i rezystancji jednostkowej 0,43 Ω/m. Opornik został zwinięty w spiralę
o średnicy wewnętrznej 10 mm. Całkowita wartość rezystancji grzałki została dobrana
w taki sposób, żeby jej moc w modelu wynosiła 200 W. Wartość mocy została
określona tak, aby była wystarczająca dla zapewnienia poprawnej pracy układu
paliwowego w większości samochodów osobowych dostępnych na rynku, pracujących
w temperaturach nie mniejszych niż -40 °C. Spirala została umieszczona w miedzianej
rurce o średnicy zewnętrznej 22 mm, która stanowi obudowę podgrzewacza.
Sterowanie prądem grzewczym projektowanego podgrzewacza jest realizowane
przez mikrokontroler ATmega8 z zastosowaniem PWM. To rozwiązanie
wprowadza konieczność użycia elementu umożliwiającego szybkie łączenie
prądów o wartościach do 17 A. W związku z tymi wymaganiami jako elementy
przełączające, zostały zastosowane dwa jednakowe polowe tranzystory mocy
MOSFET typu K3919 z kanałem wzbogacanym typu N [5].
Wysterowanie tranzystorów bezpośrednio z mikrokontrolera skutkowałoby
znacznymi stratami mocy i ich przegrzaniem, dlatego konieczne jest zastosowanie
elementu pośredniczącego pomiędzy mikrokontrolerem, a tranzystorami o jak
największym chwilowym prądzie na wyjściu sterującym, które jest podłączone do
bramki tranzystora. W projekcie jako element pośredniczący został zastosowany
sterownik tranzystorów MOSFET o oznaczeniu TC427. Charakteryzuje się on
chwilową wydajnością prądową o wartości 1,5 A oraz możliwością realizacji
wysokich częstotliwości przełączeń. Umożliwia niezależną obsługę dwóch
tranzystorów. Sterownik został zasilony napięciem 12 V, co umożliwia wysłanie
na bramki tranzystorów sygnału o napięciu wyższym niż 5 V. Dzięki takiemu
rozwiązaniu dodatkowo zmniejszone zostały straty mocy dla elementów łączących.
44
Piotr Bakalarek, Leszek Kasprzyk
Układ zasilania grzałki podgrzewacza został przedstawiony na rysunku 1.
Rezystory R9 oraz R12 mają na celu zabezpieczenie mikrokontrolera przed
przepływem zbyt dużego prądu. Jako maksymalny prąd bezpieczny uznaje się
20 mA na pojedynczą linię wejścia/wyjścia. Jeden zacisk grzałki jest podłączony
przez przekaźnik do zacisku dodatniego pojazdu, drugi natomiast jest zwierany do
masy przez tranzystor, co pozwala regulować wartość prądu grzewczego. Ze
względu na warunki termiczne w układzie zostały zastosowane dwa równolegle
połączone tranzystory.
Przekaźnik stanowi dodatkowe zabezpieczenie układu przed przegrzaniem
paliwa. Napięcie potrzebne do zasilenia cewki przekaźnika w celu zamknięcia jego
zestyków jest doprowadzone przy użyciu dodatkowego tranzystora MOSFET
IRF820. Jego otwarcie oraz zamknięcie jest kontrolowane przez mikrokontroler.
Rys. 1. Układ zasilania elementu grzejnego
Podgrzewacz został zaprojektowany do zasilania z instalacji elektrycznej
pojazdu, dlatego występuje konieczność obniżenia napięcia zasilania
mikrokontrolera do wymaganej wartości. Dla spełnienia tego zadania w projekcie
został wykorzystany liniowy stabilizator napięcia LM7805 w obudowie TO-220.
W celu poprawnej pracy mikrokontrolera wymagana jest filtracja napięcia
zasilającego. Należy pamiętać, że źródłem zakłóceń jest nie tylko zewnętrzne
źródło zasilania i urządzenia do niego podłączone, ale przede wszystkim
zakłócenia generowane są przez mikrokontroler, którego zapotrzebowanie na prąd
jest zmienne i często skokowe [3].
Na rysunku 2 przedstawiono sposób, w jaki zrealizowano filtrację napięcia
wejściowego oraz wyjściowego stabilizatora. Podczas testów modelowego układu
filtracji, zostały wykorzystane pomiary oscyloskopowe napięcia zasilającego
mikrokontrolera ATmega8 z wykorzystaniem stabilizatora LM7805 [2]. Bazując
na wynikach badań można dojść do wniosku, że ważne jest, aby zastosować
zarówno kondensatory ceramiczne, jak i elektrolityczne, ponieważ mają one różną
skuteczność filtracji dla różnych częstotliwości zakłócających.
Przepływowy podgrzewacza paliwa dla pojazdów z silnikiem Diesla
45
Rys. 2. Układ filtracji napięcia przy stabilizatorze
W przypadku mikrokontrolera również zostały zastosowane kondensatory
ceramiczne oraz elektrolityczne. Istotne jest ich rozmieszczenie w układzie powinny one znajdować się jak najbliżej nóżek zasilających oznaczonych jako
VCC oraz AVCC. Układ zasilania oraz filtracji został przedstawiony na rysunku 3.
Rys. 3. Układ zasilania oraz filtracji przy mikrokontrolerze
Do pomiaru temperatury paliwa oraz cieczy chłodzącej wybrano czujniki
cyfrowe DS18B20, wykorzystujące magistralę komunikacyjną 1-Wire, która
została zaimplementowana w mikrokontrolerze programowo [4]. Dodatkowo
sterownik został wyposażony w złącze umożliwiające podłączenie wyświetlacza
LCD, służącego do bieżącej analizy temperatury paliwa i cieczy chłodzącej oraz
wpływu mocy pobieranej przez podgrzewacz na napięcie zasilające, a także
wpływu obydwu mierzonych temperatur na ustawienia zaworu cieczy chłodzącej.
Program zawiera także funkcje zabezpieczające na wypadek uszkodzenia
czujników temperatury, uszkodzenia tranzystorów mocy oraz nadmiernego spadku
napięcia zasilającego. Mikrokontroler został zaprogramowany przy użyciu
programu napisanego w środowisku Eclipse Kepler, a jako oprogramowanie
obsługujące programator zastosowano mkAVR Calculator.
46
Piotr Bakalarek, Leszek Kasprzyk
3. WNIOSKI
Podstawowym zadaniem opracowanego i zbudowanego podgrzewacza jest
regulacja prądu grzewczego podgrzewacza w funkcji temperatury paliwa.
Urządzenie prototypowe zostało przetestowane na modelu symulującym pracę
pojazdu, wyposażonym między innymi w seryjną pompę paliwa stosowaną w
pojazdach marki Ford. Podczas przeprowadzonych testów podgrzewacz w pełni
spełniał swoje zadanie i działał zgodnie z założeniami. Testom zostały również
poddane funkcje dodatkowe takie, jak wyświetlenie temperatury paliwa i cieczy
chłodzącej, pomiar napięcia zasilania oraz zabezpieczenie przed przegrzaniem
paliwa w sytuacji awarii czujnika temperatury. Wszystkie próby wykonane w
różnych warunkach środowiskowych zakończyły się powodzeniem.
Sterownik został przystosowany do pracy z zaworem sterującym przepływem
cieczy chłodzącej przez dodatkowy podgrzewacz nieelektryczny. Jest to podejście
innowacyjne, łączące zalety szybkości działania podgrzewacza elektrycznego z
ekonomicznością użytkowania podgrzewacza z cieczowym wymiennikiem ciepła.
Pracą obydwu urządzeń zarządza jeden sterownik, co obniża koszty układu.
LITERATURA
[1]
[2]
[3]
[4]
[5]
Bakalarek P.: Projekt i wykonanie przepływowego podgrzewacza paliwa dla
pojazdów z silnikami diesla, Praca dyplomowa inżynierska, Instytut Elektrotechniki
i Elektroniki Przemysłowej Politechniki Poznańskiej.
Idzior M., Karpiuk W., Borowczyk T.: Postępy Nauki i Techniki nr 15, 2012.
Kardaś M.: Mikrokontrolery AVR język C podstawy programowania. Szczecin,
Wydawnictwo ATNEL, 2011.
Rząsa M. R., Kiczma B.: Elektryczne i elektroniczne czujniki temperatury.
Warszawa, Wydawnictwa Komunikacji i Łączności, 2005.
Tietze U., Schenk Ch.: Układy półprzewodnikowe. Warszawa, Wydawnictwa
Naukowo-Techniczne, 1997.
INSTANTANEOUS HEATER FUEL FOR VEHICLES WITH DIESEL ENGINE
The article presents the concept of the instantaneous heater fuel for vehicles with diesel
engine with automatic control of heating power as a function of temperature. Discussed the
hardware layer of the heater and implemented the functions performed by the device. The
paper also discusses the problems arising from the use of diesel fuel at low temperatures
and the appropriateness of the use of fuel heaters.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Artur BUGAŁA*
Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA*
BILANS EKONOMICZNY PRACY
UKŁADÓW NADĄŻNYCH W FOTOWOLTAICE
DLA LOKALNYCH WARUNKÓW MIEJSKICH
W pracy przeprowadzono rozważania, dotyczące aspektów ekonomicznych stosowania
układów nadążnych dwuosiowych w fotowoltaice, celem zwiększenia wartości
produkowanej energii elektrycznej, w stosunku do analogicznych konstrukcji
stacjonarnych. Na podstawie kosztów jednostkowych układów przeprowadzono symulację
wartości energii do mocy maksymalnej 1 kWp. Uwzględniono przy tym zużycie energii
przez elementy wykonawcze jednostki nadążnej w rozpatrywanym okresie, koszty serwisu
oraz zwiększone nakłady początkowe, wynikające z wykonania układu nadążnego.
Oszacowano okres zwrotu inwestycji w obu przypadkach dla dwóch wariantów rozliczenia
wyprodukowanej energii.
SŁOWA KLUCZOWE: układ nadążny, układ stacjonarny, ekonomia, konwersja fotowoltaiczna
1. WSTĘP
Aspekt ekonomiczny instalowania i eksploatacji układu fotowoltaicznego stanowi
często złożony problem, a jego rozwiązanie wymaga uwzględnienia rodzaju i mocy
instalacji, dostępnej powierzchni, technologii produkcji modułów, aktualnej ceny
energii elektrycznej, możliwości wsparcia ze strony państwa lub władz lokalnych.
Trudnym do jednoznacznego określenia jest rozkład nasłonecznienia, który
determinuje roczny zysk energii. Dla jednostki nadążnej koszty dodatkowe
inwestycji mogą być o około 30 % wyższe niż analogicznej stałopozycyjnej i nie
można pominąć zużycia energii na potrzeby własne układu sterowania [1].
Systemy stacjonarne pracują z modułami zainstalowanymi w jednym
całorocznym ustawieniu (optymalnym), determinowanym przez kąt pochylenia do
podłoża i kąt azymutu. Układy zmiennopozycyjne umożliwiają ciągłe
dostosowywanie ustawienia płaszczyzny modułu PV do aktualnych warunków
celem maksymalizacji zysków.
W wyniku zastosowania płaszczyzny nadążnej jako miejsca instalacji modułów
PV, można oczekiwać wzrostu produkcji energii elektrycznej nawet na poziomie
40-45 %, dla rozwiązań dwuosiowych oraz o około 30 % przy pracy jednoosiowej
__________________________________________
* Politechnika Poznańska.
48
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
[1, 2, 3]. Oprócz szacunkowego wzrostu produkowanej energii należy uwzględnić
także zwiększony koszt serwisowania. Dobrą praktyką jest zatem dysponowanie, w
miejscu pracy układu, dodatkowymi elementami układu.
Aspektem o kluczowym znaczeniu, przy ocenie opłacalności eksploatacji
układów PV, jest polityka władz w zakresie stosowania odnawialnych źródeł
energii i proponowany model wsparcia. W wielu przypadkach czas zwrotu
inwestycji jest porównywalny z czasem życia modułów, dlatego tak istotne jest
dodatkowe finansowanie ze strony państwa i bonifikata z tytułu lokalnej produkcji
energii elektrycznej. Sprawne mechanizmy wsparcia umożliwiają osiągnięcie
parytetu, czyli konkurencyjności czystej energii w stosunku do pozyskiwanej ze
źródeł konwencjonalnych. Jednym z mechanizmów jest wprowadzenie stawek
gwarantowanych na odkupowaną przez zakład energetyczny energię z OZE, przez
20-letni okres. Ceny odkupu powinny być wyższe niż w przypadku energii
pozyskiwanej tradycyjnie. Mechanizm ten dobrze funkcjonuje w Niemczech.
2. KOSZT ELEMENTÓW INSTALACJI
Na całkowity koszt układu fotowoltaicznego stacjonarnego składają się: koszt
modułu, falownika (przy pracy on-line) oraz konstrukcji wsporczej. Średnia cena
modułów fotowoltaicznych cienkowarstwowych za 1 Wp w grudniu 2013 roku
wynosiła 0,65 € (0,45-1,1 €), dla modułów krzemowych 0,59 €/Wp [4]. Rozpiętość
cenowa zależy od własności materiałowych i technologii, co z kolei przekłada się na
okres bezawaryjnej pracy. Cena modułów fotowoltaicznych w dalszym ciągu
wykazuje tendencję zniżkową.
Na rysunku 1 przedstawiono dynamikę zmian cen modułów krzemowych
(I generacja) oraz cienkowarstwowych (II generacja) w okresie od grudnia 2009 do
grudnia 2012 roku.
Rys. 1. Przebieg zmienności cen modułów w okresie 2009-2012 [4]
Przy wyborze modułów należy kierować się wymogami w odniesieniu do
planowanego przeznaczenia. Dla mikroinstalacji o mocy do 40 kWp koszt
modułów szacuje się na około 40 % kosztu całej inwestycji. W przypadku
Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych …
49
analizowanego układu koszt modułu polikrystalicznego I generacji o mocy 210 Wp
firmy Yohkon wyniósł 730 zł (0,81 €/Wp).
Na rysunku 2 przedstawiono widok układów PV z wykorzystaniem których
dokonano długookresowych pomiarów produkcji energii elektrycznej i oceny
ekonomicznej.
Rys. 2. Stanowisko pomiarowe z układem stacjonarnym i nadążnym
Znaczący udział w kosztach inwestycji (nawet 35%) ma przemiennik DC/AC.
W przypadku analizowanego układu stacjonarnego koszt zakupu mikroinwertera o
mocy 240 W firmy Enecsys wyniósł 672 zł. Koszt systemu mocowań modułów do
konstrukcji wsporczych montowanych na dachu skośnym szacuje się na około 10
% sumarycznych kosztów. Montaż na płaskim dachu implikuje 1,7-krotny wzrost
wydatków. Parametry elektryczne i nieelektryczne modułów oraz falowników
zastosowanych w rozpatrywanych układach przedstawiono w tabeli 1.
Tabela 1. Parametry modułów i falowników w badanych układach
l.p.
1
2
3
4
5
6
7
1
2
3
4
5
6
7
8
Parametr elektryczny modułu
Moc maksymalna
Napięcie w punkcie mocy maksymalnej
Prąd w punkcie mocy maksymalnej
Napięcie obwodu otwartego
Prąd zwarcia
Sprawność
Tolerancja mocy
Parametry mikroinwertera DC/AC
Nominalna moc wejściowa
Maksymalne napięcie DC
Minimalne napięcie DC
Zakres napięć MPPT
Maksymalny prąd wejściowy
Zakres temperaturowy pracy
Stopień ochrony przed wodą i pyłem
Chłodzenie
Wartość
210 Wp
29,64 V
6,98 A
35,94 V
7,6 A
12,61 %
+/- 3 %
Wartość
240 W
44 V
20 V
23 V…35 V
12 A
-40 °C…85 °C
IP66
Naturalne
50
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
3. EKONOMICZNA ANALIZA SYSTEMU PV
Przy obliczaniu opłacalności instalacji fotowoltaicznej, zarówno w konfiguracji
stacjonarnej jak i nadążnej modułów PV, rozpatrzyć należy dwie możliwości
rozliczenia wyprodukowanej energii elektrycznej:
 część energii elektrycznej jest wykorzystana na potrzeby własne, co daje
oszczędność około 0,56 zł/kWh brutto. Nadwyżka produkowanej energii
sprzedawana jest do sieci w cenie 0,156 zł/kWh, co stanowi 80% średniej ceny
energii elektrycznej za poprzedni rok.
(1)
K odk .  0 ,8  195 zł / MWh
 odkup energii elektrycznej po stawkach gwarantowanych [5] (na podstawie
przewidywań ustawy o odnawialnych źródłach energii). I tak:
a) instalacje PV o mocy maksymalnej 10 kWp na konstrukcji budowlanej
1,30 zł/kWh,
b) instalacje PV o mocy maksymalnej 10 kWp poza budynkiem 1,15 zł/kWh,
c) instalacje PV o mocy większej niż 10 kWp nie przekraczającej 100 kWp
na budynku 1,15 zł/kWh,
d) instalacje PV o mocy większej niż 10 kWp nie przekraczającej 100 kWp
poza budynkiem 1,10 zł/kWh.
Analizie ekonomicznej poddano instalację o mocy 1,05 kWp, co odpowiada 5
jednostkom mocy maksymalnej 210 Wp. Pojedyncza jednostka stanowi rzeczywisty
obiekt badań. W układzie stacjonarnym oszacowano roczną produkcję energii na
poziomie 1016,4 kWh, a w nadążnym (po uwzględnieniu strat na sterowanie) 1244,5
kWh. W skali roku założono spadek wydajności o 0,7 % i 5 % wzrost cen energii, stały
nieuwzględniający zmiany wartości pieniądza w czasie koszt prac serwisowych, 100 zł
dla układu stacjonarnego i 150 zł dla nadążnego.
Wariant nr 1
Produkcja energii elektrycznej przez oba układy fotowoltaiczne będzie
wykorzystywana na potrzeby własne bytowe, a nadwyżka odsprzedawana do sieci
po cenie 0,156 zł/kWh (wg zmian w ustawie OZE z listopada 2013 roku).
Przeznaczenie części energii do zasilenia grzałki elektrycznej do podgrzania wody
użytkowej w wyniku częściowego zastąpienia ogrzewania gazowego wiąże się z
oszczędnością rzędu 0,3 zł/kWh.
Bilans wyprodukowanej energii przedstawiono na rysunku 3.
Interpretację graficzna wartości dochodu wynikającego z przyjętego sposobu
rozliczenia w odniesieniu do kosztów inwestycyjnych w obu układach
przedstawiono na rysunku 4 i 5.
Wariant nr 2
Zasadnicza część wyprodukowanej energii zostanie oddana do sieci ze
stawkami odkupu (ustawa o OZE) 1,3 zł/kWh. Na podstawie przeprowadzonej
Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych …
51
analizy ekonomicznej zinterpretowano graficznie wyniki obliczeń, przy czym
wyznaczono okres zwrotu dla obu układów, rys. 6 i 7.
Rys. 3. Bilans wykorzystania produkowanej energii
Rys. 4. Wartość dochodu w stosunku do nakładów dla układu stacjonarnego
52
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
Rys. 5. Wartość dochodu w stosunku do nakładów dla układu nadążnego
Rys. 6. Wartość dochodu wynikającego z przyjętego sposobu rozliczenia w stosunku do nakładów
dla układu stacjonarnego
Bilans ekonomiczny pracy układów nadążnych w fotowoltaice dla lokalnych …
53
Rys. 7. Wartość dochodu wynikającego z przyjętego sposobu rozliczenia w stosunku do nakładów
dla układu nadążnego
4. PODSUMOWANIE






Przy wyznaczaniu okresu zwrotu inwestycji PV należy wziąć pod uwagę
czynniki klimatyczne, technologiczne, eksploatacyjne i finansowe.
Wielkość produkowanej energii zależy od nasłonecznienia, liczby godzin
słonecznych, technologii produkcji modułów i jakości ich wykonania,
temperatury pracy, a przede wszystkim sposobu pracy.
Opłacalność inwestycji zależy od modelu wsparcia proponowanego przez
państwo, wysokości dopłat i ceny energii, np. zgodnie z czwartą wersją
projektu ustawy OZE, przyłączenie instalacji o mocy do 40 kWp jest
bezpłatne. Ważna jest cena odkupu energii, sposób rozliczania energii netto.
Na podstawie przeprowadzonej analizy określono okres zwrotu inwestycji, dla
instalacji stacjonarnej oraz nadążnej dwuosiowej. Dla wariantu I, przy
stosunkowo dużym wykorzystaniu energii na potrzeby własne, okres zwrotu
inwestycji wynosi 19 lat dla obu układów. W II przypadku, przy
uwzględnieniu stawek feed in tariff, czas zwrotu dla układu stacjonarnego
wynosi 7 lat, a dla konstrukcji nadążnej 6 lat i 10 miesięcy.
Współczynnik wykorzystania własnego, rozumiany jako różnica między
energią skonsumowaną a przekazaną do sieci, powinien być jak największy.
Obecnie stawki feed-in będą ustalane na podstawie systemu aukcyjnego,
indywidualnie dla każdego inwestora na okres 15 lat [6].
54
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
LITERATURA
[1] Dhanabal R., et al.: Comparison of efficiencies of solar tracker systems with static
panel single-axis tracking system and dual-axis tracking system with fixed mount,
International Journal of Engineering and Technology, 5, 2013, s. 1925-1932.
[2] Serhan M., El-Chaar L.: Two axes sun tracking system: Comparsion with a fixed
system, International Conference on Renewable Energies and Power Quality,
ICREPQ’10, 2010.
[3] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating
with a two-axis follow-up system and with a fixed mount system, Przegląd
Elektrotechniczny, 1, 2014, s. 63-65.
[4] http://www.enfsolar.com/ (dostęp: 10.11.2013r.)
[5] Szymański B.: Instalacje fotowoltaiczne, wydanie II, Geosystem, 2013.
[6] Projekt ustawy o odnawialnych źródłach energii, Projekt z dnia 31.12.2013, Wersja
4.1, s. 46-66.
ECONOMIC BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS
FOR LOCAL URBAN CONDITIONS
The work presents considerations on the economic aspects of the use of two-axis
tracking system in photovoltaics, in order to increase the value of energy produced,
comparing to the stationary structure. In calculations energy consumption of the actuators,
maintenance costs and increased initial costs were taken into account. Payback period in
both cases for the two variants was estimated.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Artur BUGAŁA*
Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA*
BILANS ENERGETYCZNY UKŁADÓW NADĄŻNYCH
W FOTOWOLTAICE DLA LOKALNYCH WARUNKÓW MIEJSKICHCZĘŚĆ I
W pracy dokonano analizy wpływu nasłonecznienia rozumianego jako suma natężenia
promieniowania słonecznego w danym czasie i na danej powierzchni na wartość energii
elektrycznej generowanej przez moduł fotowoltaiczny pracujący w konfiguracji
stacjonarnej i nadążnej dwuosiowej. Przedstawiono sposób jego wyznaczania na podstawie
pomiaru gęstości mocy promieniowania słonecznego padającego w ciągu jednej sekundy na
powierzchnię jednego m² z wykorzystaniem czujników mikroprocesorowych. Określono
wpływ temperatury na wartość parametrów elektrycznych analizowanych modułów PV.
SŁOWA KLUCZOWE: nasłonecznienie, bilans energii, układ nadążny, gęstość mocy
promieniowania
1. WSTĘP
Przy realizacji układu sterowania dla jednostki nadążnej dwuosiowej należy
uwzględnić roczną zmianę wysokości kątowej Słońca nad horyzontem, związaną z
ruchem obiegowym Ziemi oraz zmianę wartości kąta azymutu na skutek ruchu
obrotowego. Deklinacja słoneczna opisująca kątowe położenie Słońca względem
płaszczyzny równika, została określona na podstawie zależności [1]:
δ  sin[
2  π  ( 284  n )
]  23,45
365
(1)
Długość dnia dla analizowanej lokalizacji opisano następująco [2]:
cos[(  tan(
D
δπ
π φ
))  (tan(
))]  a
180
180
7 ,5  π
180
(2)
Wysokość kątową Słońca dla kolejnych dni roku wyznaczono na podstawie
zależności [3]:
H  arcsin[(cos( φ )  cos( δ )  cos( ω ))  (sin( φ )  sin( δ ))]
(3)
__________________________________________
* Politechnika Poznańska.
56
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
Kąt godzinowy określa kątowe odchylenie zachodu lub wschodu Słońca od
lokalnego południka. Jest on równy zero dla godziny 12.00. W godzinach
porannych zmiana czasu o godzinę w stosunku do godziny 12.00 skutkuje zmianą
kąta godzinowego o -15°. W godzinach popołudniowych godzinnej zmianie czasu
odpowiada 15° zmiana kąta ω.
Azymut Słońca wyznaczono na podstawie zależności [3]:
AS  arcsin[
cos( δ )  sin( ω )
]
cos( H )
(4)
gdy
tan( δ )
tan( φ )
cos( δ )  sin( ω )
AS  180  arcsin[
]
cos( H )
cos( ω ) 
(4)
(5)
gdy
cos( ω ) 
tan( δ )
tan( φ )
(5)
Kąt padania promieniowania słonecznego na powierzchnię ogniw jest to kąt
zawarty między prostą normalną do powierzchni a kierunkiem promieniowania
bezpośredniego. Zależność opisująca kąt padania promieniowania słonecznego na
płaszczyznę pod dowolnym kątem pochylenia do podłoża i azymutu opisano
następująco [4]:
cos( Θ )  sin( δ )  [sin( φ )  cos( β )  cos( φ )  sin( β )  cos( A )] 
 cos( δ )  [cos( φ )  cos( β )  cos( ω )  sin( φ )  sin( β )  cos( A )  cos( ω )
 sin( β )  sin( A )  sin( ω )]
(6)
Zależności matematyczne (1) do (6) zaimplementowano celem realizacji
układu sterowania jednostki nadążnej dwuosiowej.
Wpływ dnia roku, wysokości kątowej Słońca oraz lokalizacji na parametry
pracy analizowanego układu nadążnego, dla dnia 15.04.2014 roku dla miasta
Poznań przedstawiono w tabeli 1.
Na podstawie wyznaczonych wartości kątowych, na rysunku 1 przedstawiono
w układzie polowym zmianę położenia Słońca dla wybranych dni 21.06.2014
roku, 15.04.2014 roku oraz 21.12.2014 roku.
Na podstawie wykonanych obliczeń i wizualizacji przedstawiono, że kątowa
zmiana położenia Słońca wymusza konieczność stosowania układów nadążnych
dwuosiowych.
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
57
Tabela 1. Wartości kątów elewacji i azymutu Słońca dla 15.04.2014 roku
godzina
[hh:mm:ss]
05:30:00
06:00:00
06:30:00
07:00:00
07:30:00
08:00:00
08:30:00
09:00:00
09:30:00
10:00:00
10:30:00
11:00:00
11:30:00
kąt elewacji
kąt azymutu
°
4.32
8.86
13.44
18.01
22.51
26.89
31.09
35.01
38.59
41.7
44.25
46.11
47.18
79.65
85.53
91.44
97.49
103.74
110.3
117.26
124.74
132.82
141.6
151.09
161.25
171.91
godzina
[hh:mm:ss]
12:00:00
12:30:00
13:00:00
13:30:00
14:00:00
14:30:00
15:00:00
15:30:00
16:00:00
16:30:00
17:00:00
17:30:00
18:00:00
kąt elewacji
kąt azymutu
°
47.4
46.75
45.28
43.06
40.22
36.87
33.11
29.04
24.76
20.32
15.78
11.22
6.66
182.81
193.63
204.07
213.91
223.04
231.47
239.24
246.45
253.2
259.6
265.74
271.72
277.61
Rys. 1. Dobowa zmiana położenia Słońca dla wybranych dni roku [opracowanie własne]
58
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
2. WPŁYW TEMPERATURY NA PARAMETRY PRACY
W przypadku instalacji małych mocy, możliwość doboru mikroinwertera do
modułu jest ograniczona, dlatego zakres ten jest szerszy i dla kątów pochylenia
modułów PV w zakresie 15°-60° wynosi 0,9-1,18 [6].
W analizowanym przypadku stosunek mocy modułu do mocy falownika wynosi
0,9. Przy dopasowaniu falownika do modułu PV należy uwzględnić zmianę
parametrów prądowo-napięciowych wraz ze zmianą temperatury.
Pierwszym z rozpatrywanych parametrów jest zmiana napięcia przy
jednostkowej zmianie temperatury. Temperaturowy współczynnik napięcia
obwodu otwartego α = 0,35 %/°C, natomiast napięcie obwodu otwartego wynosi
35,94 V. W ten sposób zmiana napięcia na 1°C:
ΔU  α  U oc
(7)
Wartość parametru ΔU wynosi 0,126 V/°C. Temperaturowy współczynnik
prądu zwarcia β = 0,05 %/°C, natomiast prąd zwarcia Isc = 7,6 A. Skutkuje to zatem
zmianą prądu na 1°C:
ΔI  β  I sc
(8)
Wartość parametru ΔI wynosi 0,0038 A/°C. Wzrost temperatury modułu
powyżej 25°C skutkuje wzrostem wartości prądu zwarcia i spadkiem wartości
napięcia obwodu otwartego.
Dla znacznej wartości temperatury równiej 70°C, wartość napięcia obwodu
otwartego określono na podstawie zależności:
U oc 70  U oc  ΔU  ΔT
U oc 70  20  44  V
(9)
Wartość napięcia w punkcie mocy maksymalnej dla temperatury 70°C:
U MPP 70  U MPP  ΔU  ΔT
U MPP 70  23  35  V
(10)
Wartość napięcia obwodu otwartego dla temperatury -20°C:
U oc  20  U oc  ΔU  ΔT
U oc  20  20  44  V
(11)
Wartość napięcia w punkcie mocy maksymalnej dla temperatury -20°C:
U MPP  20  U MPP  ΔU  ΔT
U MPP  20  23  35  V
(12)
Wartość prądu zwarcia w temperaturze 70°C:
I sc 70  12 A
(13)
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
59
3. DANE ŹRÓDŁOWE DO ANALIZY ENERGETYCZNEJ
Typowe lata meteorologiczne jak i statystyczne dane klimatyczne dla miasta
Poznań pochodzą z danych Ministerstwa Infrastruktury i Rozwoju. Zawierają one
pełne dane obserwacyjne, 3-godzinowe lub 8-terminowe w cyklu dobowym,
opracowane na podstawie 30-letnich cyklów pomiarowych [9]. W celu uzyskania
danych godzinowych, posłużono się funkcjami sklejanymi 3-stopnia. Niewielkie
przerwy pomiarowe interpolowano funkcjami kubicznymi [7].
Funkcje sklejane są zbieżne do funkcji, którą interpolują, co wynika z
twierdzenia o błędzie interpolacji [8]:
Jeżeli funkcja
f  C 2 [ a ,b ] , gdzie a  x0  x1  x 2  ...  x n  b ,
natomiast funkcja s jest funkcją sklejaną trzeciego stopnia interpolującą funkcję f
w węzłach xi (dla i = 0,1,2,…,n) to dla każdego xi z tego przedziału:
(14)
| f ( x )  s( x ) | 5  max | f '' ( ξ ) |  max ( xi  xi 1 ) 2
a  ξ b
1 i  n
Zastosowano funkcję kubiczną 3-stopnia, której postać przedstawiono jako
wielomian stopnia co najwyżej trzeciego.
Funkcja f’ jest funkcją kwadratową, natomiast f’’ w każdym z przedziałów
[ai,ai+1] będzie co najwyżej funkcją liniową, wówczas:
f '' ( a ) 
K i 1  K i
 ( a  ai )  K i
ai 1  ai
(15)
gdzie, dla i = 0,1,2,…n:
f '' ( a i )  K i
(16)
’’
Całkując dwukrotnie funkcję f (a) otrzymano:
f(a)
K i 1  K i
K
 ( a  ai )3  i  ( a  ai ) 2  ci ( a  a i )  bi
6  ( ai 1  ai )
2
(17)
W celu wyznaczenia stałej całkowania należy wykorzystać fakt, że:
f ( ai )  bi
f ( ai 1 )  bi 1
(18)
(19)
W ten sposób otrzymano:
bi 1 
K i 1  K i
K
 ( ai 1  ai )3  i  ( ai 1  ai ) 2  ci ( ai 1  ai )  bi
6  ( a i 1  a i )
2
(20)
bi 1  bi K i 1  2  K i

 ( ai 1  a i )
ai 1  ai
6
(21)
ci 
Interpolująca funkcja kubiczna w przedziale [ai,ai+1]:
60
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
f (a) 
K i 1  K i
K
 ( a  a i )3  i  ( a  a i ) 2 
6  ( a i 1  a i )
2
(22)
bi 1  bi K i  1  2  K i
[

 ( ai 1  ai )]  ( a  ai )  bi
a i 1  a i
6
Do analizy pracy systemu fotowoltaicznego wykorzystano dane pochodzące z
analizy wieloletnich pomiarów pochodzących ze stacji meteorologicznej dla miasta
Poznań w postaci sum całkowitego (ETH), bezpośredniego (EDH) i rozproszonego
(ESH) natężenia promieniowania słonecznego na powierzchni poziomej. W tabeli 2
zestawiono również wartości średniej miesięcznej (SMTTS), minimalnej
(MINMTTS) oraz maksymalnej (MAXMTTS) temperatury termometru suchego.
Tabela 2. Dane dotyczące typowego roku meteorologicznego wyznaczone
na podstawie 30-letnich ciągów pomiarowych [9]
miesiąc
SMTTS
MINMTTS
MAXMTTS
ETH
EDH
ESH
2
-
°C
°C
°C
Wh/m /mies.
1
0.2
-10.5
9.8
26123
6882
19241
2
-1.8
-14.6
13.1
35757
9558
26199
3
2.7
-15.2
17.9
71678
28927
42750
4
8.3
-4.0
20.1
104355
33906
70449
5
13.0
2.2
24.3
143561
55509
88052
6
16.8
5.5
33.7
149279
46375
102904
7
18.3
9.2
29.1
141631
40695
100935
8
18.4
6.8
35.2
116520
33506
83014
9
13.5
4.1
23.8
81621
22760
58860
10
7.0
-5.3
21.2
45552
9420
36131
11
2.2
-8.7
9.4
26381
6609
19772
12
-0.1
-15.6
12.9
18375
1630
16745
Na podstawie pomiarów własnych wyznaczono wartość nasłonecznienia na
płaszczyźnie stacjonarnej i nadążnej.
Na rysunku 2 przedstawiono rozkład nasłonecznienia w skali roku. Niski
poziom dla miesiąca czerwca jest spowodowany krótkim okresem pomiarowym ze
względu na prace modernizacyjne stanowiska.
W tabeli 3 dokonano przeliczenia wartości miesięcznego nasłonecznienia dla
płaszczyzny horyzontalnej do nadążnej (ETH->tr.) na podstawie typowego roku
meteorologicznego. Wyznaczono współczynniki korekcyjne k dla poszczególnych
miesięcy pomiarowych.
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
61
Tabela 3. Dane nasłonecznienia dla badanych miesięcy roku na podstawie własnych
pomiarów gęstości mocy promieniowania słonecznego
k
1,231
1,219
1,439
1,648
1,667
1,368
1,440
1,374
1,150
1,151
1,158
1,189
miesiąc
1
2
3
4
5
6
7
8
9
10
11
12
Ehor.
Efix.
33557,4
50390,4
91573,6
100392,5
143902,3
19421,5
160458,9
145980,9
66340,6
86623,5
23397
23883
37139,89
55879,4
101435,2
111779
168565
23020,11
189578,3
172295,6
75636,6
97073,12
25945,63
26101,0
Etr.
Wh/m2/m-c
41300,3
61450,5
131795,06
165438
239943
26568,8
231070,58
200541
76324,04
99709,23
27089,97
28387,68
ETH
ETH->tr.
26123
35727
71678
104355
143561
149279
141631
116520
81621
45552
26381
18375
32150,5
43568,7
103160,8
171967,9
239373,9
204215,1
203957,3
160069,1
93903,9
52433,3
305445,0
21840,8
Rys. 2. Roczny rozkład nasłonecznienia na podstawie pomiarów własnych
4. PODSUMOWANIE
 Zróżnicowany rozkład nasłonecznienia w skali roku jest przyczyną
nierównomiernej produkcji energii elektrycznej przez układy fotowoltaiczne
niezależnie od ich konfiguracji pracy. Największa wartość została wyznaczona,
na podstawie pomiarów gestości mocy promieniowania słonecznego, dla
miesiąca maja i lipca (rys. 2), co pokrywa się z wynikami dla typowego roku
meteorologicznego (TRM) uzyskanego na podstawie 30-letnich ciągów
pomiarowych.
62
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
 Najmniejszą wartość nasłonecznienia zarejestrowano dla miesiąca grudnia,
która dla płaszczyzny stacjonarnej i nadążnej wynosi odpowiednio 26,10
kWh/m2 oraz 28,39 kWh/m2. W sytuacji silnego zachmurzenia nieba dobrą
praktyką jest ręczne ustawienie płaszczyzny modułów PV pod optymalnym,
całorocznym kątem elewacji i azymutu. Umożliwi to ograniczenie strat
związanych ze sterowaniem dla miesięcy o niskim nasłonecznieniu. Zysk
energii „brutto” dla miesiąca grudnia, w sytuacji ciągłego śledzenia położenia
Słońca, wyniósł 6,3 %.
 Istotnym zagadnieniem do rozpatrzenia, już na etapie projektowym, jest
poprawny dobór komponentów układu np. modułu PV do zastosowanego
falownika. Wpływa to w istotny sposób na wielkość produkowanej energii
elektrycznej.
LITERATURA
[1] Chwieduk D.: Modelowanie i analiza pozyskiwania oraz konwersji termicznej energii
promieniowania słonecznego w budynku, prace IPPT, 11, 2006, s. 14-16.
[2] http://fotowoltaika.coral.com.pl (dostęp: 27.12.2013r.)
[3] Chojnacki J., Teneta J., Wieckowski L.: Development of PV systems and research
studies on photovoltaics at the AGH University of Science and Technology in
Krakow, 22nd European Photovoltaic Solar Energy Conference, Conference
Proceedings, 2007, s. 3049–3052.
[4] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating
with a two-axis follow-up system and with a fixed mount system, Przegląd
Elektrotechniczny, 1, 2014, s. 63-65.
[6] Szymański B.: Instalacje fotowoltaiczne, wydanie II, 2013.
[7] Narowski P.G.: Metodyka wyznaczania klimatycznych warunków obliczeniowych dla
instalacji ogrzewczych z uwzględnieniem dynamiki cieplnej budynków, Politechnika
Warszawska, 2001.
[8] http://pluton.pol.lublin.pl/ (dostęp: 16.01.2014r.)
[9] http://www.transport.gov.pl (dostęp: 12.12.2013r.)
ENERGY BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS
FOR LOCAL URBAN CONDITIONS-PART I
The paper presents an analysis of the impact of insolation, as the sum of the intensity of
solar radiation at a given time and a given area, on energy generated by the solar module
working in a fixed configuration and tracking. The way of determining the amount of
energy, basing on the measured power density of solar radiation using microprocessor
sensor, was showed. The effect of temperature on the electrical parameters of the analyzed
PV modules was analyzed.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Artur BUGAŁA*
Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA*
BILANS ENERGETYCZNY UKŁADÓW NADĄŻNYCH
W FOTOWOLTAICE DLA LOKALNYCH WARUNKÓW MIEJSKICH CZĘŚĆ II
W pracy przeprowadzono rozważania, dotyczące produkcji energii elektrycznej z
konwersji fotowoltaicznej w przypadku stacjonarnego i nadążnego umiejscowienia
modułów tej samej mocy i technologii produkcji. Na podstawie wyników pomiarów
dokonano oszacowania rocznej produkcji energii elektrycznej dla obu konfiguracji. Z
wykorzystaniem pomiarów własnych pochodzących z dobowego monitoringu pracy
systemu fotowoltaicznego porównano dokładność wyników analitycznych z wartościami
rzeczywiście zmierzonymi. Przedstawiono zależność opisującą spodziewaną wielkość
produkcji energii elektrycznej w układzie nadążnym dwuosiowym, na podstawie
nasłonecznienia na płaszczyźnie horyzontalnej i zmiennopozycyjnej.
SŁOWA KLUCZOWE: zysk energii, układ nadążny, konwersja fotowoltaiczna, nasłonecznienie
1. WSTĘP
Wielkość energii elektrycznej produkowanej przez układ fotowoltaiczny jest
funkcją wielu parametrów, między innymi miesięcznego nasłonecznienia, liczby
dni słonecznych w ciągu roku, technologii produkcji zastosowanych modułów
fotowoltaicznych oraz ich parametrów elektrycznych, jak również ich lokalizacji
względem stron świata [1].
W celu wyznaczenia ilości energii elektrycznej możliwej do wyprodukowania
przez układy składowe należy uwzględnić dane nasłonecznienia. Wyznaczenie tej
wartości dla układu zainstalowanego stacjonarnie jest możliwe z uwzględnieniem
współczynników korekcyjnych miesięcznych sum nasłonecznienia dla płaszczyzny
horyzontalnej [2]. Są to jednak współczynniki uogólnione, 10- i 15-stopniowe.
Zależność sprawności modułu od jego powierzchni jak również nasłonecznienia
przedstawiono w następujący sposób [3]:
E t , fixed  ET β ,γ ( 37,180 )  S m  η
(1)
Sprawność modułu fotowoltaicznego dla gęstości mocy promieniowania
słonecznego w warunkach standardowych [4]:
__________________________________________
* Politechnika Poznańska.
64
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
Pm
(2)
S m  E STC
Podstawiając zależność (2) do (1) otrzymano wartość energii [kWh]:
ET β ,γ ( 37,180 )  S m  Pm
E t , fixed 
(3)
S m  E STC
Wartość energii elektrycznej możliwej do wyprodukowania z uwzględnieniem
poziomu strat:
ET β ,γ ( 37 ,180 )  S m  Pm
E rz . fixed 
 ( 1  Ps )
(4)
S E
η
m
E rz . fixed 
STC
ETβ ,γ ( 37 ,180 )  Pm
E STC
 ( 1  Ps )
(5)
2. STRATY W UKŁADZIE FOTOWOLTAICZNYM
Straty występujące w układzie fotowoltaicznym mogą mieć różną naturę.
Ważnym aspektem jest dobór odpowiedniej jakości przewodów i ich przekrojów,
co wpływa na wielkość strat. Przekrój (w mm2) można wyznaczyć korzystając z
zależności [3, 5]:
PI
(6)
S
k  0 ,01  U 2
Wyznaczona wartość przekroju przewodów na podstawie mocy układu P,
długości obwodu I, napięcia systemu U oraz przewodności właściwej miedzi k
wynosi 0,83 mm2. Na podstawie znormalizowanego szeregu przekrojów do
instalacji PV wybrano przewód 2,5 mm2. Procentowe straty mocy (PL%) opisano
za pomocą zależności:
PI
PL% 
 100%
(7)
k  S U 2
Wyznaczona wartość strat mocy, dla zadanych parametrów, wynosi 0,33 %. Na
podstawie danych katalogowych modułu fotowoltaicznego określono jego straty na
skutek wzrostu temperatury na poziomie 3 %. Sprawność falownika firmy Enecsys
model SMI-240W-60-UL, na podstawie danych katalogowych, wynosi 93,5 %.
Poziom strat do dalszych rozważań przyjęto 6,5 %.
Poziom strat wywołanych skutkami zacienienia ogniw oraz zanieczyszczeniem, na
podstawie danych literaturowych, wynosi 1 %-3 %. Ze względu na znaczną wysokość
n.p.m. miejsca instalacji, wpływ obiektów otoczenia na zacienienie ograniczono do
minimum. Układ jest również regularnie czyszczony. Przyjęta wartość strat wynosi 1 %.
Dla większej powierzchni generatora PV, ze względu na różnorodność
modułów fotowoltaicznych w instalacji, należałoby uwzględnić również straty
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
65
wywołane niedopasowaniem prądowym modułów. Dla sprawnych modułów nie
przekraczają one 1 %.
Całkowity poziom strat w układzie wynosi 10,83 %.
3. PRODUKCJA ENERGII ELEKTRYCZNEJ OBLICZENIA ANALITYCZNE A WARTOŚCI POMIAROWE
W celu wyznaczenia rocznej produkcji energii elektrycznej przez układ
stacjonarny o kącie pochylenia β ≠ 0 płaszczyzny odbiornika do podłoża należy
wyznaczyć wartość nasłonecznienia na podstawie jego modyfikacji dla
płaszczyzny horyzontalnej. W tym celu wprowadzono współczynniki korekcyjne.
Ich wartości zestawiono w tabeli 1.
Tabela 1. Współczynniki korekcyjne nasłonecznienia k uzyskane na podstawie pomiarów
gęstości mocy promieniowania słonecznego w czasie dla płaszczyzny stacjonarnej (Efixed)
i horyzontalnej (Ehor)
miesiąc
-
E fixed
Ehor
Wh/m2/m-c

k
k
-
-
1
37139,89 33557,4 1,106757
2
55879,4
3
101435,2 91573,6
σ
-
50390,4 1,108929
1,10769
4
111779
100392,5 1,11342
5
168565
143902,3 1,171385
6
23020,11 19421,5
1,18529
7
189578,3 160458,9 1,181476
8
172295,6 145980,9 1,180261
9
75636,6
10
97073,12 86623,5 1,120633
11
25945,63
23397
1,10893
12
26101
23883
1,092869
1,13 0,03
66340,6 1,140125
Wartość rocznego nasłonecznienia dla płaszczyzny horyzontalnej, dla typowego
roku meteorologicznego, wynosi 960,83 kWh/m2/rok. Dla instalacji stacjonarnej,
na podstawie [6], roczna wartość nasłonecznienia, [kWh/m2/rok] wynosi:
ETβ ,γ ( 37,180 )  ETH  1,13
ETβ ,γ ( 37,180 )  1085,7
(8)
(9)
66
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
Postać współczynników dla zmiennego ustawienia przedstawiono w postaci:
ki 
Etrack ,wł ,i
E fixed ,wł ,i
(10)
L β ,γ
Dla ustawienia stacjonarnego β,γ odpowiednio 37°, 180° równanie (10)
przedstawiono następująco:
ki 
Etrack ,wł ,i
E fixed ,wł ,i
(11)
1,13
Wartość energii elektrycznej dla układu nadążnego z uwzględnieniem
współczynników korekcyjnych:
E rz .track  ( E TH 1  k 1  E TH 2  k 2  E TH 3  k 3  E TH 4  k 4  ETH 5  k 5 
 E TH 6 k 6  ETH 7  k 7  E TH 8  k 8  ETH 9  k 9  E TH 10  k 10 
 E TH 11  k 11  E TH 12  k 12 )  Pm  ( 1  Ps )
Po uwzględnieniu strat energii elektrycznej uzyskano:
E rz .track  ( E TH 1  k 1  E TH 2  k 2  E TH 3  k 3  ETH 4  k 4  E TH 5  k 5 
 E TH 6 k 6  E TH 7  k7  E TH 8  k 8  ETH 9  k 9  E TH 10  k 10 
1
 E TH 11  k 11  E TH 12  k 12 )  Pm  ( 1 
( PL %  Pt %  Pf %  Pe% 
100
 Pd %  Pcc % ))
E rz .track  [( ETH 1 
1,13
1,13
E track ,wł 4
E
E
)  ( ETH 5  track ,wł 5 )  ( E TH 6  track ,wł 6 ) 
E fixed ,wł 4
E fixed ,wł 5
E fixed ,wł 6
 ( ETH 4 
 ( ETH 10
(13)
E track ,wł 1
E
E
)  ( ETH 2  track ,wł 2 )  ( ETH 3  track ,wł 3 ) 
E fixed ,wł 1
E fixed ,wł 2
E fixed ,wł 3
1,13
 ( ETH 7
(12)
1,13
1,13
1,13
E track ,wł7
E track ,wł 8
E track ,wł 9

)  ( ETH 8 
)  ( ETH 9 
)
E fixed ,wł 7
E fixed ,wł 8
E fixed ,wł 9
1,13
1,13
E track ,wł 10
E

)  ( ETH 11  track ,wł 11 )  ( ETH 12
E fixed ,wł 10
E fixed ,wł 11
1,13
 Pm  ( 1 
1,13
E
 track ,wł 12 )] 
E fixed ,wł 12
1,13
1
( PL%  Pt %  Pf %  Pe%  Pd %  Pcc% ))
100
1,13
(14)
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
67
12
E rz .track  (  ETHi k i )  Pm  ( 1  Ps )
(15)
i 1
Sprawdzenia dokładności obliczeń, na podstawie przedstawionych zależności,
dokonano dla okresu półrocznego. Ewentualne rozbieżności opisano
współczynnikiem procentowym dp.
Ilość energii elektrycznej [kWh], wyprodukowanej w okresie 15.06.2013 roku
do 31.12.2013 roku, na podstawie danych nasłonecznienia dla typowego roku
kalendarzowego, określono na podstawie:
Erz . fixed  [ 1,13  ( 0 ,5  149279  141631  116520  81621 
 45552  26381  18375 )]  Pm  ( 1  Ps )
(16)
Łączna wartość dla badanego okresu wynosi 106,79 kWh.
Ilość energii elektrycznej wyprodukowanej przez moduł PV zainstalowany
stacjonarnie, w analogicznym czasie, na podstawie monitoringu:
E mon ., fixed ( 37,180 )  101,8 kWh
(17)
Procentowy współczynnik rozbieżności na drodze obliczeń analitycznych i
pomiarów w warunkach rzeczywistych:
dp 
Erz ., fixed
Emon ., fixed
 100%
(18)
Rozbieżność obliczeń modelowych i wartości rzeczywistych dla układu
stacjonarnego wynosi 4,9 %.
Ilość energii elektrycznej wyprodukowanej w analizowanym przedziale czasu,
na podstawie danych nasłonecznienia dla typowego roku meteorologicznego dla
układu nadążnego:
Erz .track  ( 97329 ,91  195025 ,89  153223 ,80  93047,94 
51929,28  31129 ,58  22417 ,50 )  0 ,210  ( 1  0 ,1084 )
(19)
Łącznie uzyskano 120,6 kWh energii elektrycznej.
Ilość energii elektrycznej wyprodukowanej przez moduł PV zainstalowany
nadążnie, na podstawie monitoringu odpowiednio:
E mon .,track  140 ,8 kWh
(20)
Zużycie energii na potrzeby własne sterowania Eu wynosi 22,40 kWh dla
analizowanego okresu. Energię netto określono na podstawie zależności:
Enetto  Emon ,track  Eu
(21)
Procentowy współczynnik rozbieżności wielkości energii elektrycznej na
drodze obliczeń analitycznych i pomiarów w warunkach rzeczywistych:
dp 
Erz .,track
 100%
Enetto
(22)
68
Artur Bugała, Grażyna Frydrychowicz-Jastrzębska
Różnica oszacowania produkcji energii elektrycznej na podstawie obliczeń
analitycznych i wartości rzeczywistych dla układu nadążnego wynosi 1,8 %.
Ilość energii elektrycznej wyprodukowanej przez układ stacjonarny w cyklu
rocznym, na podstawie obliczeń analitycznych wynosi 203,28 kWh.
Ilość energii elektrycznej wyprodukowanej przez układ nadążny w tym samym
okresie, na podstawie obliczeń analitycznych wynosi 248,9 kWh.
4. PODSUMOWANIE
 Na podstawie pomiarów własnych prowadzonych w 24 godzinnym trybie ciągłym
stwierdzono, że największa produkcja energii elektrycznej, zarówno w konfiguracji
stacjonarnej jak i nadążnej, została zarejestrowana dla miesiąca sierpnia, mimo
nieznacznie mniejszej wartości nasłonecznienia dla tego okresu. Wyjaśnienia tego
zjawiska należałoby szukać w temperaturze pracy zainstalowanych modułów
fotowoltaicznych. Jej wzrost powyżej 25°C powoduje spadek napięcia obwodu
otwartego oraz wzrost prądu zwarcia [7]. Ze względu na dynamikę zmian obu
parametrów elektrycznych wartość mocy elektryczej ulega zmniejszeniu. Produkcja
energii elektrycznej dla miesiąca sierpnia, dla układu nadążnego dwuosiowego i
stacjonarnego, wynosi odpowiednio 35,88 kWh oraz 26,62 kWh. Zysk „brutto”,
wynikający z zastosowania sterowania wynosi 35 %. Miesięczne zużycie energii, celem
realizacji procesów sterowania dwóch siłowników wynosi 2,5 kWh. Ograniczenia tej
wartości należy poszukiwać w optymalnym doborze czasu załączania siłowników.
Zysk „netto”, uwzględniający straty sterowania, wynosi 26 %.
 Ważnym aspektem wpływającym na bilans energetyczny systemu PV jest
dopasowanie mocy falownika do mocy maksymalnej modułów
fotowoltaicznych. Należy również zapewnić odpowiednie warunki chłodzenia.
Wzrost temperatury pracy powyżej temperatury dopuszczalnej może być
przyczyną awarii falownika [8].
 Wykazano, że zaproponowana zależność, opisująca produkcję energii
elektrycznej przez układ nadążny i układ stacjonarny, na podstawie znajomości
miesięcznego nasłonecznienia, umożliwia z wystarczającą dokładnością
określenie procentowego zysku wynikającego z orientowania w dwóch osiach
położenia modułów PV. Brak w literaturze współczynników korekcyjnych
umożliwiających przeliczenie wartości nasłonecznienia z płaszczyzny
horyzontalnej do nadążnej sprawia, że należało dokonać całorocznego pomiaru
rozkładu gęstości mocy promieniowania słonecznego dla obu płaszczyzn.
Bilans energetyczny układów nadążnych w fotowoltaice dla lokalnych …
69
LITERATURA
[1] Jastrzębska G., Bugała A.: Comparison of the efficiency of solar modules operating
with a two-axis follow-up system and with a fixed mount system, Przegląd
Elektrotechniczny, 1, 2014, s. 63-65.
[2] www.solar-systems.pl/ (dostęp: 10.01.2014r.)
[3] Szymański B.: Instalacje fotowoltaiczne, Globenergia, wydanie II, Kraków, 2013.
[4] Jastrzębska G.: Ogniwa słoneczne. Budowa, technologia i zastosowanie, WKŁ,
Warszawa, 2013.
[5] http://energia.nexun.pl/?p=768 (dostęp: 12.01.2014r.)
[6] Jastrzębska G., Bugała A.: The influence of parameters of spatial orientation of a solar
power receiver on energetic gain, Poznan University of Technology ACADEMIC
JOURNALS, 2012, s. 181-188.
[7] Yilmaz S., Yilmaz A., Gunes M., Ozcalik H.: Two-diode model performance analysis
of photovoltaic panels, International Journal of Engineering Trends and Technology,
7, 2013, s. 2890-2895.
[8] Jastrzębska G., Bugała A.: Power generation by a photovoltaic installation during
standard operation as well as malfunction of micro power inverters, Elektronikakonstrukcje-technologie-zastosowania, 9, 2013, s. 156-159.
ENERGY BALANCE FOR TRACKING SYSTEMS IN PHOTOVOLTAICS
FOR LOCAL URBAN CONDITIONS-PART II
Work presents considerations for the production of electricity from photovoltaic
conversion in the case of stationary and tracking placement of modules of the same power
and technology. Basing on the measurement results an estimation of annual electricity
production for both configurations was carried out. Using own measurements from
monitoring, accuracy of analytical results was compared with the values actually measured.
Dependence of expected energy production on insolation on horizontal and tracking plane
was shown.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Grażyna FRYDRYCHOWICZ-JASTRZĘBSKA*
Artur BUGAŁA*
UKŁADY FOTOWOLTAICZNE
WSPÓŁPRACUJĄCE Z KONCENTRATORAMI
Scharakteryzowano układy fotowoltaiczne z koncentratorami o niskiej (LCPV) jak i
wysokiej koncentracji (HCPV). Przedstawiono możliwości ich pracy w różnych warunkach,
przy czym w szczególności uwzględniono wpływ temperatury i kąta koncentracji.
Zaprezentowano najnowsze rozwiązania, w tym Spin cell, Ephocell, Interdigitated Back
Contact (IBC), Luminescent Solar Concentrator (LSC), High Concentration PhotoVoltaic
Thermal (HCPVT), Concentration PhotoVoltaic (CPV) i ich efektywność.
SŁOWA KLUCZOWE: ogniwa słoneczne, sprawność, koncentrator, konwersja fotowoltaiczna
1. WPROWADZENIE
Koncentratory są to optyczne systemy ogniskowania i wzmacniania światła
słonecznego. Należą do nich m.in.:
 rynna paraboliczna oraz soczewka Fresnela, które charakteryzują się dużym
stosunkiem powierzchni apertury wejściowej do wyjściowej,
 układy, w których występuje duże "pole widzenia". Dotyczy głównie
przypadków o znacznym udziale promieniowania rozproszonego oraz w
układach o mniejszej dokładności układu śledzącego,
 wielostopniowe układy koncentratorów z soczewką Fresnela umieszczoną na
odbijającej światło rynnie w kształcie litery V.
W ogniwach słonecznych najczęściej stosuje się dwa systemy koncentratorowe:
soczewkowe, wykorzystujące zjawisko załamania i zwierciadła, bazujące na
zjawisku odbicia. Systemy skupiają promieniowanie liniowo lub punktowo. W
rozwiązaniu talerzowym maksymalna koncentracja teoretyczna promieniowania
osiąga wartości od 12 000 do 104 000, w zależności od współczynnika odbicia.
Praktycznie nie przekracza wartości od 820 do 4800. Zastosowanie soczewek
Fresnela daje niższe efekty koncentracji [9]. W wyniku koncentracji, na
powierzchni modułu zwiększa się gęstość mocy promieniowania, można
zastosować mniejszą powierzchnię PV, co prowadzi do obniżenia kosztów. W tym
rozwiązaniu koncentrator powinien mieć wbudowany system nadążny [2].
__________________________________________
* Politechnika Poznańska.
72
Grażyna Frydrychowicz-Jastrzębska, Artur Bugała
2. WSPÓŁPRACA KONCENTRATORÓW
Z OGNIWAMI SŁONECZNYMI
Systemy koncentrujące są najbardziej korzystne tam, gdzie występuje przewaga
składowej bezpośredniej promieniowania. Buduje się je jako jednostki o mocy od
20 do 35 kWp.
Na rysunkach 1 i 2 przedstawiono schematy wybranych koncentratorów oraz
ich odpowiedniki pracujące w ITER na Teneryfie.
a)
b)
Rys. 1. Schemat (a) i widok (b) cylindrycznego (rurowego) koncentratora promieniowania
w Instituto Tecnológico y de Energias Renovables (ITER) na Teneryfie,.
(Foto: Grażyna Frydrychowicz-Jastrzębska)
a)
Rys. 2. Schemat (a) i widok (b) talerzowego koncentratora
promieniowania słonecznego, pracującego w Instituto
Tecnológico y de Energias Renovables (ITER) na
Teneryfie. (Foto: Grażyna Frydrychowicz-Jastrzębska)
b)
Koncentracja promieniowania jest przyczyną podwyższenia temperatury na
powierzchni modułu. Ma to negatywny wpływ na parametry i charakterystyki
ogniwa. Sprawność ogniw wrażliwych na zmiany temperatury obniża się z jej
Układy fotowoltaiczne współpracujące z koncentratorami
73
wzrostem (spadek sprawności o 0,35 - 0,45%/1). Nagrzanie ogniwa powyżej
dopuszczalnej wartości, wskutek znacznej koncentracji może doprowadzić nawet
do jego zniszczenia. Konieczne jest zatem chłodzenie, względnie konwersja
kombinowana. Ze względu na zależność sprawności ogniw od temperatury, do
współpracy z ogniwami krzemowymi stosuje się systemy fotowoltaiczne o niskiej
koncentracji (od 2 do 10) światła LCPV (Light Concentration Photovoltaic). Taka
instalacja mimo zwiększonej wydajności nie wymaga chłodzenia.
Na rysunku 3 przedstawiono wpływ temperatury na charakterystyki wybranych
ogniw słonecznych [4].
Rys. 3. Sprawność wybranych ogniw w funkcji temperatury; przy gęstości mocy promieniowania
1000 W/m2. Objaśnienia: ogniwo krzemowe SR-100 (1), ogniwo krzemowe SRT-50 (2), tandem
amorficzny MST-50 MV (3), ANTEC SOLAR (4)
Tylko ogniwa z arsenku galu nie wykazują dużych zmian parametrów w zakresie
podwyższonej temperatury, nawet do 400 C. Pięciokrotny wzrost koncentracji do
wartości C = 900 powoduje spadek sprawności ogniw z arsenku galu o około 1,5% [4].
W tym przypadku można stosować systemy fotowoltaiczne o wysokiej koncentracji
światła HCPV (High Concentration Photovoltaic), współpracujące z dwuosiowymi
systemami nadążnymi. Układ wyposażony jest w monitoring.
W elektrowni Santa Pola, rejon Alicante w Hiszpanii, z całkowitej liczby 151
modułów polikrystalicznych pracujących w układzie nadążnym dwuosiowym,
dodatkowo 27 wyposażonych jest w koncentrację o wysokim współczynniku (HCPV).
Ze względu na wybraną lokalizację zastosowanie wysokiego stopnia koncentracji
HCPV powinno być korzystne. Szczegółowa analiza po roku pracy elektrowni
wykazała, że energia generowana przez konwencjonalne ogniwa osiągnęła zyski
większe od planowanych (występowało większe nasłonecznienie, niż wynikało to z
danych meteorologicznych), moduły z wysoką koncentracją przyniosły znacznie
mniejsze efekty niż oczekiwano, co wykazano w tabeli 1.
74
Grażyna Frydrychowicz-Jastrzębska, Artur Bugała
Tabela 1. Produkcja energii w elektrowni PV Santa Pola Alicante (Hiszpania),
wartości przewidywane i rzeczywiste [10]
Teoretyczna generacja
energii GWh
Polikrystaliczne z HCPV
Polikrystaliczne 2-osiowe
Cała instalacja
0.270
1.430
1.700
Rzeczywista
generacja energii
GWh
0.065
1.485
1.550
%
-76 %
+3.4 %
-9 %
3. PRZEGLĄD NAJNOWSZYCH ROZWIĄZAŃ
I ICH EFEKTYWNOŚĆ
Do rozwiązań współpracujących z koncentratorami należą krzemowe ogniwa
typu IBC (Interdigitated Back Contact) oraz ogniwa punktowo–kontaktowe. Przy
współczynniku C = 30, ich sprawność wynosi  = 18 %.
Koncentratory mogą znaleźć zastosowanie do ogniskowania i wzmacniania wiązki
promieniowania padającej na ogniwo tandemowe, nawet dla dużych współczynników
koncentracji. Znane są projekty Moon z 1978 roku i Borden z 1981 roku. W pierwszym
zastosowano 2 ogniwa GaAs i Si. Przy współczynniku C = 145 tandem osiągnął
sprawność  = 28,5%. W skład drugiego tandemu wchodzi 10 ogniw, uzyskano
sprawność  = 20,5% [3].
Liczne badania skupiają się wokół koncentratorów luminescencyjnych LSC
(Luminescent Solar Concentrator). Stosuje się tu rozwiązanie w formie folii
polimerowej, zawierającej centra luminescencyjne. Ich rolę spełniają kropki
kwantowe, nanomateriały domieszkowane jonami ziem rzadkich oraz barwnikami
perylenowymi nowej generacji, w tym dcm-pyran, coumarin 151, styryl 9 M, [6].
Centra absorbują promieniowanie. Technologia pozwala na silne absorbowanie
promieniowania, przede wszystkim w zakresie fal do 950 nm oraz maksimum
emisji przy około 1000 nm (bliskie jedności). Dzięki lepszemu dopasowaniu ogniwa
do padającego promieniowania można zapobiec utracie promieniowania
podczerwonego i UV [13]. Rozwiązanie umożliwia obniżenie kosztów
(półprzewodnik na bazie polimeru). Koncentratory luminescencyjne nie wymagają
układu nadążnego. Problematykę badawczą z tego zakresu rozwijają naukowcy w
ramach programu "Fullspectrum" Unii Europejskiej [6]. Inne rozwiązanie, ogniw
słonecznych współpracujących z koncentratorami, należy do naukowców z
Katalonii, którzy przedstawili projekt zwiększenia wydajności konwersji PV, w
wyniku zastosowania koncentratorów luminescencyjnych. W rozwiązaniu Ephocell
(Smart Light Collecting System For The Efficiency Enhancement Of Solar Cells)
sprawność wzrasta wskutek włączenia do procesu, konwersji zewnętrznej modulacji
natężenia promieniowania, co daje lepsze zsynchronizowanie długości fal i
zdolności absorpcyjnych odbiornika [12].
Układy fotowoltaiczne współpracujące z koncentratorami
75
Sprawności ogniw z koncentratorami osiągają już wartości ponad 40%,
najlepsze wyniki należą do: National Renevable Energy Laboratory NREL 37%,
Boeing Spectralab-odpowiednio-39%. MEREG GMbH (Material Energy Recoverz
Engineering) deklaruje sprawność 40%. Stanowi ono kombinację
półprzewodników i "color selective reflective interference films". Wiązka światła,
po rozszczepieniu na barwy, przetwarzana jest w półprzewodnikach
dostosowanych do długości fal promieniowania. Procesowi temu można również
poddać promieniowanie rozproszone, w tym przypadku sprawność jest dużo
niższa. Najlepsze efekty daje zastosowanie tzw. "stosu koncentratorowego"
(ogniwo wielowarstwowe z dodatkową warstwą przeciwodbiciową) [4]. W Polsce,
gdzie promieniowanie słoneczne charakteryzuje się dużym udziałem składowej
rozproszonej, wskazane jest stosowanie opisanego rozwiązania [5].
Bardzo obiecujący jest projekt J.H. Karpa z Uniwersytetu w San Diego w
Kalifornii, który w 2010 roku opracował prototyp koncentratora PV, w technologii
Spin Cell, bazujący na mikrooptyce solarnej. Jest to stożek pokryty ogniwami w
kształcie trójkątów, pokazany na rysunku 4 [7, 8].
Firma V3Solar (Projekt Nectar Design) prowadziła badania dla rozwiązania
stożkowego. Spin Cell wychwytuje promieniowanie i przekształca je na energię
elektryczną, po czym obraca się, zanim wzrośnie temperatura panelu, co
skutkowałoby obniżeniem sprawności. Koncentrator tworzy hermetyczną warstwę
zewnętrzną. Stożek umieszczony jest na podstawie wyposażonej w
elektromagnesy, zasilane energią z konwersji. Konwersję z zastosowaniem ogniw
stożkowych charakteryzuje 20-krotnie większa efektywność niż dla ogniw
tradycyjnych.
Rys. 4. Stożek fotowoltaiczny
Na rysunku 5 zestawiono wartości temperatury modułów standardowych i Spin
Cell, pracujących z koncentracją sześcio-, dwudziesto- i trzydziestokrotną, z
przypadkiem-bez koncentracji. Ostatni słupek w każdym zestawieniu obrazuje
różnicę wyrażoną w %.
Jedną z najwyższych sprawności konwersji 44,4% osiągnęła dla zestawu
trójzłączowego ogniw z koncentratorem firma Sharp. Uzyskana sprawność została
oficjalnie potwierdzona przez Instytut Fraunhofera Solar Energy Systems w
Niemczech. Sharp zastosował stos trzech warstw pochłaniających promieniowanie,
76
Grażyna Frydrychowicz-Jastrzębska, Artur Bugała
w ich skład wchodzą pierwiastki IN, Ga, As. Firma prowadzi badania nad
ogniwami trójzłączowymi od ponad 10 lat [14]. W 2013 roku kooperacja Soitec,
DEA-Leti oraz instytut Helmholtz Zentrum Berlin uzyskała rozwiązanie o
sprawności 44,7% [17].
Rys. 5. Możliwości obniżenia temperatury modułu PV
w wyniku wprowadzenia rozwiązania Spin Cell [17]
Naukowcy z Ben-Gurion University (BGU) z Negev w Izraelu zaprojektowali
w 2012 roku nowe rozwiązanie koncentratora z ogniwem słonecznym,
charakteryzujące się wydajnością przewyższającą 40%. Możliwe jest tu stosowanie
krzemu, który zasadniczo nie jest przydatny przy wysokich koncentracjach [1].
Badacze z IBM, Airlight Energy pracują nad efektywnym systemem
fotowoltaicznym High Concentration PhotoVoltaic Thermal (HCPVT) [15].
Układ bazuje na antenie o parabolicznym kształcie i wnętrzu pokrytym wieloma
ruchomymi lustrami. Zwierciadła są sterowane i ustawiają się pod najbardziej
optymalnym kątem w stosunku do padania promieni słonecznych. Przewiduje się,
że będą zdolne do przekształcenia ponad 80 % energii promieniowania.
Zastosowano chłodzenie wodą morską, przy czym woda odprowadzając ciepło z
układu paruje, następnie jest skraplana i już bez soli, po dalszym uzdatnieniu,
wykorzystywana jako woda pitna.
Inne rozwiązanie badaczy z IBM dotyczy współpracy ogniw
cienkowarstwowych z koncentratorami Concentration PhotoVoltaic (CPV),
otrzymano rekordowy wynik 230 W/cm2 powierzchni ogniwa, czyli pięciokrotnie
więcej niż w przypadku typowego ogniwa krzemowego. Jest to możliwe dzięki
innowacyjnej technologii chłodzenia, pozwalającej obniżyć temperaturę ogniw z
ponad 1600 do 85C. Do odprowadzania ciepła zastosowano warstwę ciekłego
materiału z galu i indu [16].
Rozwiązania ogniw z koncentratorami zastosowano m.in. w elektrowniach
fotowoltaicznych i słonecznych Andasol, Lujhu Township i Maricopa Solar.
Układy fotowoltaiczne współpracujące z koncentratorami
77
4. PODSUMOWANIE
W ostatnich latach nastąpił szybki rozwój technologii koncentratorów (CPV).
Szacuje się, że moc instalacji wzrośnie do 1,362 GW w 2020 roku, wzrost ma być
nawet o 750% w stosunku do roku 2013 (160 MW).
Sprawność ogniw z koncentratorami przekroczyła w 2013 roku 44%, a Amonix
produkuje już moduły o wydajności 34,2%.
Rozwojowi technologii CPV sprzyja także spadek kosztów produkcji, ich
obniżenie w okresie od 2012 do 2013 roku (dla HCPV) wyniosło 25,8%. Ta
tendencja utrzyma się na poziomie 15% do końca 2017 roku.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
Braun A., Vossier A., Katz E. A., Ekins-Daukes N.: Multiple-bandgap vertical-junction
architectures for ultra-efficient concentrator solar cells. Energy & Environmental
Science, 2012; 5 (9): 8523.
Frydrychowicz-Jastrzębska G., Bugała A.: Comparison of the efficiency of solar
modules operating with a two-axis follow-up system and with a fixed mount system,
Przegląd Elektrotechniczny, 2014, 1, s. 63-65.
Jarzębski Z.M.: Energia słoneczna. Konwersja fotowoltaiczna, PWN Warszawa 1990.
Jastrzębska G.: Ogniwa słoneczne. Budowa, technologia i zastosowanie, WKŁ,
Warszawa 2013.
Jastrzębska G.: Odnawialne źródła energii i pojazdy proekologiczne, WNT, Warszawa
2009.
Jeremiasz O, Sarnecki J.,Nikiel W., Teodorczyk N., Wnuk K., Kozłowski R, Gawlik D.:
Luminescencyjne koncentratory energii promieniowania słonecznego w zakresie
widzialnym i bliskiej podczerwieni, Elektronika 2010, 51 (5), s. 83-86.
Karp J.H., Tremblay E.J., Ford J.E.: Planar micro-optic solar concentrator, Optics
Express, Vol. 18, Issue 2, 2010, s. 1122-1133.
Karp J.H., Tremblay E.J., Ford J.E.: Planar micro-optic concentration using multiple
imaging lenses into a common slab waveguide,” Proc. SPIE 2009, s. 7407-11.
Lewandowski W.M.: Proekologiczne odnawialne źródła energii, WNT, Warszawa 2006.
Lopez D., Munoz R., Valero S..: Analysis of a Ground - Mounted Double Axis
Photovoltaic Installation in Spain, International Conf. on Renewable Energies and Power
Quality ICREPQ'11, Canary Island 2011.
www.eupvsec-proceedings.com (dostęp: 03.05.2012r.)
www.ist-world.org (dostęp: 16.06.2012r.)
www.newloks.int.pan.wroc.pl (dostęp: 13.08.2012r.)
www.sharp-world.com (dostęp: 17.08.2012r.)
http://nt.interia.pl/technauka/news-ogniwa-zdolne-do-koncentracji- mocy (dostęp:
02.06.2012r.)
www.katalog.xtech.pl (dostęp: 20.01.2014r.)
www.gramwzielone.pl (dostęp: 24.11.2013r.)
78
Grażyna Frydrychowicz-Jastrzębska, Artur Bugała
PHOTOVOLTAIC SYSTEMS WITH CONCENTRATORS
Paper presents photovoltaic systems with concentrators with a low (LCPV) and high
(HCPV) level of concentration. The possibilities of work under different conditions,
especially influence of temperature and concentration angle are described. The latest
solutions with their efficiency like Spin cell, Ephocell, Interdigitated Back Contact (IBC),
Luminescent Solar Concentrator (LSC), High Concentration PhotoVoltaic Thermal
(HCPVT), Concentration PhotoVoltaic (CPV) are presented.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Robert JĘDRYCHOWSKI*
SYSTEM KONTROLI PRACY MAŁYCH ŹRÓDEŁ ENERGII
ELEKTRYCZNEJ W SIECIACH INTELIGENTNYCH
OPARTY NA STEROWNIKACH PLC
Referat prezentuje rozwiązania techniczne pozwalające na zarządzanie pracą instalacji
elektrycznych, w których zaplanowano pracę małych źródeł energii. W tym celu w
systemie zarządzania budynkiem wykorzystano możliwości techniczne oferowane przez
sterowniki PLC. Rozwój technologii wytwarzania energii elektrycznej sprawiają, że coraz
więcej osób prywatnych i niewielkich przedsiębiorstw rozważa zainstalowanie lokalnego
źródła energii przyłączonego bezpośrednio do własnej instalacji odbiorczej. W artykule
przedstawione zostały cechy oraz możliwości techniczne systemów kontroli i sterowania
pracą źródeł o małej mocy przyłączonych do sieci niskiego napięcia oraz instalacji
budynkowych. Zaprezentowane zostały możliwości integrowania sterowania pracą źródła,
automatyki budynku oraz możliwości kontroli zużycia energii.
SŁOWA KLUCZOWE: komunikacja, PLC, mikroźródło, Smart Grid
1. WSTĘP
Wzrost znaczenia generacji rozproszonej oraz małych źródeł energii w polityce
energetycznej pociąga za sobą szereg problemów natury prawnej i technicznej,
które należy rozwiązać. Problemy wynikają z oczekiwań definiowanych przez
właściciela źródła oraz konieczności spełnienia wymagań operatora sieci
elektroenergetycznej, do której instalacja budynku jest przyłączona. Jednym
z elementów pozwalających na bezpieczną, przewidywalną i efektywną pracę
źródła jest wyposażenie go w dopasowany system sterowanie i nadzoru (SSiN)
tworzący wraz z systemem sterowania budynkiem środowisko dostarczające
informacji o pracy samego źródła, jego otoczenia oraz instalacji
elektroenergetycznej, do której jest włączone. SSiN może mieć różnorodną
strukturę odpowiadającą oczekiwaniom i potrzebą właściciela źródła.
Wykorzystanie, jako źródła danych sterownik PLC pozwala w sposób elastyczny
na budowanie instalacji inteligentnych, w których źródło w pełni współpracuje
z automatyką budynku.
__________________________________________
* Politechnika Lubelska.
80
Robert Jędrychowski
W artykule przedstawione zostaną właściwości eksploatacyjne i informatyczne
sterownika PLC wykorzystywane do tworzenia modelu systemu zarządzania.
W modelu
uwzględnić
można
szereg
modułów
współpracujących
i wymieniających informacje pomiędzy sobą. Pierwszym elementem modelu jest
źródło energii. System sterowania źródłem ze względu na bezpieczeństwo
i niezawodność pracy ma charakter autonomiczny, tzn. wymaga się od niego
poprawnej pracy nawet przy braku wymiany danych z pozostałymi elementami
modelu. Drugim modelowanym elementem jest lokalna wizualizacja pełniąca rolę
BMS (Building Management System), pozwalająca na komunikację użytkownikmaszyna i prezentację aktualnych informacji o stanie instalacji i źródła. Mogą
pojawić się również moduły niezwiązane bezpośrednio z praca źródła,
a pozwalające na wprowadzenie informacji związanych np. pracą wybranych
urządzeń lub moduł stacji meteo. Tworzony system sterowania i nadzoru oparty
o sterownik PLC (wykorzystano sterownik WAGO-I/O-SYSTEM 750-880/025001) może wykorzystywać dodatkowo standard IEC 61850 i jego rozszerzenia
opisujące pracę źródeł rozproszonych, a także standard CIM. Dzięki takiemu
podejściu przedstawione rozwiązania automatyki budynkowej są zgodne
z zaleceniami opisanymi dla Smart Grid i pozwalają, na współpracę z innymi
elementami tworzącymi system inteligentny.
2. WYMAGANIA PRZYŁĄCZENIOWE DLA ŹRÓDEŁ
WSPÓLPRACUJACYCH Z INSTALACJĄ ELEKTRYCZNĄ
Za małe źródła uważane są źródła energii o niewielkiej mocy w granicach od
1 do 500 kW przyłączonych do sieci niskiego napięcia [5]. Niekiedy stosowany
jest dokładniejszy ich podział na mikroźródła o mocy od 1 do 50 kW oraz
miniźródła o mocy od 50 do 500 kW. Do najczęściej stosowanych rodzajów źródeł
małej mocy należą [3]:
 elektrownie wodne,
 silniki Diesla,
 silniki i turbiny gazowe (w tym biogazowe),
 elektrownie wiatrowe,
 elektrownie fotowoltaiczne.
Wszystkie źródła energii, w tym również te o niewielkiej mocy muszą spełniać
wymagania stawiane przez regulacje prawne. Wymagania te zawarte w prawie
energetycznym są następnie stosowane i uszczegóławiane w Instrukcjach Ruchu i
Eksploatacji Operatorów Sieci Dystrybucyjnej (OSD). Dodatkowo wymagane jest
spełnienie przepisów i uzyskanie niezbędnych zezwoleń wynikających z prawa
budowlanego.
Użytkownik
będący
prosumentem,
chcący
sprzedawać
nadmiar
wyprodukowanej energii elektrycznej do sieci nN powinien spełnić wymagania
System kontroli pracy małych źródeł energii elektrycznej w sieciach …
81
zdefiniowane praz lokalnego OSD [4]. W warunkach przyłączenia wydawanych
przez OSD definiowany jest zakres niezbędnych zmian, które należy wykonać
w sieci nN oraz w instalacji elektrycznej prosumenta (rys. 1). W zależności od
wielkości instalacji prosument i mocy w niej zainstalowanej. Zmiany te mogą
obejmować takie działania jak:
 modernizacja rozdzielnicy stacji transformatorowej SN/nN,
 wykonanie lub modernizacja złącza na granicy posesji,
 wykonanie lub modernizacja przyłącza,
 modernizacja instalacji odbiorczej.
SN/nN
Rozd zielnica stacji
transformatorowej
Złącze
nN
Instalacja
prosumenta
Rys. 1. Schemat przyłączenia instalacji prosumenta wraz ze źródłem do sieci nN
Szczególnie dużą uwagę w warunkach przyłączeniowych przykłada się do
realizacji układu pomiarowo-rozliczeniowego oraz prawidłowo wykonanych
zabezpieczeń elektroenergetycznych.
Konstrukcja układu pomiarowo-rozliczeniowego uzależniona jest od mocy
źródła energii oraz sposobu rozliczenia wytworzonej energii. Zakładając, że
prosument będzie sprzedawał nadmiar energii do sieci układ pomiaroworozliczeniowy może zawierać dwa liczniki energii oraz opcjonalnie przekładniki
prądowe. Przekładniki prądowe niezbędne przy pomiarze półpośrednim muszą
spełniać wymagania, co do klasy dokładności, zakresu prądów oraz współczynnika
bezpieczeństwa. Dużą wagę przykłada się do liczników energii, pierwszy z nich
powinien być czterokwadrantowym licznikiem pozwalającym na dwukierunkowy
pomiar energii biernej i czynnej z możliwością rejestracji profilu obciążenia. Drugi
z liczników jest przystosowany do jednokierunkowego pomiaru energii
i wykorzystywany jest dla potrzeb określenia ilości energii wyprodukowanej przez
źródło (rys. 2).
Drugim elementem jest układ zabezpieczeń. Wymagane jest zabezpieczenie
podstawowe jednostek wytwórczych oraz niezależne zabezpieczenie dodatkowe. W
82
Robert Jędrychowski
instalacji nN prosument skomplikowanie układu zabezpieczeń zależy od wielkości
źródła, dla bardzo małych źródeł wystarczą najprostsze zabezpieczenia (bezpieczniki).
RG
nN
Prz ekszt ałtnik
Licznik
podst awowy
Licznik
dodatkowy
Instalacja
prosumenta
I>
I>>
U>
U<
f>
f<
df/dt
Rys. 2. Układ wewnętrznej instalacji prosumenta
Dla źródeł większej mocy, gdy nie przewiduje się pracy wyspowej źródła,
zabezpieczenia te mogą stanowić jedną całość i działać na łącznik sprzęgający z siecią.
Zabezpieczenie podstawowe powinno zapewniać ochronę przed przeciążeniami i
zwarciami wyłączając jednostkę wytwórczą z ruchu. Zabezpieczenie dodatkowe w
większości przypadków współpracuję z układem przekształtnikowym może zawierać:
zabezpieczenia pod- i nadnapięciowe, zabezpieczenia częstotliwościowe,
zabezpieczenia kontrolujące parametry jakości energii.
3. WYKORZYSTANIE STEROWNIKA WAGO-I/O-SYSTEM DO
ZARZADZANIA INSTALACJA ELEKTRYCZNĄ
Dzięki swej budowie sterowniki WAGO-I/O-SYSTEM serii 750 oraz WAGOI/O-IPC-C6 pozwalają na rozszerzenie możliwości oferowanych przez klasyczne
urządzenia automatyki budynkowej. Ich modułowa budowa pozwala na
dostosowanie listy sygnałów wejściowych i wyjściowych oraz portów
komunikacyjnych zależnie od potrzeb systemu, który nadzorują. Pracując
w instalacji elektrycznej i sieciach nN mogą pełnić zarówno funkcję sterownika
zarządzającego pracą źródła jak również modułu wykonawczego realizującego
funkcje automatyki budynkowej. Dostępne moduły sterownika można podzielić na
następujące grupy [1]:
1. Podstawowe, niezbędne do kontroli pracy źródła, można do nich zaliczyć:
a. moduły wejść i wyjść analogowych,
System kontroli pracy małych źródeł energii elektrycznej w sieciach …
83
b. moduły wejść i wyjść binarnych.
2. Pomiarowe dla sygnałów przemiennych jednofazowych.
3. Pomiarowe dla sygnałów przemiennych trójfazowych.
4. Komunikacyjne.
5. Interfejs HMI. Zrealizowany poprzez panele dotykowe, wbudowany serwer
WWW lub możliwość komunikacji z dowolnym urządzeniem zewnętrznym.
Rys. 3. Sterownik PLC WAGO-I/O-SYSTEM serii 750 [6]
Sterowniki WAGO posiadają szereg możliwości pozyskiwania informacji
o pracy instalacji poprzez moduły sterownika oraz elementy z nimi
współpracujące. Do pierwszej grupy elementów należą moduły pomiarowe, wśród
których można wymienić:
1. Moduły pomiarowe WAGO-I/O-SYSTEM serii 750 przeznaczone do pomiaru
mocy trójfazowych, pozwalające na pomiar prądów do 1 lub 5 A, a po
zastosowaniu przekładników prądowych serii 855 nawet do 1000 A. Moduły te
pozwalają na pomiar prądu oraz napięcia A następnie wyznaczenie takich
wielkości jak moc (czynna, bierna, pozorna), energia, współczynnik mocy,
częstotliwość i wyższe harmoniczne. (rys. 4).
2. Przetworniki pomiarowe prądu (JUMPFLEX®) serii 857 pozwalające na
pomiar prądów przemiennych i stałych do 1 lub 5 A, a po zastosowaniu
przekładników prądowych lub cewek Rogowskiego nawet do 2000 A.
Przetworniki przetwarzają sygnał prądu mierzonego na sygnał analogowy (4 –
20 mA) akceptowalny przez standardowe moduły analogowe.
3. Konwerter dla cewek Rogowskiego pozwalający na pomiar prądu o wartościach
do 2000 A poprzez zastosowanie cewek Rogowskiego. Sygnał wejściowy może
być wprowadzony na moduły opisane w punkcie 1.
4. Inteligentne czujniki przepływu prądu, pozwalające na kontrolę prądu stałego
np. wytwarzanego przez PV.
84
Robert Jędrychowski
Rys. 4. Układ połączeń modułu pomiarowego serii 750 [6]
Drugą grupę elementów stanowią moduły komunikacyjne pozwalające na
wymianę informacji pomiędzy sterownikami oraz innymi elementami np.
licznikami energii. Możliwa jest komunikacja wykorzystująca:
1. Łącza asynchroniczne RS 232, RS 485.
2. Sieci LAN.
3. Łącza bezprzewodowe.
Trzecią grupą elementów są moduły konwertujące, pozwalające na współpracę
sterowników PLC WAGO-I/O-SYSTEM z różnymi standardami zarządzania
budynkiem. Do modułów tych zaliczyć można:
1. Moduł KNX/EIB/TP1 753-646 pozwala na przyłączenie sterownika do
instalacji inteligentnej pracującej w standardzie KNX.
2. Moduł DALI multimaster 753-647 pozwalajżcy na współpracę sterownika
z urządzeniami należącymi do standardu DALI IEC 62386.
3. Moduł 750-642 umożliwia odbiór sygnałów radiowych z urządzeń wykonanych
w technologii EnOcean, takich jak bezobsługowe, bezbateryjne,
bezprzewodowe czujniki i przełączniki.
Oprócz elementów sprzętowych właściwości sterownika można rozbudowywać
i modyfikować poprzez zastosowanie odpowiednio dobranego oprogramowania w
postaci bibliotek definiujących funkcję sterownika. Tworzony system sterowania
instalacją nN oraz przemysłowymi sieciami nN oparty o sterownik PLC można
wykorzystywać dodatkowo standard IEC 61850 i jego rozszerzenia opisujące pracę
źródeł rozproszonych, a także standard CIM [1]. Dzięki takiemu podejściu
przedstawione rozwiązania automatyki budynkowej są zgodne z zaleceniami
opisanymi dla Smart Grid i pozwalają, na współpracę z innymi elementami
tworzącymi system inteligentny. Możliwe jest również zorganizowanie wymiany
danych pomiędzy systemem zarządzania siecią elektroenergetyczną a BMS w
budynku lub zakładzie.
System kontroli pracy małych źródeł energii elektrycznej w sieciach …
85
4. PODSUMOWANIE
Zastosowanie sterowników PLC WAGO-I/O-SYSTEM umożliwia elastyczne
modelowanie systemu zarządzania budynkiem lub instalacja przemysłową nN.
Zaprezentowane moduły pomiarowe pozwalają na pozyskiwanie informacji
pomiarowych bezpośrednio ze źródła oraz obwodów odbiorczych. Dodatkowo
dzięki części programowej możliwe jest tworzenie aplikacji dostosowanych do
potrzeb użytkownika, spełniających nietypowych wymagań. Istotna jest również
możliwość zachowania standardów wymaganych dla sieci inteligentnych.
LITERATURA
[1] Jędrychowski R., Zalety standaryzacji systemów nadzoru i zabezpieczeń dla
generacji rozproszonej. Rynek Energii Nr 2 (81) 2009 r. s. 46-5.
[2] Jędrychowski R.: Data acquisition systems for small-scale energy generation sources
„Computer Applications in Electrical Engineering”, Poznan University of
Technology, Institute of Electrical Engineering and Electronics, Poznań 2012, ISBN
978-83-86912-59-9, ss. 244-253.
[3] Kacejko P.: Inżynieria elektryczna i technologie informatyczne w nowoczesnych
technologiach energetycznych. Monografie Komitetu Inżynierii Środowiska PAN
vol. 82, Lublin 2011.
[4] Instrukcja Ruchu i Eksploatacji Sieci Dystrybucyjnej PGE Dystrybucja S.A.
[5] Paska J.: Wytwarzanie rozproszone energii elektrycznej i ciepła. Oficyna
Wydawnicza Politechniki Warszawskiej, Warszawa 2010 r.
[6] WAGO. Dokumentacja techniczna. Technika pomiaru prądu i energii.
PLC-BASED OPERATION CONTROLS SYSTEM FOR MICRO POWER
SOURCES IN INTELLIGENT NETWORKS
The paper presents technological solution that make to manage the operation of
electrical installations, whereto micro power sources can be connected. For the purpose,
technological potential offered by PLC’s has been applied to the building management
system. Technological development in the area of electricity generation makes it possible
for private person and micro companies to install local power sources that are directly
connected to their own power supply wiring. The paper presents characteristics and
technological potential of system designed to supervise and control the operation of low
power sources connected to low voltage network systems and electric wiring in buildings.
Possibilities concerning integration of the source operation whit the building management
system as well as the power consumption control have been presented.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O UR N A L S
No 79
Electrical Engineering
2014
Marta KOLASA*
Rafał DŁUGOSZ*
KONCEPCJA ZASTOSOWANIA SZTUCZNYCH SIECI
NEURONOWYCH DO LOKALIZACJI ELEMENTÓW
POWODUJĄCYCH POGORSZENIE JAKOŚCI ENERGII
ELEKTRYCZNEJ W SIECIACH ŚREDNIEGO NAPIĘCIA
W artykule przedstawiono koncepcję wykorzystania sztucznych sieci neuronowych do
rozwiązywania problemu lokalizacji źródeł zakłóceń powodujących pogorszenie jakości energii
elektrycznej. W dziedzinie tej coraz częściej sięga się po rozwiązania oparte na sztucznej
inteligencji, choć zazwyczaj stosowane algorytmy uczenia sieci neuronowych implementowane
są jako programy komputerowe. Biorąc pod uwagę ogromną ilość danych, które muszą zostać
przetworzone, rozwiązania takie nie są optymalne. Rozwiązaniem tego problemu może być
zastosowanie równoległego przetwarzania danych, możliwego do uzyskania w sieciach
neuronowych realizowanych jako specjalizowane układy scalone. Jest to celem naszych badań.
W artykule przedstawiono jeden z etapów realizacji tego zadania – model sieci
elektroenergetycznej, którego celem jest dostarczenie danych uczących dla projektowanej na
poziomie tranzystorów sieci neuronowej. W realizowanej sieci neuronowej wykorzystano
nowatorski algorytm oparty na filtracji błędu kwantyzacji, który pozwala znacząco skrócić fazę
uczenia, przez co sieć jest w stanie szybko dostosować się do nowych danych.
SŁOWA KLUCZOWE: jakość energii elektrycznej, sztuczne sieci neuronowe, nowe algorytmy
uczenia
1. WSTĘP
W ostatnich latach widoczny jest znaczący wzrost zainteresowania tematyką
jakości energii elektrycznej [1, 6, 7, 11, 12, 13, 15]. Jednym z głównych problemów w
sieciach elektroenergetycznych są pojawiające się wyższe harmoniczne, które
powodują np. odkształcenia przebiegów napięć, błędy w pracy przyrządów
pomiarowych, nieprawidłową pracę sprzętu zabezpieczającego, wzrost strat mocy, itp.
[12]. Energia elektryczna przestała być postrzegana wyłącznie w kategoriach
ilościowych jako wielkość fizyczna, lecz zaczęła podlegać restrykcyjnej ocenie oraz
standaryzacji. Jakość energii elektrycznej określa jej przydatność do zasilania
odbiorników energii elektrycznej [7]. O własnościach użytkowych energii decyduje nie
tylko wytwórca, lecz przede wszystkim odbiorcy energii oraz jej dystrybutor, a także
__________________________________________
* Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy.
88
Marta Kolasa, Rafał Długosz
producent urządzeń eksploatowanych u odbiorców. Kluczowym problemem w tej
branży jest to, że energia podlega degradacji w procesie jej przesyłu oraz dystrybucji
pod wpływem występujących zaburzeń elektromagnetycznych. Głównym źródłem
tych zaburzeń są różne odbiorniki nieliniowe, których liczba nieustannie rośnie. Z tego
względu, w przypadku znaczącego odkształcenia napięcia w sieci zasilającej,
występuje potrzeba zlokalizowania rodzaju zaburzenia oraz jego źródła. Ma to
szczególne znaczenie zwłaszcza w okresie formułowania kontraktów na dostawę
energii i egzekwowania opłat za pogarszanie jakości zasilania. Harmoniczne prądu
przenoszone są przez sieć. W związku z tym odbiorcy energii, którzy sami nie
przyczyniają się do ich powstawania w sieci mogą być narażeni na ich oddziaływanie.
W wielu przypadkach wymagane jest określenie ilościowego udziału dostawcy oraz
odbiorcy energii w całkowitym odkształceniu napięcia w punkcie wspólnego
przyłączenia [7].
Problem lokalizacji źródeł wyższych harmonicznych w systemie
elektroenergetycznym jest szeroko poruszany w literaturze [1, 2, 7, 11-15]. Wiele z
obecnie stosowanych metod lokalizacji źródeł składowych harmonicznych opiera się
na badaniu kierunku przepływu mocy czynnej dla poszczególnych składowych. Wielu
autorów zwraca jednak uwagę na ograniczenia tych metod [1, 7, 13]. "Metoda
impedancyjna", w przeciwieństwie do metody przepływu mocy czynnej, pozwala na
dokonanie oceny udziału dostawcy i odbiorcy energii w całkowitym odkształceniu
napięcia i jest uznawana za najbardziej miarodajną ze wszystkich sposobów lokalizacji
źródeł wyższych harmonicznych [7, 15]. Jednakże większość metod proponowanych
w literaturze: "metoda impedancyjna" [15], badanie kierunku przepływu mocy biernej
oraz „impedancji krytycznej” [15], iniekcja interharmonicznych [14] itp., oprócz
złożoności technicznej realizacji wymagają posiadania dokładnych informacji o
wartościach parametrów zastępczych analizowanego sytemu [1]. Są to dane trudno
dostępne lub też uzyskiwane poprzez kosztowne pomiary.
Alternatywą w rozwiązywaniu opisywanych problemów jest zastosowanie metod
oceny wpływu pracy odbiorników nieliniowych na jakość energii elektrycznej
opartych na systemach sztucznej inteligencji. Zaletą rozwiązań tego typu jest
umiejętność radzenia sobie z okresowym brakiem pewnych danych, co często się
zdarza. Zastosowanie sztucznych sieci neuronowych oraz innych systemów opartych
na sztucznej inteligencji w elektroenergetyce zyskuje na popularności [6, 7, 11].
Wykorzystywane są one w zagadnieniach związanych z prognozowaniem przyszłych
wartości energii elektrycznej, detekcją uszkodzeń elementów systemu
elektroenergetycznego czy też jakością energii elektrycznej [6, 7, 11].
Jednym z celów autorów pracy jest zrealizowanie nowatorskiego systemu
diagnostycznego, który pozwoli na monitorowanie zawartości wyższych
harmonicznych w systemie elektroenergetycznym w trybie ciągłym. W artykule
przedstawiono koncepcję systemu (inteligentnego klasyfikatora), opartego na
sztucznej sieci neuronowej, koncentrując się przede wszystkim na
zaimplementowanym w nim algorytmie uczenia, który jest dedykowany zarówno
Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji …
89
do rozwiązań sprzętowych jak i softwarowych [10]. W zaproponowanym
algorytmie wykorzystano filtrację cyfrową, która pozwala na znaczące skrócenie
czasu uczenia sieci. Ma to znaczenie z punktu widzenia konieczności szybkiego
dostosowywania się sieci neuronowej do zmieniających się warunków, w jakich
pracuje siec neuronowa.
Jednym z podstawowych problemów przy zastosowaniu sieci neuronowych w
systemach oceny jakości energii jest właściwe zdefiniowane danych uczących dla
takiej sieci [7]. Dane te muszą z jednej strony dobrze opisywać problem, tak by
sieć mogła wskazywać właściwie źródła zakłóceń. Z drugiej strony struktura tych
danych musi być na tyle prosta by sieć mogła je właściwie przetworzyć. Aby
dostarczyć danych uczących autorzy zaprojektowali model systemu
elektroenergetycznego w środowisku Matlab Simulink. Szczegóły dotyczące
modelu zaprezentowano w rozdziale 2. W kolejnym rozdziale autorzy przedstawili
koncepcję szybkiego uczenia samoorganizujących się sieci neuronowych. Wnioski
przedstawiono w rozdziale ostatnim.
2. CHARAKTERYSTYKA PRZYKŁADOWEJ SIECI
ELEKTROENERGETYCZNEJ ŚREDNIEGO NAPIĘCIA - MODEL
Aby dostarczyć dane uczące dla opracowywanej sieci neuronowej zastosowano
przykładową elektroenergetyczną sieć dystrybucyjną, której schemat zastępczy
pokazano na rys. 1.
Rys. 1. Schemat zastępczy przykładowej sieci dystrybucyjnej
Sieć elektroenergetyczna składa się z następujących elementów: generatora
zastępczego (system elektroenergetyczny – zastąpiony idealnym źródłem napięcia
połączonym szeregowo z rezystorem i cewką), dwóch jednostek wytwórczych JW1
i JW2 (uwzględnienie generacji rozproszonej), dziewięciu odbiorów ODB1 – 9
90
Marta Kolasa, Rafał Długosz
oraz ośmiu odcinków linii elektroenergetycznych L1 – 8 średniego napięcia.
Sposób wyznaczania parametrów poszczególnych elementów schematu
zastępczego został szczegółowo opisany w pracach [3, 4].
Rys. 2. Konstrukcja blokowa modelu w środowisku Maltlab Simulink
Rys. 3. Schemat struktury wewnętrznej bloku „odbiór nieliniowy” w środowisku Maltlab Simulink
Na
potrzeby
testowania
sieci
neuronowej
opracowano
model
elektroenergetycznej sieci średniego napięcia (rys. 1) w środowisku Matlab
Simulink, z wykorzystaniem języka programowania wysokiego poziomu. Na
rys. 2. przedstawiono konstrukcję blokową modelu. Model umożliwia symulacyjne
prowadzenie badań stopnia odkształceń napięć oraz prądów w poszczególnych
węzłach oraz gałęziach przykładowej sieci elektroenergetycznej oraz w odbiorach.
Model zawiera źródła napięcia umożliwiające pracę w dwóch trybach, tj.
generujące napięcie sinusoidalne oraz napięcie odkształcone (z możliwością
zadawania wartości amplitud i faz poszczególnych harmonicznych).
Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji …
91
W razie konieczności wprowadzenia impedancji wewnętrznej źródła napięcia
(rzeczywiste źródło napięcia), dołącza się szeregowo połączone rezystory i cewki.
W węzłach sieci elektroenergetycznej możliwe jest przyłączenie liniowych bądź
nieliniowych odbiorów (rys. 3). Nieliniowe odbiory są kolejnym elementem
wpływającym na pogorszenie kształtu krzywej napięć i prądów w rozpatrywanej
sieci elektroenergetycznej. Schemat struktury wewnętrznej bloku oznaczonego
jako „linia elektroenergetyczna” (rys. 4) opracowano zgodnie z klasycznymi
schematami zastępczymi linii elektroenergetycznych [16, 17].
Model uzupełniono miernikami zawartości wyższych harmonicznych
wybranych prądów oraz napięć sieci. Zaimplementowany model pozwala na
badanie wpływu dołączenia poszczególnych odbiorów lub zwiększenia zawartości
harmonicznych w napięciach źródłowych na jakość energii elektrycznej, w
szczególności na odkształcenie krzywych prądów i napięć w różnych miejscach
rozpatrywanej, przykładowej sieci elektroenergetycznej. Model pozwala na
uzyskanie niezbędnych danych służących do przeprowadzenia procesu uczenia,
weryfikacji oraz testowania neuronowego klasyfikatora danych.
Rys. 4. Schemat struktury wewnętrznej bloku „linia elektroenergetyczna” w środowisku Simulink
3. OPIS SIECI NEURONOWEJ
Z uwagi na bardzo dużą liczbę węzłów systemu elektroenergetycznego oraz
nieustannie rosnącą liczbę odbiorników, w tym odbiorników nieliniowych, system
diagnozujący musi posiadać dużą mocą obliczeniową. Problem polega na tym, że
współczesne realizacje sieci neuronowych oparte są głównie na platformach
softwarowych, które nie pozwalają uzyskać dużych mocy obliczeniowych. Wynika
to z szeregowego przetwarzania danych w tego typu systemach oraz często z
niewystarczających zasobów sprzętowych. Aby zbudować system który zapewni
odpowiednią moc obliczeniową, zachowując przy tym niewielkie wymiary,
niezbędne jest zastosowanie systemów pozwalających na pracę równoległą [5, 9].
92
Marta Kolasa, Rafał Długosz
Proste zastosowanie systemów służących do równoległego przetwarzania
sygnałów (np. układy FPGA – Field Programmable Gate Array) może okazać się
niewystarczające. Wynika to z ograniczonych zasobów sprzętowych w tego typu
urządzeniach. Konieczny jest również rozwój odpowiednich algorytmów uczenia
sieci, które z jednej strony pozwolą na szybkie uczenie (duża zbieżność algorytmu
uczenia), a z drugiej będą realizowalne na sprzętowych platformach równoległych.
Przykładem sieci neuronowych które mogą zostać w prosty sposób zastosowane
w tym przypadku, głównie ze względu na prostotę algorytmów uczących, są
samoorganizujące się sieci Kohonena [5, 9], zwane też samoorganizującymi
mapami cech (SOFM od ang. Self-Organized Feature Maps). Składają się one z
jednej warstwy neuronów, które tworzą mapę z liczbą wyjść równą liczbie
neuronów. Wszystkie neurony w sieci mają wspólne wejścia. Zaletą sieci typu
SOFM jest możliwość rzutowania wielowymiarowych danych wejściowych na
przestrzeń o mniejszej liczbie wymiarów, zwykle dwuwymiarową, co przyczynia
się do ich lepszej wizualizacji oraz analizy [8].
Konkurencyjne uczenie w sieciach SOFM polega na prezentowaniu sieci
wektorów uczących X, w wyniku czego wagi poszczególnych neuronów adaptują
się w taki sposób, że neurony te stają się reprezentantami poszczególnych klas
sygnałów wejściowych. W sieciach tych dla każdego wzorca uczącego X najpierw
określana jest odległość pomiędzy wzorcem X oraz wektorami wag W
poszczególnych neuronów. W tym celu stosuje się różne miary odległości. Do
najbardziej popularnych należą tzw. miara Manhattan oraz miara Euklidesa.
Konkurencję wygrywa ten neuron, którego wektor wag W jest najbardziej
podobny do wektora uczącego X. W kolejnym kroku algorytmu następuje
adaptacja wag neuronu zwycięskiego oraz dodatkowo tych neuronów, które należą
do jego sąsiedztwa. Adaptacja odbywa się zgodnie z poniższą zależnością:
W j ( l  1 )  W j ( l )   k ( l )G( R , d ( i , j ))[ X ( l )  W j ( l )]
(1)
gdzie ηk jest współczynnikiem uczenia w k-tej epoce uczącej, Wj jest wektorem wag
danego j-tego neuronu, X jest wzorcem uczącym w l-tej prezentacji, d(i, j) jest
odległością topologiczna pomiędzy poszczególnymi neuronami na mapie, G() jest
zadaną funkcją sąsiedztwa, natomiast R zasięgiem sąsiedztwa.
Efektywność procesu uczenia samoorganizującej się sieci neuronowej oceniana
jest za pomocą różnych kryteriów. Jednym z nich jest błąd kwantyzacji, który dla
m n-wymiarowych wzorców w wejściowym zbiorze danych definiowany jest
następująco:
Qerr 
1 m

m j 1
n

l 1
( x j ,l  wi ,l ) 2
(2)
Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji …
93
4. PROPONOWANY ALGORYTM UCZENIA SIECI NEURONOWEJ
Jednym z celów badań jest opracowanie szybkozbieżnych algorytmów uczenia
sieci neuronowych, które dzięki temu będą w stanie w krótkim czasie lokalizować
źródła odkształceń napięcia w sieci elektroenergetycznej. Proponowany system
oparty będzie na nowatorskim wykorzystaniu filtrów cyfrowych o skończonej
odpowiedzi impulsowej oraz nieliniowych filtrów medianowych.
Dotychczasowe badania pokazują, że w trakcie uczenia sieci błąd kwantyzacji
(2) nie maleje jednostajnie, ale widoczne są fazy stagnacji oraz gwałtownego
zmniejszania wartości tego błędu (fazy aktywności). Te drugie fazy pojawiają się
zawsze po przełączeniu promienia sąsiedztwa, R (1). W fazach stagnacji nie jest
widoczny postęp w uczeniu sieci. Proponowany algorytm poprzez odpowiednią
filtrację tego błędu jest w stanie wykryć fazy stagnacji i skracać je poprzez
automatyczne przełączenie promienia R. Pozwala to skrócić czas procesu uczenia
nawet o 70 – 90%. Nowy algorytm wraz z wynikami badań przeprowadzonymi na
modelu softwarowym sieci został przedstawiony w szczegółach w [10].
5. PODSUMOWANIE
W artykule przedstawiono koncepcję zastosowania samoorganizujących sieci
neuronowych w rozwiązywaniu problemów związanych z jakością energii. Na
obecnym etapie badań gotowy jest model sieci elektroenergetycznej, który
dostarczy danych uczących dla projektowanej sieci neuronowej. Trwają obecnie
prace nad nowym algorytmem uczenia, który pozwoli znacząco zmniejszyć czas
uczenia sieci. Gotowa jest też koncepcja sprzętowej realizacji takiej sieci, która
pozwoli na zastosowanie równoległego przetwarzania danych, czyli znaczące
zwiększenie mocy obliczeniowej układu. Sieć zostanie zrealizowana jako
specjalizowany układ scalony w technologii CMOS.
LITERATURA
[1] Bigaj D., Hanzelka Z., Metody lokalizacji źródeł wyższych harmonicznych w
sieciach zasilających, Polskie Partnerstwo Jakości Zasilania, 2004.
[2] Cieślik S., Problemy identyfikacji elementów systemu elektroenergetycznego
powodujących wzrost wyższych harmonicznych napięcia. Miesięcznik Stowarzyszenia
Elektryków Polskich INPE, Nr 152 (Rok XVIII), maj 2012r., str. 43-49.
[3] Cieślik S., Przyłączenie farmy wiatrowej o mocy znamionowej 8 MW do szyn
rozdzielni SN w stacji elektroenergetycznej WN/SN zasilającej elektroenergetyczną
sieć dystrybucyjną. Przegląd Elektrotechniczny, 86, nr 6/2010, str. 104-109.
[4] Cieślik S., Modelowanie matematyczne i symulacja układów elektroenergetycznych
z generatorami indukcyjnymi. Wydawnictwa Uczelniane Uniwersytetu
Technologiczno-Przyrodniczego, Bydgoszcz 2008.
94
Marta Kolasa, Rafał Długosz
[5] Długosz R., Kolasa M., Pedrycz W., Szulc M., Parallel Programmable
Asynchronous Neighborhood Mechanism for Kohonen SOM Implemented in
CMOS Technology, IEEE Transactions on Neural Networks, Vol. 22, No. 12, 2011,
str. 2091-2104.
[6] Gała M., Zastosowanie sztucznych sieci neuronowych do oceny wpływu pracy
odbiorników nieliniowych na jakość energii elektrycznej, Przegląd
Elektrotechniczny, Nr 6/2011, str. 42-46.
[7] Gała M., Analiza wpływu pracy odbiorników nieliniowych na zmiany wartości
wybranych parametrów jakości energii elektrycznej z zastosowaniem sztucznych
sieci neuronowych (rozprawa doktorska), Politechnika Częstochowska, 2007.
[8] Kohonen T., Self-Organizing Maps, third ed. Springer, Berlin, 2001.
[9] Kolasa M., Długosz R., Pedrycz W., Szulc M., A programmable triangular
neighborhood function for a Kohonen self-organizing map implemented on chip,
Neural Networks, Vol. 25, 2012, str. 146-160.
[10] Kolasa M., Długosz R., Talaśka T., Pedrycz W., A fast learning algorithm based on
filtering of the quantization error suitable for hardware implemented self-organizing
maps, European Symposium on Artificial Neural Networks, Computational
Intelligence and Machine Learning (ESANN), Brugia, Belgia, 23-25 kwietnia 2014.
[11] azumdar J., Harley R.G., Lambert F.C., Venayagamoorthy G.K., Neural Network
Based Method for Predicting Nonlinear Load Harmonics, IEEE Transactions on
Power Electronics, vol. 22, no. 3, 2007, 1036-1045.
[12] Pyzalski T., Wilkosz K., Identification of Harmonic Sources in a Power System: A
New Method, IEEE Russia Power Tech, 2005, str. 1-6.
[13] Szczęsny P., Wilczak P., Wybrane Metody Lokalizacji Źródeł Wyższych
Harmonicznych w sieciach elektroenergeetycznych, Elektrotechnika i Elektronika,
Tom 28, Zeszyt 1-2, 2009, str. 39-48.
[14] Tsukamoto M., Kouda I., Minowa Y., Nishimura S., Advanced Method to Identify
Harmonics Characteristic Between Utility Grid and Harmonic Current Sources,
International Conference on Harmonics and Quality of Power, 1998.
[15] Xu Wilsun, Liu Xian, Liu Yilu, An Investigation on the Validity of Power-Direction
Method for Harmonic Source Determination, IEEE Trans. on Power Delivery, Vol.
18, No. 1, 2003, str. 214-219.
[16] Zajczyk R., Modele matematyczne systemu elektroenergetycznego do badania
elektromechanicznych stanów nieustalonych i procesów regulacji. Wydawnictwo
Politechniki Gdańskiej, 2003.
[17] Żmuda K., Elektroenergetyczne układy przesyłowe i rozdzielcze. Wybrane
zagadnienia z przykładami. Wydawnictwo Politechniki Śląskiej, 2012.
The “Development of Novel Ultra Low Power, Parallel Artificial Intelligence Circuits for
the Application in Wireless Body Area Network Used in Medical Diagnostics'' project
is realized within the POMOST programme of Foundation for Polish Science, cofinanced
from European Union, Regional Development Fund
Koncepcja zastosowania sztucznych sieci neuronowych do lokalizacji …
95
A CONCEPT OF THE APPLICATION OF ARTIFICIAL NEURAL NETWORKS
IN THE LOCATION OF ELEMENTS THAT DISTORT THE QUALITY
OF ENERGY IN MEDIUM VOLTAGE DISTRIBUTION NETWORKS
The paper presents a concept of using artificial neural networks to solve the prob- lem
of the location of sources that cause deterioration in the quality of the electrical power. In
this field the solutions that base on artificial intelligence are gaining popularity in recent
time. However, the learning algorithms that are used in this case are usually implemented
as computer programs. Given the large amount of data that must be processed, such
solutions are not optimal. The solution to this problem may be the usage of parallel data
processing obtainable in neural networks implemented, for example, as specialized
integrated circuits. This is the purpose of our research. This paper presents one of the
important steps in this task - a model of the electrical power system, the aim of which is to
provide training data for the neural network. In the realized neural network a novel
algorithm has been used that is based on filtering of the quantization error. By using this
algorithm the learning phase can be substantially shortened, so that the network is able to
quickly adapt to new data.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Adam TOMASZUK*
SIMULATION OF HIGH-EFFICIENCY INTERLEAVED
STEP-UP DC-DC BOOST-FLYBACK CONVERTER
TO USE IN PHOTOVOLTAIC SYSTEM
In low-voltage photovoltaic (PV) systems high-efficiency high voltage gain step-up DC-DC
converters are required as the interface between the PV panel and the load. Therefore overall
performance of the PV system is essentially affected by the efficiency of step-up DC-DC
converter itself. This paper presents the results of PSpice simulation of high-efficiency
interleaved step-up DC-DC converter. The converter integrates boost and flyback topologies.
Interleaved approach minimizes the current stress on the switches as well as allows reducing a
sizes of the inductors but also decreases input current ripples. The other advantage of
interleaving structure is flexibility of number of working phases extension. The number of
working phases can be dynamically determined depending on the power requirements of the
load. High efficiency assured by boost-flyback topology is achieved by the means of recycling
the energy from input leakage inductance and relatively low voltage stress across the transistor
switches which enables low drain-to-source resistance transistors application. The simulation
carried out will present transient and performance characteristics of interleaved step-up DC-DC
boost-flyback converter.
KEYWORDS: Step-up DC-DC Converters, High Efficiency, Photovoltaic Systems
1. INTRODUCTION
The PV panel comprising PV modules connected in parallel delivers the power
at the voltage range of 20 VDC to 50 VDC (Vi) depending on PV module type. Stepup DC-DC converter is the next stage in a PV system. Simplified renewable energy
system is shown in Fig. 1.
Fig. 1. Simplified low-voltage PV energy system diagram
__________________________________________
* Bialystok University of Technology.
98
Adam Tomaszuk
The role of the converter is to step up its input voltage to the level accepted by DCAC inverters which is around 200 VDC or 400 VDC depending on the grid
standards[1]. The other goal is to achieve highest energy conversion efficiency
possible [2]. In this paper the performance of three-phase boost-flyback topology
of interleaved step-up DC-DC converter with coupled inductors will be
characterized basing on PSpice computer simulations.
2. INTERLEAVED STEP-UP BOOST-FLYBACK DC-DC
CONVERTER WITH COUPLED INDUCTORS TOPOLOGY
Step-up DC-DC converter input current is shared between a number of phases
allowing reduction of inductor and semiconductor peak currents which benefits
with overall power loss reduction [3]. The other advantages of an interleaved
topology are possibility to use smaller and cheaper passive components, applying
lower power rating semiconductor components as well as efficient input and
output current ripples rejection [4].
2.1. Electrical Scheme
Single phase of boost-flyback step-up DC-DC converter is shown in Fig. 2. It is
derived from boost (S1, LT1, D11 and C1) topology associated with flyback
converter (S1, LT1, LT2, D1 and C0-C1) [5]. The converter proposed here consists of
3 phases connected in parallel.
Fig. 2. Single phase of interleaved boost-flyback step-up DC-DC converter
In proposed topology the leakage energy from primary inductance LT1 is
directly recycled through input diode D11 at transistor turn off transient preventing
voltage overshoots at transistor S1 drain. Vi represents low voltage PV array and R0
is a load resistance of PV system DC-bus.
2.2. Principle of operation
There are three modes of operation in one switching cycle (T) of interleaved
step-up DC-DC converter with assumption of continuous conduction mode. The
model presented here does not include any parasitic parameters such as leakage
inductances (i.e. ideal coupling between LT1 and LT2), winding resistances and
Simulation of high-efficiency interleaved step-up DC-DC converter with …
99
capacitor’s ESRs. Moreover neglected are transistor’s on resistances and diode
voltage drops. Fig. 3 explains the work of 3-phase converter where gate driving
signals of transistors S1, S2 and S3 are switched at duty cycle of D = 66.6% and
phase shifted by 2/3 electrical angle (Fig. 3a, 3b and 3c).
Fig. 3. Key waveforms of interleaved step-up DC-DC converter during operation modes 1 to 3
At the example of single phase in mode-1 when transistor S1 is switched on and
output rectifier D1 is reverse-biased the energy is transferred from the input to
primary inductance LT1.
The capacitor C1 is charged through forward forward-biased primary rectifier
diode D11 in mode-2.
In mode-3 when D11 current reaches zero and transistor S1 is turned off and the
output diode D1 is on capacitor C0 is charged through output rectifier diode D1.
Aggregate output current (i0) (Fig. 3h) is composed of each individual phase
currents and is further filtered by C0.
In steady state the voltage gain of boost converter itself is:
V0
1

(1)
Vi |boost 1  D
whereas the voltage gain of overall boost-flyback converter is:
V0
D( 1  N )
1
Vi |boost  flyback
1 D
(2)
100
Adam Tomaszuk
3. PSPICE SIMULATION MODEL OF INTERLEAVED BOOSTFLYBACK STEP-UP DC-DC CONVERTER WITH COUPLED
INDUCTORS
Fig. 4 presents PSpice model of n = 3-phase boost-flyback interleaved step-up DCDC converter. Fast power MOSFET transistors (IRFP4568, RDSon_typ = 4.8 mΩ, VDS_max
= 150 V) are driven by phase shifted square waves generated by Vgk voltage sources (k
= 1,2,...,n). Gate driving circuit comprises Cgk (10 nF), Dgk and Rgk (10 Ω) chosen to
optimize turn-off time of the transistors. The switching frequency fS is 20 kHz.
Fig. 4. Pspice model of 3-phase boost-flyback interleaved step-up DC-DC converter
The Silicon Carbide (SiC) diodes can be paralleled as they do not suffer with
thermal runaway effect. The output diodes D11 to D32 (two diodes CSD12060 for
the purpose of simulation, instead of dual device in one package) and input diodes
D1 to D3 (CSD06060) are 600 V rated.
Simulation of high-efficiency interleaved step-up DC-DC converter with …
101
In the simulation the parasitic components such as RC0, RC1 and L0, L1
representing real capacitor parasitic resistances and inductances respectively are
considered.
LT1 together with LT2 are primary and secondary windings of coupled inductor
together with RL1k and RL2k which are primary and secondary winding resistances
create a model of the coupled inductors with turns ratio of N = 3 and inductance
coupling coefficient K = 0.992.
4. TRANSIENT CHARACTERISTICS
Fig. 5 presents simulation waveforms of 3-phase interleaved boost-flyback stepup DC-DC converter. For given conditions the voltage gain is 10.3 producing
output voltage V0 of 413 V. Fig 5a) shows the voltage at anode of D1 and output
voltage V0. Fig. 5b) depicts transistors S1 drain to source voltage effectively
clamped to 133 V according to (1). Input and output currents together with the
currents of single phase transistor and input and output rectifiers are depicted on
(Fig. 5c). The influence of parasitic parameters can be seen on transient plots as
output rectifier diode voltage ringing at transistor turn-off and slanted slopes of
transistor voltage caused by input leakage inductance.
Fig. 5. Transient waveforms of key boost-flyback DC-DC converter currents and node voltages
at fS = 20 kHz, Vin = 40 V, D = 0.7 and load resistance R0 = 300 Ω
102
Adam Tomaszuk
5. PARAMETRIC CHARACTERISTICS
Parametric characteristics present the dependency of interleaved step-up DC-DC
converter parameters on duty cycle D and output resistance R0 variations. Simulation
was carried out at following conditions: input voltage Vi = 40 V and switching
frequency fS = 20 kHz. Load resistance was changed within the range R0 = 65 Ω to
1000 Ω, and duty cycle D within 60% up to 80%.
Fig. 6. Parametric characteristics of efficiency η vs. duty cycle D
Fig. 6 shows that efficiency over 92% can be achieved within wide output
power the range for lower duty cycle values (except of 80%). The efficiency gets
higher as duty cycle decrease. It is caused by lower power losses at input stage (i.e.
boost converter) when high current flows through primary windings and through
transistor during DT period (Fig. 3). On the other hand in order to produce high
enough voltage level at the output it is necessary to drive the converter with duty
cycle higher than 65%, which according to (2) gives the voltage above 340 V at the
output.
Fig. 7. Parametric characteristics of a) efficiency η, b) output voltage V0, and b) voltage gain B vs.
duty cycle D at three different load resistances R0
Simulation of high-efficiency interleaved step-up DC-DC converter with …
103
For heavier loads (i.e. R0 = 300 Ω and R0 = 125 Ω) it is possible to achieve the
efficiency above 92%, Fig. 7a) within examined duty cycle range. On Fig 7b) and
7c) it can be seen that the output power P0 (and output voltage V0) regulation is not
linear except of light load (i.e. R0 = 700 Ω) where it can be treated as linear one.
Remarkable is that the voltage gain curves are different at three different load
resistances. That is caused by parasitic component influences not considered in
ideal formula (2).
Fig. 8. Power loss budget of the converter at D = 70% and different load resistances a) R0 = 125 Ω,
b) R0 = 300 Ω, c) R0 = 700 Ω
Fig. 8 collates power losses of step-up boost-flyback DC-DC converter
components at three different load resistances. R_pri and R_sec represent a sum of
three inductor primary and secondary winding resistance power losses respectively,
S is total power loss of transistors, D_in and D_out are the power losses in all input
rectifiers and output rectifiers respectively. Other power losses represent wire
resistance losses and transistor gate driving losses (Ri at Fig. 4). Transistor power
losses are major component of total converter power loss budget.
6. CONCLUSION
PSpice computer based simulation tests confirmed high efficiency of
interleaved step-up boost-flyback DC-DC converter with coupled inductors.
Simulation results show that despite hard switching the converter demonstrate high
efficiency within wide output power range. Therefore proposed topology can be
effectively applied in low-voltage PV systems. However simulation results look
consistent real laboratory measurement results may vary with respect to
inaccuracies of whole converter model and individual component models.
This work was supported by Bialystok University of Technology,
Faculty of Electrical Engineering as a research project No W/WE/15/2013
104
Adam Tomaszuk
REFERENCES
[1]
[2]
F. Blaabjerg, F. Iov, T. Kerekes, R. Teodorescu, “Trends in power electronics and control of
renewable energy systems”,14th International Power Electronics and Motion Control
Conference (EPE/PEMC), IEEE K-1 to K-19 (2010).
EPIA, "Global market outlook for photovoltaics until 2013", European Photovoltaic Industry
Association, (2010).
[3] Shaffer B., “Interleaving Contributes Unique Benefits to Forward and Flyback
Converters” Unitrode (TI) Power Supply Design Seminar (2004/2005).
[4] Chang Ch., Knights M., “Interleaving Technique in Distributed Power Conversion
Systems”, Transactons On Circuits and Systems IEEE, May (1995).
[5] Van de Sype, David M., De Gusseme, K., Renders, B., Van den Bossche, Alex P.,
Melkebeek, J.A. “A single switch boost converter with a high conversion ratio”,
Applied Power Electronics Conference and Exposition, IEEE, Page(s): 1581 - 1587
Vol. 3 (2005).
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Justyna MICHALAK*
RYZYKO W PROJEKTACH INWESTYCYJNYCH
ENERGETYKI ODNAWIALNEJ
W artykule przedstawiono zagadnienia dotyczące ryzyka podejmowania projektów
inwestycyjnych w energetyce odnawialnej. Analiza ryzyka przedsięwzięć inwestycyjnych
stanowi niezwykle ważny element przy ocenie ich efektywności i umożliwia
podejmowanie właściwych, efektywnych decyzji inwestycyjnych. Inwestowanie w
odnawialne źródła energii charakteryzuje się pewnymi specyficznymi cechami, które
odróżniają je od projektów inwestycyjnych dotyczących innych źródeł energii.
Scharakteryzowano różne grupy ryzyka, takie jak ryzyko polityczne i prawne, ryzyko
ekonomiczne, ryzyko społeczne oraz ryzyko techniczne. Przedstawiono różne metody
analizy ryzyka w zależności od przyjętego kryterium.
SŁOWA KLUCZOWE: ryzyko w projektach inwestycyjnych, odnawialne źródła energii,
ryzyko polityczne i prawne, ryzyko społeczne, ryzyko ekonomiczne, ryzyko techniczne
1. RYZYKO INWESTOWANIA
W ODNAWIALNE ŹRÓDŁA ENERGII
Podjęcie decyzji o inwestowaniu w odnawialne źródła energii wymaga
przeprowadzenia szczegółowej analizy. Nieodłącznym elementem takiej analizy jest
ocena ryzyka. Właściwe zarządzanie ryzykiem, prowadzące do osiągnięcia założonych
celów, powinno rozpocząć się już na etapie planowania danej inwestycji [1].
Inwestowanie w odnawialne źródła energii charakteryzuje się pewnymi
specyficznymi cechami, które odróżniają je od projektów inwestycyjnych
dotyczących innych źródeł energii.
Pod względem kosztów odnawialne źródła energii charakteryzują się wyższymi
niż w innych sektorach kosztami kapitałowymi i kosztami finansowymi. Kolejną
specyficzną cechą odnawialnych źródeł energii jest horyzont czasowy inwestycji.
Okres eksploatacji instalacji energetycznych i związany z tym czas zwrotu z
inwestycji są bardzo długie (ok. 40 lat).
Duże znaczenie w przypadku odnawialnych źródeł energii w przeciwieństwie
do innych inwestycji ma ograniczenie w dowolności wyboru lokalizacji (np.
elektrownie wiatrowe buduje się w miejscach, gdzie występuje odpowiednia
prędkość wiatru). Wiąże się to z koniecznością doprowadzenia przyłącza do sieci
__________________________________________
* Politechnika Poznańska.
106
Justyna Michalak
przesyłowej w miejscu wskazanym przez operatora systemu. Kolejnym
ograniczeniem jest to, że wytwórca musi się dostosować do wymogów operatora i
warunków określonych przepisami prawa przez co nie ma swobody dysponowania
swoją mocą wytwórczą.
Niewątpliwie ujemną cechą produkcji energii z odnawialnych źródeł energii
jest jej niestabilność. W związku z tym istnieje potrzeba rezerwowych mocy.
Cechą charakterystyczną sektora energii odnawialnej, przy obecnej cenie
surowca i energii, jest uzależnienie od państwa (dofinansowanie). Dodatkowo
produkcja energii z odnawialnych źródeł energii wciąż wymaga poprawy regulacji
prawnych [3].
2. GRUPY RYZYKA
Istnieją cztery główne grupy ryzyka związanego z inwestowaniem w
odnawialne źródła energii w Polsce:
 ryzyko polityczne i prawne,
 ryzyko techniczne,
 ryzyko ekonomiczne,
 ryzyko społeczne.
Ryzyko polityczne i prawne. Istnieje ścisła zależność między ryzykiem
politycznym i prawnym. Ta grupa ryzyka stanowi największą barierę dla
inwestycji związanych z odnawialnymi źródłami energii, jest trudna do
przewidzenia, stąd niesie ze sobą wiele niepewności. Ryzyko polityczne wynika z
polityki gospodarczej kraju oraz ze zdarzeń i decyzji politycznych. Ryzyko to
może dotyczyć całego kraju, występując globalnie lub lokalnie, obejmując swym
zasięgiem mniejszy obszar (np. może wynikać z podjętych przez władze lokalne
niekorzystnych dla inwestora decyzji). Ryzyko prawne związane jest z głównym
problemem sektora energetyki odnawialnej, jakim jest tworzenie efektywnych i
skutecznych regulacji prawnych. Jest to istotne szczególnie wtedy kiedy nowe
regulacje prawne powstają w Unii Europejskiej w formie dyrektyw, bądź są
wynikiem legislacji światowej. Ta grupa ryzyka przejawia się w możliwości
wystąpienia zmian w regulacjach dotyczących systemów opłat (dopłat) w ramach
odnawialnych źródeł energii. Zmiany te wpływają zarówno na koszty realizacji
przedsięwzięcia jak i koszty eksploatacji. Stąd skutkiem wystąpienia ryzyka
prawnego jest wzrost kosztów, a tym samym zmniejszenie opłacalności inwestycji.
Ryzyko techniczne związane jest m. in. z techniczną złożonością inwestycji, z
nowymi technologiami, ze złożonością przyjętych rozwiązań oraz zarządzaniem
projektami. Odnawialne źródła energii charakteryzują się specyficznymi
technologiami w zależności od tego czy wykorzystują energię wiatru czy energię
wody czy też energię pozyskiwaną z biomasy. Wybór technologii związany jest z
pojawieniem się specyficznych rodzajów ryzyka projektowego. Ponieważ
Ryzyko w projektach inwestycyjnych energetyki odnawialnej
107
odnawialne źródła energii nie są inwestycjami prowadzonymi na szeroką skalę w
obrębie kraju, stąd pozyskanie technologii pociąga za sobą wysokie koszty.
Kolejną sprawą są kwestie techniczne związane z podłączeniem do sieci
przesyłowych. Poza tym odnawialne źródła energii charakteryzują się niestabilnym
poziomem mocy, co wpływa negatywnie na jakość odbieranej energii, powodując
np. wahania napięcia.
Ryzyko ekonomiczne dotyczy finansowania i opłacalności projektów. Ponieważ
odnawialne źródła energii charakteryzują się bardzo długim okresem zwrotu z
inwestycji oraz dużymi nakładami finansowymi często przedsiębiorcy nie
dysponując w pełni kapitałem własnym na realizację tych inwestycji szukają
wsparcia kapitałowego w bankach i niestety napotykają na trudności. Jedynie takie
instytucje jak np.: Bank Ochrony Środowiska, Bank Gospodarstwa Krajowego,
Narodowy Fundusz Ochrony Środowiska, Ministerstwo Gospodarki czy Agencja
Rynku Rolnego oferują pomoc finansową przedsiębiorcom realizującym
inwestycje dotyczące odnawialnych źródeł energii [3].
Ryzyko ekonomiczne można podzielić na:
 ryzyko towarów,
 ryzyko rynku,
 ryzyko kursowe.
Ryzyko towarów związane jest z niekorzystną zmianą cen sprzedaży produktu
finalnego, czyli energii. Ryzyko to odgrywa decydującą rolę na rynkach
monopolistycznych lub takich, które cechuje duży stopień regulacji. Ryzyko rynku
związane jest z wahaniami popytu, natomiast ryzyko kursowe związane jest ze
zmianą relacji kursów walut do waluty bazowej projektu [1].
Ryzyko społeczne. W sektorze energetycznym jednym z najważniejszych
elementów wpływających na rozwój inwestycji są czynniki społeczne takie jak:
akceptacja społeczeństwa, oddziaływanie inwestycji na środowisko itp. Pod tym
względem inwestycje dotyczące odnawialnych źródeł energii są obarczone niewielkim
ryzykiem społecznym (mniejszym niż w przypadku energetyki konwencjonalnej).
3. METODY ANALIZY RYZYKA
Istnieje wiele czynników wpływających na wybór metody analizy ryzyka.
Należą do nich między innymi:
 stosunek decydenta do ryzyka,
 warunki podejmowania decyzji,
 zakres ryzyka,
 dostępność i zakres informacji,
 warunki inwestowania, w tym długość ekonomicznego cyklu życia
przedsięwzięcia inwestycyjnego,
108
Justyna Michalak
 znajomość metod analizy ryzyka i umiejętność ich zastosowania w praktyce
inwestycyjnej,
 wiedza i doświadczenie w szacowaniu poziomu ryzyka oraz
prawdopodobieństwa zdarzeń mających na nie wpływ,
 wiedza decydenta o poziomie pracochłonności i kosztach zastosowanych
metod [2].
Wyróżnia się wiele kryteriów decydujących o rodzaju metod analizy ryzyka.
Należą do nich między innymi:
 kryterium – stosowana technika analizy ryzyka,
 kryterium – sposób ujmowania ryzyka w procesie decyzyjnym,
 kryterium – zakres dostarczanej informacji.
Zgodnie z kryterium – stosowana technika analizy ryzyka – wyróżnia się
następujące metody:
 metoda korygowania efektywności ,
 metoda analizy wrażliwości,
 metody probabilistyczno – statystyczne,
 metody symulacyjne.
W metodach korygowania efektywności uwzględnianie ryzyka odbywa się
poprzez korektę wybranych parametrów i zmiennych rachunku efektywności
inwestycji oraz stosowanie tzw. narzutów procentowych. Do metod tych należą:
graniczny okres zwrotu, równoważnik pewności, stopa dyskontowa z ryzykiem.
Metody analizy wrażliwości polegają na zmienianiu wybranych parametrów i
zmiennych wykorzystywanych w metodach oceny opłacalności, a następnie
analizowaniu wpływu tych zmian na opłacalność przedsięwzięcia inwestycyjnego
oraz wyznaczaniu wartości krytycznych i marginesów bezpieczeństwa
określających poziom opłacalności.
Metody probabilistyczno – statystyczne są to metody w których do analizy
ryzyka wykorzystuje się rachunek prawdopodobieństwa i statystykę (analiza
statystyczna – odchylenie standardowe i współczynnik zmienności).
Metody symulacyjne pozwalają zbadać wpływ wielu zmiennych na
opłacalność przedsięwzięcia oraz przeprowadzić symulację poziomu ryzyka.
Przykładem metody symulacyjnej jest analiza symulacyjna Monte Carlo.
Według kryterium jakim jest sposób ujmowania ryzyka w procesie decyzyjnym
wyróżniamy dwie grupy metod. Są to metody bezpośrednie i metody pośrednie.
Metody bezpośrednie ujmują ryzyko bezpośrednio w kryterium decyzyjnym
związanym z określoną metodą oceny opłacalności przedsięwzięcia
inwestycyjnego (metody te nie są odrębnym kryterium decyzyjnym). Do metod
bezpośrednich należą: graniczny okres zwrotu, równoważnik pewności, stopa
dyskontowa z ryzykiem.
Metody pośrednie umożliwiają pozyskanie dodatkowych informacji o
poziomie ryzyka przedsięwzięcia inwestycyjnego, a tym samym zmniejszają stan
Ryzyko w projektach inwestycyjnych energetyki odnawialnej
109
niepewności (metody te są odrębnym elementem procesu decyzyjnego). Do metod
pośrednich należą: analiza wrażliwości, analiza scenariuszy, analiza statystyczna
(metody probabilistyczne) – odchylenie standardowe i współczynnik zmienności
oraz analiza symulacyjna jako sposób szacowania wartości oczekiwanej i
odchylenia standardowego.
Zgodnie z kryterium jakim jest zakres dostarczanej informacji wyróżnia się miary
zmienności, miary wrażliwości oraz miary zagrożenia. Miary zmienności obejmują:
odchylenie standardowe jako bezwzględną miarę zmienności, współczynnik
zmienności jako względną miarę zmienności, analizę symulacyjną jako sposób
szacowania wartości oczekiwanej i odchylenia standardowego, analizę scenariuszy
jako pośredni sposób szacowania wartości oczekiwanej i odchylenia standardowego.
Wśród miar wrażliwości wyróżnić można: stopę dyskontową z ryzykiem, która
odzwierciedla ryzyko kosztu kapitału; ekwiwalent pewności, który odzwierciedla
ryzyko przepływu pieniężnego netto; okres zwrotu określający ryzyko płynności.
Przykładem miary zagrożenia jest metoda VAR (value at risk) [2].
4. CZYNNIKI RYZYKA DOTYCZĄCE WYBRANYCH
TECHNOLOGII WYKORZYSTUJĄCYCH ODNAWIALNE
ŹRÓDŁA ENERGII
Ryzyko występujące w przypadku inwestycji wykorzystujących odnawialne
źródła energii jest ściśle związane z wykorzystywaną przez dane źródło energii
technologią.
W ramach odnawialnych źródeł energii wybrano cztery technologie:
 technologie solarne,
 technologie biomasy,
 technologie wiatrowe,
 technologie geotermalne.
Dla wyżej wymienionych technologii zobrazowano główne czynniki ryzyka w
trzech podstawowych obszarach:
 dostawcy,
 eksploatacja,
 projekt/wdrożenie.
Głównymi czynnikami ryzyka w przypadku technologii solarnych są:
 w obszarze dostawcy: mała liczba dostawców, ograniczone moce produkcyjne
oraz jakość wyrobów,
 w obszarze eksploatacja: trudna eksploatacja, duża awaryjność części
mechanicznych, podatność na korozję i zabrudzenia, duże różnice w produkcji
energii między dniem i nocą oraz w poszczególnych porach roku, niska
efektywność w przypadku braku nadzoru i utrzymania, wysokie koszty
utrzymania, duża zawodność niektórych elementów systemu,
110
Justyna Michalak
 w obszarze projekt/wdrożenie: występowanie pojedynczych punktów awarii,
niestabilna rządowa polityka wsparcia, przewymiarowanie oczekiwań w
stosunku do uzyskiwanych mocy.
Głównymi czynnikami ryzyka w przypadku technologii biomasy są:
 w obszarze dostawcy: ograniczona dostępność i zmienność cen urządzeń,
 w obszarze eksploatacja: ograniczona dostępność surowca, duża zmienność cen
surowca, ograniczona dostępność katalizatorów,
 w obszarze projekt/wdrożenie: zezwolenia i certyfikacje, opór społeczny z
uwagi na odór.
Głównymi czynnikami ryzyka w przypadku technologii wiatrowych są:
 w obszarze dostawcy (w przypadku elektrowni morskich): ograniczone moce
instalacyjne, potencjalne opóźnienia w produkcji turbin wiatrowych (powodem
jest popyt ze strony elektrowni lądowych), duży udział i wpływ kosztów
materiału na produkt końcowy (turbiny),
 w obszarze eksploatacja: złożony transport i logistyka, w przypadku elektrowni
morskich dodatkowo wysoki koszt i złożona eksploatacja, awarie konstrukcji
podtrzymującej turbinę, duży wpływ pogody na pracę i awaryjność, korozja
konstrukcji,
 w obszarze projekt/wdrożenie: złożony transport i logistyka, uzyskanie
pozwoleń na budowę, w przypadku elektrowni lądowych dodatkowo opór i
protesty społeczne różnych grup nacisku, w przypadku elektrowni morskich
zmiany w polityce i regulacjach, opóźnienia w realizacji inwestycji z powodu
warunków pogodowych.
Głównymi czynnikami ryzyka w przypadku technologii geotermalnych są:
 w obszarze dostawcy: ograniczona liczba dostawców technologii wierceń,
 w obszarze eksploatacja: awarie instalacji naziemnych, wyczerpywanie się
zasobów, niebezpieczeństwo związane z wykorzystywaniem niebezpiecznych
substancji chemicznych,
 w obszarze projekt/wdrożenie: ryzyko związane z wierceniami, braki kadrowe [1].
5. PODSUMOWANIE
Ryzyko jest nieodłącznym elementem inwestowania w odnawialne źródła
energii. Właściwe zarządzanie ryzykiem powinno rozpocząć się już na etapie
planowania inwestycji, gdyż wówczas daje możliwość osiągnięcia założonych
celów. Umożliwia to określenie poszczególnych czynników ryzyka oraz
określenie siły ich wpływów na dane przedsięwzięcie. Spośród opisanych w
artykule czterech grup ryzyka: ryzyko polityczne i prawne, ryzyko techniczne,
ryzyko ekonomiczne, ryzyko społeczne pierwsza wymieniona grupa, czyli ryzyko
polityczne i prawne stanowi największą barierę dla inwestycji związanych z
energetyką odnawialną.
Ryzyko w projektach inwestycyjnych energetyki odnawialnej
111
LITERATURA
[1]
[2]
[3]
Kasiewicz S.: Ryzyko inwestowania w polskim sektorze energetyki odnawialnej.
CeDeWu, Warszawa 2012.
Rogowski W.: Rachunek efektywności przedsięwzięć inwestycyjnych. Oficyna
Ekonomiczna, Kraków 2004.
www.energetyka.wnp.pl/ryzyko-inwestowania -w polskim-sektorze-odnawialnychzrodel-energii. Kowalczyk A.: Ryzyko inwestowania w polskim sektorze
odnawialnych źródeł energii.
RISK IN RENEWABLE POWER ENGINEERING INVESTMENT PROJECTS
In the paper there are presented problems concerning risk in renewable energy
investment projects. Analysis of risk of investments is extreme important element of
evaluation of their effectiveness and allow to undertake proper, effective investment
decision. Investing in renewable energy sources is charakterized by specific features, that
differentiate it from investing in other energy sources. Various groups of risk were
characterized, such as political and law risk, economy risk, social risk and technology risk.
There were presented various methods of risk analysis depending on accepted criterion.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Alicja GŁÓW*
Dariusz KURZ*
SPOSOBY OCHRONY INSTALACJI FOTOWOLTAICZNYCH
PRZED NASTĘPSTWAMI ZACIENIEŃ
W pracy przedstawiono możliwe przyczyny powstawania zacienień ogniw PV oraz
wpływ cieniowania paneli na uzysk energii i prawdopodobieństwo ich uszkodzeń.
Wskazano sposoby ochrony paneli i możliwości przeciwdziałania bądź zmniejszania
efektów tego zjawiska. Dokonano szczegółowej analizy stosowności użycia diod by-pass
w panelach fotowoltaicznych. Przedstawiono wpływ zacienienia części łańcucha paneli
PV na kształt jego charakterystyki prądowo-napięciowej.
SŁOWA KLUCZOWE: zacienienie, ogniwo PV, dioda by-pass, orientacja panelu,
mikroinwerter
1. WPROWADZENIE
Zacienienie choćby części panelu fotowoltaicznego powoduje zmniejszenie
ilości promieniowania słonecznego docierającego do ogniw PV. Skutkiem tego
jest spadek natężenia prądu panelu, a co za tym idzie utrata mocy i zmniejszenie
sprawności generacji energii całej instalacji. Najczęstszymi przyczynami
zacienień są [1,5]:
 zabrudzenia paneli,
 zalegający śnieg lub liście,
 elementy konstrukcyjne budynku,
 elementy krajobrazu,
 błędy podczas projektowania instalacji PV.
Zabrudzenia paneli powstają na skutek działania czynników zewnętrznych,
takich jak kurz, pył. Częściowo są one zmywane z powierzchni panelu przez
padający deszcz, jednakże spora ich ilość gromadzi się w jego dolnej części.
Problemem należącym do tej grupy są również odchody ptaków, które oprócz
zakrywania części panelu fotowoltaicznego, powodują stałe odbarwienia szkła i
uszkodzenia powierzchni panelu. Czynnikiem powodującym zacienienia jest
także zalegający śnieg, który zakrywa powierzchnię paneli i ogranicza bądź
całkowicie uniemożliwia generację energii. Dodatkowo ciężar śniegu wywiera
__________________________________________
* Politechnika Poznańska.
114
Alicja Głów, Dariusz Kurz
nacisk na panele i konstrukcję wsporczą, co może prowadzić do uszkodzeń
mechanicznych instalacji. Kolejną grupą, wpływającą na obecność zacienień, są
błędy podczas projektowania instalacji, polegające na nieuwzględnieniu
istniejących stałych elementów konstrukcyjnych budynku, takich jak: kominy,
jaskółki, wykusze czy elementy najbliższego otoczenia (inne budynki, słupy,
drzewa itp.) [5].
Eliminacja wszystkich szkodliwych czynników, powodujących ograniczenie
powierzchni światłoprzepuszczalnej paneli, nie jest możliwa, dlatego można
zastosować pewne rozwiązania, mające na celu całkowite bądź częściowe
niwelowanie skutków zacienień. Można w tej grupie wyróżnić m.in.:
 cykliczne czyszczenie paneli,
 umieszczenie w konstrukcji panelu fotowoltaicznego diod by-pass,
 odpowiedni projekt instalacji uwzględniający stałe elementy otoczenia,
 prawidłowe ustawienie paneli (pionowe/poziome),
 właściwa konfiguracja połączeń paneli w tzw. stringi,
 stosowanie inwerterów z wieloma trackerami MPP bądź mikroinwerterów.
Zastosowanie się do przedstawionych wytycznych wyeliminuje wiele sytuacji,
mogących powodować zacienienia ogniw i straty w procesie generacji energii.
Wpłynie to na podwyższenie sprawności pracy instalacji PV, co wiąże się z
ograniczeniem strat ekonomicznych.
2. DIODY BY-PASS
Obecnie jedną z możliwości przeciwdziałania efektom zacienienia ogniwa jest
zastosowanie diod by-pass w konstrukcji panelu, przy połączeniach ogniw
fotowoltaicznych już na etapie produkcji paneli. Diodę tę, zwaną inaczej
bocznikującą, umieszcza się równolegle do łańcucha ogniw tak, aby kierunek jej
polaryzacji był do nich przeciwny. Dioda zaczyna działać w panelu wówczas,
gdy jedna z jego partii zostanie przysłonięta. Głównym zadaniem diody by-pass
jest umożliwienie przepływu prądu, pochodzącego z pozostałych niezacienionych
ogniw fotowoltaicznych panelu [2, 5].
Zasada działania diody by-pass została przedstawiona na rysunku 1,
ilustrującym przepływ prądu przez ogniwa fotowoltaiczne (oznaczonym linią
ciągłą) w przypadku pracy normalnej (rys. 1 a) oraz zacienienia jednego z ogniw
(rys. 1 b).
W układzie z rysunku 1a wszystkie diody spolaryzowane są w kierunku
zaporowym, a prąd przepływa przez ogniwa spolaryzowane w kierunku
przewodzenia. W drugim przypadku (rys. 1b) zasłonięte zostało czwarte ogniwo,
które nie jest w stanie wygenerować takiej samej ilości prądu, co ogniwa
niezacienione. Ponieważ ogniwa połączone są ze sobą szeregowo, to zacienione
ogniwo dla całego układu staje się opornikiem, a przepływający przez nie z
Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień
115
pozostałych ogniw prąd jest tracony w postaci wydzielanego ciepła. Obecność
prądu wstecznego w tym ogniwie powoduje zmianę jego polaryzacji, a co za tym
idzie pojawienie się ujemnego napięcia, które zmienia polaryzację diody by-pass.
Kiedy dioda zaczyna przewodzić, prąd pochodzący z niezacienionych ogniw,
przepływa przez nią, wyłączając w ten sposób z układu zacieniony fragment
panelu i eliminując straty mocy w całej instalacji fotowoltaicznej.
Rys. 1. Przepływ prądu przez ogniwa fotowoltaiczne w panelu podczas [5]:
a) pracy normalnej, b) zacienienia czwartego ogniwa (łańcucha ogniw)
Oprócz tej najważniejszej funkcji dioda chroni także zacienione ogniwo przed
uszkodzeniami powstałymi wskutek przepływu prądu wstecznego, powodującego
jego bardzo mocne nagrzewanie się i powstawanie gorących punktów panelu,
tzw. hot spot’ów [5, 7]. W efekcie, po ustąpieniu czasowego zacienienia,
uszkodzone ogniwo nadal powodowałoby straty mocy w instalacji PV. Warto
zaznaczyć, że w najpopularniejszych panelach dostępnych obecnie na rynku,
składających się z trzech łańcuchów po 20-24 ogniw, stosuje się trzy diody bypass (rys. 2) [1, 3, 4, 5].
Rys. 2. Schemat ideowy panelu fotowoltaicznego z trzema łańcuchami ogniw PV
i diodami bocznikującymi [5]
116
Alicja Głów, Dariusz Kurz
Podzielenie panelu na trzy łańcuchy ogniw, w chwili wystąpienia zacienień,
powoduje większe prawdopodobieństwo maksymalizacji uzysku energii, niż w
przypadku panelu z jedną diodą lub jej brakiem. Wtedy w przypadku
jakiegokolwiek zacienienia cały panel zostałby wyłączony z łańcucha paneli i
wpływał na cały system. Dla paneli z trzema diodami bocznikującymi w
przypadku wystąpienia zacienienia np. na jednym ogniwie, wyłączeniu ulegnie
tylko jeden łańcuch ogniw a nie cały panel, dzięki czemu spadek mocy będzie
wynosiła tylko 33 %.
Na rysunku 3 przedstawiono wpływ obecności diody by-pass na
charakterystykę prądowo-napięciową łańcucha paneli fotowoltaicznych
złożonego z dziewięciu paneli M55 firmy Siemens, przy zacienieniu jednego z
nich. Jest to panel monokrystaliczny o mocy znamionowej 55 W, składający się z
36 ogniw fotowoltaicznych. W celu wykonania tej charakterystyki przyjęto
określone warunki: w panelach występują idealne diody by-pass (zerowa strata
napięcia w paśmie przepustowym), temperatura paneli wynosi 40ºC (odpowiada
to średniej temperatur paneli uzyskanych zimą i latem) [1].
Rys. 3. Charakterystyki prądowo-napięciowe dla paneli M55 [1]: 1 - jednego panelu przy
E = 900 W/m2 (częściowe zacienienie), 2 - ośmiu paneli przy E = 1000 W/m2, 3 - dziewięciu paneli
przy E = 1000 W/m2, 4 – ośmiu paneli przy E = 1000 W/m2 i jednego przy E = 900 W/m2
oraz zastosowaniu diody by-pass
Analizując przedstawioną na rysunku 3 charakterystykę prądowo –
napięciową panelu PV (oznaczoną numerem 1) można zauważyć obniżenie
wartości prądu, spowodowane częściowym zacienieniem (mniejszą wartością
gęstości
mocy
promieniowania
wynoszącą
E = 900 W/m2
zamiast
E = 1000 W/m2 jak w normalnych warunkach pracy pozostałych paneli). Krzywe
Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień
117
2 i 3, to charakterystyki dla łańcucha odpowiednio 8 i 9 paneli otrzymane przy
E = 1000 W/m2. Dzięki zastosowaniu diody by-pass w łańcuchu 9 paneli (8 podczas
pracy normalnej i 1 zacienionego) jego charakterystyka prądowo – napięciowa
przybrała niestandardowy kształt (krzywa numer 4). W efekcie w punkcie mocy
maksymalnej MPP (w porównaniu do krzywej 3 dla 9 paneli bez zacienienia)
obniżeniu uległa wartość prądu, natomiast napięcie osiągnęło większą wartość.
Punkty oznaczone jako VA1 oraz VA2 są granicami dla stałej wartości prądu,
wynoszącej 3,4 A, na początkowej części prostoliniowej charakterystyki. Punkt
mocy maksymalnej MPP dla łańcucha dziewięciu paneli (krzywa 3) przypada dla
napięcia VMPP, wynoszącego 148 V, natomiast dla krzywej 4 (9 paneli z jednym
zacienionym) napięcie to wynosi ok. 150 V.
W przypadku większego zacienienia prąd panelu zmalałby proporcjonalnie do
gęstości mocy promieniowania słonecznego a punkt MPP obniżyłby się jeszcze
bardziej (niż jest to przedstawione na rys.3). Wartość prądu w MPP także wynosiłaby
tyle samo, co dla pojedynczego zacienionego panelu a napięcie wzrosłoby w
porównaniu do wartości przy pracy normalnej. Gdyby nie obecność diody by-pass,
prąd płynący przez wszystkie panele obniżyłby się do wartości prądu wydatkowanego
przez zacieniony panel, przez co strata mocy byłaby dużo większa niż w łańcuchu z
diodą, gdzie przez każdy panel płynie możliwie maksymalny prąd. Warto też
zaznaczyć, że na kształt charakterystyki ma wpływ liczba paneli znajdujących się w
łańcuchu. W momencie większej liczby połączonych paneli zacienienie jednego z nich
będzie miało mniejsze znaczenie na jej przebieg. Również różnice pomiędzy
wartościami napięcia obwodu otwartego będą odpowiednio mniejsze.
3. ORIENTACJA PANELI
Na powstanie niektórych zacienień użytkownik instalacji fotowoltaicznej
często nie ma żadnego wpływu. Dlatego też, aby diody by-pass spełniały
właściwie swoją funkcję, istotne jest prawidłowe ustawienie paneli, w
odpowiedniej orientacji, poziomej bądź pionowej. Ma to istotne znaczenie w
przypadku zacienienia paneli przez zalegający zimą śnieg bądź stałe elementy
budynku lub krajobrazu, co przedstawiono na rysunku 4.
W przypadku pionowego ustawienia panelu PV, przedstawionego na rysunku
4a, cień spowodowany jakimś elementem stałym bądź zalegającym na dole
panelu śniegiem, spowoduje wyłączenie wszystkich trzech łańcuchów ogniw.
Skutkować to będzie brakiem produkcji energii. Ułożenie tego samego panelu w
pozycji poziomej (rys. 4b) zminimalizuje skutek zacienienia i wyłączy tylko
jeden z trzech łańcuchów ogniw, a produkcja energii będzie wynosiła ok. 66 %
mocy znamionowej [3, 5, 6]. Jeśli cień pojawiałby się na panelu nie z dołu (jak na
rys. 4) a z boku, właściwsze byłoby ułożenie panelu w orientacji pionowej, aby
zminimalizować skutki cienia.
118
Alicja Głów, Dariusz Kurz
Rys. 4. Wpływ ustawienia panelu PV na utratę jego mocy spowodowane zacienieniem [5, 6]
Rozważając więc możliwości przeciwdziałania skutkom zacienień należy
zwrócić uwagę na orientację paneli w zależności od ułożenia ogniw oraz od
kierunku, z którego może pojawić się zacienienie. Zakładając na przykład, że
łańcuchy ogniw w panelu połączone są pionowo a zacienienie będzie
następowało od strony południowej (tak jak na rys. 4), należałoby w takim
przypadku zamontować panele na dachu w orientacji poziomej. Natomiast, jeśli
zacienienie będzie powstawać od strony zachodniej bądź wschodniej, wtedy
panele należy ustawić pionowo. W obydwu przypadkach dąży się do
ograniczenia spadku mocy, który, w opisanych wyżej sytuacjach, będzie miał
miejsce tylko na poszczególnych fragmentach panelu.
4. DOBÓR INWERTERA
W sytuacji, gdy niemożliwe jest umieszczenie paneli tylko w strefie
nienarażonej na zacienienia, można zastosować dwa lub więcej niezależnych
inwerterów, które spowodują oddzielenie poszczególnych stref i uzyskanie z
każdej z osobna maksymalnych mocy. Istnieje możliwości zastąpienia większej
liczby inwerterów jednym, wyposażonym w kilka trackerów MPP, których
zadaniem jest obciążanie podłączonych paneli tak, aby uzyskać z nich możliwie
najwyższą moc. Jeśli inwerter będzie posiadał dwa trackery MPP, możliwe jest
podzielenie paneli na dwie strefy i podłączenie każdej z osobna. W przypadku,
gdy w jednej ze stref będzie miało miejsce zacienienie, to rzutuje ono negatywnie
tylko na tę jedną część instalacji, w trakcie, gdy druga pracuje bez żadnych
zakłóceń i spadków mocy. Można sobie wyobrazić taką sytuację, gdy lukarna
umieszczona jest centralnie na dachu (patrząc z przodu), gdzie od rana do
południa będzie rzucała cień na lewo od siebie, natomiast od południa do
wieczora na prawą część dachu. Zastosowanie inwertera z dwoma trackerami
Sposoby ochrony instalacji fotowoltaicznych przed następstwami zacienień
119
MPP pozwoli na osiągnięcie optymalnych uzysków energii z każdej z dwóch
części instalacji. Takie rozwiązanie jest konieczne, gdy na etapie projektu
wiadomo, że instalacja będzie nierównomiernie oświetlana, gdyż pozwoli to na
wyeliminowanie strat mocy nawet o kilka procent [5].
Kolejnym ze sposobów uzyskania większej wydajności instalacji jest
zastosowanie mikroinwerterów, które montowane są do każdego panelu osobno.
W ten sposób mniejszy uzysk z jednego panelu nie ogranicza wydajności całej
instalacji. Jednakże takie rozwiązanie znacznie podnosi koszt całej instalacji i
stosowane jest tylko w miejscach stałego zacienienia. Oprócz zadania, mającego
na celu eliminację problemu nierównej generacji mocy paneli, mikroinwerter
może służyć do monitoringu całej instalacji. Dzięki jego obecności, możliwe jest
zlokalizowanie panelu wytwarzającego dużo mniejszą moc i generującego straty.
W ten sposób można sprawdzić, czy dany panel uległ uszkodzeniu czy został
chwilowo zacieniony.
5. WNIOSKI
Zacienienia instalacji fotowoltaicznej mają negatywny wpływ na natężenie
prądu i uzysk mocy, które wiążą się ze zmniejszeniem sprawności generowania
energii oraz ze stratami finansowymi dla użytkownika.
Istnieje wiele sposobów przeciwdziałania skutkom zacienień lub w pewnej
części zapobiegania ich powstawaniu. Niektóre z nich to np. stosowanie diod bypass w konstrukcji panelu, odpowiednia orientacja paneli i właściwe szeregowe
połączenia paneli fotowoltaicznych w „stringi”, a także odpowiedni dobór
inwertera dla danej instalacji. Obecność diod by-pass w konstrukcji panelu
fotowoltaicznego pozwala na wyłączenie jego przysłoniętej części w celu
wyeliminowania źródła strat dla całej instalacji. Dioda by-pass spełnia także
funkcje ochronne przed uszkodzeniami, powstałymi przez przepływający prąd
wsteczny, powodujący nagrzewanie panelu i tworzenie się hot-spot’ów.
Obecność diod by-pass ma również wpływ na charakterystykę prądowonapięciową łańcucha paneli w przypadku zacienienia jednego panelu.
Kolejnym sposobem na przeciwdziałanie niektórym skutkom zacieniem jest
odpowiednia analiza miejsca ich występowania. Wyboru właściwej orientacji
panelu należy dokonać w taki sposób, aby obecne diody bocznikujące mogły
wyłączyć tylko jakiś fragment panelu a nie cały panel.
Rozważając kolejną z możliwości eliminacji skutków zacienień jest dobranie
w odpowiedni sposób urządzeń wchodzących w skład instalacji fotowoltaicznej,
którymi są różne rodzaje inwerterów. Jak w poprzednim przypadku i tu na etapie
projektowania należy szczegółowo przeanalizować warunki, dla których jest
planowana inwestycja instalacji fotowoltaicznej. W pierwszej kolejności należy
wziąć pod uwagę umieszczenie instalacji w strefie niezagrożonej występowaniem
zacienień. Jeśli dla danego przypadku nie można uniknąć zacienień, należy
120
Alicja Głów, Dariusz Kurz
podzielić instalację na strefy i zastosować inwertery, które umożliwią niezależny
uzysk maksymalnych mocy z każdej ze stref. Innym rozwiązaniem jest
zastosowanie mikroinwerterów, zamontowanych osobno do każdego z paneli.
Umożliwia to wyeliminowanie panelu osłabiającego całą instalację i pozwala na
większy uzysk energii.
Zastosowanie diod by-pass, prawidłowe rozplanowanie elementów instalacji,
odpowiednia orientacja paneli oraz właściwe łączenie paneli fotowoltaicznych w
„stringi” w przypadku wystąpienia zacienienia może minimalizować straty mocy,
a co za tym idzie podnosić sprawność całej instalacji. Warto zaznaczyć, że oprócz
przeciwdziałaniu skutkom zacienień, należy przede wszystkim dążyć do
eliminacji przyczyn ich powstawania. Z uwagi na ten fakt, przed montażem
instalacji należy szczegółowo przeanalizować rozplanowanie jej elementów, w
celu uniknięcia stałych elementów zacieniających oraz uwzględnić strefy
zagrożenia cieniem. Natomiast podczas użytkowania instalacji należy pamiętać o
przestrzeganiu zaleceń eksploatacyjnych producentów elementów instalacji oraz
o cyklicznym czyszczeniu paneli.
LITERATURA
[1] Haberlin H., Photovoltaics. System Designed and Practice, John Wiley & Sons
Ltd., 2012.
[2] Hegedus S., Luque A., Handbook of photovoltaic science and engineering, Wiley,
2003.
[3] Jastrzębska G., Ogniwa słoneczne, Wydawnictwa Komunikacji i Łączności, 2013.
[4] Sarnik M. T., Podstawy Fotowoltaiki, Oficyna Wydawnicza Politechniki
Warszawskiej, 2008.
[5] Szymański B., Małe instalacje fotowoltaiczne., Geosystem, Kraków, 2013.
[6] http://solaris18.blogspot.com/2012/10/diody-bocznikujace-i-ich-wpyw-na.html, dn.
14.01.2014.
[7] http://solaris18.blogspot.com/2012/03/goracy-punkt-hot-spot-realny-problem.html,
dn. 14.01.2014.
METHODS OF PROTECTION THE PHOTOVOLTAIC SYSTEMS AGAINST
CONSEQUENCE OF SHADING
The paper presents the possible causes of shading PV cells and the effect of shading
panels on energy yield and the likelihood of damage. Pointed out ways to protect the
panels and options for countering or reducing the effects of this phenomenon. Detailed
analysis was carried of the appropriateness of the use of bypass diodes in solar panels.
Presents the effect of shading parts of the chain of PV panels on the shape of the currentvoltage characteristics.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Tomasz JEŻYK*
Andrzej TOMCZEWSKI*
KRÓTKOTERMINOWE PROGNOZOWANIE ZUŻYCIA
ENERGII ELEKTRYCZNEJ Z WYKORZYSTANIEM
SZTUCZNEJ SIECI NEURONOWEJ
W artykule przedstawiono zagadnienie wykorzystania sztucznej sieci neuronowej do
rozwiązania zadania krótkoterminowego prognozowania zużycia energii elektrycznej.
Bazując na archiwalnych danych pomiarowych mocy chwilowych odbiornika (centrum
handlowe) sieć neuronową typu NAR poddano procesowi nauki, a następnie wykorzystano
do wyznaczenia krótkoterminowej prognozy poboru energii elektrycznej. Model
zaproponowanej sieci opracowano w środowisku MATLAB. Do oceny jakości uzyskanych
prognoz zaproponowano użycie błędów: procentowego względnego błędu prognozy oraz
błędu procentowego MAPE (ang. Mean Average Percent Error). Zamieszczono wyniki
przykładowych obliczeń oraz porównanie z danymi pomiarowymi.
SŁOWA KLUCZOWE: sieci neuronowe, prognoza krótkoterminowa, środowisko MATLAB
1. WPROWADZENIE
Wzrost zapotrzebowania na energię elektryczną jest ściśle powiązany z rozwojem
technicznym społeczeństw i przemysłu oraz coraz większą liczbą urządzeń
elektrycznych w gospodarstwach domowych (odbiorników). Bez modernizacji systemu
energetycznego oraz dokładnej analizy dobowych i rocznych obciążeń systemu istnieje
zagrożenie czasowymi przerwami w dostawie energii. Prognozowanie (predykcja)
zużycia energii elektrycznej jest próbą odpowiedzi na pytanie jak będzie kształtował się
pobór energii w przyszłości. Oprócz funkcji informacyjnej proces prognozowania
zmniejsza zagrożenia związane z ewentualnym deficytem energii elektrycznej. Wyniki
analiz pobudzają często do działań decydujących o kształcie systemu energetycznego,
wspomagają plany wyłączeń i zarządzanie produkcją w zakładach przemysłowych, a
także indywidualnych odbiorców.
Zagadnienie prognozowania zużycia energii elektrycznej jest jednym z
problemów z zakresu elektroenergetyki, jaki można rozwiązać z wykorzystaniem
sieci neuronowych. Metoda należy do szerokiej grupy metod sztucznej
inteligencji, a w związku z rozwojem komputerów jest coraz popularniejsza w
rozwiązaniu zagadnień technicznych.
__________________________________________
* Politechnika Poznańska.
122
Tomasz Jeżyk, Andrzej Tomczewski
Prognozowanie polega na ustaleniu zależności opisującej zachowanie zmiennej
prognozowanej opisującej rozwój pewnego zdarzenia w przyszłości. Pełnoprawna
weryfikacja predykcji może nastąpić dopiero po osiągnięciu pewnego punktu w
przyszłości, będącego granicą dokonanej prognozy. Badania zatem nad nowymi
modelami sieci neuronowej ewentualnie nowymi metodami w wymienionym
obszarze powinny być prowadzone w kierunku poprawy jakości prognoz,
wydłużenia długości prognoz oraz poprawy szybkości uzyskiwania wyników.
2. PROGNOZOWANIE Z WYKORZYSTANIEM SZTUCZNEJ
SIECI NEURONOWEJ
2.1. Prognozowanie krótkoterminowe
Mianem prognozy określa się sąd informujący „o zajściu pewnego zjawiska, w
określonym momencie w przyszłości, taki, że jego wartość logiczna (prawda lub
fałsz) nie jest znana w momencie formułowania (prognozy)” [3]. Posiada on
następujące cechy:
 podczas jego formułowania wykorzystuje się dorobek nauki,
 dotyczy ściśle określonej przyszłości,
 jest empirycznie weryfikowalny,
 jest niepewny, ale akceptowalny.
Podstawowym podziałem prognoz jest rozróżnienie na prognozy ilościowe
(dotyczące wartości mierzalnych) i jakościowe (dotyczące zmiennych niemierzalnych).
Podział prognoz na krótko-, średnio- i długookresowe nie jest zdefiniowany poprzez
arbitralnie ustalone kryteria. Najczęściej określenie rodzaju kategorii odbywa się z
użyciem pojęcia zasięgu ekstrapolacji (horyzontu prognozy). Jest to liczba jednostek
czasu (godzin, dni, miesięcy, itd.), z którą prognoza wybiega w przyszłość. Kolejnym
rozróżnieniem rodzaju prognozy jest określenie zależności między długością horyzontu
prognozy a ilością informacji, od której zależny jest proces prognozowania.
Przykładowo, jeśli prognoza dotyczy kilku jednostek czasu, to w przypadku dużej liczby
danych wejściowych można określić ją jako krótkoterminową [5]. Kolejnym kryterium
stosowanym przy podziale prognoz jest występowanie zmian ilościowych i
jakościowych w okresie ekstrapolacji. Jako zmianę ilościową określa się zmianę
wartości zmiennej prognozowanej podlegającą pewnej prawidłowości. Zmianą
jakościową jest natomiast odejście od dotychczasowej prawidłowości, wynikająca ze
zmiany istotnych cech prognozowanego zjawiska. Gdy w horyzoncie prognozy
wyróżnia się jedynie zmiany ilościowe, to prognoza jest krótkookresowa. Prognoza jest
wyznaczana poprzez ekstrapolację dotychczasowych trendów lub związków oraz przy
wykorzystaniu inercji zmiennej [1].
Zadanie krótkoterminowej prognozy poboru energii elektrycznej
charakteryzuje się brakiem zmian jakościowych w horyzoncie prognozy
Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ...
123
(relatywnie krótkim w stosunku do okresu jaki wykorzystano do opracowania
prognozy) oraz wykorzystaniem inercji zmiennej prognozowanej w celu
ekstrapolacji wykrytego trendu.
2.2. Sztuczne sieci neuronowe i obszary ich zastosowań w elektroenergetyce
Podstawową częścią sieci neuronowej jest neuron, element o wielu wejściach i
jednym wyjściu reagujący na bodźce zgodnie z przyjętym wektorem wag
synaptycznych. Strukturę powstałą w wyniku połączenia kilku sztucznych neuronów
nazywa się sztuczną siecią neuronową. Najmniej złożona jest sieć jednowarstwowa, w
której sygnały wejściowe są zazwyczaj doprowadzane do wszystkich neuronów. W
sieciach wielowarstwowych neurony warstwy poprzedniej przekazują sygnały do
warstwy następnej, a jakiekolwiek połączenia między neuronami tej samej warstwy są
niedozwolone. Warstwa wejściowa to warstwa, do której dostarczane są sygnały
wejściowe, zaś z warstwy wyjściowej wyprowadzane są sygnały wyjściowe. Struktury
znajdujące się między nimi to warstwy ukryte.
Sieci jednokierunkowe to sieci jedno- i wielowarstwowe, w których można
wyróżnić tylko jeden kierunek rozpływu informacji. Sieci neuronowe o połączeniach
powrotnych z wyjść neuronów to sieci rekurencyjne. Moc obliczeniowa takiej sieci jest
porównywalna do mocy obliczeniowej maszyny Turinga [2].
Sztuczne sieci neuronowe mogą w czasie rzeczywistym przetwarzać informacje
w sposób równoległy wzorowany na procesach neurologicznych mających miejsce
w ludzkim mózgu. Rozwiązania tradycyjne w zakresie programowania nie są w
stanie odwzorować takiego procesu. Przeszkodą w szerokim stosowaniu
sztucznych sieci neuronowych w zagadnieniach techniki, w tym elektroenergetyki
był, przez wiele lat, brak wystarczającego zaplecza sprzętowego zapewniającego
równoległe przetwarzanie informacji w czasie rzeczywistym. Możliwości
wykorzystania sieci neuronowych ogranicza w wielu przypadkach, również
niewystarczająca liczba danych pomiarowych sieci elektroenergetycznych,
zwłaszcza średniego i niskiego napięcia [4]. Obecnie dzięki możliwości
wykorzystania procesorów wielordzeniowych, a szczególnie jednostek graficznych
(np. technologia CUDA), znacznie rozszerzono potencjał stosowania obliczeń z
zastosowaniem sieci neuronowych pracujących w czasie rzeczywistym.
Zastosowania sieci neuronowych obejmują obecnie: diagnostykę układów
elektronicznych, prognozowanie (np. sprzedaży, giełdowe, cen, postępów w
nauce), optymalizację, sterowanie procesami produkcyjnymi, planowanie
remontów maszyn, monitorowanie i diagnostykę pracy systemów
elektroenergetycznych, detekcję i identyfikację uszkodzeń i wiele innych [4].
Prognozowanie wartości mocy, energii, obciążenia itp. jest kluczowe dla
planowania eksploatacji, rozwoju i modernizacji systemu elektroenergetycznego.
Sztuczne sieci neuronowe dzięki dobrej jakościowo predykcji i swobodzie w
doborze czynników decydujących o prognozie są przydatne szczególnie w
124
Tomasz Jeżyk, Andrzej Tomczewski
przypadku prognoz krótkoterminowych. Posiadają zdolność do wykrycia
powiązania między danymi wejściowymi i wyjściowymi bez znanej zależności
między nimi. Istotne jest także, że sztuczne sieci neuronowe dzięki zdolności do
generalizacji mogą pracować z niedokładnymi, a nawet niekompletnymi danymi.
3. DOBÓR SIECI NEURONOWEJ DO ZADANIA
PROGNOZOWANIA ENERGII ELEKTRYCZNEJ
3.1. Wybór struktury sztucznej sieci neuronowej
Proces poprawnego doboru sieci neuronowej do postawionego zadania
wymaga określenia charakteru prognozowanej zmiennej oraz stosunku między
zasięgiem ekstrapolacji a ilością informacji, na których oparto proces
prognozowania. Informacje te ułatwiają wybór typu sieci neuronowej, liczby
neuronów w warstwie ukrytej, algorytmu nauki sieci neuronowej, momentu jej
zakończenia w zależności od wielkości błędu estymacji oraz sposobu wyliczania
tego błędu.
Środowisko MATLAB jest wyposażone w narzędzie Neural Network Toolbox
ułatwiające tworzenie i korzystanie ze sztucznych sieci neuronowych. Na
podstawie analizy realizowanego zagadnienia dokonano wyboru nieliniowej
autoregresyjnej sieci neuronowej NAR (ang. Nonlinear Autoregressive Neural
Network). Prognoza sprowadza się do określenia składowej systematycznej
szeregu czasowego, jakim jest wielkość poboru energii elektrycznej. Sieć NAR
jest w stanie rozpoznawać jedynie zmiany ilościowe (jedna zmienna
prognozowana w oparciu o jej wartości poprzednie), niewykonalne jest więc, z jej
użyciem, prognozowanie długookresowe.
Struktura wykorzystanej sztucznej sieci neuronowej jest zaprojektowana na
maksymalnie 5 neuronów w warstwie ukrytej (liczba neuronów jest uzależniona
od długości horyzontu prognozy oraz stopnia skomplikowania trendu opisującego
pobór energii elektrycznej). Wybór niewielkiej liczby neuronów wynika z dążenia
do uzyskania możliwie ogólnej aproksymacji trendu szeregu czasowego. Pozwala
to ograniczyć ryzyko wystąpienia błędów związanych z tzw. „nauką na pamięć”, a
prognozowany przebieg poboru energii elektrycznej jest zbliżony do
rzeczywistego w określonym horyzoncie czasowym.
Według przeprowadzonych badań testowych odpowiednią metodą treningu
sieci neuronowej NAR jest algorytm Lavenberga-Marquardta. Jest to algorytm
iteracyjny często wykorzystywany jako metoda optymalizacji nieliniowej. Łączy
w sobie cechy metody najszybszego spadku i Gaussa-Newtona [5]. O wyborze
algorytmu jako metody treningu sieci zadecydował fakt, że w zadaniach typowych
jest to najszybszy algorytm nauki jednokierunkowej sieci neuronowej (od 10 do
100 razy szybszy niż w przypadku zastosowania metody gradientów).
Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ...
125
Stosowanie algorytmu Lavenberga-Marquardta podlega trzem zasadniczym
ograniczeniom:
 jego stosowanie nie jest możliwe w procesie nauki sieci o liczbie neuronów w
warstwie wyjściowej większej niż jeden (sieć NAR wykorzystywana do
rozwiązania realizowanego zadania posiada tylko jeden neuron wyjściowy
odpowiadający za prognozę zużycia energii elektrycznej);
 funkcja błędu musi być wyrażona w postaci sumy kwadratów odchyleń.
Algorytm znajduje więc zastosowanie w zagadnieniach regresyjnych. Pobór
energii elektrycznej jest szeregiem czasowym, może być więc
zdekomponowany z użyciem regresji liniowej w celu dokonania jego dalszej
estymacji - jest to więc zagadnienie regresyjne;
 rozległe sieci wymuszają wykorzystanie dużych nakładów pamięciowych
(proporcjonalnych do kwadratu liczby parametrów), co znacząco wydłuża
proces nauki. Sieć zastosowana w aplikacji do prognozowania poboru energii
elektrycznej jest przewidziana na maksymalnie 5 neuronów w warstwie
ukrytej. Jest to więc struktura stosunkowo nierozbudowana [5].
W obszarze realizowanego zadania żadne z wymienionych ograniczeń nie
zostało naruszone. Wybrana struktura sieci NAR spełnia przyjęte założenia.
Zakończenie procesu nauki sieci neuronowej następuje, gdy na wyjściu sieci
neuronowej pojawia się sygnał równy (z dokładnością do niewielkiego ustalonego
błędu) oczekiwanemu sygnałowi. W MATLAB dla sieci jednokierunkowej za
wymieniony błąd przyjmuje się najczęściej błąd średniokwadratowy MSE (ang.
Mean Square Error).
3.2. Badanie parametrów sieci neuronowej
W celu osiągnięcia jak najlepszej jakości predykcji otrzymanej z
wykorzystaniem sztucznej sieci neuronowej należy określić jej parametry.
Parametrami pomocnymi w ocenie przydatności otrzymanej prognozy są różnego
rodzaju błędy. Pierwszym z nich jest procentowy względny błąd prognozy
(całkowity procentowy błąd prognozy), określony wzorem:
 n yi  y p 
  100%
PWBP  
(1)

yi
 i 1


gdzie: yp jest wartością przewidywaną dla kolejnej jednostki czasowej w
horyzoncie prognozy, yi wartością rzeczywistego obciążenia odpowiadającą
próbce yp, n liczbą jednostek czasu w horyzoncie czasowym prognozy.
Drugim typem błędu służącym do oceny jakości prognozy jest błąd procentowy
MAPE (ang. Mean Absolute Percent Error). Informuje on o poprawności
odwzorowania kształtu przebiegu prognozowanego i wyrażany jest wzorem [4]:

126
Tomasz Jeżyk, Andrzej Tomczewski
1  n y i  y p 
(2)
  100%
n  i 1
yi


gdzie: yp to wartość przewidywana dla kolejnej jednostki czasowej w horyzoncie
prognozy, yi to rzeczywista wartość odpowiadająca próbce yp, n jest natomiast
liczbą próbek w zasięgu ekstrapolacji.
W celu określenia optymalnych parametrów sieci porównano wielkości
zdefiniowanych powyżej błędów - zależności (1) i (2) - dla różnych parametrów
sieci NAR. W tabeli 1 przedstawiono wyniki wymienionych badań dla trzech
różnych horyzontów prognozy: 24 h, 7 dni i 30 dni oraz od jednego do pięciu
neuronów w warstwie ukrytej.
MAPE 

Tabela 1. Wyniki badań parametrów sieci neuronowej NAR (kolorem jasnoszarym
oznaczono maksymalne wartości poszczególnych błędów dla różnych horyzontów
czasowych prognoz, ciemnoszarym zaś ich minimalne wartości)
Liczba neuronów
1
2
3
4
5
Całkowity
Całkowity
Całkowity
Całkowity
Całkowity
Długość prognozy Wartości Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE Proc. Błąd MAPE
Prognozy
Prognozy
Prognozy
Prognozy
Prognozy
Min
0,144
6,874
0,040
5,402
0,243
4,569
0,407
6,336
0,201 5,08877
24h
Max
7,275 23,306
2,882 14,934
7,003 16,180
8,895 18,671
10,558 15,145
Średnia
1,390
9,739
1,178
8,032
2,129
8,546
2,148
9,604
2,579
8,332
Min
0,436
8,352
9,427
1,795
0,402
8,488
0,256
9,368
7 dni
Max
13,128 14,311
18,137 17,062
23,823 23,777
22,860 22,457
Średnia
5,210 10,814
12,283
7,096
8,115 13,388
8,735 14,574
30 dni (w oparciu o Min
1,561 10,941
2,625 11,160
0,068 10,862
1,101 12,990
cogodzinne pobory Max
127,263 136,081
22,219 23,486
24,031 30,526
27,064 29,927
energii elektrycznej) Średnia
16,329 23,213
9,242 15,594
9,158 16,924
13,472 19,881
30dni (w oparciu o Min
0,560
4,381
1,803
5,197
1,132
4,078
0,072
4,440
dzienny pobór energii Max
12,057 12,870
22,596 29,053
12,735 13,620
22,103 22,843
lektrycznej)
Średnia
5,818
7,895
7,627
9,556
5,910
7,943
5,200
7,857
Na podstawie uzyskanych wyników, do realizacji zadania prognozowania
zużycia energii elektrycznej, wybrano sieć o 2 neuronach w warstwie ukrytej.
Wynika to z faktu, że dla tej liczby neuronów w warstwie ukrytej wartości
maksymalne całkowitego procentowego błędu prognozy i błędu procentowego
MAPE były najniższe dla każdego horyzontu czasowego prognozy. Średnie
wartości tych błędów dla tej liczby neuronów nie odbiegały znacząco od
najmniejszej osiągniętej wartości dla innych liczb neuronów, co dodatkowo
zadecydowało o wyborze właśnie dwóch neuronów w warstwie ukrytej sztucznej
sieci neuronowej.
Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ...
127
4. ANALIZA KRÓTKOTERMINOWYCH PROGNOZ ZUŻYCIA
ENERGII ELEKTRYCZNEJ
Z zastosowaniem wybranej struktury sieci neuronowej (NAR), liczby
neuronów w warstwie ukrytej (dwa), metody uczenia sieci (LavenbergaMarquardta) oraz dokonaniu selekcji i przebadaniu wpływu parametrów na jakość
predykcji wykonano badania w zakresie prognoz poboru energii elektrycznej dla
rozdzielnicy centrum handlowo-usługowego.
Ustalono interesujący, w realizowanym zadaniu, zasięg ekstrapolacji o
długości: doby, tygodnia i 30 dni. Dane archiwalne, które wykorzystano do
predykcji pochodzą odpowiednio z 14, 90 i 366 dni bezpośrednio poprzedzających
rozpatrywany okres prognozy.
Ze względu na wybór prostej struktury sieci neuronowej nakłady obliczeniowe
konieczne do przeprowadzenia prognozy są niewielkie. Wykonanie prognozy dla
więcej niż jednej jednostki czasu w przyjętym horyzoncie czasowym wymaga
jednak, po zakończeniu procesu nauki sieci neuronowej, utworzenia połączenia
powrotnego z neuronu warstwy wyjściowej do neuronów warstwy ukrytej. Na
rysunku 1 przedstawiono schemat sieci neuronowej do prognozowania dobowego
zużycia energii elektrycznej. Model opracowano z zastosowaniem Toolbox Neural
Network środowiska MATLAB i wzbogacono o własne elementy (interfejs
graficzny, import i eksport danych do pliku arkusza kalkulacyjnego, automatyczne
generowanie wykresów danych archiwalnych i otrzymanych prognoz) opracowane
w języku wewnętrznym środowiska.
Rys.1. Schemat sieci NAR przystosowanej do prognozowania wartości poboru energii elektrycznej
dla wszystkich jednostek czasowych w dobowym horyzoncie prognozy
Zrealizowane przykłady obliczeniowe obejmują trzy przypadki.
Pierwszy dotyczy prognozy dobowej przeprowadzonej dla dnia 07.03.2013.
Całkowity prognozowany pobór energii w ustalonym okresie wyniósł 113,3 kWh,
natomiast w rzeczywistości przyjmuje on wartość 108,5 kWh. Błąd prognozy
wyniósł zatem 4,8 kWh, procentowy względny błąd prognozy 4.4%, natomiast
128
Tomasz Jeżyk, Andrzej Tomczewski
błąd procentowy MAPE 8.9%. Na rysunku 2 przedstawiono wyniki prognozy
dobowej dla opisanego powyżej przykładu.
Drugi przykład prognozy dotyczy okresu ekstrapolacji wynoszącego 7 dni (okres
od 31.01.2012 do 6.02.2012). Rzeczywisty pobór energii w prognozowanym okresie
wyniósł 677,9 kWh, podczas gdy wartość wyliczona (prognozowana) 705.8 kWh.
Bezwzględny całkowity błąd prognozy wyniósł w tym wypadku 27,9 kWh, co daje
procentowy względny błąd prognozy 4,1%, oraz MAPE 11,8%. Szczegółowe wyniki
przeprowadzonych analiz zamieszczono na rysunku 3.
Rys. 2. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w przyjętym okresie
prognozowania - jeden dzień (07.03.2013), błąd prognozy oraz dane archiwalne - przykład 1
Rys. 3. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w prognozowanym
okresie (31.01.2012 do 6.02.2012) 7 dni wraz z błędem prognozy - przykład 2
Krótkoterminowe prognozowanie zużycia energii elektrycznej z wykorzystaniem ...
129
W przykładzie trzecim horyzont prognozy ustalono na 30 dni (okres od 16.04.2012
do 15.05.2012). Rzeczywisty całkowity pobór energii w prognozowanym okresie
wyniósł 2682,6 kWh, natomiast wartość wyliczona (prognozowana) 2819,6 kWh.
Bezwzględny całkowity błąd prognozy to 137,0 kWh, procentowy względny błąd
prognozy 5,1%, zaś błąd procentowy MAPE 6.8%. Szczegółowe wyniki predykcji dla
analizowanego przykładu przedstawiono na rysunku 4.
Rys. 4. Rzeczywisty oraz prognozowany przebieg poboru energii elektrycznej w okresie 30 dni
(od 16.04.2012 do 15.50.2012) wraz z błędem prognozy - przykład 3
5. PODSUMOWANIE
Środowisko MATLAB umożliwia tworzenie różnych typu modeli sztucznych
sieci neuronowych, których struktury umożliwiają wykorzystanie do zagadnienia
prognozowania zużycie energii elektrycznej. Dodatkowo istnieje możliwość
rozbudowy i modyfikacji struktur standardowych z zastosowaniem
programowania w języku wewnętrznym środowiska. Daje to znaczną przewagę co
do szybkości tworzenia aplikacji w porównaniu ze stosowaniem klasycznych
środowisk programistycznych.
Badania przeprowadzone w celu określenia optymalnej liczby neuronów w
warstwie ukrytej sieci typu NAR wykazały, że im mniej złożona sieć, tym mniejsze
błędy prognozy. Sieć o niewielkiej liczbie neuronów w warstwie ukrytej tworzy
ogólny i uśredniony obraz przebiegu zmiennej prognozowanej. Rozbudowane sieci
skupiają się na jak najdokładniejszym odwzorowaniu przebiegu tej zmiennej. Każde
odstępstwo od dokładnej i sztywno wyznaczonej prognozy wprowadza więc błąd i
znacząco obniża jej jakość. Wykorzystany w procesie nauki algorytm LavenbergaMarquardta, w zakresie prowadzonych badań, spełnił swoje zadanie i w efektywny
sposób umożliwił szybkie zakończenie procesu nauki sztucznej sieci neuronowej.
130
Tomasz Jeżyk, Andrzej Tomczewski
Predykcja uzyskana z wykorzystaniem zastosowanego modelu sieci ma charakter
prognoz ilościowych. Zmiany jakościowe (awaria rozdzielni, urządzeń podłączonych
do niej, jak również podłączenie nowych urządzeń) nie mogą zostać przewidziane, a
ich wpływ na jakość prognozy jest uzależniony od miejsca wystąpienia (w ciągu
danych) i trwałości tych zmian. Jeżeli zmiana jakościowa zachodzi na końcu tego
okresu prognozowania, to jej wpływ na jakość predykcji nie może być pominięty, a
prognoza otrzymana na podstawie takich danych archiwalnych jest więc praktycznie
bezużyteczna dla zastosowań inżynierskich.
Przeprowadzone na potrzeby referatu badania świadczą o przydatności sieci
neuronowych w dziedzinie prognozowania szeregów czasowych, w których nie
zachodzą znaczące zmiany jakościowe np. pobór energii elektrycznej. Cechą
wyróżniającą tak otrzymaną prognozę jest jej brak jej powtarzalności spowodowany
losowością procesu nauki sztucznej sieci neuronowej. Powstałe w ten sposób różnice
między prognozami są jednak na tyle niewielkie, że w zakresie rozwiązań
inżynierskich spełniają całkowicie stawiane wymagania.
Dla zamieszczonych w referacie przykładów predykcji o horyzoncie czasowym
prognozy równym odpowiednio 1 dzień, 7 dni i 30 dni uzyskano zadowalające
rezultaty, procentowe względne błędy prognozy całkowitego poboru energii wyniosły
co najwyżej 5,1%, zaś błędy procentowe MAPE 11,8%.
LITERATURA
[1]
[2]
[3]
[4]
[5]
Cieślak M., Prognozowanie gospodarcze. Metody i zastosowania, Wydawnictwo
Naukowe PWN, Warszawa, 2002.
Flasiński M., Wstęp do sztucznej inteligencji, Wydawnictwo Naukowe PWN,
Warszawa, 2011.
Guzik B., Appenzeller D., Jurek W., Prognozowanie i symulacje. Wybrane
zagadnienia, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań, 2005.
Helt P., Parol M., Piotrowski P., Metody sztucznej inteligencji w elektroenergetyce,
Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 2000.
Krzyśko M., Wołyński W., Górecki T., Skorzybut M., Systemy uczące się,
Wydawnictwo Naukowo-Techniczne, Warszawa, 2008.
SHORT TERM FORECASTING OF ELECTRICITY CONSUMPTION
BY USING AN ARTIFICIAL NEURAL NETWORK
The article presents the problem of the use of artificial neural network to solve the task
of short term forecasting of electricity consumption. Based on archival data of
instantaneous power measurement of load(shopping center), the neural network of NAR
type was learned and then used to determine short term forecast of electricity consumption.
Proposed network model was developed in MATLAB environment. To evaluate the quality
of the forecasts, the error usage was proposed: percentage of forecast error and the relative
percentage error MAPE (Mean Average Percent called Error). The results of sample
calculations and comparison with measurement data was presented.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Ryszard NAWROWSKI*
Andrzej TOMCZEWSKI*
Tomasz JARMUDA*
KONCEPCJA OPTYMALIZACJI STRUKTURY
HYBRYDOWEJ ELEKTROWNI SOLARNO-WIATROWEJ
Artykuł przedstawia koncepcję optymalizacji struktury hybrydowej elektrowni solarnowiatrowej z zastosowaniem metody algorytmu genetycznego. Przedstawione zagadnienia,
związane są z wytwarzaniem energii elektrycznej z zastosowaniem współpracujących
turbin wiatrowych i paneli fotowoltaicznych. W pracy scharakteryzowano metodę
populacyjną algorytmu genetycznego oraz zaproponowano koncepcję optymalizacji
struktury hybrydowej elektrowni solarno-wiatrowej (rozdział mocy) wraz ze zmiennymi
decyzyjnymi, ograniczeniami oraz opracowaną postacią funkcji celu.
SŁOWA KLUCZOWE: optymalizacja, elektrownia hybrydowa, algorytm genetyczny
1. WSTĘP
Odnawialne źródła energii, takie jak wiatr i słońce mają coraz większe
znaczenie w gospodarce energetycznej Unii Europejskiej. Na koniec 2012 roku
łączna moc zainstalowanych ogniw słonecznych na świecie wynosiła 100 GW,
natomiast turbin wiatrowych 282,5 GW. Należy jednak pamiętać, że efektywność
wytwarzania energii elektrycznej w elektrowniach solarnych i wiatrowych jest
silnie uzależniona od warunków atmosferycznych, panujących w określonej
lokalizacji geograficznej.
Wiatr jest zjawiskiem stochastycznym. Jego prędkość zmienia się w czasie w
szerokim zakresie, co utrudnia wykorzystanie jego potencjału energetycznego do
wytworzenia energii elektrycznej. Dodatkowo, zależnie od lokalizacji
geograficznej, wyróżnić można charakterystyczne cechy przebiegów prędkości
wiatru. W strefie klimatycznej Polski średnia prędkość wiatru jest większa w
miesiącach jesienno-zimowych, niż w pozostałych okresach roku. Podobnie
wyższe wartości, energia wiatru posiada zazwyczaj w nocy niż w ciągu dnia.
W przypadku promieniowania słonecznego ważnym czynnikiem wpływającym
na wielkość generowanej energii jest cykl dobowy. Panele fotowoltaiczne
wytwarzają energię tylko w dzień, a na ograniczenie ich zdolności wytwórczej
__________________________________________
* Politechnika Poznańska.
132
Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda
mają wpływ dodatkowo niekorzystne warunki meteorologiczne jak np.
zachmurzenie. Również w okresie rocznym obserwowane są deterministyczne
trendy zmian średniomiesięcznej gęstości promieniowania słonecznego.
Rozwiązaniem umożliwiającym częściową likwidację negatywnych cech
losowej zmienności energii wiatru i słońca jest budowa hybrydowej elektrowni
solarno-wiatrowej. Odpowiednio zaprojektowana struktura wykorzystuje
przeciwstawne trendy deterministyczne zmian energii wiatru i słońca w okresie
roku i doby. Ustalenie optymalnej struktury elektrowni możliwe jest na drodze
doboru odpowiednich urządzeń (rozdział mocy na część wiatrową i solarną) oraz
algorytmów jej pracy. W tym celu możliwe jest stosowanie wielu technik, przy
czym najwyższą efektywność można uzyskać z wykorzystaniem odpowiednio
skonstruowanego algorytmu optymalizacyjnego.
2. ELEKTROWNIE HYBRYDOWE
Elektrownie wykorzystujące jeden typ odnawialnego źródła energii są silnie
uzależnione od czynników klimatycznych. Powoduje to okresowość produkcji
energii elektrycznej i związany z tym udarowy przebieg mocy wyjściowej układu.
Rozwiązaniem łagodzącym wymieniony efekt mogą okazać się elektrownie
hybrydowe. Na ile rozwiązanie będzie skuteczne, zależy od wyboru typów źródeł
wchodzących w jej skład, a także od szczegółowej struktury układu, szczególnie
procentowego udziału mocy poszczególnych źródeł oraz wykorzystania systemów
magazynowania energii.
Według rozporządzenia Ministra Gospodarki z dnia 18 października 2012 r.,
układem hybrydowym jest jednostka wytwórcza, wytwarzająca energię
elektryczną albo energię elektryczną i ciepło. W prezentowanym artykule
przedstawiono strukturę systemu hybrydowego podwójnego (z dwoma rodzajami
zastosowanych technologii), w postaci elektrowni solarno-wiatrowej. Jako jedną z
zalet tego typu systemów należy wymienić bezpieczeństwo dla środowiska
naturalnego, związane z brakiem emisji zanieczyszczeń do ekosystemu [6].
Systemy hybrydowe wzajemnie kompensują wady odnawialnych źródeł
energii, stosowanych do produkcji energii elektrycznej w danym układzie
wytwórczym. Podjęcie ostatecznej decyzji o inwestycji w określony typ systemu,
należy poprzedzić szczegółową analizą zagadnienia. Składają się na nią ocena:
wydajności
energetycznej,
efektywności
społeczno-ekologicznej
oraz
ekonomicznej. System hybrydowy jest bardziej opłacalny energetycznie niż
elektrownie, stosujące pojedyncze odnawialne źródła energii, a dodatkowo jego
zastosowanie może być przyjazne dla środowiska. Dzięki odpowiedniej strukturze
systemu możemy dodatkowo dopasować produkcję energii elektrycznej do
popytu, a także magazynować (kinetyczne zasobniki energii, ogniwa paliwowe i
paliwowo-wodorowe, elektrownie szczytowo-pompowe, pneumatyczne zasobniki
Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej
133
energii, superkondensatory, nadprzewodzące zasobniki energii (SMES) oraz
bateryjne
zasobniki
energii)
nadwyżkę
energii
wyprodukowanej
we wcześniejszych okresach [4].
Schemat blokowy struktury elektrowni solarno-wiatrowej z wydzielonymi
elementami elektrowni wiatrowej i solarnej, opcjonalnymi zasobnikami energii
oraz transformatorami średniego napięcia, przedstawiono na rysunku 1.
Rys. 1. Proponowana struktura elektrowni solarno-wiatrowej
Roczna ilość generowanej energii elektrycznej dla ustalonej struktury
elektrowni wiatrowej może zostać wyznaczona w oparciu o średnioroczną
prędkość wiatru dla danej lokalizacji geograficznej, rozkład gęstości
prawdopodobieństwa Weibulla oraz krzywe mocy zastosowanych turbin
wiatrowych. W przypadku elektrowni solarnej wielkość generowanej w okresie
roku energii zostanie wyznaczona w oparciu o rozkład średniej gęstości mocy
promieniowania dla poszczególnych miesięcy w danej lokalizacji geograficznej
oraz charakterystyk prądowo - napięciowych zastosowanych paneli PV. Powyższa
metoda wprowadza znaczne błędy związane z przyjęciem wartości średnich
prędkości wiatru, gęstości promieniowanie itp. Najlepsze rezultaty obliczeń w tym
obszarze osiągamy, wykorzystując dane pomiarowe z lokalizacji przyszłej
inwestycji, z okresu co najmniej jednego roku. Pomiary takie dla przyszłych
elektrowni solarnych i wiatrowych są podstawą opracowania dokumentacji
projektowej i powinny stać się podstawowym elementem doboru struktury i
parametrów elektrowni.
134
Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda
3. OGÓLNA CHARAKTERYSTYKA METODY
ALGORYTMU GENETYCZNEGO
Algorytm genetyczny GA (ang. genetic algorithm) to metoda optymalizacyjna
wykorzystująca mechanizm doboru naturalnego oraz dziedziczenia. Łączy w sobie
ewolucyjną zasadę przeżycia najlepiej przystosowanych osobników z
systematyczną, choć zrandomizowaną, wymianą informacji. Swoją popularność
zawdzięcza prostocie działania z równoczesnym brakiem ograniczeń nakładanych
na przestrzeń poszukiwań przez konwencjonalne (deterministyczne) metody
poszukiwań (wymaganie ciągłości funkcji celu, istnienie pochodnych, itd.). Metoda
algorytmu genetycznego daje dobre rezultaty w zadaniach, związanych z
poszukiwaniem ekstremum globalnego funkcji wielomodalnych, jest odporna na
zmiany wielkości zadania, dobrze radzi sobie z dużą i bardzo dużą liczbą
zmiennych decyzyjnych, a także uwzględnia ograniczenia strukturalne i
funkcjonalne zadania [2].
Różnice między algorytmami genetycznymi, a metodami tradycyjnymi
(deterministycznymi) są następujące:
 GA nie przetwarza bezpośrednio parametrów zadania, lecz ich zakodowaną
postać,
 GA nie prowadzi poszukiwań, przetwarzając pojedynczy punkt (rozwiązanie),
lecz pewną ich liczbę (tzw. populację),
 GA korzysta tylko z funkcji celu, nie zaś z jej pochodnych lub innych
pomocniczych informacji,
 GA stosują probabilistyczne, a nie deterministyczne reguły wyboru, chociaż
sama struktura algorytmu jest deterministyczna.
Elementami algorytmu genetycznego, które w dużej mierze decydują o
efektywności metody są reprodukcja oraz operatory genetyczne. Jedną z
najważniejszych części reprodukcji jest selekcja. Wśród wielu opracowanych i
przebadanych jej typów (metoda ruletki, selekcja rankingowa, selekcja turniejowa,
elitarna i inne), ważne miejsce zajmuje wybór losowy wg reszt bez powtórzeń o
nazwie Brindle. W przypadku wielu zadań optymalizacji układów technicznych
daje ona dobre rezultaty, poprawiając jakość wyników oraz szybkość ich
uzyskiwania w stosunku do klasycznej postaci algorytmu [2].
W celu zapewnienia odpowiedniego poziomu konkurencji między osobnikami
populacji, stosuje się mechanizmy skalowania funkcji celu. Wartości funkcji celu
muszą zostać zmniejszone, by zapobiec opanowaniu populacji przez niewielką
liczbę tzw. superosobników, w innych przypadkach muszą natomiast zostać
zwiększone, by uwydatnić różnice między członkami populacji. Stosowane
praktycznie algorytmy, nazywane skalowaniem funkcji przystosowania, obejmują
metody: liniową, σ-obcinającą oraz potęgową [2].
Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej
135
4. KONCEPCJA OPTYMALIZACJI STRUKTURY
ELEKTROWNI SOLARNO-WIATROWEJ
4.1. Funkcja celu, zmienne decyzyjne i ograniczenia
Podstawowym zadaniem optymalizacji elektrowni solarno-wiatrowej jest ustalenie
struktury układu maksymalizującej ilość energii elektrycznej generowanej w ustalonej
lokalizacji geograficznej w okresie jednego roku. Przyjęto, że wskaźnik jakości
rozwiązania J(x) jest funkcją skalarną wektora zmiennych decyzyjnych x, wiążącą
energie generowane w obu segmentach elektrowni, o ogólnej postaci:
J (x)  J PV (x)  JW (x)
(1)
gdzie: JPV(x) – ilość energii elektrycznej generowanej w panelach PV, JW(x) –
ilość energii elektrycznej generowanej w turbinach wiatrowych.
Rozpatrywane zadanie należy do zadań z ograniczeniami. Jednym ze sposobów
ich uwzględnienia jest metoda funkcji kary. Uwzględniając karę zewnętrzną
zmodyfikowana funkcja celu Jz(x) dla rozwiązywanego zadania przyjmuje postać:
N
J z ( x)  J PV ( x)  J W ( x)   Fk ( j )
(2)
j 1
gdzie: Fk(j)(x) – funkcja kary dla j-tego ograniczenia, N - liczba ograniczeń.
Analiza zagadnienia wykazała, że wektor zmiennych decyzyjnych x posiada sześć
składowych definiujących kolejno: typ paneli fotowoltaicznych PV - zmienna x1,
liczbę paneli fotowoltaicznych PV - zmienna x2, typ turbiny wiatrowej - zmienna x3,
liczbę turbin wiatrowych - zmienna x4, typ systemu magazynowania energii
elektrycznej - zmienna x5, liczbę magazynów energii elektrycznej - zmienna x6.
Wybór typu stosowanych paneli PV, turbin wiatrowych i typów magazynu
energii ograniczony jest do wykorzystywanej bazy danych. W ten sposób
realizowany jest główny element ograniczeń strukturalnych. Dodatkowo ze
względu na dyskretny zbiór dostępnych mocy paneli oraz turbin wiatrowych
ustalono ograniczenie dla mocy znamionowej PNH elektrowni hybrydowej
zapisane w postaci znormalizowanej jako:
(PNTW (x) NTW  PNPV (x) N PV )
0
pMin PNH
( PNTW (x) NTW  PNPV (x) N PV )
1  0
pMax PNH
1-
(3a)
(3b)
gdzie: PNTW, PNPV - moce znamionowe wykorzystanego typu turbin wiatrowych i paneli
PV, NTW, NPV - liczba turbin wiatrowych i paneli PV wschodzących w skład elektrowni
solarno-wiatrowej, pMin i pMax - współczynniki odpowiadające dolnej i górnej granicy
dopuszczalnego przedziału mocy znamionowej elektrowni solarno - wiatrowej.
136
Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda
Składowe funkcji celu JPV(x) i JW(x) odpowiadają energiom generowanym
odpowiednio w segmencie fotowoltaicznym i wiatrowym. Metody wyznaczania
ich wartości zostaną przedstawione w rozdziale 4.2 niniejszego referatu.
4.2. Metody wyznaczania składowych funkcji celu
A. Energia wiatru
Ilość energii elektrycznej generowanej w elektrowni wiatrowej o określonej
strukturze fizycznej może być wyznaczona kilkoma metodami. Jedną z nich jest
wykorzystanie średniorocznej prędkości wiatru vwAvg dla danej lokalizacji geograficznej
oraz dwuparametrycznego rozkładu gęstości prawdopodobieństwa Weibulla o postaci:
p (v w ) 
  vw 
 
   

 1
e
v 
 w 
  
(4)
gdzie: γ – parametr kształtu (w warunkach polskich przyjmowany z zakresu od 1,2 do
2,2), β – parametr zależny od średniorocznej prędkości wiatru vwAvg oraz wartości funkcji
gamma Eulera [1].
W takim przypadku ilość energii elektrycznej, generowanej w okresie jednego
roku, wyznaczana jest na podstawie zależności:
v out
Aew  J W (x )  8760 p v w P1 v w dv w
(5)
0
gdzie: p(vw) – prawdopodobieństwo wystąpienia prędkości wiatru vw wynikające z
rozkładu Weibulla dla określonej lokalizacji geograficznej, P1(vw) – moc elektrowni
wiatrowej zgodnie z krzywą mocy wybranego typu turbiny.
Drugą metodą wyznaczenia wartości generowanej energii jest wykorzystanie
danych pomiarowych, zazwyczaj w postaci zbioru wartości średniej prędkości
wiatru dla ustalonego okresu pomiarowego tW. W takim przypadku, dla znanej
krzywej mocy turbiny P1(vw), energia generowana w okresie jednego roku (N1
próbek pomiarowych) może zostać wyznaczona z zastosowaniem zależności:
N1
Aew  J W ( x)   P1 (Vw n  ) tW
(6)
n1
gdzie: P1(vw(n)) – moc elektrowni wiatrowej odpowiadająca prędkości vw dla próbki n
zgodnie z krzywą mocy wybranego typu turbiny.
B. Energia promieniowania słonecznego
Podobnie jak w przypadku turbin wiatrowych ilość energii elektrycznej
generowanej w elektrowni solarnej w okresie jednego roku może być wyznaczona
kilkoma metodami. Pierwszą z ich jest wykorzystanie średniomiesięcznej gęstości
Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej
137
mocy promieniowania słonecznego dla danej lokalizacji geograficznej oraz
średniego czasu nasłonecznienia dla poszczególnych miesięcy:
12
Aes  J PV   P2 En  Avg Tn sun
(7)
n1
gdzie: E(n)Avg – średnia miesięczna gęstość mocy promieniowania, P(E(n)Avg) - moc panelu
odpowiadająca gęstości E(n)Avg, T(n)sun – średni czas nasłonecznienia dla miesiąca n.
Druga metoda wykorzystuje dane pomiarowe gęstości mocy promieniowania
słonecznego. Uwzględniając stały krok dyskretyzacji ΔtPV wartość energii
generowanej przez panele PV, dla N2 próbek pomiarowych, wyznaczyć można z
zależności:
s
c
N2
A   P2 ( En  ) t PV
(8)
n1
gdzie: P(E(n)) – moc paneli PV dla próbki pomiarowej n (gęstość mocy promieniowania
wynosi E(n)), ΔtPV – krok czasowy pomiarów gęstości mocy promieniowania.
Moc paneli PV wyznaczana jest na drodze aproksymacji charakterystyki prądowo napięciowej wybranego typu panelu dla odczytanej z pomiarów wartości gęstości mocy
promieniowania słonecznego E(n).
C. Wyznaczanie energii generowanej w układzie solarno-wiatrowym
Podstawowym zadaniem obliczeniowym, związanym z ustaleniem wartości
zmodyfikowanej funkcji celu (2) w rozpatrywanym zadaniu optymalizacji struktury
elektrowni solarno-wiatrowej, jest wyznaczenie energii generowanej w układzie w
okresie jednego roku. W przypadku posiadania danych pomiarowych prędkości wiatru
oraz gęstości mocy promieniowania słonecznego, energię elektryczną generowaną w
omawianym układzie hybrydowym, wyznaczyć można z zależności:
N1 1
Ae  
n1
P1 (vw ( n1) )  P(vw( n ) )
2
N 2 1
tW  
n 1
P2 ( E( n 1) )  P ( E( n ) )
2
t PV
(9)
W zależności (9) uwzględniono uśrednioną wartość mocy turbiny wiatrowej P1 oraz
paneli PV P2 , odpowiednio w okresach ΔtW i ΔtPV , wynikającą z zastosowania liniowej
aproksymacji zmian mocy w czasie.
4.3. Wybór metody optymalizacyjnej
Ze względu na przewidywaną wielomodalną postać funkcji celu, niejawne
występowanie w funkcji celu zmiennych decyzyjnych oraz zróżnicowane typy
zmiennych do rozwiązania zadania, autorzy proponują zastosowanie zmodyfikowanego
algorytmu genetycznego o następującej strukturze i elementach:
138
Ryszard Nawrowski, Andrzej Tomczewski, Tomasz Jarmuda
 kodowanie zmiennych: metoda blokowego zapisu pozycyjnego ze standaryzacją
parametrów (wektor zmiennych niezależnych x dla pojedynczego osobnika
kodowany jest w postaci jednego chromosomu),
 selekcja: wybór losowy wg reszt bez powtórzeń,
 krzyżowanie: dwupunktowe,
 mutacja: równomierna,
 skalowanie funkcji przystosowania: liniowe,uwzględnienie ograniczeń: zastosowanie
 zewnętrznej funkcji celu metodą korekcji kar Powella-Skolnicka (z modyfikacjami
Michalewicza) [3].
Jednocześnie, ze względu na szybkość realizacji zadania proponuje się, aby
implementacja wyżej scharakteryzowanego algorytmu optymalizacyjnego zrealizowana
została w środowisku programistyczno-symulacyjnym MATLAB&SIMULINK z
zastosowaniem modułu obliczeniowego Global Optimization Toolbox. Zastosowanie
pewnej grupy wymienionych powyżej elementów algorytmu GA wymaga opracowania
własnych funkcji i rozszerzenia standardowej funkcjonalności dostępnej w środowisku
MATLAB&SIMULINK [5].
5. PODSUMOWANIE
W artykule przedstawiono koncepcję optymalizacji struktury hybrydowej
elektrowni solarno-wiatrowej z zastosowaniem metody algorytmu genetycznego.
Przeprowadzone rozważania doprowadziły do ustalenia:
 propozycji struktury elektrowni hybrydowej solarno-wiatrowej współpracującej z
układem magazynowania energii elektrycznej, której podstawową cechą jest
wzajemna kompensacja niedoborów produkcji energii elektrycznej ze źródła
solarnego i wiatrowego w określonych okresach doby i roku,
 koncepcji algorytmu optymalizacji struktury hybrydowej elektrowni solarnowiatrowej, obejmującej opracowanie postaci funkcji celu, zbioru zmiennych
decyzyjnych i ograniczeń oraz wyboru metody optymalizacyjnej,
 szczegółowej postaci funkcji celu obejmującej wyznaczenie ilości energii
generowanej w układzie hybrydowym na podstawie dostępnych pomiarów
prędkości wiatru i gęstości mocy promieniowania słonecznego z lokalizacji
przyszłej elektrowni hybrydowej.
Dalsze prace w zakresie optymalizacji rozpatrywanego układu hybrydowego
powinny dotyczyć:
 ustalenia funkcji celu o charakterze techniczno-ekonomicznym umożliwiającej
prowadzenie zadania minimalizacji kosztów jednostkowych wytworzenia
energii elektrycznej,
 uwzględnienie magazynów energii jako elementu układu jaki pozwoli na
dalsze uspokojenie źródła,
Koncepcja optymalizacji struktury hybrydowej elektrowni solarno-wiatrowej
139
 uwzględnienia rzeczywistego charakteru dobowego zapotrzebowania na
energię elektryczną,
 opracowania algorytmu symulacji pracy układu dla wymuszeń rzeczywistych,
 uwzględnienia w obliczeniach energii generowanej w układzie dynamiki zmian
prędkości wiatru, temperatury pracy ogniw PV oraz zastosowania efektywnej
metody aproksymacji charakterystyk prądowo-napięciowych paneli PV.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
Chojnacki J., Knap T., Odnawialne i niekonwencjonalne źródła energii, Poradnik,
Wydawca TARBONUS, Kraków 2008.
Goldberg D.E., Algorytmy genetyczne i ich zastosowania, Wydawnictwa
Naukowo-Techniczne, Warszawa 1995.
Michalewicz Z., Fogel D.B., How to Solve It: Modern Heuristics, Springer-Verlag,
New York 2000.
Paska J., Generacja rozproszona z wykorzystaniem hybrydowych układów
wytwórczych, Energetyka, 2013, Nr 6, s. 459.
Pratap R., MATLAB 7: dla naukowców i inżynierów, PWN, Warszawa 2007.
Stefaniak A., Systemy hybrydowe odnawialnych źródeł energii, Czysta Energia,
2013, Nr 11(147), s. 22-23.
DESIGN STRUKTURE OPTIMIZATION
OF THE HYBRID SOLAR-WIND POWER PLANT
This article presents the concept of optimization of the structure of a hybrid solar-wind
power plant using the method of genetic algorithm. The issues are related to the generation
of electricity using wind turbines and cooperating photovoltaic panels. The study
characterized the method of population-genetic algorithm, and proposes the concept of
optimization of the structure of a hybrid solar-wind power plant (power distribution) with
decision variables, constraints and the developed form of the objective function.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Ryszard NAWROWSKI*
Tomasz JARMUDA*
PROJEKT HYBRYDOWEJ ELEKTROWNI
SŁONECZNO-WIATROWEJ
Artykuł przedstawia projekt hybrydowej elektrowni słoneczno-wiatrowej. W pracy
przedstawiono zagadnienia, związane z wytwarzaniem energii elektrycznej z
zastosowaniem turbin wiatrowych i paneli fotowoltaicznych. W opracowaniu
zaprezentowano projekt elektrowni hybrydowej podwójnej, zbudowany z elektrowni
wiatrowej i słonecznej. W projekcie opisano założenia projektowe, strukturę elektrowni,
dobór akumulatora oraz bilans elektrowni słoneczno-wiatrowej. Przeanalizowano
produkcję energii elektrycznej w poszczególnych miesiącach z elektrowni hybrydowej
oraz zapotrzebowanie na energię elektryczną.
SŁOWA KLUCZOWE: energia wiatru, energia słońca, elektrownia hybrydowa
1. WSTĘP
Elektrownie oparte na jednym odnawialnym źródle energii są uzależnione od
nieprzewidywalnych czynników klimatycznych, które powodują okresowość
produkcji energii elektrycznej i jej znaczną zmienność. W związku z tym efektywnym
rozwiązaniem mogą okazać się elektrownie hybrydowe. Według rozporządzenia
Ministra Gospodarki z dnia 18 października 2012 r., układem hybrydowym (HSV)
jest jednostka wytwórcza, wytwarzająca energię elektryczną albo energię elektryczną i
ciepło. Wyróżniamy dwa systemy hybrydowe. Hybrydowy układ wytwórczy z
dwoma rodzajami zastosowanych technologii, nazywany „podwójnym” oraz układ z
wieloma źródłami, określany jako „wieloraki”. W prezentowanym artykule
przedstawiono strukturę systemu hybrydowego podwójnego.
Obecnie najbardziej popularnym systemem hybrydowym podwójnym jest
elektrownia słoneczno-wiatrowa. Jako zaletę tego systemu należy wymienić
bezpieczeństwo dla środowiska, ponieważ nie emituje zanieczyszczeń do ekosystemu.
Kolejną zaletą jest ograniczenie kosztów przesyłu i dystrybucji w związku z budową
danego systemu blisko lokalnych odbiorców. Hybrydowe układy wytwórcze dają
możliwość produkcji nie tylko energii elektrycznej, ale także energii cieplnej,
poprzez zastosowanie w tym celu odpowiednich akumulatorów, tj. silników
__________________________________________
* Politechnika Poznańska.
142
Ryszard Nawrowski, Tomasz Jarmuda
Stirlinga, silników tłokowych, ogniw paliwowych itp. Systemy hybrydowe można
łączyć nie tylko z odnawialnymi źródłami energii, ale także z konwencjonalnymi.
Systemy hybrydowe wzajemnie kompensują zalety i wady odnawialnych źródeł
energii, z których produkowana jest energia elektryczna w danym układzie
wytwórczym. Zanim podejmie się decyzję o inwestycji w dany system, należy
przeprowadzić analizę efektywności energetycznej. Składają się na nią ocena
wydajności energetycznej, ocena efektywności społeczno-ekologicznej oraz ocena
efektywności ekonomicznej. System hybrydowy jest bardziej opłacalny ekonomicznie
niż poszczególne pojedyncze elektrownie, oparte na odnawialnych źródłach energii, a
jego zastosowanie może być przyjazne dla środowiska. Dzięki temu systemowi
możemy dopasować produkcję energii elektrycznej do popytu, a także akumulować
nadwyżkę energii wyprodukowanej we wcześniejszych miesiącach. Obecnie
stosowanymi technologiami magazynowania wytworzonej energii elektrycznej są
kinetyczne zasobniki energii (FES), ogniwa paliwowe i paliwowo-wodorowe,
elektrownie szczytowo-pompowe, pneumatyczne zasobniki energii (CAES),
superkondensatory, nadprzewodzące zasobniki energii (SMES) oraz bateryjne
zasobniki energii [5, 8].
Należy podkreślić, że popyt na systemy magazynowania energii wzrośnie zgodnie
z rozwojem odnawialnych źródeł energii i generacji rozproszonej. Oprócz
klasycznych wielkich systemów wodnych, będzie konieczne zastosowanie nowych
rozwiązań. Będą one musiały być elastyczne pod względem zmian mocy i
pojemności, jak np. baterie chemiczne, superkondensatory, ogniwa paliwowe.
Największe systemy magazynowania energii powstaną w pobliżu elektrowni
słonecznych, wiatrowych i słoneczno-wiatrowych. Słońce i wiatr należą do
nieprzewidywalnych źródeł, z których uzysk czystej energii może występować bez
urządzenia magazynującego. System magazynowania energii elektrycznej ze źródeł
odnawialnych powinien mieć bardzo dobre właściwości dynamiczne, tzn. powinien
mieć odpowiednie zużycie mocy znamionowej i powinien zmieniać kierunek
przepływu energii. W przypadku turbin wiatrowych rozwiązaniem jest zastosowanie
systemów elektrochemicznych i superkondensatorów. Jednak z ekonomicznego
punktu widzenia, akumulatory ołowiowo - kwasowe są nadal najlepszym
rozwiązaniem [1, 2, 6, 9].
2. PROJEKT ELEKTROWNI SŁONECZNO-WIATROWEJ
2.1. Założenia projektowe elektrowni hybrydowej
Do projektu przyjęto następujące założenia:
 elektrownia hybrydowa będzie działała w systemie autonomicznym off-line,
bez współpracy z siecią elektryczną,
 elektrownia hybrydowa będzie służyła do zasilania oświetlenia o mocy 75 W,
Projekt hybrydowej elektrowni słoneczno-wiatrowej
143
 oświetlenie będzie czynne od zmierzchu do świtu (akumulacja energii w dzień i
jej odzysk w nocy),
 czas pracy systemu na zasilaniu z akumulatora to 2 dni (zachmurzone niebo i
bezwietrzna pogoda) [4].
2.2. Struktura elektrowni hybrydowej
Przyjęto, że do elektrowni hybrydowej będzie zastosowany zespół dwóch
modułów fotowoltaicznych o mocy P = 100 W, napięciu U = 12 V i łącznej
powierzchni S = 0,86 m2 oraz jedna turbina wiatrowa o średnicy wirnika równej
2,2 m. Schemat blokowy elektrowni słoneczno-wiatrowej przedstawiono na rys. 1.
Urządzeniem dokonującym pośredniej konwersji energii wiatru na energię elektryczną
jest alternator. W gondoli elektrowni wiatrowej znajduje się trójłopatkowy wirnik,
napędzający alternator za pośrednictwem przekładni. Energia elektryczna z obrotowej
gondoli jest przekazywana do akumulatora za pośrednictwem przewodów
elektrycznych umieszczonych wewnątrz masztu. Konwersja energii słońca na energię
elektryczną zachodzi w fotoogniwie w wyniku zjawiska fotowoltaicznego. Energia
elektryczna z fotoogniwa jest przekazywana za pomocą przewodów elektrycznych do
szafy sterowniczej, w której znajduje się regulator ładowania, a następnie do
akumulatorów. Oś obrotu wirnika elektrowni wiatrowej znajduje się na wysokości h =
10 m, natomiast fotoogniwo jest zainstalowane na wysokości h = 7,5 m [4].
Rys. 1. Schemat blokowy elektrowni słoneczno-wiatrowej
2.3. System magazynowania energii
Zadaniem akumulatora w systemie PV jest kompensowanie niedopasowania
zapotrzebowania na energię i poziomu dostarczanej chwilowo energii
elektrycznej. Związane jest to zarówno z porą dnia (więcej energii zużywamy
zwykle wieczorem, a otrzymujemy w południe), zmiennością natężenia
144
Ryszard Nawrowski, Tomasz Jarmuda
promieniowania i koniecznością posiadania pewnego zapasu energii (na około 2-3
dni latem i 3-5 dni zimą). W celu przedłużenia żywotności akumulatora warto
pokrycie zapotrzebowania przewidywać z 50% zapasem, aby uniknąć głębokiego
rozładowania [3].
Do obliczeń przyjęto najdłuższy dobowy czas pracy oświetlenia w miesiącu
zimowym t = 16 h. Jeżeli oświetlenie o mocy P = 75 W będzie eksploatowane w
czasie t = 16 h, to zapotrzebowanie dobowe na energię elektryczną będzie miało
wartość, zgodnie ze wzorem 2.1.
A  P  t  75W 16 h  1200 Wh
(1)
Pojemność akumulatora obliczamy wg wzoru (2)
C
2 A F
U
(2)
gdzie: A – dzienne zapotrzebowanie na energię elektryczną [W·h],
F – współczynnik związany z rezerwą energii (F = 2,5 latem, F = 4,0 zimą),
U – napięcie systemu [V].
Dla dziennego zapotrzebowania na energię elektryczną latem w ilości
A = 1200 Wh w systemie o napięciu U = 12 V, otrzymujemy pojemność zgodnie
ze wzorem 2.3.
C
2  1200  2,5
 500 Ah
12
(3)
Dla dziennego zapotrzebowania na energię elektryczną zimą w ilości
A = 600 Wh (uwzględniamy 50% rozładowanie akumulatora) w systemie
o napięciu U = 12 V, otrzymujemy pojemność zgodnie ze wzorem 2.4.
C
2  600  4,0
 400 Ah
12
(4)
Ostatecznie zadecydowano zastosowanie baterii akumulatorów o całkowitej
pojemności C = 500 Ah.
2.4. Bilans elektrowni słoneczno-wiatrowej
Produkcję energii elektrycznej w poszczególnych miesiącach z elektrowni
wiatrowej i słonecznej przedstawiono na rys. 2. Najwyższa produkcja energii
elektrycznej z elektrowni wiatrowej występuje w miesiącach zimowych, a
najniższa w miesiącach letnich. Dla elektrowni słonecznej najwyższa produkcja
energii elektrycznej ma miejsce w miesiącach letnich, a najniższa w miesiącach
zimowych.
Jednym z elementów analizy efektywności energetycznej jest oszacowanie
zasobów energetycznych wiatru i promieniowania słonecznego dla danego miejsca
wraz z zapotrzebowaniem na energię elektryczną lokalnych mieszkańców.
Sumaryczną produkcję energii elektrycznej z elektrowni wiatrowej i słonecznej w
Projekt hybrydowej elektrowni słoneczno-wiatrowej
145
odniesieniu do zapotrzebowania na energię w poszczególnych miesiącach
przedstawiono na rys. 3. Największe zapotrzebowanie na energię występuje w
grudniu, przy dość niskich zasobach wiatru i słońca. W miesiącach letnich
występuje nadwyżka energii, która może zostać zmagazynowana. Najbardziej
zasobnym w energię słońca i wiatru jest maj i w tym miesiącu nadwyżka energii z
elektrowni hybrydowej jest prawie trzykrotnie wyższa niż zapotrzebowanie.
Rys. 2. Produkcja energii elektrycznej w poszczególnych miesiącach z elektrowni wiatrowej
oraz ogniwa fotowoltaicznego [4]
Dzięki połączeniu elektrowni wiatrowej i słonecznej istnieje możliwość
zaspokojenia potrzeb energetycznych, gdyż niedobór jednego ze źródeł doskonale
uzupełnia źródło drugie. Elektrownia słoneczno-wiatrowa może więc stanowić
alternatywę dla konwencjonalnych elektrowni, wykorzystując tylko odnawialne
źródła energii, czyli produkując tzw. czystą energię [7].
Rys. 3. Sumaryczna produkcja energii elektrycznej z elektrowni wiatrowej i słonecznej
w odniesieniu do zapotrzebowania na energię w poszczególnych miesiącach [4]
146
Ryszard Nawrowski, Tomasz Jarmuda
3. PODSUMOWANIE
Artykuł przedstawia projekt hybrydowej elektrowni słoneczno-wiatrowej. W
pracy przedstawiono zagadnienia, związane z wytwarzaniem energii elektrycznej z
zastosowaniem turbin wiatrowych i paneli fotowoltaicznych. W opracowaniu
zaprezentowano projekt elektrowni hybrydowej podwójnej, zbudowany z
elektrowni wiatrowej i słonecznej.
Na podstawie analizy produkcji energii elektrycznej w poszczególnych
miesiącach z elektrowni wiatrowej i słonecznej stwierdzono, że najwyższa
produkcja energii elektrycznej z elektrowni wiatrowej występuje w miesiącach
zimowych, a najniższa w miesiącach letnich. Natomiast dla elektrowni słonecznej
najwyższa produkcja energii elektrycznej ma miejsce w miesiącach letnich, a
najniższa w miesiącach zimowych.
Na podstawie analizy sumarycznej produkcji energii elektrycznej z elektrowni
wiatrowej i słonecznej w odniesieniu do zapotrzebowania na energię w
poszczególnych miesiącach stwierdzono, że największe zapotrzebowanie na
energię występuje w grudniu, przy dość niskich zasobach wiatru i słońca. W
miesiącach letnich występuje nadwyżka energii, która może zostać
zmagazynowana. Najbardziej zasobnym w energię słońca i wiatru jest maj i w tym
miesiącu nadwyżka energii z elektrowni hybrydowej jest prawie trzykrotnie
wyższa niż zapotrzebowanie.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
Daly PA, Morrison J, Understanding the potential benefits of distributed generation
on power delivery systems, Rural Electric Power Conference, 2001, s.A211– A213.
Kim JE, Hwang JS, Islanding detection method of distributed generation units
connected to power distribution system, Proceedings of the IEEE Summer Meeting,
2001, s. 643–647.
Klugmann-Radziemska E., Odnawialne źródła energii, Przykłady obliczeniowe,
Wydawnictwo Politechniki Gdańskiej, Gdańsk, 2009, s. 45-46.
Opracowanie własne na podstawie danych z Sitarz S., Projekt hybrydowej
elektrowni słoneczno-wiatrowej, Mechanics, 2005, Vol. 24, No. 3, s. 211-219.
Paska J., Generacja rozproszona z wykorzystaniem hybrydowych układów
wytwórczych, Czasopismo Energetyka 6/2013 (708), ISSN 0013-7294, Oficyna
Wydawnicza ENERGIA, Katowice, czerwiec 2013, s. 459.
Salles MBC, Freitas W, Morelato A, Comparative analysis between, SVC and
DSTATCOM devices for improvement of induction generator stability, IEEE
MELECON, Dubrovnik, Croatia, 2004.
Sitarz S., Projekt hybrydowej elektrowni słoneczno-wiatrowej, Mechanics, 2005,
Vol. 24, No. 3, s. 211-219.
Projekt hybrydowej elektrowni słoneczno-wiatrowej
[8]
[9]
147
Stefaniak A., Systemy hybrydowe odnawialnych źródeł energii, miesięcznik
ogólnopolski „Czysta Energia”, Nr 11(147)/2013, ISSN 1643-126X, Wydawnictwo
Abrys, Poznań, listopad 2013, s. 22-23.
Strzelecki R., Benysek G., Power Electronics in Smart Electrical Energy Networks,
Springer, Londyn, 2008, s. 300-301.
THE DESIGN OF A HYBRID SOLAR-WIND POWER PLANT
The article presents the design of a hybrid solar-wind power plant. The paper presents
issues related to electricity generation using wind turbines and photovoltaic panels. The
paper presents a hybrid dual power project built with wind and solar power. The project
describes the design assumptions, structure, power, battery selection and balance of solar
-wind power plant. The production of electricity in each month of the hybrid power plant
and the demand for electricity was analyzed.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Damian GŁUCHY*
Dariusz KURZ*
Grzegorz TRZMIEL*
ASPEKTY PROJEKTOWANIA I EKSPLOATACJI
SYSTEMÓW PRZECIWPOŻAROWYCH W OBIEKTACH
PRZEMYSŁOWYCH
W pracy przedstawiono przegląd najważniejszych, zdaniem autorów, reguł
stosowanych w procesie projektowania systemów przeciwpożarowych. W rozważaniach
wzięto pod uwagę obowiązujące normy, przepisy i najnowsze rozwiązania układowe.
Zaproponowano kanon zaleceń i wytycznych dla projektantów i konstruktorów. Zwrócono
również uwagę na potrzebę skonstruowania wskazówek dla instalatorów i konserwatorów
funkcjonujących systemów.
SŁOWA KLUCZOWE: system alarmu pożarowego (SAP), detektory pożarów, normy i akty
prawne, zalecenia projektowe i eksploatacyjne
1. WSTĘP
Obiekty budowlane wraz z całą infrastrukturą są projektowane i budowane z
przeznaczeniem na długi okres czasu, dlatego powinny być wykonywane w
zgodzie z obowiązującymi przepisami oraz z zachowaniem fachowej wiedzy
technicznej, zapewniając tym samym podstawowe wymagania prawa
budowlanego [5]. Prawo budowlane wskazuje jednoznacznie, że budowle tego
typu budowane są z myślą o wieloletnim użytkowaniu, a w wymaganiach
podstawowych na drugim miejscu wskazuje na zachowanie bezpieczeństwa
pożarowego, co pokazuje, jak ważny jest to aspekt. Instalacje systemów
sygnalizacji pożarowej mają za zadanie zabezpieczyć obiekty przed skutkami tego
żywiołu. Skuteczna ochrona ludzi i mienia przed pożarem jest zależna od
prędkości jego wykrycia, organizacji ewakuacji, gaszenia i oddymiania.
Obiekty przemysłowe, stanowiące bardzo ważne ogniwo w całym systemie
funkcjonowania państwa i gospodarki zgodnie z wytycznymi Ministra Spraw
Wewnętrznych i Administracji z dnia 7 czerwca 2010 r. w sprawie ochrony
przeciwpożarowej budynków [6], muszą być bezwzględnie wyposażone w
systemy sygnalizacji pożaru.
__________________________________________
* Politechnika Poznańska.
150
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
Obiekty przemysłowe sektora prywatnego nie mają takiego obowiązku
narzuconego ustawą, ale nie rzadko wyposażenie wewnętrzne tych budynków
przewyższa znacznie wartość samego budynku. Stosowane obecnie linie
technologiczne, zautomatyzowane, oparte na skomplikowanych maszynach i
często robotach, wykonujące skomplikowane operacje, stanową ogromny majątek,
który należy chronić.
Koszt związany z wdrożeniem systemu wykrywania pożaru, w porównaniu z
całą inwestycją, jest znikomy, a w perspektywie wieloletniego użytkowania
budynku inwestycja ta pozwala na zminimalizowanie ryzyka i podnosi
funkcjonalność obiektu.
2. SYSTEM ALARMU POŻAROWEGO SAP
SAP, czyli System Alarmu Pożarowego jest instalacją pozwalającą na
wykrywanie zagrożenia pożarowego we wczesnym stadium jego rozwoju.
Wczesne wykrycie zagrożenia pozwala na automatyczne uruchomienie automatyki
pożarowej oraz powiadomienie odpowiednich służb. Wczesne wykrycie
niebezpieczeństwa jest kluczowym aspektem takich systemów. Zlokalizowanie
ogniska pożaru w początkowym stadium pozwala na szybkie zareagowanie i
eliminację przyczyny awarii.
Gwarancją poprawnego działania systemu jest odpowiednie dobranie czujek
pożarowych, które zagregują we wczesnej fazie pożaru, a jednocześnie nie będą
powodować fałszywych alarmów. Pozwala to na uniknięcie niepotrzebnych akcji
ewakuacyjnych, przestojów lub wyłączeń, które mogą przynosić konkretne straty.
O doborze czujek w głównej mierze decydują:
 materiały znajdujące się w zabezpieczanym pomieszczeniu,
 geometria pomieszczenia,
 specyficzne warunki panujące w pomieszczeniu (np. kurz, wentylacja itp.).
Zawansowane czujniki potrafią wyeliminować fałszywe alarmy, rozpoznając
przyczyny i odpowiednio je interpretując. W tradycyjnych pomieszczeniach np.
biurowych czy pokojach hotelowych wybór rodzaju czujek nie stanowi specjalnego
problemu. Jednak w miarę zawansowania obiektu, poprawne wykonanie
działającego systemu sygnalizacji pożarowej stanowi coraz trudniejsze wyzwanie.
Do najtrudniejszych obiektów dla projektanta należą między innymi:
 wysokie pomieszczenia, np. magazyny wysokiego składowania,
 intensywna
klimatyzacja
pomieszczeń,
np.:
serwerownie,
centrale
telekomunikacyjne,
 zapylenie powietrza w pomieszczeniu, np.: młyny, zakłady przemysłu drzewnego,
 obecność niewielkich owadów, np.: hotele, silosy spożywcze,
 duża wilgotność powietrza, np.: chłodnie, sauny,
Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 151
 zabezpieczenie budynku od zewnątrz, np.: drewniane obiekty zabytkowe,
skanseny,
 wysoka estetyka lub zabytkowy charakter wnętrz, np. kościoły.
System wykrywania pożaru będzie skuteczny i spełni w pełni powierzone mu
zadania, jeśli każdy element będzie spełniać wymagania ujęte w normie PN – EN
54:1998 [3]. Na zgodność z tą normą każdy element badany jest przed
dopuszczeniem i otrzymuje świadectwo dopuszczenia oraz certyfikat zgodności z
CNBOP (Centrum Naukowo-Badawczym Ochrony Przeciwpożarowej).
Dokumenty te poświadczają, że każdy element systemu został przebadany i
sprawdzony, co gwarantuje jego niezawodność.
3. ELEMENTY DETEKCYJNE
Do central pożarowych za pomocą linii sygnałowych podłączane są
automatyczne detektory, mające za zadanie wykryć zagrożenie pożarowe oraz
wyspecjalizowane moduły wejść-wyjść, umożliwiające realizację automatyki
pożarowej. W zależności od przeznaczenia centrale mogą obsługiwać od jednej do
kilkunastu linii detekcyjnych w układzie pętlowym. Układ pętlowy pozwala na
redundantną komunikację i zasilanie wszystkich elementów detekcyjnych i
modułowych (rys. 1).
Rys. 1. Przykładowa pętla detekcyjna systemów pożarowych [8]
Każdy element posiada podwójną drogę komunikacji z centralą, dlatego
pojedyncza awaria nie powoduje utraty transmisji. Dzięki cyfrowej komunikacji z
każdym adresowalnym elementem na pętli centrala ma możliwość dokładnej
identyfikacji każdego elementu, a to pozwala na dokładne określenie miejsca
wystąpienia zagrożenia. Dodatkowo każdy element wyposażony w mikroprocesor
może przekazywać dodatkowe informacje serwisowe do centrali. Z tego powodu
możliwa jest analiza stanu każdego czujnika.
152
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
Czujki pożarowe odpowiedzialne są za wykrywanie zjawisk i czynników
towarzyszących pożarom. Czujniki wykrywają produkty spalania w postaci dymu i
aerozoli, ciepła (temperatura), promieniowania elektromagnetycznego (podczerwień,
ultrafiolet) czy gazów pożarowych. Detektory umieszczone w obudowie zintegrowane
są z elementami elektroniki odpowiedzialnej za analizę i weryfikację mierzonych
sygnałów oraz za komunikację z centralą pożarową. Czujki pożarowe w zależności od
przeznaczenia i budowy posiadają jeden lub więcej detektorów. Czujki
wielosensorowe są dokładniejsze i mają możliwość weryfikacji wielu czynników
jednocześnie, co znacznie ogranicza liczbę fałszywych alarmów. Przydatność czujek
do wykrywania pożarów jest określana ich przydatnością do wykrywania pożarów
testowych TF. Przykładowe wartości TF zestawiono w tabeli 1.
Tabela 1. Charakterystyka przykładowych pożarów testowych [1]
Test
TF1
TF3
Rodzaj pożaru
(paliwo)
Płomieniowe
spalanie
celulozy
(drewno)
Pożar tlący
(bawełna)
Silny
Do pominięcia
Do pominięcia
Do
pominięcia
Duża
Bardzo mała
Mała
Mała
Jest
Przeważnie
niewidoczne
Jest
Przeważnie
niewidoczne
Jest
Przeważnie
widoczne
Jest
Przeważnie
niewidoczne
Ciemna
Jasna, silnie
rozpraszająca
Jasna, silnie
rozpraszająca
Jasna, silnie
rozpraszająca
Nie ma
Duże
Duże
Duże
Wzrost
temperatury
Prędkość
wznoszenia
Dym
Widmo dymu
Część
widzialna dymu
Występowanie
CO
TF7
Wolny
rozkład
termiczny piroliza
(drewno)
TF9
Powolne
tlenie bawełna
540g/m2
Głównym kryterium doboru czujek są materiały znajdujące się w zabezpieczanym
obszarze oraz to, jakie czynniki mogą towarzyszyć pożarowi. Przyjmuje się, że pożar
rozwija się w czterech kolejno po sobie następujących fazach. Pierwsza faza rozwijania
się pożaru to tlenie się materiałów, powstaje wtedy dym widzialny i niewidzialny. Przy
drugiej fazie zaczyna wydobywać się z palonego materiału gęsty dym. Dla tych
pierwszych faz najczęściej przewiduje się zastosowanie czujników z detektorami
optycznymi i jonizacyjnymi. Faza trzecia to pojawienie się otwartego płomienia, który
może zostać wykryty przez czujniki jonizacyjne oraz płomienia. Czwartej fazie
towarzyszy gwałtowny przyrost temperatury otoczenia, na który reagują czujniki z
detektorem termicznym. Na rysunku 2 przedstawiono przydatność różnego rodzaju
detektorów na wykrywanie pożarów testowych.
Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 153
Rys. 2. Przydatność detektorów do wykrywania pożarów testowych [7]:
A-cz. liniowa optyczna, B-cz. temperaturowa, C-cz. płomienia, D-cz. optyczna, E-cz. jonizacyjna
4. NORMY I AKTY PRAWNE DOTYCZĄCE PROJEKTOWANIA
SYSTEMÓW PRZECIWPOŻAROWYCH
Projekt i dokumentacja powinny być wykonywane zgodnie z zasadami wiedzy
technicznej oraz z wytycznymi projektowania instalacji sygnalizacji pożarowej
Stowarzyszenia Inżynierów i Techników Pożarnictwa.
Proces projektowania systemów przeciwpożarowych powinien być zgodny z
zasadami ujętymi w aktach prawnych, jakimi są ustawy i rozporządzenia. Najnowszym
dokumentem w tej dziedzinie jest Rozporządzenie Ministra Spraw Wewnętrznych i
Administracji z dnia 7 czerwca 2010 r. w sprawie ochrony przeciwpożarowej
budynków, innych obiektów budowlanych i terenów (Dz.U. 2010 nr 109 poz. 719). W
rozporządzeniu tym m. in. podano wykaz budynków, w których obowiązkowe jest
stosowanie stałych urządzeń gaśniczych, systemów sygnalizacji pożarowej i
dźwiękowych systemów ostrzegawczych. Jedną z podstawowych ustaw jest Ustawa z
dnia 24 sierpnia 1991 roku o ochronie przeciwpożarowej (tekst jednolity Dz.U. 2009
nr 178 poz. 1380), która m.in. nakłada obowiązek na właściciela, zarządcę lub
użytkownika budynku zapewnienia konserwacji oraz naprawy sprzętu zgodnie z
zasadami i wymaganiami gwarantującymi sprawne i niezawodne jego funkcjonowanie.
5. FUNKCJONALNOŚĆ NOWOCZESNEJ AUTOMATYKI
PRZECIWPOŻAROWEJ
W ramach automatyki pożarowej, przy ogłoszeniu alarmu pożarowego
ogólnego, adresowalne moduły sterujące powinny automatycznie podjąć
następujące działania z wykorzystaniem sygnałów sterujących:
 sygnalizacja niebezpieczeństwa przez automatyczne uruchomienie sygnału
alarmowego za pomocą syren alarmowych w zagrożonej strefie,
154
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
 zatrzymanie procesów technologicznych poprzez podanie sygnałów
alarmowych na wejścia alarmowe automatyki przemysłowej,
 zwolnienie drzwi ewakuacyjnych z kontrolą dostępu poprzez przerwanie
obwodów zasilających blokady elekromagnetyczne,
 wyłączenie wentylacji bytowej w całym obiekcie,
 zwolnienie napędów sprężynowych klap pożarowych w kanałach
wentylacyjnych,
 uruchomienie napędów elektrycznych klap pożarowych w kanałach wentylacji
pożarowej,
 zwolnienie grodzi pożarowych pomiędzy odrębnymi strefami,
 załączenie wentylacji pożarowej oddymiającej i napowietrzającej,
 przekazanie informacji o alarmie do urządzenia transmisji alarmu pożarowego
(UTA).
Z punktu widzenia niezawodności bardzo istotne są również sygnały
monitorujące poprawną pracę układów odpowiedzialnych za wymienione powyżej
czynności.
6. POWYKONAWCZE ZALECENIA EKSPLOATACYJNE
Wszystkie czujniki i ręczne ostrzegacze pożarowe ROP powinny posiadać
etykiety z numerem pętli dozorowej i adresem elementu. Miejsca montażu
przycisków ROP należy oznaczać za pomocą certyfikowanych tabliczek zgodnie z
wymogami przyjętymi w Polskich Normach. Należy również sporządzić spis
wszystkich zamontowanych elementów wymagających przeglądu lub ingerencji
administratora budynku i przekazać zarządcy budynku w celu ustalenia
harmonogramu konserwacji całości systemu. Instalację powinno się pozostawić
sprawdzoną, zgodnie z wymogiem Polskich Norm [4] sprawdzić funkcjonowanie
wszystkich elementów, a ich działanie potwierdzić raportem.
Wszystkie osoby, zatrudnione w ochronie obiektu, które przewiduje się do
obsługi i kontroli systemów bezpieczeństwa, powinny być przeszkolone w zakresie
obsługi centrali. Każda ze szkolonych osób musi mieć możliwość praktycznego
zapoznania się z obsługą wszystkich systemów.
W czasie odbioru i oddania do eksploatacji systemów bezpieczeństwa
wykonawca winien przedstawić następujące dokumenty [4]:
 dokumentację powykonawczą rozmieszczenia wszystkich elementów na
obiekcie, potwierdzoną wizją lokalną,
 protokoły pomiarów linii dozorowych (rezystancja izolacji, rezystancja pętli,
pojemność pary) instalacji SAP,
 protokół z prób wszystkich automatycznych czujników pożarowych
(zadymienie czujek dymu, podgrzanie czujek ciepła) i ręcznych ostrzegaczy
pożarowych SAP,
Aspekty projektowania i eksploatacji systemów przeciwpożarowych w obiektach … 155
 plan i harmonogram konserwacji systemów niezbędny dla utrzymania gwarancji.
Warunkiem niezawodnej pracy systemu jest prawidłowa i stała konserwacja.
Regularna konserwacja jest podstawą zachowania gwarancji dla instalacji.
Konserwacja wszystkich urządzeń wchodzących w skład systemu powinna być
przeprowadzana zgodnie z odpowiednimi instrukcjami.
W pomieszczeniu, w którym jest zainstalowany system SAP, powinny
znajdować się następujące dokumenty związane z eksploatacją (obsługą
techniczną) wszystkich systemów:
 plan sytuacyjny z zaznaczeniem pomieszczeń zabezpieczanych,
 instrukcja postępowania w przypadku alarmu pożarowego lub uszkodzenia,
 instrukcja obsługi centrali SAP,
 książka pracy centrali SAP,
 wykaz osób funkcyjnych, tzn. osób związanych z obiektem,
 nazwa, adres i numer telefonu kontaktowego konserwatora systemu.
Przeglądy i obsługa techniczna powinny być wykonywane cyklicznie [4]:
 codziennie - przez użytkownika: sprawdzenie stanu oraz komunikatów z central,
 miesięcznie - przez użytkownika lub przez firmę serwisową,
 kwartalnie oraz rocznie - przez firmę serwisową.
Konserwację całego systemu należy przeprowadzać w odstępach czasu nie większych
niż 6 miesięcy. W ramach półrocznej, rutynowej konserwacji instalacji SAP należy:
 przejrzeć cały system ze sprawdzeniem na centralce zabrudzenia wszystkich
czujek dymu,
 dokonać oczyszczenia czujek wykazujących zabrudzenie ponad 50 %,
 przetestować działanie wszystkich czujek detektorów (dymu i ciepła),
 przetestować działanie ręcznych ostrzegaczy pożarowych,
 wykonać czyszczenie wszystkich czujek ciepła,
 sprawdzić stany magazynowe elementów eksploatacyjnych,
 sprawdzić stan akumulatorów.
Ponadto serwis raz w roku powinien dokonać kontrolnego rozładowania i
ładowania akumulatorów zgodnie z zaleceniami producenta. Raz na cztery lata
akumulatory, stanowiące rezerwowe źródło zasilania systemu, należy wymienić na
nowe. Należy też okresowo sprawdzać poprawność działania wszystkich
sygnalizatorów świetlnych oraz dźwiękowych centrali.
6. PODSUMOWANIE
Światowy trend budowania inteligentnych, przyjaznych i bezpieczniejszych
obiektów jest coraz bardziej zauważalny w Polsce. Ważnym powodem
inwestowania w systemy bezpieczeństwa jest integracja i automatyzacja wielu
elementów automatyki budynkowej przez centrale SAP. Taka integracja znacznie
podnosi funkcjonalność obiektu oraz ułatwia w dużej mierze obsługę i zarządzanie.
156
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
Kolejnym znaczącym trendem w systemach bezpieczeństwa pożarowego jest
coraz większa integracja systemów z wykorzystaniem cyfrowych technik
informacyjnych. Obecnie dopuszczony jest jedynie zdalny dostęp umożliwiający
monitoring, w przyszłości system będzie pozwalał na obsługę, programowanie i
zdalny serwis. Dodatkowo operacje, które wykonywane były zwykle lokalnie przez
programistów, obecnych podczas wdrażania instalacji na budowie, będą mogły być
wykonywane zdalnie, poprzez dedykowane sieci LAN oraz Internet dzięki
komunikacji po protokole TCP/IP. Koszt instalacji bezpieczeństwa w całkowitym
budżecie typowego obiektu przemysłowego jest znikomy, a jego wdrożenie, wraz z
integracją z pozostałymi systemami, może skutkować minimalizacją liczby
urządzeń o około 20 %, a co za tym idzie oszczędnością na inwestycji [2]. Rosnąca
popularność systemów SAP skłoniła autorów pracy do zaprezentowania
podstawowych zasad, reguł i zaleceń obowiązujących podczas procesu doboru,
projektowania i eksploatacji tego typu instalacji.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
Markowski W., Czułość czujek pożarowych cz.1, Systemy alarmowe, nr 2/2008.
Mikulik J., Budynek Inteligentny, praca pod redakcją Elżbiety Niezabitowskiej,
Tom II - Podstawowe systemy bezpieczeństwa w budynkach inteligentnych,
Wydawnictwo Politechniki Śląskiej, Gliwice 2010.
PN-EN 54-1:1998, Systemy sygnalizacji pożarowej – Część 1: Wprowadzenie.
PN-EN 54-14: Systemy sygnalizacji pożarowej – Część 14: Wytyczne planowania,
projektowania, instalowania, odbioru, eksploatacji i konserwacji, maj 2006 r.
Prawo budowlane (Dz. U. z 1994 r. Nr 89, poz. 414) - ustawa z dnia 7 lipca 1994 r.
Rozporządzenie Ministra Spraw Wewnętrznych i Administracji, Dziennik Ustaw
2010 nr 109 poz. 719 z dnia 10 czerwca 2010 r.
Wytyczne projektowania instalacji sygnalizacji pożarowej – Stowarzyszenie
Inżynierów i Techników Pożarnictwa, Warszawa 02:2010.
http://www.krakpoz.pl/systemy_sygnalizacji_pozaru.php?id=bosch_fpa, Centrala
Bosch FPA-5000, 27.01.2014 r.
ASPECTS OF DESIGN AND OPERATING OF FIRE PROTECTION SYSTEMS
IN INDUSTRIAL
In this paper the authors present an overview of the most important, in their view, the
rules used for the design of fire protection systems. The considerations were taken into
account existing standards, regulations and the latest firmware solutions. Proposed canon of
recommendations and guidelines for designers and constructors. It also drew attention to
the need to construct guidelines for installers and maintenance functioning systems.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O UR N A L S
No 79
Electrical Engineering
2014
Bartosz CERAN*
Paul Anton BERNSTEIN**
APPLICATION PEM FUEL CELLS IN DISTRIBUTED
GENERATION
In this article the laboratory stand for testing the cooperation of three energy sources has
been presented. The aspects of the use of PEM cells in distributed generation have been
studied. The measurement results of parallel cooperation of the fuel cell with wind turbine
and photovoltaic cell have been presented.
SŁOWA KLUCZOWE: PEM fuel cell, distributed generation, electrolysis
1. INTRODUCTION
Energy generation in a distributed system is now a rapidly developing branch of
electricity. Distributed generation means small generating units, or objects,
connected directly to the distribution network or located near the load. They are not
subject to central planning development and disposition of power [1].
Wind turbines operating in the power system are not fully disposable. They
require startup reserve sources that could cover the needs of energy in the absence
of good weather conditions (suitable wind speed). Photovoltaic systems will have
the same problems in the future.
For technological reasons thermal power plants are not suitable
to quick changes the power generated at short intervals. The solution to this
problem may be PEM (Protone Exchange Membrane) fuel cells.
Fuel cells are electric – chemical devices where direct transformation of
chemical energy into electric one takes place. This way of transforming one kind
of energy into the other is an essential advantage of fuel cells because it gives an
opportunity of reaching high efficiency of energy conversion process which is not
limited by Carnot’s cycle efficiency. The following advantages of fuel cells can
be listed: high efficiency, very low greenhouse gas emission, low level of noise,
modular structure, ability to work with low loads, ability of reverse working, very
good regulation abilities [2].
__________________________________________
* Poznan University of Technology.
** Otto von Guericke University Magdeburg.
158
Bartosz Ceran, Paul A. Bernstein
2. PEM FUEL CELLS - OPERATION OPTIMIZATION
AND LOAD CHANGE RESPONSE
For the application of PEM fuel cells a virtual power plant of several fuel cells
(and other types of power plants) is favorable for the operation due to two main
reasons. PEM fuel cells are capable of bearing quick load shifts. However, a
change in the supply of the reactant gases is slow. Load shifts may result in short
timespans with over- or undersupply of the reactants and therefore reducing the
lifetime of a fuel cell [3].
Generally, a fuel cell with modest load changes and constant operation
parameters will have a higher lifetime, so one reason for virtual power plants is the
possibility of splitting the load over several fuel cells so that each fuel cell can run
at optimal operation parameters. The second reason is the distribution of the fuel
cell plants will help to generate the energy locally where it is needed, which will
reduce transfer losses. Moreover, the generated heat of the fuel cell systems can be
used for district heating.
A virtual power plant has various other advantages [4, 5], nonetheless it
requires a smart grid for communication between the subsystems and possibly a
central power plant control (Fig 2.1). The communication is important to
synchronize the decentralized subsystems not only to deal with load change
response, but also to transfer status and security information. The market price can
also have an influence on the production of a virtual power plant. Additionally it is
possible to include the information of weather forecasts or other grid operators to
predict the generation of wind and solar so load changes can be prepared in
advance. As fuel cells need time to start up this advantage is crucial for the
operation management.
For the start process, fuel cell systems based on reformat gas require up to two
hours to heat up the reformer. Systems based on pure hydrogen only require a view
minutes to start up, but should not run on full load until the system temperature is
stabilized at the nominal operation temperature (50-70°C for PEM fuel cells). The
heat production of the stacks is enough to heat up the system and excess heat needs
to be dissipated to keep the stack temperature stable.
Besides the reactant and thermal operation of a fuel cell system, the electrical
operation is rather simple. A fuel cell behaves like a direct current source while the
voltage is dependent on the load current and the quality of the fuel cell including
aging. The cell voltage will depend on the operation conditions as well as
temperature, humidity and pressure of the reactants has a direct influence on the
cell voltage. The load current can be changed until the power output is at the
required level. However, the virtual power plant approach allows dealing with
small power differences of the decentralized systems without this requirement.
Therefore, a single system can run at optimal load and stable current.
Application PEM fuel cells in distributed generation
159
Fig. 2.1. Structure of a virtual power plant showing connections to external systems
3. COOPERATION OF PEM FUEL CELLS WITH WIND TURBINE
AND PHOTOVOLTAIC CELLS
Figure 3.1 shows a block diagram of the system which includes, wind turbine,
photovoltaic cell, fuel cell and electrolyzer. There are two possibilities for energy
flow. First option is feeding elecrolyzer with wind turbine and solar cells. Second
option is parallel cooperation of fuel cell with both renewable energy sources.
Fig. 3.1. A block diagram of the test system
The first purpose of the test is to obtain information about the time of produce of
specifc value of hydrogen by feeding electrolyzer with renewable energy sources.
The second purpose of the test is to get information is fuell cell can work in parallel
with chimeric energy sources as wind turbine or photovoltaic cell and cover
momentary deficits of produced power.
160
Bartosz Ceran, Paul A. Bernstein
3.1. Laboratory stand
In Figure 3.2 laboratory stand has been presented. Thanks to the stand it
is possible to determine the characteristics of the three energy sources fuell cell, photovoltaic cell, wind turbine as well as their cooperation.
Fig. 3.2. Laboratory station
3.2. Wind turbine and photofoltaic cell feeds the elektrolyzer
In Figure 3.3 a block diagram of the test system has been presented. The
measurements were made at three operating points of the system. Operating points
means points of intersection of the external characteristics of energy sources with
the external characteristic of the electrolyzer. Figure 3.4 shows the external
characteristics of the system components.
Fig. 3.3. A block diagram of the test system
The electrolyzer was first powered by wind turbine, second was powered by
photovoltaic cell and finally from both sources at the same time. Value of the
irradiance was 1200 W/m2, and wind speed value was 5.2 m/s. The time in which
20 cm3 of hydrogen was produced was measured.
Application PEM fuel cells in distributed generation
161
Fig. 3.4. External characteristics of the electrolyzer, the wind turbine and photovoltaic cell
Fig. 3.5. The results of measurements
Figure 3.5 shows the results of measurments. Providing more power to the
electrolyzer will reduce the time of production of a specific volume of hydrogen.
162
Bartosz Ceran, Paul A. Bernstein
3.3. Fuel cell parallel cooperation with wind turbine and photovoltaic cell
In Figure 3.6 a block diagram of the test system has been presented.
Fig. 3.6. Measuring system - block diagram
Voltage and current signals were registered using a multimeter. The DC/DC
convertes were gave a constant value of voltage which was 2.5 volts. Shunt
resistors were used for the measurement of current signals. During the recording
voltage and current signals, intensity of solar radiation and wind speed was
changed. In Figure 3.7 the recorded signals have been presented.
Fig. 3.7. The results of measurements - the current signals
Dark gray signal represents the current flowing from the fuel cell and light gray
signal represents current flowing from wind turbina and photovoltaic cell. The sum
of the currents is represented by the black signal. The initial operating point was
established at the 0.2 ampere from renewable energy sources and 0.3 ampere from
Application PEM fuel cells in distributed generation
163
the fuel cell. After 10 seconds renewable energy sources were disabled and the
current from the fuel cell with a value of 0.37 ampere has been generated. After the
next 5 seconds, renewable sources restarted - the current value from the fuel cell
went back to the earlier value, the system was stabilized and the current value of
the load was again 0.5 ampere. After next 15 seconds the main light source was
turned off. The value of current from photovoltaic cell has decreased to the
minimum. The fuel cell changed the operating point and generated bigger current.
Thanks to this the current value of the load was constant. After a while, the main
light source has been switched on and off, then it was switched on and off again
and then switched on. Thanks to the fuel cell the value of current of the load was
0.5 ampere. Wind turbine and photovoltaic cell were disabled at the end of the test.
The fuel cell generated a maximum current and recording of the measured signals
were completed.
The fuel cell can work in parallel with renewable energy sources and cover
momentary deficits of produced power
4. CONCLUSIONS
The tests performed let us draw the following conclusions:
 Virtual power plants allow the combined operation of several fuel cell systems
and other sources and will manage the load change response.
 Providing more power to the electrolyzer will reduce the time production of a
specific volume of hydrogen.
 The fuel cell can work in parallel with renewable energy sources and cover
momentary deficits of produced power.
REFERENCES
[1]
[2]
[3]
[4]
[5]
R. Szczerbowski, B. Ceran, „Możliwości rozwoju i problemy techniczne małej
generacji rozproszonej opartej na odnawialnych źródłach energii” Polityka
Energetyczna, Tom 16, Zeszyt 3, 2013.
Paska J., Wytwarzanie rozproszone energii elektrycznej i ciepła – Oficyna
Wydawnicza Politechniki Warszawskiej 2010, s. 118-124.
Bernstein P. A., Heuer M., Wenske M., ”Fuel Cell System as a Part of the Smart
Grid” in Proc. Of POWERTECH 2013, Grenoble, France, 16-20 June 2013.
Lombardi P., Stötzer M., Styczynski Z., Orths A., ”Multi-criteria optimization of an
energy storage system within a virtual power plant architecutre” in Proc. of IEEE
PES General Meeting, 24-28 July 2011.
Ruiz N., Cobelo I., Oyarzabal J., ”A direct load control model for virtual power
plant management” in IEEE Transactions on Power Systems, Volume 24, Issue 2,
2009, Pages 959-966.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Damian GŁUCHY*
Dariusz KURZ*
Grzegorz TRZMIEL*
BADANIA EFEKTYWNOŚCI PRACY FOTODACHÓWEK
UMIESZCZONYCH NA RÓŻNYCH PODŁOŻACH
DACHOWYCH
W pracy zwrócono uwagę na problem wpływu temperatury pracy ogniw PV,
wchodzących w skład dachówek solarnych, na uzysk mocy. Przedstawiono skonstruowane
stanowisko badawcze wraz z systemem pomiarowym, scharakteryzowano jego elementy
składowe oraz metodykę prowadzonych badań. Zaprezentowano i skomentowano wstępne
wyniki pomiarów. Wskazano możliwe korzyści wynikające z prowadzonych prac dla
różnych grup odbiorców.
SŁOWA KLUCZOWE: dachówka fotowoltaiczna, uzysk mocy, sprawność, temperatura
ogniw PV, uwarstwienie dachu, podłoże dachowe
1. WPROWADZENIE
Globalne ocieplenie klimatu, wyczerpywanie się złóż naturalnych paliw
kopalnych, ograniczenia w emisji dwutlenku węgla do atmosfery oraz wiele innych
czynników zmusza do poszukiwania nowych, zielonych źródeł energii
odnawialnej. Niezbędne jest więc prowadzenie badań naukowych dotyczących
tych źródeł a w szczególności nad podnoszeniem ich sprawności generacji energii,
jej przetwarzaniem, magazynowaniem oraz efektywnym wykorzystywaniem. Na
szczególną uwagę zasługuje niewątpliwie energetyka słoneczna, a zwłaszcza jej
najnowsza forma, czyli fotowoltaika zintegrowana z budynkiem (ang. BIPV –
Building Integrated Photovoltaics). Niektóre elementy budowlane (takie jak
pustaki, dachówki, szyby) poprzez ich połączenie z ogniwami fotowoltaicznymi
tworzą spójną całość i cechują się własnościami obydwu elementów. Zastępując
zwykłą dachówkę ceramiczną dachówką solarną, nie tylko uzyskuje się izolację
termiczną czy wodną budynku, ale także możliwość konwersji energii słonecznej
w elektryczną. Dodatkowo energia tworzona jest w miejscu jej wykorzystania, co
jest szczególnie istotne w obszarach miejskich o gęstej zabudowie oraz na
obszarach oddalonych od elektrowni. Elementy te nie zaburzają estetyki krajobrazu
__________________________________________
* Politechnika Poznańska.
166
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
ani nie wymagają dodatkowej przestrzeni, dlatego też to właśnie ten element
systemu BIPV ma największe szanse na szybką popularyzację wśród inwestorów
budowlanych i powszechne zastosowanie w budownictwie ekologicznym,
wypierając stopniowo tradycyjne panele fotowoltaiczne.
Jak powszechnie wiadomo z literatury przedmiotu, na ilość generowanej energii
wpływa temperatura fotoogniw, co pokazano na rysunku 1. Jej wzrost prowadzi do
obniżenia wartości uzyskiwanego napięcia, a tym samym do obniżenia sprawności
panelu.
Rys. 1. Charakterystyka prądowo – napięciowa fotoogniwa w zależności od temperatury komórki [4]
W przypadku elementów BIPV problem ten staje się o wiele bardziej złożony,
niż dla tradycyjnych paneli, montowanych na specjalnej konstrukcji wsporczej nad
powierzchnią dachu. Wynika to z samego założenia konstrukcyjnego elementów
BIPV, które zastępując materiały budowlane stają się integralną częścią budynku,
przez co narażone są na zmienne warunki pracy. Pod powierzchnią dachówek
fotowoltaicznych znajduje się o wiele mniejsza masa powietrza, niż pod
tradycyjnym panelem, istnieją inne warunki wymiany ciepła z otoczeniem, a także
brak jest naturalnego przewietrzania.
Istotną rolę odgrywa również materiał konstrukcyjny podłoża dachowego, a w
szczególności jego właściwości termiczne, współczynnik wymiany ciepła z
otoczeniem, izolacja termiczna itp. Wstępne badania pozwoliły na postawienie
hipotez badawczych, które planuje się dowieść poprzez przeprowadzenie
równoległych, całorocznych badań wpływu rodzaju podłoża na ilość generowanej
energii elektrycznej.
2. STANOWISKO BADAWCZE
Prowadzone badania mają na celu wyznaczenie wpływu rodzaju materiału
konstrukcyjnego podłoża dachowego na ilość generowanej energii elektrycznej,
przy identycznych warunkach pogodowych. W tym celu została wzniesiona
Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 167
specjalna konstrukcja dachowa (na płaskim dachu istniejącego budynku) złożona z
identycznymi dachówek fotowoltaicznych umieszczonych na różnych podłożach.
Widoczne na rysunku 2 fragmenty dachów składają się z następujących materiałów
(odpowiednio od lewej):
1) folii dachowej z ociepleniem wełną mineralną (dach 1),
2) folii dachowej bez ocieplenia (dach 2),
3) desek pokrytych papą z ociepleniem wełną mineralną (dach 3).
1)
2)
3)
Rys. 2. Stanowisko badawcze – konstrukcje dachowej z różnymi podłożami
W celu odzwierciedlenia warunków pracy najczęściej spotykanych w
rzeczywistości wybrano przedstawione materiały (deski, folia) oraz wykonano
bądź nie ocieplenie dachu wełną mineralną. W celu zapewnienia identycznych
warunków otoczenia (temperatury otoczenia, nasłonecznienia) badania
prowadzone są jednocześnie na wszystkich trzech instalacjach, przez okres całego
roku w wybrane dni każdego miesiąca. Dzięki temu zostanie także wyznaczony
wpływ warunków pogodowych na badane parametry. W celu zapewnienia
najbardziej optymalnych warunków pracy systemu przez cały rok, ogniwa zostały
skierowane na południe i nachylone pod kątem 37º do powierzchni ziemi [1 - 4].
Za pomocą zautomatyzowanego systemu pomiarowego, z każdego zestawu
badanych fotodachówek zbierane są informacje o wartości chwilowej prądu,
napięcia i mocy, jakie uzyskane są w procesie konwersji fotowoltaicznej.
168
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
Pomiarom podlega także gęstość mocy promieniowania słonecznego (E [W/m2])
oraz temperatura powierzchni roboczej dachówki (T1 [ºC]) i przestrzeni
powietrznej pomiędzy dachówką a konstrukcją dachową (T2 [ºC]). Dodatkowo
mierzona jest temperatura oraz wilgotność powietrza.
W skład systemu pomiarowego wchodzą:
a) dachówki fotowoltaiczne FOTTON 52 W (3 dachówki połączone szeregowo
na każdej instalacji) [5],
b) rejestrator dwudziesto kanałowy,
c) czujniki temperatury PT100,
d) cęgi prądowe,
e) rezystory stanowiące obciążenie (niezbędne do zdjęcia charakterystyki
prądowo-napięciowej dachówki solarnej i wyznaczenia parametrów w
punkcie maksymalnej mocy PMM),
f) komputer PC.
System pomiarowy został wykonany zgodnie z odpowiednimi wymaganiami pracy
w terenie otwartym, takimi jak np. opady czy temperatura.
Rys. 3. Schemat rozmieszczenia elementów składowych dachu oraz czujników
Rozmieszczenie czujników oraz elementów składowych jednego z trzech
dachów (z deskami, papą oraz wełną) przedstawiono na rys. 3. Dla pozostałych
dwóch rodzajów podłoża umiejscowienie elementów pomiarowych jest identyczne.
Zaimplementowany system pomiarowy pozwala na zapis próbek danych,
zmianę parametrów pomiarowych oraz obliczanie i przechowywanie rezultatów
badań. Efektem kalkulacji będą docelowo zestawienia tabelaryczne i graficzne
otrzymanych wyników w celu dokonania analizy uzysków energii na różnych
podłożach dachowych w tej samej lokalizacji geograficznej i przy tych samych
warunkach pracy. Poprawność danych pochodzących z systemu pomiarowego
będzie okresowo weryfikowana przy użyciu tradycyjnych mierników wartości
gęstości mocy promieniowania, temperatury, prądu i napięcia.
Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 169
3. POMIARY WSTĘPNE
Analiza przykładowych pomiarów i wykonanych charakterystyk z dnia
29.06.2013 w godzinach 12-13 przy pewnym obciążeniu modułów PV (rys. 4,
rys. 5 i rys. 6) pozwala wyciągnąć pierwsze wnioski dotyczące wpływu podłoża na
pracę instalacji fotowoltaicznej.
Rys. 4. Charakterystyka uzyskanej mocy oraz gęstości mocy promieniowania w zależności od
godziny dnia: E – gęstość mocy promieniowania słonecznego, P D1 – uzysk mocy na dachu 1
(z folią i wełną), P D2 – uzysk mocy na dachu 2 (z folią), P D3 – uzysk mocy na dachu 3 (z deskami,
papą i wełną)
Z zamieszczonych charakterystyk jednoznacznie można zauważyć nagłe
zmiany uzyskiwanej mocy w zależności od gęstości mocy promieniowania
słonecznego (rys. 4). Największa moc uzyskiwana jest z instalacji położonej na
folii i wełnie mineralnej, nieco mniejsza na dachu z deskami i papą, natomiast
najniższa na samej folii dachowej. Różnica mocy w tym przypadku wynosi
ok. 2,3 %, czyli ok. 2 W. Należy jeszcze zauważyć, że badana instalacja miała moc
znamionową równą tylko 156 W (3 fotodachówki po 52 W każda). Zakładając
rzeczywistą instalację, o zainstalowanej mocy np. 2 kW, różnica wynosiłaby już
niecałe 50 W, czyli tyle co wartość mocy z jednej fotodachówki. Dodatkowo przy
gęstości mocy promieniowania ok. 1030 W/m2 moc otrzymana z instalacji w
punkcie mocy maksymalnej o godzinie 12 wynosiła odpowiednio 122,8 W na
dachu 1, 119 W na dachu 2 oraz 113,2 W na dachu 3, czyli maksymalna różnica
mocy wyniosła już ok. 8,4 %. Można przypuszczać, że właściwie obciążenie ogniw
PV wpłynie również na powstające różnice uzyskiwanej mocy.
170
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
W celu wyznaczenia charakterystycznych parametrów elektrycznych,
decydujących o własnościach ogniwa (takich jak moc P, moc maksymalna Pmax,
sprawność , współczynnik wypełnienia FF) posłużono się wartościami z
przeprowadzonych na stanowisku badawczym pomiarami i użyto następujących
wzorów [3, 4]:
P  UI [W]
Pmax  U M I M [W]
U I
  M M 100 [%]
ES
U I
FF  M M [-]
U 0c I sc
(1)
(2)
(3)
(4)
Wyznaczone wartości powyższych parametrów na trzech badanych dachach w
przytoczonym dniu o godzinie 12-ej przy optymalnym obciążeniu instalacji PV
oraz dla wartości średnich w godzinnym przedziale czasowym 12 – 13 zestawiono
w tabeli 1.
Analizując wartości sprawności otrzymane na poszczególnych instalacjach
można zauważyć analogiczne zależności jak przytoczone wcześniej, dotyczące
uzyskiwanej mocy. Ze względu na niemożność wyznaczenia wartości prądu
zwarcia i napięcia stanu jałowego dla przedziału czasowego 12 – 13 przyjęto ich
wartości empirycznie na podstawie archiwalnych pomiarów wykonywanych w
analogicznych warunkach.
Wartości współczynników wypełnienia FF potwierdzają także przypuszczenie,
że właściwe obciążenie ogniw PV wpływa również na wartości mocy. Gdy ogniwa
nie są właściwie obciążone (jak w przypadku przedziału czasowego 12 – 13)
współczynnik ten wynosi ok. 0,5, natomiast o godzinie 12-ej (przy optymalnym
obciążeniu) otrzymano wartość ok. 0,7.
12-13
12
Godz.
Tabela 1. Wartości parametrów elektrycznych instalacji badanych
na poszczególnych dachach
Dach
S
2
[m ]
dach 1
dach 2
dach 3
dach 1
dach 2
dach 3
E
2
[W/m ]
979,4
1,2
1030,2
IM
UM
Pmax
Isc
Uoc

FF
[A]
4,88
4,82
4,74
3,09
3,10
3,21
[V]
25,16
24,68
23,89
26,67
27,21
26,04
[W]
122,78
119,0
113,2
82,36
84,31
83,64
[A]
5,37
5,40
5,15
5,37
5,40
5,15
[V]
31,74
31,39
30,80
31,74
31,39
30,80
[%]
9,93
9,63
9,16
6,67
6,82
6,76
[-]
0,72
0,70
0,72
0,49
0,49
0,53
Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 171
Rys. 5. Charakterystyka temperatury ogniw PV oraz gęstości mocy promieniowania w zależności od
godziny dnia: E – gęstość mocy promieniowania słonecznego, T1D1 – temperatura ogniw PV
na dachu 1 (z folią i wełną), T1D2 – temperatura ogniw PV na dachu 2 (z folią), T1D3 – temperatura
ogniw PV na dachu 3 (z deskami, papą i wełną)
Temperatura ogniw PV zmienia się także wraz ze zmianą nasłonecznienia,
jednak zmiana ta zachodzi oczywiście dopiero po pewnym czasie (rys. 5). Dużo
bardziej stabilna jest temperatura powietrza znajdującego się w szczelinie
pomiędzy dachówką a podłożem, która rośnie wraz z upływem czasu podczas
pracy instalacji (rys. 6).
Folia dachowa w kolorze żółtym odbija ciepło w szczelinie dachowej i
dodatkowo podgrzewa ogniwa PV od spodu (a nie tylko od góry przez promienie
słoneczne). Czarna papa i deski pochłania pewną część ciepła z powietrza. Wełna
mineralna izoluje dach i nie pozwala na swobodną wymianę ciepła z powietrzem
znajdującym się pod dachem na poddaszu.
Pomimo, że największą moc uzyskano na podłożu z folii i wełny, to tylko
nieznacznie niższą wartość uzysku mocy obserwuje się na deskach z papą. To
podłoże wydaje się być najodpowiedniejsze, gdyż jako jedyne z badanych
charakteryzuje się dużą stabilnością mocy i temperatur, co w dłuższej perspektywie
pracy może być najistotniejsze.
Dokładne wnioski będzie można wyciągnąć po przeanalizowaniu wszystkich
pomiarów z całego roku w różnych warunkach. Wtedy będzie można określić,
które podłoże lepiej sprawdzi się na przestrzeni wszystkich pór roku oraz odnieść
to do właściwości termicznych poszczególnych materiałów.
172
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
Rys. 6. Charakterystyka temperatury powietrza w szczelinie dachowej oraz gęstości mocy
promieniowania w zależności od godziny dnia: E – gęstość mocy promieniowania słonecznego,
T2D1 – temperatura powietrza w szczelinie na dachu 1 (z folią i wełną), T2D2 – temperatura
powietrza w szczelinie na dachu 2 (z folią), T2D3 – temperatura powietrza w szczelinie na dachu 3
(z deskami, papą i wełną)
5. WNIOSKI
Wyniki prowadzonych badań powinny w przyszłości wskazać rodzaj podłoża
dachowego pozwalającego na uzyskanie najlepszych parametrów pracy dachówek
fotowoltaicznych oraz maksymalizację uzysków mocy z instalacji PV. Dodatkowo
planowana szczegółowa analiza rezultatów w ujęciu czasowym ma dostarczyć
wskazówki, co do opłacalności i zwrotu kosztów inwestycyjnych potencjalnych
nowoczesnych rozwiązań z obszaru technologii BIPV. Celem pracy ma być
zebranie jak największej ilości wiarygodnych informacji eksploatacyjnych,
wpływających na parametry pracy i opłacalności fotodachówek różnym grupom
osób, takim jak: producentom, konstruktorom, naukowcom, inwestorom oraz
użytkownikom końcowym.
Wiedza na temat wpływu podłoża na temperaturę ogniw wskaże dalsze kierunki
badań zmierzających do poprawy przewodności cieplnej materiałów
konstrukcyjnych podłoży dachowych.
Badania efektywności pracy fotodachówek umieszczonych na różnych podłożach … 173
LITERATURA
[1] Głuchy D., Kurz D., Trzmiel G., Studying the impact of orientation and roof pitch on
the operation of photovoltaic roof tiles, Przegląd Elektrotechniczny, 06/2013.
[2] Haberlin H., Photovoltaics. System Designed and Practice, John Wiley & Sons Ltd.,
2012.
[3] Jastrzębska G., Ogniwa słoneczne, Wydawnictwa Komunikacji i Łączności, 2013.
[4] Sarnik M. T., Podstawy Fotowoltaiki, Oficyna Wydawnicza Politechniki
Warszawskiej, 2008.
[5] http://www.fotton.eu/dachowka_solarna.php, dn. 23.01.14 r.
RESEARCH THE EFFECTIVENESS OF WORK PHOTOVOLTAIC ROOF TILES
PLACED ON DIFFERENT ROOF SURFACES
In this paper the issue of the impact of the operating temperature of PV cells,
comprising the solar roof tiles on the yield power. The paper presents constructed a
research position with the measuring system, characterized its components and
methodology of the research. Paper presents and comments on the preliminary results of the
measurements. Indicated possible benefits from ongoing work for various audiences.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Damian GŁUCHY*
Dariusz KURZ*
Grzegorz TRZMIEL*
PHOTOVOLTAIC THERMAL AS A HYBRID FORM
OF OBTAINING ENERGY FROM SOLAR RADIATION
The work presents a method for hybrid connection of two systems used to obtain energy from
solar radiation. The influence of temperature increase of the photovoltaic element on its efficiency
was characterized. Two options for the construction of a system of the photovoltaic thermal type
which are currently available for sale were presented. The advantages and disadvantages of
connecting a collector installation with a photovoltaic installation were identified.
KEYWORDS: photovoltaics, solar collector, Photovoltaic Thermal, PV temperature
1. INTRODUCTION
An important problem raised in the media in recent years is energy security. The
topic applies to all the producers and consumers of electric energy. Particular
discussions conducted in relation to this subject already bear fruit in the form of a
number of interesting initiatives. Their goal is both to introduce changes in the existing
regulations as well as to develop the technology in order to increase production
capacity. Constant increase of the demand for electric energy is visible, most of all, in
the dynamically developing technology used to obtain energy from renewable sources.
It is in them that the greatest hopes for assuring energy security are placed. Energy
generation equipment from the RES (Renewable Energy System) group are
characterized by higher and higher efficiency rates, and their process decrease to a
level that makes them cost-effective from the consumer’s point of view. Apart from the
development of existing technologies, also attempts at combining them are made. One
of them is combining two technologies of energy generation from solar radiation,
referred to as the photovoltaic technology and the thermal technology.
2. OBTAINING ENERGY FROM SOLAR RADIATION
American scientists calculated a few years ago that the amount of energy that
reaches our planet from the Sun every hour is equal to the amount consumed by all
__________________________________________
* Poznań University of Technology.
176
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
of human civilization in a year [8]. This means that solar radiation is an efficient
source for obtaining energy. The technologies of solar collectors and photovoltaic
panels have been independently developed in parallel for decades as part of solar
power engineering [2].
In recent years, attempts have been made to combine the two different technologies
in order to create a unified hybrid system. A photovoltaic thermal system (also known
as a hybrid PV/T system or PVT) is a system which converts the energy of solar
radiation into electric energy or thermal energy. The system generates mainly electric
energy thanks to the photovoltaic effect and the same device produces warm water
thanks to the phenomenon occurring in the solar collectors (in some versions of the
system, the air is heated directly). The essence of such a combination of two systems
that have operated independently till now is their mutual positive influence [1, 3]. A
combination of those systems is presented on Figure 1.
Fig. 1. Illustration of the combination of a collector with a PV module [6]
While analyzing the operation of a solar battery, it is important to remember
that the increase of its temperature is always connected with the decrease of the
value of the power obtained. This is caused by the increase of the frequency of
vibrations of the atoms in the crystalline network that constitutes the structure of a
photovoltaic cell. It should be added that vibrations of the crystalline network
obstruct the flow of electrons which, in consequence, decreases the value of the
electromotive force and, thus, reduces the voltage level [5].
In order to obtain energy from photovoltaic sources, one should remember that
their nominal power is specified for the standard test conditions in which the
temperature of the cell is 25°C. When the elements are heated by a certain value,
Photovoltaic thermal as a hybrid form of obtaining energy from solar radiation
177
the power generation efficiency decreases. This dependency for a typical silicon
solar battery is presented on Figure 2 [4].
Fig. 2. The graph reflecting percentage fluctuation of the power
of a typical solar collector in relation to temperature [5]
Co-operation of photovoltaics and solar collectors in a PVT system is focused
on making the amount of electric energy generated from PV elements independent
from their temperature. Cooling the cells makes it possible to increase the
efficiency of their operation during hot days. Additionally, it should be
remembered that the heat which, up till now, was considered as a wasteful and
unwanted side effect, will now be used in an effective way.
3. TYPES OF PVT SYSTEMS
Hybrid systems can be divided into two groups depending on their construction.
Most of all, PVT systems based on the construction of a flat liquid collector can
be distinguished. The photovoltaic cell is cooled in such a system by an absorber
equipped with a heating coil in which the heating medium collecting the heat
circulates. Installations of this type are connected to the building similarly to
traditional solar collectors. The connection of a sample installation of PVT systems
is presented on Figure 3.
PVT systems based on the construction of air heating collectors in which the
collector is cooled by means of the air flowing under the photovoltaic cell are much
less popular in Poland. Such a solution is much simpler and cheaper but it works
only in specific types of investments where the heated air is needed, particularly
during the summer months [7].
An example of such a solution is the “SolarDuct PV/T” system produced by the
SolarWall company. Standard PV modules are fitted on a specially prepared frame.
Both parts are matched in such a way that makes the air flow directly under the
178
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
modules. In this way, the cells will be cooled and the heat will be transferred to the
heating and ventilation systems of the building by a special perforated absorber.
Fig. 3. Sample uses of PVT systems PVT [9]
Thanks to the installation which operates in such a way, the consumption of
conventional energy needed to heat the building is decreased. At the same time, the
efficiency of the PV system is increased by up to o 10%. Apart from generating
thermal energy, the SolarDuct PV/T system also constitutes a complete support
structure for the PV system which makes the investment more cost-effective [10].
4. THE PURPOSE OF INVESTING IN PVT
4.1. Advantages
The main advantage of using PVT, apart from the reduction of the operation
temperature of the photovoltaic cells, is space savings. Instead of two separate
installations, solar collectors for water heating, and a photovoltaic installation for
electric energy generation, just one installation is fitted on the roof. Such a solution
means that part of the investors with limited usable roof space do not have to
choose between heat generation and electric energy generation.
Also the costs of such an installation are much lower than in the case of two
traditional installations (solar collectors and photovoltaics). What is more, in the
case of PVT with fully integrated construction, it is currently possible to obtain
refinancing at the level of 45% for the modules including the hydraulic part of the
installation.
Reduction of the costs connected with the installation, which results from the
lower amount of work to be conducted on the surface of the building in comparison
to the implementation of two systems is also worth noticing. This is applicable also
to the fitting of PVT modules itself which, in most cases, have been designed to
Photovoltaic thermal as a hybrid form of obtaining energy from solar radiation
179
match traditional PV installation clamps. Figure 4 presents a photo of a PVT
module which differs from PV only with hydraulic clamps.
Fig. 4. Hybrid IPVT 300 Hybryda module [6]
PVT is also characterized by 50% higher efficiency than comparable
conventional module. At the same time, manufacturers of photovoltaic thermal
systems guarantee considerably longer service life of the photovoltaic cells thanks
to the operation in lower temperatures [11].
4.2. Disadvantages
A disadvantage of this system is the mutual dependency of both systems. The
most appropriate system operation time from the system efficiency point of view is
summer time characterized by high insolation and high temperatures. It is then that
both of the implemented systems operate at the highest efficiency level. On the one
hand, it is possible to obtain low-temperature heat in the form of water heated to
the temperature of 45°C, on the other hand, the operation of PV at lowered
temperature in favorable insolation conditions. Thus, in order for the PVT modules
to operate in an efficient way, it is necessary for the operation of the cell to be
maintained at a low level, that is 35-45°C. It should be underlined that a PV system
is relatively rarely heated to the temperature of more than 50°C.
Another disadvantage of PVT is the scale of the system. In the case of
installations fitted on family houses, the photovoltaic component often takes up the
area of over a dozen or a few dozen m2, which means that a problem with receiving
such a great amount of heat may arise in the summer period. In winter, on the other
180
Damian Głuchy, Dariusz Kurz, Grzegorz Trzmiel
hand, a hybrid PV/T system will generate considerably higher heat losses than a
traditional collector installation due to the lack of a selective absorber and the
appropriate amount of thermal insulation. This translates to lower temperatures of
the heating medium obtained from them.
The thermal insulation of hybrid modules is also not as good as in the case of
traditional solar collectors. Due to that fact, they are characterized by much higher
heat loss levels and the temperature of the heating medium obtained from them is
lower than in solar collectors.
5. CONCLUSION
Although in theory they combine the advantages of two systems whose
popularity is constantly growing, in practice PVT systems seem to be a solution
that has not been completely thought out. Although the manufacturers assure up to
300% higher efficiency in comparison to a traditional PV system, the increase in
real operational conditions is a few dozen percent.
Undoubtedly, using such systems will be economically justifiable in the case of
many investments, but their installation must be preceded with diligent technology
and cost analysis.
REFERENCES
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
Butera F.,Adhikari R. S.: “Hybrid Photovoltaic-Thermal Technology and Solar
Cooling” http://www.pvdatabase.org 14:50 27.05.2013.
Jastrzębska G.: „Ogniwa słoneczne”, Wydawnictwa Komunikacji i Łączności, 2013.
Mitică I., Andreea M.: “Energy efficiencies of a photovoltaic/thermal solar hybrid
system”, Annals of the University of Craiova, Electrical Engineering series, No. 32,
2008.
Sarnik M. T.: “Podstawy fotowoltaiki”, Oficyna Wydawnicza Politechniki
Warszawskiej, 2008.
Szymański B.: „Małe instalacje fotowoltaiczne”, Geosystem, Kraków 2013.
Budujemy dom Nr 5/2013.
Globenergia Nr 2/2011.
Newsweek Polska Nr 2/2008.
http://www.sklep.thermika.com.pl/attachment.php?id_attachment=28 18:37
19.10.2013
http://solarwall.com/pl/oferta/solarwall-pvt/solarduct-pvt.php 20:11 19.10.2013
http://automaeko.sklepna5.pl/ 18:54 18.10.2013
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Marek HORYŃSKI*
Jacek MAJCHER*
ZDALNY NADZÓR NAD INTELIGENTNYM BUDYNKIEM
W nowoczesnych budynkach większość instalacji jest ze sobą wzajemnie połączonych.
Daje to możliwość nadzoru ich stanu pracy jak również odpowiednie ich konfigurowanie.
W systemie EIB może to być realizowane na wiele sposobów. Jednym z prostszych
sposobów jest zastosowanie wejść i wyjść binarnych. Moduły te pozwalają nadzorować
pracę urządzeń, ale nie jest możliwa pełna ich kontrola. Kolejnymi urządzeniami, dzięki
którym można sterować poszczególnymi instalacjami, są sensory takie jak Triton czy
Prion. Obecnie coraz częściej w inteligentnych budynkach można spotkać panele
dotykowe oraz home serwery dzięki którym możliwa jest zdalna kontrola nad
urządzeniami. Za pomocy Internetu oraz odpowiednio skonfigurowanej aplikacji
użytkownik ma możliwość podglądu stanu pracy poszczególnych urządzeń jak również
może regulować poszczególne parametry takie jak temperatura w pomieszczeniu czy też
załączać oświetlenie w budynku.
SŁOWA KLUCZOWE: magistrala, budynek, sterowanie, energooszczędność, automatyka
1. WSTĘP
Coraz to większe wymagania stawiane przed nowoczesnym budownictwem
powodują konieczność integracji poszczególnych instalacji znajdujących się
w budynku. Dotychczasowy model autonomicznych instalacji nie jest w stanie
zapewnić wymaganego komfortu użytkowania. Zadanie to wydaje się być obecnie
łatwiejsze ponieważ większość instalacji posiada w swojej strukturze elektroniczne
elementy sterujące bądź wykonawcze. Należy połączyć poszczególne urządzenia tak,
aby mogły wzajemnie na siebie oddziaływać. Jednym z rozwiązań jest opracowana
przez czołowych producentów elektroinstalacyjnych magistrala EIB (European
Installation Bus). Magistrala ta zastępuje klasyczną instalację elektryczną znacząco
rozszerzając jej możliwości. Dzięki niej można załączać, sterować, regulować oraz
nadzorować pracę urządzeń elektrycznych.
Jest to system o strukturze rozproszonej (rys. 1), każde urządzenie wyposażone jest
w mikrokomputer posiadający własną aplikację. Urządzenia te połączone są przez
magistralę za pomocą odpowiedniego portu. Rozwiązanie to podnosi niezawodność
systemu ponieważ uszkodzenie jednego elementu nie wpływa na pracę pozostałych
__________________________________________
* Politechnika Lubelska.
182
Marek Horyński, Jacek Majcher
urządzeń. Port magistralny to swego rodzaju mikrokomputer składający się z
następujących elementów: jednostki procesorowej CPU, pamięci: ROM, RAM. Dane
przesyłane są po magistrali w sposób asynchroniczny z dostępem do magistrali typu
CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). Mechanizm ten
polega na unikaniu kolizji w przypadku, gdy kilka urządzeń nadaje jednocześnie.
Każde urządzenie posiada odpowiedni priorytet. Jeśli zaczynają nadawać dwa
urządzenia pierwszeństwo ma urządzenie o wyższym priorytecie. Natomiast jeśli
nadające urządzenia mają ten sam priorytet, pierwsze zaczyna nadawać to o wyższym
adresie fizycznym [2].
Rys. 1. Struktura drzewa magistrali KNX/EIB [4, 5]
Instalacja inteligentnego budynku daje użytkownikowi wiele możliwości, lecz
najważniejszymi funkcjami są: energooszczędność, bezpieczeństwo, łatwa kontrola
całego systemu i urządzeń podłączonych do niego oraz komfort użytkowania.
Bardzo ważne jest zarządzanie tymi funkcjami, łatwy w obsłudze interfejs i szybki
dostęp do potrzebnych usług. Zdalne zarządzanie to właśnie prosty dostęp do
wszystkich funkcji danego budynku. Tradycyjna instalacja pozwala na
zastosowanie zdalnego sterowania na przykład poprzez port podczerwieni, ale
tylko w pojedynczych przypadkach (np. sterowanie oświetleniem). Do takiego
sterowania wymagane są dodatkowe elementy nie wchodzące w skład
konwencjonalnej instalacji. Użytkownik nie ma możliwości sterowania wieloma
funkcjami z jednego urządzenia, a tym bardziej z dalszych odległości, na przykład
będąc w pracy.
Jako nadzór należy rozumieć możliwość podglądu stanu pracy urządzeń, jak
również zmianę ich nastaw. Magistrala EIB może nadzorować pracę takich
instalacji jak:
 sterowanie oświetleniem,
Zdalny nadzór nad inteligentnym budynkiem
183





sterowanie urządzeniami HVAC,
sygnalizacja przeciwpożarowa i sterowanie urządzeniami przeciwpożarowymi,
sterowanie urządzeniami informatycznymi,
sterowanie urządzeniami antywłamaniowymi i kontroli dostępu,
sterowanie instalacjami (np. c.w.u. [9]) i urządzeniami monitorującymi stan
techniczny wybranych obwodów,
 zarządzanie energią.
W przypadku instalacji SSWiN (Systemy Sygnalizacji Włamania i Napadu) jaki
i SKD (System Kontroli Dostępu) instalacja EIB nie ma możliwości nadzoru nad
tymi instalacjami. Możliwy jest jedynie podgląd stanu pracy tych instalacji [1].
Wynika to z braku odpowiednich certyfikacji urządzeń EIB niezbędnych w
technice alarmowej.
2. NADZÓR NAD INTELIGENTNĄ INSTALACJĄ
Urządzenia służące do nadzoru pracy instalacji inteligentnej mogą zmieniać jej
stan jak również sygnalizować zachodzące w niej zmiany. Do najprostszych
urządzeń mogących realizować powyższe funkcje można zaliczyć Universal
Concentrator. Urządzenie to posiada 32 niezależne kanały, które mogą pracować
jako wejścia lub wyjścia. Aby określić status odpowiednich kanałów, należy je
odpowiednio sparametryzować w programie ETS (Engineering Tool Software).
a)
b)
Rys. 2. Urządzenia sterujące firmy Busch Jaeger [6]: a) Busch-Prion, b) Touch Panel
Obecnie dużą popularnością cieszą się urządzenia sterujące, które w sposób
graficzny prezentują stan instalacji. Przykładem takich urządzeń jest Busch Triton
oraz nowsze rozwiązania Busch Prion firmy Busch-Jaeger (rys. 2).
Natomiast zastosowanie modułów GPRS i serwerów oraz urządzeń mobilnych
typu smartfon lub tablet umożliwia zdalne monitorowanie i zarządzanie instalacją.
184
Marek Horyński, Jacek Majcher
W Laboratorium Elektrycznych Systemów Inteligentnych Politechniki
Lubelskiej zostało opracowane stanowisko badawcze, dzięki któremu badane są
interakcje między komponentami inteligentnego systemu KNX/EIB. Jego
konstrukcja zapewnia również możliwość zdalnego sterowania urządzeniami
automatyki budynkowej. Wykorzystano urządzenia magistralne produkcji ABB.
Otwartość systemu KNX/EIB pozwala na zamienne stosowanie urządzeń innych
producentów.
3. STANOWISKO BADAWCZE
Podstawowymi urządzeniami zastosowanymi w stanowisku są:
 wyłącznik nadmiarowo prądowy do zabezpieczenia stanowiska,
 zasilacz firmy ABB SV/S 30.320.S, służący do zasilania urządzeń
magistralnych (sensorów i aktorów),
 port RS_232, umożliwiający oprogramowanie aparatów podłączonych do
magistrali danych, pozwalający na odczytanie błędów występujących podczas
pracy systemu i wprowadzenie zmian usprawniających jego pracę,
 port magistralny wraz z czujnikiem natężenia oświetlenia ABB LR/ 2.2.1,
 port magistralny wraz z modułem czujnika obecności ABB 6120 U-102,
 port magistralny wraz z przyciskiem Triton ABB 6120 U-101-500.
W obiekcie rzeczywistym powyższe urządzenia znajdują się w pomieszczeniu.
Stanowisko można uzupełnić o moduł stacji pogodowej ABB WZ/S 1.1,
monitorujący warunki panujące na zewnątrz pomieszczenia. Pozostałe urządzenia
(aktory) znajdujące się w rozdzielnicy to:
 moduł ściemniacza HAGER TXA 210, pozwalający na regulację oświetlenia
w zależności od zapotrzebowania,
 sterownik żaluzji ABB JA/S 4.6.1, zapewniający sterowanie żaluzjami bądź
roletami,
 aktor energii ABB SE/S 3.16.1, zapewniający monitorowanie parametrów
napięcia, prądu, mocy czynnej, częstotliwości, czasu, scen, pomiaru energii,
bezpieczeństwa, komunikacyjnych, funkcyjnych, a także kopiowanie i wymianę
kanałów,
 brama internetowa ABB IG/S 1.1, zapewniająca, łącznie ze specjalistycznym
oprogramowaniem narzędziowym, zdalną komunikację z urządzeniami
umieszczonymi w instalacji. Pozwala także na programowanie urządzeń
systemu KNX/EIB za pośrednictwem sieci LAN.
Jako odbiorniki zastosowano świetlówkę i halogen. Symulacja działania żaluzji
została wykonana za pomocą diod LED. Schemat elektryczny zawiera
zabezpieczenia nadmiarowo-prądowe poszczególnych obwodów, doprowadza
zasilenie do opraw oświetleniowych, gniazdek i innych odbiorników (rys. 3, 4).
Zdalny nadzór nad inteligentnym budynkiem
Rys. 3. Schemat obwodu sterowania
185
Rys. 4. Schemat elektryczny
Ważne zadanie, z punktu widzenia zarządzania energią w obiekcie, spełnia
aktor energii, który pozwala na monitorowanie większości parametrów instalacji i
przełączanie pomiędzy kanałami w zależności od zmieniającego się obciążenia. W
połączeniu z modułem internetowym umożliwia zdalne zarządzanie energią w
pomieszczeniu. Parametryzacja urządzeń magistralnych przeprowadzana jest w
środowisku ETS4. Na rysunku 5 przedstawiony są przykładowe ustawienia aktor
energii. Urządzenia zastosowane w stanowisku pozwalają na efektywnie
zarządzanie energią zużywaną w pomieszczeniu, w zależności od zapotrzebowania
i obecności osób. Czujnik natężenia oświetlenia pozwala określić zapotrzebowanie
na światło naturalne i sztuczne.
Projekt zdalnego zarządzania i monitorowania energii w jednym pomieszczeniu
z łatwością można zaadoptować do większych instalacji np. domu
jednorodzinnego, co pozwoliłoby na znaczne ułatwienie w kontrolowaniu instalacji
i dopasowaniu do potrzeb użytkowników [7]. Zastosowanie aktorów energii
pozwala zoptymalizować zarządzanie energią w budynku.
Zainstalowana brama internetowa IG/S pozwala na wykonanie własnej aplikacji
webowej do kontroli, nadzoru oraz wizualizacji systemu KNX/EIB. Może ona
mieć zastosowanie zarówno w aplikacjach komercyjnych, np. instalacjach
elektrotechnicznych, ogrzewaniu, wentylacji, klimatyzacji, jak i dla domów
mieszkalnych, np.: zapewnia rozszerzenie możliwości już istniejących instalacji,
zdalny dostęp do już istniejących systemów bezpieczeństwa, zdalny nadzór domów
letniskowych oraz całorocznych [8].
186
Marek Horyński, Jacek Majcher
Rys. 5. Okno topologii Aktora Energetycznego z wyszczególnionymi parametrami
Połączenie z modułem video umożliwia przekazywania obrazów w czasie
rzeczywistym. Brama internetowa automatycznie informuje użytkownika
o zdarzeniach i alarmach poprzez wysłanie wiadomości e-mail. Przy stosowaniu
zdalnego sterowania inteligentną instalacją elektryczną procedury bezpieczeństwa
są podobne jak w bankowości internetowej. Wszystkie strony są kodowane
(protokół SSL) oraz występuje 3-poziomowa autoryzacja [4].
4. PODSUMOWANIE
Systemy automatyki i zarządzania budynkami BAS/BMS są zaawansowanymi
rozwiązaniami technicznymi, których celem jest efektywne sterowanie instalacjami
znajdującymi się w obiekcie takimi jak: instalacje elektryczne, wentylacyjne,
grzewcze czy chłodnicze i dostosowanie ich pracy do zmieniających się warunków
otoczenia. Głównym zadaniem systemu jest minimalizacja kosztów eksploatacji
budynku, przy jednoczesnym zwiększeniu jego funkcjonalności i bezpieczeństwa
oraz zapewnieniu optymalnego komfortu jego użytkownikom.
Systemy BAS/BMS na bieżąco gromadzą, archiwizują i przetwarzają dane
związane ze stanem konkretnych instalacji, a także sterują nimi w sposób
Zdalny nadzór nad inteligentnym budynkiem
187
automatyczny lub półautomatyczny. Dzięki ciągłemu monitoringowi stanu
urządzeń krytycznych, tj. rozdzielnic sterujących oświetleniem, central
wentylacyjnych, klimatyzatorów, kurtyn powietrznych, itp. oraz otoczenia, osoby
odpowiedzialne za stan danego obiektu handlowego lub sieci sklepów są na
bieżąco informowane o ewentualnych pojawiających się w nich zdarzeniach czy
anomaliach, np.: wzroście zużycia energii elektrycznej, przekroczeniu mocy
zamówionej (15-minut), nagłym spadku temperatury w hali handlowej, awarii
klimatyzatora czy sytuacji alarmowej wynikającej z próby kradzieży. W
zależności od potrzeby, informacje te są dostępne w lokalnym stanowisku nadzoru
lub mogą być przesyłane osobie odpowiedzialnej za zarządzanie stanem
technicznym budynku np.: drogą e-mailową lub SMS. Dzięki temu możliwa jest
natychmiastowa reakcja na zdarzenia wymagające interwencji.
Systemy BAS/BMS umożliwiają integrację systemów bezpieczeństwa,
zwiększając ich efektywność, dostęp do informacji o zdarzeniach alarmowych
oraz ułatwiając automatyczne reagowanie. W jednym obiekcie, lub też w całej
sieci obiektów, można zintegrować takie systemy jak: telewizja przemysłowa
(CCTV), systemy antykradzieżowe (EAS), kontrola dostępu, instalacje
gaszeniowe, a także urządzenia wykonawcze, tj. agregaty chłodnicze, urządzenia
grzewcze i energetyczne. Umożliwia to pełną obsługę wielu podsystemów z
jednego miejsca i śledzenie poprawności ich pracy. Jedną z najważniejszych
funkcji systemów BAS/BMS jest optymalizacja wykorzystania energii
elektrycznej zużywanej m.in. na oświetlenie i pracę urządzeń takich jak
klimatyzatory czy wentylatory i możliwość uzyskania dużych oszczędności w tym
obszarze. Uzyskuje się to przede wszystkim dzięki pełnej, prowadzonej w wielu
punktach obiektu, kontroli zużycia mediów i możliwości zintegrowanego
sterowania podsystemami.
Przedstawione stanowisko pozwala na badanie wpływu urządzeń systemu
KNX/EIB, zrównoważone zarządzanie energią w budynkach oraz opracowywanie
nowych rozwiązań z zakresu automatyki budynkowej.
Jacek Majcher jest uczestnikiem projektu "Kwalifikacje dla rynku pracy - Politechnika
Lubelska przyjazna dla pracodawcy" współfinansowanego przez Unię Europejską
w ramach Europejskiego Funduszu Społecznego.
LITERATURA
[1] Horyński M., Majcher J.: Możliwość wizualizacji stanu instalacji w inteligentnych
budynkach. Napędy i Sterowanie, nr 12 (140), s. 90 – 92, 2010.
[2] Majcher J., Horyński M.: Use of building management elements of the EIB system in
safety system. TEKA Komisji Motoryzacji i Energetyki Rolnictwa. Volume X.
Lublin, s. 256-264, 2010.
188
Marek Horyński, Jacek Majcher
[3] Markiewicz H.: Instalacje elektryczne, Wydanie 8 zmienione, WNT, Warszawa,
2012.
[4]
[5]
[6]
[7]
Mikulik J.: Europejska magistrala instalacyjna, COSiW SEP, Warszawa, 2008.
Materiały firmowe ABB, 2013.
Materiały firmowe Busch-Jaeger, 2013.
Niezabitowska E.: Budynek inteligentny. Tom 1. Potrzeby użytkownika a standard
budynku inteligentnego. Wydawnictwo Politechniki Śląskiej, Gliwice 2005.
[8] Nowak M., Szymczak A.: Wykorzystanie technologii mobilnych do sterowania
instalacjami w inteligentnym budynku. Napędy i Sterowanie, nr 12, s.82-86, 2011.
[9] Sroczan E., Nowoczesne wyposażenie techniczne domu jednorodzinnego. Instalacje
elektryczne. PWRiL Poznań, 2004.
REMOTE SUPERVISION OF INTELLIGENT BUILDING
In modern buildings most installations are inter-connected. This gives the ability to
view the status of devices as well as to change their settings. In EIB system, this can be
accomplished in many ways. One simple way is to use binary inputs and outputs. These
modules allow you to monitor the operation of the devices but it is not possible to complete
their inspection. Other devices by which we can control the respective units are sensors
such as Triton or Prion. Today, more and more frequently touch panels and home servers
can be met in intelligent buildings which enable remote control devices. With the help of
the Internet and properly configured application, the user can view the status of individual
devices and can also adjust the individual parameters such as room temperature or switch
on the lighting in the building.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Marek PALUSZCZAK*
Alicja TWARDOSZ**
Grzegorz TWARDOSZ***
ROZWÓJ SYSTEMÓW POMIAROWYCH
W INTELIGENTNYCH SIECIACH
ELEKTROENERGETYCZNYCH
W pracy przedstawiono stan rozwoju systemów pomiarowych w inteligentnych sieciach
energetycznych. Przedstawiono wpływ uwarunkowań formalno-prawnych na rozwój AMI.
Przeprowadzono analizę porównawczą Polski z pozostałymi krajami należącymi do Unii
Europejskiej. Wskazano na możliwość wykorzystania linii niskiego i średniego napięcia do
transmisji danych.
SŁOWA KLUCZOWE: inteligentna sieć energetyczna, systemy pomiarowe, transmisja
danych, media transmisyjne
1. WSTĘP
Wdrożenie zaawansowanych technologicznie systemów pomiarowych,
określanych jako AMI (ang. Advanced Metering Infrastructure) jest korzystne z
kilku przyczyn dla Operatora Sieci Dystrybucyjnej (OSD). Korzyści dzieli się na
dwie grupy, tj. bezpośrednie i pośrednie. Do korzyści bezpośrednich zalicza się
obniżenie strat handlowych i technicznych. Do strat handlowych zalicza się między
innymi straty spowodowane przez nieuprawniony pobór energii elektrycznej.
Obecnie tego rodzaju straty szacuje się na około 9%. Ważnym ogniwem systemu
AMI jest licznik energii elektrycznej. Musi on zapewniać dwukierunkową
komunikację z Operatorem Pomiarów, a z drugiej strony także z infrastrukturą
sieci np. domowej, w ramach inteligentnej sieci elektroenergetycznej, nazywanej
Smart Grid. W Smart Grid dąży się do osiągnięcia poziomu samodiagnozowania i
samooptymalizacji procesów przesyłu, dystrybucji i rozdziału energii elektrycznej.
Transmisja danych, niezależnie od hierarchi systemu, jest realizowana przez media.
Media transmisyjne dzieli się na przewodowe i bezprzewodowe.
__________________________________________
* Energia Operator, Techniczna Obsługa Odbiorców w Koszalinie.
** WEGA, Poznań.
*** Politechnika Poznańska.
190
Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz
2. ROZWÓJ AMI W POLSCE
Stan wdrożenia systemów AMI w krajach europejskich ocenia się na podstawie
różnych kryteriów. Jednym z często stosowanych jest podział państw należących
do Unii Europejskiej na grupy UE15 i UE13.
Do grupy UE15 zalicza się kraje, które zostały członkami UE przed 1 maja
2004. Podział terytorialny, w którym Polska jest zaliczana do krajów Europy
centralnej i południowo-wschodniej, stosuje m.in. w swoich opracowaniach
Ernst&Young [1]. Możliwości wdrożenia AMI oceniano w [1], według siedmiu
kryteriów, z określoną wagą (tabela 1). Każdemu z kryteriów przypisano skalę
ważności.
Tabela 1. Kryteria wdrażania AMI [opr. własne]
Kryterium
1. Wielkości rynku
2. Średnie zużycie energii
3. Średnie opłaty za zużycie
4. Redukcja strat sieciowych
5. Jakość dostaw energii
6. Planowany udział OZE w produkcji
energii w 2030 r.
7. Złożoność projektu, liczba OSD
Waga
w [pkt]
2
2
5
3
4
5
Polska
średnia ważona
26
12
25
30
48
20
Miejsce
w rankingu
2
8
10
5
2
11
1
10
11
W rankingu uczestniczyły następujące kraje: Grecja, Rumunia, Cypr, Słowenia,
Węgry, Estonia, Turcja, Polska, Bułgaria, Malta, Łotwa, Czechy, Słowacja i Litwa.
Łączna liczba punktów, w przypadku Polski wyniosła 171 pkt, co stanowi około
55,5%. Polska w tym zestawieniu zajęła miejsce 12. Pierwsze miejsce przypadło
Grecji, z liczbą zdobytych punktów 222 (72,2%). Ostatnie miejsce zajęła Litwa z
liczbą punktów 132 (43,1%). Jednym z głównych czynników mających wpływ na
rozwój zaawansowanych technologicznie systemów pomiarowych jest wielkość i
struktura rynku energii. Strukturę rynku określa liczba i rodzaj odbiorców energii.
Polska jest drugim, co do wielkości, rynkiem. Obecnie liczbę odbiorców energii
elektrycznej określa się jako 16,5 mln. Odbiorcy indywidualni stanowią około
86%, MSP, a przemysł 14%. MSP oznacza małe i średnie przedsiębiorstwa lub
SME (ang. Small and Medium Enterprises). Według różnych szacunków odbiorcy
indywidualni zużywają 25-30% energii elektrycznej.
W tabeli 2 przedstawiono działające w Polsce OSD, ich udział w rynku energii
elektrycznej oraz zaangażowanie w wdrażanie AMI.
Z analizy wyników przedstawionych w tabeli 2, wyraźnie widać wiodącą rolę
koncernu ENERGA w wdrożeniu AMI i SMART GRID w Polsce. Do końca 2014
roku Grupa Kapitałowa ENERGA S.A. planuje, że około 22,8% odbiorców energii
Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych
191
elektrycznej będzie miało zainstalowane inteligentne liczniki, tzw. SM (ang. Smart
Meter). Drugie miejsce zajmuje TAURON (5,7%).
W jakości dostaw energii elektrycznej, Polska zajmuje 7 miejsce za Czechami,
Cyprem, Słowacją, Słowenią, Estonią i Litwą [1].
Tabela 2. Wdrażanie AMI przez OSD [opr. własne]
Lp.
OSD
1
2
3
4
5
PGE
ENERGA
RWE Stoen
ENEA
TAURON
Liczba
odbiorców
[mln]
~5,1
~3,5
~0,8
~20
~5,3
Wdrożenie AMI
15 tys. do końca 2014r.
800 tys. do końca 2014r.
100 tys. w trakcie instalacji
projekty pilotażowe
350 tys. do końca 2014r.
Liczbę przerw w dostawach energii rocznie na jednego odbiorcę określa się
jako SAIFI (ang. System Average Interruption Frequency). Czas braku dostępu
odbiorcy do sieci elektroenergetycznej określa współczynnik SAID (ang. System
Average Interruption Duration Index). Wartość współczynnika SAIFI pozwala na
określenie poziomu niezawodności elementów sieci elektroenergetycznej. Wartość
SAIDI określa sprawność działania właściwych służb w usuwaniu przerw i awarii
systemu AMI. Dla Polski współczynnik SAIFI osiąga wartość ~3,7, a
współczynnik SAIDI ~315 min.
Na rysunku 1 przedstawiono schemat Smart Grid. Organizacja systemu różni
się od wcześniej omawianych [2] wprowadzeniem dwóch nowych ogniw tj.
inteligentnego zakładu SF (ang. Smart Factory) i inteligentnego miasta SC (ang.
Smart City).
Miasta zajmują zaledwie 2% powierzchni Ziemi, ale są miejscem zamieszkania
prawie 50% ludzi na świecie. Miasta są źródłem 80% całkowitej emisji CO2 i 75%
całkowitego zużycia energii elektrycznej. Koncepcja rozwoju SC dotyczy nie tylko
zwiększenia efektywności energetycznej, ale jest ściśle związana z ogólnym
kierunkiem zrównoważonego rozwoju.
Pierwszym etapem wdrażania systemów AMI jest montaż SM i związany z tym
wybór technologii komunikacji pomiędzy odbiorcą końcowym a Operatorem
Informacji Pomiarowych (OIP). W raporcie [3] przedstawiono obecny stan
rozwoju AMI w krajach należących do Unii Europejskiej i Norwegii. Kraje zostały
podzielone na pięć grup, w zależności od stopnia zaawansowania wdrożenia AMI.
Zaliczenie do określonej grupy jest związane bezpośrednio z obowiązującą w
danym kraju podstawą formalno-prawną wdrożenia inteligentnego opomiarowania
w sektorze elektroenergetycznym. Na rysunku 2 przedstawiono kwadrat Gartnera
ukazujący rozwój AMI w EU27 i Norwegii.
192
Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz
Rys. 1. Schemat Smart Grid [opr. własne]
.
Jednoznaczna
strategia rozwoju AMI
.
.
.
.
.
.
.
. . . .. ....
...
.. .....
.
Dynamiczny rozwój AMI
Prawidłowy rozwój AMI
Włochy
Finlandia
Hiszpania
Malta
Holandia
Portugalia
Francja
Norwegia
W.Brytania
Dania
Niemcy
Czechy
Ambiwalentne
działanie w
zakresie AMI
Estonia
Grecja
Łotwa
Austria
Belgia
Rumunia
Litwa
Słowacja
Bułgaria
Słowenia
Luksemburg
Węgry
Cypr
Brak strategii
rozwoju AMI
Irlandia
Szwecja
Polska
Brak zdecydowanych
działań w rozwoju AMI
Brak uregulowań prawnych
Rys. 2. Rozwój AMI w EU27 i Norwegii [3]
Uregulowania prawne
jednoznaczne
Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych
193
Stan formalno prawny umożliwiający wdrożenie AMI w Polsce jest
porównywalny do Austrii, Portugali i Estonii. Pod tym względem wyprzedzamy
m.in. Czechy, Niemcy i Danię. Pod względem implementacji liczników
inteligentnych Polska jest na poziomie Belgi, Grecji, Rumunii i Litwy. W raporcie
[3] Polska została zaliczona do grupy 3, czyli do krajów, które cechuje brak jasno
określonej strategii rozwoju AMI, przy ponad średnim poziomie stanu formalnoprawnego.
W raporcie [3] wskazuje się również na wiodącą rolę Grupy Kapitałowej
ENERGA w wprowadzaniu AMI w Polsce. Do najważniejszych aktów prawnych i
innych dokumentów stanowiących podstawę formalno-prawną wdrożenia
inteligentnego opomiarowania zalicza się:
 dyrektywę 2006/32/WE Parlamentu Europejskiego i Rady z dnia 5 kwietnia
2006 r. w sprawie efektywności końcowego wykorzystania energii i usług
energetycznych oraz uchylająca dyrektywę Rady 93/76/EWG,
 dyrektywę Parlamentu Europejskiego i Rady 2009/72/WE z dnia 13 lipca 2009
r. dotycząca wspólnych zasad rynku wewnętrznego energii elektrycznej i
uchylająca dyrektywę 2003/54/WE,
 dyrektywę Parlamentu Europejskiego i Rady 2012/27/UE z dnia 25
października 2012 r. w sprawie efektywności energetycznej, zmiany dyrektyw
2009/125/WE i 2010/30/UE oraz uchylenia dyrektyw 2004/8/WE i
2006/32/WE,
 komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego
Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 12 kwietnia
2011 roku pt. „Inteligentne sieci energetyczne: od innowacji do wdrożenia”,
 skargę Komisji Europejskiej z dnia 20.12.2012 r. wniesiona do Trybunału
Sprawiedliwości w Luksemburgu przeciwko Rzeczpospolitej Polskiej
zarzucająca niewdrożenie szeregu postanowień dyrektywy 2009/72/WE,
 dokument pt. „Polityka Energetyczna Polski do 2030 roku”,
 poselski projekt ustawy o zmianie ustawy - Prawo energetyczne (druk nr 946) z
dnia 5 marca 2013 r.
Omówienie w/w aktów prawnych i dokumentów zawierają m.in. prace [3-5].
3. MEDIA TRANSMISYJNE W INTELIGENTNYCH SIECIACH
ELEKTROENERGETYCZNYCH
Transmisja danych niezależnie od hierarchii systemu jest realizowana przez
media. Media dzieli się na przewodowe i bezprzewodowe. W Polsce
dwukierunkowy przesył danych pomiędzy dostawcą i odbiorcą przewiduje się
realizować drogą przewodową. Do tego celu mają być wykorzystane linie niskiego
i średniego napięcia. Tę metodę transmisji danych nazywa się PLC (ang. Power
194
Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz
Line Communication). Na rysunku 3 przedstawiono różne drogi komunikacji
stosowanych w Smart Grid.
Na rysunku 3 przedstawiono jedynie najczęściej stosowane technologie
transmisji danych. W Smart Grid w Finlandii i Wielkiej Brytanii przeważają
technologie bezprzewodowe. We Francji, Niemczech, Szwecji, Holandii i
Hiszpanii stosuje się w AMI obie metody transmisji. Odbiorca końcowy jest
użytkownikiem infrastruktury technicznej domowej sieci HAN (ang. Home Area
Network) [6, 7]. Zarządzanie urządzeniami w ramach Smart Grid wymaga od SM
interoperacyjności czyli współdziałania m.in. z systemami komunikacyjnymi
stosowanymi w HAN. Do często stosowanych technologii w HAN należy zaliczyć:
ZigBee, WiMax, M-Bus, Ethernet. PLC jest technologią, którą również stosuje się
do zarządzania infrastrukturą techniczną domowej sieci. Często stosowanym
standardem w HAN jest Home Plug.
Rys. 3. Media transmisyjne w Smart Grid [opr. własne]
Wybór standardu komunikacji w HAN zależy przede wszystkim od odbiorcy.
W najprostszych przypadkach wykorzystuje się transmisję FSK, S-FSK czy BPSK.
Najnowocześniejsze urządzenia wykorzystują standardy PRiME czy MAXIM.
Istniejące linie niskiego i średniego napięcia są uznane przez Operatorów Sieci
Dystrybucyjnych za główne medium transmisyjne.
4. PODSUMOWANIE I WNIOSKI
Wdrożenie inteligentnego opomiarowania obejmującego instalację liczników,
zgodnie z dyrektywami UE, musi być zakończone do końca 2020 roku. W Polsce
zostanie zainstalowanych około 13 mln liczników. Przyjmuje się, że wdrożenie
systemów teleinformatycznych umożliwiających zarządzanie danymi na poziomie
Operatora Informacji Pomiarowych będzie trwać od 2 do 3 lat. Dane pomiarowe
będą gromadzone w Centralnym Zbiorze Informacji Pomiarowych. Przyjmuje się
Rozwój systemów pomiarowych w inteligentnych sieciach elektroenergetycznych
195
również, że tylko połowa liczników zamontowanych w danym roku osiągnie pełną
funkcjonalność. Przy tym, przez pełną funkcjonalność rozumie się osiągnięcie
dwukierunkowej transmisji danych w standardzie określonym przez OIP. Na
rysunku 4 przedstawiono graficznie wyniki analizy wdrożenia wariantu bazowego
inteligentnego opomiarowania [4, 5]. W 2020 roku osiągnięto poziom montażu
80% liczników inteligentnych, przy pełnej funkcjonalności licznika 62,5%.
Przewiduje się, że saldo w latach 2013-2020 wyniesie 43 mln PLN, a w latach
2013-2026 odpowiednio 4,6 mld PLN. W wariancie optymalnym prognozy
wynoszą 790 mln PLN i 5,6 mld PLN.
Rys. 4. Montaż SM w Polsce, poziom funkcjonalności w latach 2014-2020 [opr. własne]
W liniach niskiego napięcia wykorzystuje się najczęściej przesyłanie metodą
PLC. W tak zwanym wąskopasmowym PLC wykorzystuje się częstotliwości od
1,6 kHz – 148,5 kHz. W metodzie transmisji danych BPL, tzw. szerokopasmowy
PLC, wykorzystuje się częstotliwości od 4 do 20 MHz. Przesyłanie danych metodą
BPL (ang. Bradband Powerline) ma w Polsce zarówno zwolenników jak i
przeciwników.
Wykorzystanie częstotliwości w wąskopasmowym PLC nie wymaga uzyskania
licencji, a więc opłat. Jest to pasmo o tzw. dostępie swobodnym ISM (ang.
Industrial Scientific Medical). Podczas transmisji danych muszą być spełnione
wymagania określone w regulacjach prawnych. Oddzielnym zagadnieniem
mającym wpływ na rozwój systemów pomiarowych w inteligentnych sieciach
elektroenergetycznych jest ochrona danych przed nieuprawnionym dostępem oraz
możliwością zmiany danych.
196
Marek Paluszczak, Alicja Twardosz, Grzegorz Twardosz
LITERATURA
[1] Ernst&Young: Nowoczesna infrastruktura pomiarowa w krajach Europy Centralnej i
Południowo-wschodniej, aktualny stan wdrożeniowy, plany i perspektywy. 2012.
[2] Kołaciński R., Paluszczak M., Twardosz G.: Reactive power management in wind
power plants with induction machines in Smart Grid. Computer Applications in
Electrical Engineering, Poznan University of Technology, Poznań, 2012, s. 181-188,
[3] Hierzinger R., and others: European Smart Metering Landscape Report 2012 – update
may 2013. AEA, Vienna, October 2012.
[4] Minister Gospodarki: Analiza skutków społeczno-gospodarczych wdrożenia
inteligentnego opomiarowania. Warszawa, kwiecień 2013r. www.mg.gov.pl. [dostęp:
2014.02.25].
[5] Minister Gospodarki: Aneks do analizy skutków społeczno-gospodarczych wdrożenia
inteligentnego opomiarowania. Warszawa, kwiecień 2013r. www.mg.gov.pl. [dostęp:
2014.02.25].
[6] Masiąg R.: Wdrożenie systemu AMI w Energia-Operator S.A. Materiały konferencji:
Wdrażanie Smart Grid – ramy standardów, ryzyka, konflikty. Warszawa, 1011.12.2013, s. 1-21.
[7] Pisarczyk P.: Komunikacja w Smart Grid – konflikt protokołów/procesorów.
Materiały konferencji: Wdrażanie Smart Grid – ramy standardów, ryzyka, konflikty.
Warszawa, 10-11.12.2013, s. 1-28.
THE EVOLUTION OF MEASUREMENT SYSTEMS IN SMART GRID
In this paper are presented state of technology metering systems in Smart Grid. Are
discussed influence of formal-legal factors on development AMI. Are made comparative
analysis between Poland and the EU-26. Are pointed out possibility practical application of
LV power line to transmission date.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Michał FILIPIAK*
ANALIZA WYBRANYCH UKŁADÓW UMOŻLIWIAJĄCYCH
BEZPRZEWODOWY PRZESYŁ ENERGII ELEKTRYCZNEJ
W artykule przedstawiono podstawowe układy umożliwiające przesyłanie energii
elektrycznej bezprzewodowo z wykorzystaniem zjawiska indukcji elektromagnetycznej, Na
wstępie określono możliwości doboru cewek do układu. A następnie przeprowadzono
symulacje obwodów rezonansowych z kompensacją szeregową i równoległą.
Przeanalizowano sprawności poszczególnych układów oraz przedstawiono zalety
stosowania układów rezonansowych.
SŁOWA KLUCZOWE: układy rezonansowe, kompensacja, bezprzewodowe zasilanie
1. WSTĘP
Zmiany w produkcji energii elektrycznej oraz jej przesyłu zostały wprowadzone na
przełomie XIX i XX wieku przez Nikola Teslę. Dzięki niemu możliwe stało się
przesyłanie energii na duże odległości. W dobie gdzie infrastrukturę energetyczną
dopiero zaczynano rozbudowywać powstał pomysł, aby przesłać energię bez użycia
kabla. Niestety w tamtych czasach ta technologia nie doczekała się rozwoju gdyż
większy zysk upatrywano w energetyce przewodowej. Prawie wiek później
bezprzewodowe zasilanie wraca do rozważań naukowych. Już dziś popularne stają się
urządzenia takie jak ładowarki do urządzeń mobilnych, elektryczne szczoteczki do
zębów czy myszki bezprzewodowe. Technologia bezprzewodowego przesyłu energii
elektrycznej opiera się na zasadzie indukcji elektromagnetycznej. Niestety sprawność
takiego rozwiązania jest niewielka. Sprzężenie między cewką pierwotną i wtórną
transformatora bez rdzenia jest również bardzo małe, co przekłada się na duże straty.
W artykule rozważono kilka układów poprawiających sprawność przesyłu energii
elektrycznej bezprzewodowo.
2. TRANSFORMATOR POWIETRZNY
Transformatory powietrzne, możemy podzielić na transformatory rdzeniowe i
bezrdzeniowe. Do przesyłu energii elektrycznej bezprzewodowo za pomocą
indukcji elektromagnetycznej mają zastosowanie transformatory bezrdzeniowe.
Taki transformator charakteryzuje się dużą indukcyjnością rozproszenia oraz
__________________________________________
* Politechnika Poznańska.
198
Michał Filipiak
dużymi stratami. W przypadku przesyłu energii elektrycznej cechy te nie są
korzystne gdyż przy większych odległościach rzędu kilku centymetrów
rozproszenie jest na tyle wysokie, że sprawność urządzenia spada do kilku procent.
W celu uzyskania jak największej sprawności urządzenia część nadajnika
wprowadza się w stan rezonansu. W układzie rezonansowym wartość pojemności
można dobra z dużego przedziału produkowanych kondensatorów różnego typu.
Natomiast w przypadku cewki, aby otrzymać zadaną indukcyjność, jest to znacznie
bardziej skomplikowane, z uwagi na dobór wielkości, kształtu i ilości zwojów. W
tym przypadku bardzo pomocne są wzory określające parametry kształtu i grubości
użytego drutu. W celu określenia dokładności podanych wzorów przez firmę
MICROCHIP przebadano kilka cewek powietrznych różnego typu.
W układach zasilania bezprzewodowego najczęściej spotyka się cewki spiralne
oraz cewki wielowarstwowe okrągłe lub prostokątne. Do wykonania cewek
wykorzystano następujące zależności [5]:
 Cewka spiralna:
Rys. 1. cewka spiralna jednowarstwowa gdzie: a  (ri+ro)/2 [cm], b  ro+ri [cm],
N  liczba zwojów, ri  promień wewnętrzny, ro promień zewnętrzny [5]
L
0.3937(aN ) 2
[ H ]
8a  11b
 Cewka okrągła wielowarstwowa:
Rys. 2. Cewka okrągła wielowarstwowa, gdzie: a- średnia długość promienia [cm],
N  liczba zwojów, b  grubość uzwojenia [cm], h  wysokość uzwojenia [cm] [5]
L
0.31(aN ) 2
[ H ]
6a  9 h  10b
Analiza wybranych układów umożliwiających bezprzewodowy przesył energii …
199
Zostały one wykonane z drutu emaliowanego o przekroju 0,6 mm. Wartości
obliczone oraz pomierzone zostały zamieszczone w tabeli poniżej. Pomiary
wykonano miernikiem Motech MT4080A.
Cewka spiralna
Wymiary cewki
a[cm] b[cm] N ro
5,46
ri
1,08 18 6 4,92
Wartość obliczona Wartość zmierzona
D drutu [cm]
L[uH]
L[uH]
0,06
68,44
77,98
Cewka wielowarstwowa
Wymiary cewki
Wartość obliczona Wartość zmierzona
a[cm] b[cm] N h[cm] D drutu [cm]
L[uH]
L[uH]
4,12
70,58
72,31
0,24
20
0,3
0,06
Zgodnie z praktyką przy nawijaniu cewek dowinięto 10% zwojów więcej gdyż
w przypadku ich braku może okazać się ze indukcyjność jest zbyt mała w stosunku
do obliczonej. Jeśli natomiast będzie za duża to kilka zwojów zawsze można
odwinąć. Zgodnie z obliczeniami indukcyjności były bardzo zbliżone do siebie.
Wartości zmierzone były nieco wyższe, co stwarza możliwość dokładnego
dopasowania indukcyjności do przyszłego układu. Pozostaje jeszcze określenie
pojemności cewki, która będzie miała również wpływ na dostrojenie układu.
Wykonane cewki mają posłużyć w kolejnych badaniach przy budowie
prototypowego urządzenia. W tym celu przeprowadzono kilka symulacji.
3. SYMULACJE UKŁADÓW PRZESYŁU ENERGII
ELEKTRYCZNEJ
W celu sprawdzenie wad i zalet możliwych do zastosowania układów do
bezprzewodowego przesyłu energii elektrycznej zasymulowano kilka różnych
obwodów elektrycznych. Sprawdzono różnice w stosowaniu obwodu bez i w
rezonansie z uwzględnieniem kompensacji oraz porównano moce uzyskane na wyjściu
z nadajnika. Powyższe parametry zostały przetestowane w programie PSpice 9.1 w
wersji studenckiej, który charakteryzował się ograniczeniami w zakresie stosowanej
ilości bibliotek i elementów elektronicznych. Dobór parametrów układu został tak
dobrany, aby każdy z układów oddawał największą moc.
200
Michał Filipiak
3.1. Układ RL
Na rysunku 3 przedstawiono schemat transformatora powietrznego obciążony
rezystancją R2 = 100 Ω i zasilany napięcie UAC = 10 V, indukcyjność uzwojenia
pierwotnego oraz wtórnego wynosiła L = 62 uH. Sprzężenie między cewkami
przyjęto na poziomie k = 0,2 ze względu na dużą indukcyjność rozproszenia.
Rys. 3. Schemat obwodu transformatora powietrznego
Wobec bardzo małego sprzężenia cewek powietrznych w układzie przesyłu
energii elektrycznej sprawdzono, w jakich zakresach częstotliwości można uzyskać
największą moc na odbiorniku R2. Zależność tę przedstawia charakterystyka na
rysunku 4.
Rys. 4. Wpływ częstotliwości na moc wydzielaną na odbiorniku
Z przedstawionego wykresu wynika, że maksymalna moc dla danego układu na
odbiorniku wynosi około 0,036 W. Natomiast moc nadajnika wynosiła 7 W.
Oznacza to, że większość energii uległa rozproszenia a sprawność takiego układu
wynosi 0,51%.
Analiza wybranych układów umożliwiających bezprzewodowy przesył energii …
201
3.2. Układ z zastosowanym rezonansem szeregowy od strony zasilającej
Kolejny schemat przedstawia identyczny obwód jak w punkcie 3.1 lecz z
dołączonym kondensatorem wprowadzającym rezonans szeregowy w obwodzie
pierwotnym. Częstotliwość pracy przyjęto z norm ISO 18000 stosowaną dla
urządzeń opartych na technologii RFID (ang. Radio-frequency identification).
Wartość kondensatora dla częstotliwości rezonansowej 145,7 kHz dobrano ze
wzoru na pulsację rezonansową, który wynosi C1 = 20 nF. W dalszej części
przeanalizowano również obwody z kompensacją szeregowo-szeregową oraz
szeregowo-równoległą.
Po podłączeniu układu zauważalne jest zwiększenie mocy pobieranej przez
odbiornik oraz wzrost mocy na odbiorniku, co zostało pokazane na rysunku 8.
Sprawność układu dla rezystancji 100 Ω i sprzężenia 0,2 wynosiła odpowiednio dla:
 obwodu bez kompensacji 16%,
 obwodu z kompensacja szeregową 24,5%,
 obwodu z kompensacją równoległą 44%.
Rys. 5. Schemat obwodu transformatora powietrznego z obwodem rezonansowym bez kompensacji
Rys. 6. Schemat obwodu transformatora powietrznego z obwodem rezonansowym z kompensacją
szeregową
202
Michał Filipiak
Rys. 7. Schemat obwodu transformatora powietrznego z obwodem rezonansowym z kompensacją
równoległą
Rys. 8. Wpływ częstotliwości na moc wydzielana na odbiorniku dla układu w rezonansie
napięciowym
Dla częstotliwości rezonansowej moc na odbiorniku wzrosła. Chociaż układ
pobierał więcej energii to jego sprawność była kilkukrotnie większa od układu bez
rezonansu. Sprawdzono również wariant dla układu pobierającego identyczną moc
jak w pkt. 3.1 w celu porównania mocy wyjściowych na odbiorniku. W drugim
przypadku również sprawność przesyłu energii była znacznie większa niż w
punkcie 3.1. Dobroć układu wynosi Q = 11,35.
Wykonano symulacje dla różnego obciążenia odbiornika w zakresie do 1 kΩ,
którą przedstawiono na rysunku poniżej.
Powyższy wykres został wykonany dla częstotliwości 143,8 kHz i sprzężeniu
cewek k = 0,2. Zmiana rezystancji obciążenia jak również zmiana sprzężenia
Analiza wybranych układów umożliwiających bezprzewodowy przesył energii …
203
między cewkami wyprowadza układ z częstotliwości rezonansowych a tym samym
zmniejsza się moc wydzielana na odbiorniku. Taka sytuacja może wystąpić
szczególnie w urządzeniach mobilnych ładowanych z podstawek indukcyjnych.
Niedokładne ułożenie odbiornika na podstawce w celu jego naładowania powoduje
mniejszy przesył energii a tym samym niedoładowanie urządzenia lub większe
straty energii. W tym celu należy zapewnić odpowiednie sterowanie
częstotliwością albo wykorzystać pozycjonowanie mechaniczne.
Rys. 9. Wpływ rezystancji obciążenia na moc wydzielaną na odbiorniku
4. PODSUMOWANIE
Dobór elementów w układach zasilania indukcyjnego przy stałej częstotliwości
może powodować wiele problemów konstrukcyjnych. Bardzo często zdarza się, że
zakupione podzespoły nie posiadają zadanych parametrów, gdyż tolerancja ich
wykonania jest bardzo duża. Podobnie w przypadku doboru cewki parametry
związane zarówno z kształtem jak i dokładnością nawinięcia powoduje zmiany
indukcyjności oraz pojemności między zwojami. W układach wykorzystujących
indukcję elektromagnetyczną dochodzi również sprzężenie cewek powietrznych,
który wpływa na moc w części nadajnika. Z powyższych zależności wynika, że
takie układy powinny być sterowane tak, aby częstotliwość była ustalana dla
danego układu indywidualnie w celu uzyskania jak najmniejszych strat w układzie.
5. WNIOSKI
Układy rezonansowe są najbardziej efektywnymi układami (bezprzewodowego)
przesyłania energii elektrycznej. Odpowiednio dobrane parametry układu RLC
pozwolą działać ze znacznie większą sprawnością niż układy RL. Największą
sprawność uzyskał układ z kompensacją szeregowo-równoległą. Natomiast w zakresie
204
Michał Filipiak
obciążenia do około 100Ω najbardziej wydajny był układ z kompensacją szeregowoszeregową. Poprzez wprowadzenie układu nadajnika w stan rezonansu można uzyskać
kilkudziesięciokrotne zwiększenie sprawności przesyłanej mocy. Przy bardzo niskim
sprzężeniu cewek i małej dobroci układu uzyskano dostateczną moc wyjściową do
zasilania urządzeń codziennego użytku. Niestety, istnieje wiele niebezpieczeństw przy
stosowaniu układów rezonansowych, do których zaliczamy między innymi możliwość
wystąpienia przepięć w obwodzie. Skutkiem takiego stanu jest uszkodzenie sprzętu
elektronicznego. Brak odpowiednio zaprojektowanego układu może wywołać
uszkodzenia przy zmianie odległości miedzy cewkami. Zaletami układów RLC będzie
również większy zasięg zasilania. Podstawą kolejnych badań nad układami
bezprzewodowego zasilania wykorzystujące zjawisko rezonansu będzie analiza
analityczna układu wraz z jego budową.
LITERATURA
[1] Bolkowski S.: Teoria Obwodów Elektrycznych, WNT, Warszawa 2003.
[2] Moradewicz A., Miśkiewicz R.: Systemy bezstykowego zasilania komputerów
przenośnych. Prace Instytutu Elektrotechniki, Zeszyt 236, 2008, str 51.
[3] Kuen-Cheng Wang, Che-Wei Hsu Tung- Jung Chan Tsung-Shih Chien Tsair-Rong
Chen Study of Applying Contactless Power Transmission System to Battery Charge
PEDS2009, str. 257.
[4] Du Guiping, Li Xiongtao, Sheng Songtao Modeling and Simulation of Contactless
Power Transmission System by Inductance Coupling ISIEA 2009 str. 123.
[5] MICROCHIP,: Antena circuit design for RFID aplications, datascheet.
[6] Judek S., Karwowski K.: Analiza systemu przekazywania energii na drodze
indukcyjnej przy dużej szczelinie powietrznej i wysokiej częstotliwości, WPK,
Kraków 2007.
ANALYSIS CHOSEN OF WIRELESS TECHNOLOGY TRANSFER
THE ELECTRICITY
This paper presents the basic systems which transmit electricity wirelessly using
electromagnetic induction phenomenon, a preliminary set of selection possibilities of coils
into the system. And then conducted simulations of resonant circuits with compensation for
serial and parallel. Were analyzed the efficiency of the different systems and presents the
advantages of using resonant circuits.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Krzysztof WANDACHOWICZ*
OPTYMALIZACJA KSZTAŁTU ODBŁYŚNIKA
Z WYKORZYSTANIEM RÓŻNYCH POSTACI FUNKCJI CELU
W artykule przedstawiono wyniki badań dotyczących obliczania kształtu
zwierciadlanego odbłyśnika, który zapewnia uzyskania jak największej wartości średniego
natężenia oświetlenia oraz równomierności oświetlenia. Obliczenia optymalizacyjne
przeprowadzono z zastosowaniem dwóch, różnych postaci funkcji celu.
SŁOWA KLUCZOWE: obliczanie opraw oświetleniowych, optymalizacja
1. WSTĘP
Algorytmy optymalizacji stosują iteracyjną procedurę wielokrotnej oceny
funkcji celu. Poszukiwane jest ekstremum funkcji, która może przybierać wartości
światłości lub natężenia oświetlenia albo różnicy pomiędzy aktualnie obliczaną
wartością i wartością zakładaną. W trakcie procesu optymalizacji zmienia się
kształt elementów optycznych oprawy.
W dotychczas zrealizowanych badaniach przedstawiono metodę oraz przykłady
obliczeń w różnych konfiguracjach kształtu i wymiarów odbłyśników jak i
powierzchni świecących źródeł światła [1, 2]. Zrealizowano między innymi obliczenia
dla odbłyśnika zbudowanego w ten sposób, że jego otwór górny jak i otwór dolny mają
kształt kwadratu (rys. 1). Kształt czterech bocznych ścian jest tworzony przez krzywą
profilową opisaną za pomocą wielomianu interpolacyjnego Hermite’a [3, 4]. W
otworze górnym umieszczony jest model tzw. modułu LED. Moduł ten utworzono na
podstawie danych technicznych modułu Fortimo LED DLM 2000. Element świecący
modułu stanowi powierzchnia w kształcie koła o średnicy około 6 cm, którą pokryto
luminoforem. Powierzchnia ta ma rozsył strumienia świetlnego prawie lambertowski.
Strumień świetlny ma wartość 2000 lm. Powierzchniowe źródło światła o średnicy 6
cm ma wymiary zbliżone do wymiarów odbłyśnika, którego górny otwór ma
szerokość 6 cm, dolny około 10 cm, a wysokość wynosi około 8 cm.
Projektowany odbłyśnik umieszczony jest na wysokości trzech metrów nad
środkiem kwadratowej powierzchni o szerokości trzech metrów i ma za zadanie
zapewnić jak największą wartość natężenia oświetlenia (przy założonej
równomierności). Sprawność oświetlenia definiowana jako stosunek strumienia
__________________________________________
* Politechnika Poznańska.
206
Krzysztof Wandachowicz
świetlnego, padającego na oświetlaną powierzchnię, do sumy strumieni świetlnych
lamp w instalacji oświetleniowej może służyć do oceny właściwości zaprojektowanej
oprawy. Biorąc pod uwagę obliczoną, średnią wartość natężenia oświetlenia (116,4 lx)
oraz pole oświetlanej powierzchni (9 m2), uzyskujemy sprawność oświetlenia równą
52%. Nie jest to zbyt duża wartość. Jednak przy dużej powierzchni świecącej źródła
światła, porównywalnej z wymiarami odbłyśnika nie ma możliwości aby w tym
przypadku ograniczyć wypromieniowanie strumienia świetlnego wyłącznie do
przyjętego do oświetlenia obszaru. Strumień świetlny będzie wysyłany również poza
ten obszar. Zjawisko to potęguje fakt niedopasowania kształtu powierzchni świecącej
źródła światła (koło) z kształtem otworu odbłyśnika (kwadrat). Dla zapewnienia
odpowiedniej równomierności natężenia oświetlenia na oświetlanej, kwadratowej
powierzchni, otwór wyjściowy powinien mieć również kształt kwadratu. Tworzona na
powierzchni odbłyśnika figura jasnych punków, jeżeli ma wypełniać całą powierzchnię
odbłyśnika spowoduje, że część strumienia musi zostać wysłana poza kąt wyznaczony
przez kierunek obserwacji. Pomimo trudnego do zrealizowania zadania sprawność
eksploatacyjna zaprojektowanej oprawy wynosi 85%.
Rys. 1. Rysunek przedstawiający model odbłyśnika z dolnym i górnym otworem
w kształcie kwadratu, uzyskana krzywa światłości (linia ciągła – płaszczyzna C0-C180,
linia przerywana – płaszczyzna C45-C225)
Przedstawione wyżej zadanie było trudne w realizacji ze względu na konieczność
uzyskania skomplikowanego kształtu bryły fotometrycznej oraz niedopasowanie
kształtu powierzchni świecącej źródła światła i dolnego otworu odbłyśnika. Uzyskana
wartość sprawności oświetlenia może wydawać się niewielka. Nie można jej jednak
porównać ze sprawnościami produkowanych aktualnie opraw oświetleniowych, które
realizują podobne jak projektowana oprawa zadania gdyż nie znaleziono podobnych
rozwiązań dostępnych na rynku. Prezentowane są przykłady opraw oświetleniowych z
odbłyśnikami, których zadaniem jest oświetlenie powierzchni z zakładaną
równomiernością. Jednak najczęściej są tam postawione prostsze wymagania, kiedy
światłość w osi odbłyśnika jest równa światłości źródła światła, a odbłyśnik ma na celu
zapewnienie odpowiedniej wartości światłości przy większych kątach. W
prezentowanym przykładzie światłość w osi odbłyśnika pochodząca od powierzchni
świecącej źródła światła zapewnia uzyskanie z odległości trzech metrów natężenia
oświetlenia o wartości jedynie 70-ciu luksów. Jest to zbyt mało aby zrealizować
Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu
207
zakładany cel, to znaczy wysoką wartość średniego natężenia oświetlenia (powyżej
100 lx) i równomierność na poziomie 0,7. Odbłyśnik musi brać udział w tworzeniu
bryły fotometrycznej zarówno w kątach zbliżonych do zera (oś odbłyśnika) jak i kątach
granicznych wyznaczanych przez krawędź oświetlanej powierzchni.
2. MODEL ODBŁYŚNIKA ZE ŹRÓDŁEM ŚWIATŁA O MAŁYCH
ROZMIARACH
W przykładzie opisanym w poprzednim punkcie zastosowano źródło światła o
dużym rozmiarze w stosunku do rozmiaru odbłyśnika. Ponadto kształt źródła światła
(koło) był niedopasowany do kształtu otworu wyjściowego odbłyśnika (kwadrat).
Konsekwencją tych cech było uzyskanie stosunkowo niewielkiej wartości sprawności
oświetlenia. Niniejszy przykład ma za zadanie wykazać, czy zastosowanie źródła
światła o mniejszym rozmiarze spowoduje poprawę sprawności oświetlenia.
Krzywa określająca profil odbłyśnika przechodzi przez punkty P, które tworzą tzw.
węzły interpolacji (rys. 2). Pomiędzy węzłami interpolacji kształt profilu odbłyśnika
interpoluje się za pomocą wielomianów Hermite’a trzeciego stopnia [3, 4].
Dx
P1
z2
z3
z4
Dx
x2
Dx
x3
Dx
x4
x5
Z
ub
P2
Pi
źródło światła
X
Pp
P3
P4
lb
z5
P5
Pk
dx
ag
Rys. 2. Profil odbłyśnika z węzłami interpolacji P1÷P5, linie ub i lb wyznaczają
dopuszczalne granice położenia węzłów interpolacji; kąt graniczny g wypromieniowania
strumienia
Model odbłyśnika powstaje poprzez obrót krzywej profilowej wokół osi Z. Ustalono
jako niezmienne położenie punktu początkowego P1. Pozostałe punkty zmieniają
zarówno położenia w osi Z jak również w osi X. Działanie algorytmu optymalizacji
może w tym przypadku prowadzić do zmiany wysokości i szerokości odbłyśnika.
Ustalenie położenia węzłów interpolacji w osi X dokonywane jest za pomocą jednej
zmiennej dx, która odpowiada za zmianę wartości współrzędnej X ostatniego punktu
208
Krzysztof Wandachowicz
P5. Współrzędne pozostałych punktów obliczane są z uwzględnieniem jednakowego
odstępu x w osi X pomiędzy kolejnymi punktami. Stworzono dwa modele
odbłyśnika. W pierwszym zastosowano cztery punkty będące węzłami interpolacji, w
drugim natomiast zwiększono ich liczbę do pięciu. Zastosowanie zwiększonej liczby
węzłów interpolacji pozwoli na dokładniejszą kontrolę kształtu profilu odbłyśnika. Jest
to szczególnie istotne, w przypadku źródła o niewielkich rozmiarach gdzie małe
różnice w kształcie odbłyśnika mogą powodować stosunkowo duże zmiany w kształcie
krzywej światłości. Algorytm optymalizacji operuje na pięciu zmiennych w pierwszym
przypadku (z2, z3, z4, z5, dx) oraz na sześciu zmiennych w drugim przypadku (z2, z3, z4,
z5, z6, dx) .
W otworze górnym umieszczono model źródła światła, którego element świecący
ma średnicę 6 mm (dziesięciokrotnie mniej niż w poprzednio opisanym przykładzie),
a strumień świetlny ma wartość 2000 lumenów. Przyjęto, że powierzchnia źródła
światła charakteryzuje się rozsyłem lambertowskim.
Niezwykle istotne, szczególnie w przypadku źródeł o małych rozmiarach jest
ustalenie początkowych wymiarów odbłyśnika, które będą poddawane korekcie
przez algorytm optymalizacji w procesie obliczeń. Źle dobrane wstępne założenia
mogą prowadzić do uzyskania rozwiązania bardzo odbiegającego od optymalnego.
Linia tworząca kąt graniczny g wypromieniowania strumienia powinna przecinać
się z krawędzią oświetlanej powierzchni (rys. 2).
Tabela 1. Początkowe współrzędne punktów określających wymiary odbłyśnika
Nazwa
Punkt początkowy Pp
Punkt końcowy Pk
Współrzędne
x = 0.01 m
z = 0.00 m
x = 0.05 m ± 0.02 m
z = -0.10 m ÷ -0.80 m
Przyjmując powyższe ustalenia wyznaczone zostały początkowe współrzędne
punktów określających wymiary odbłyśnika (tab. 1). Oznaczenie punktu
początkowego Pp odpowiada punktowi P1 z rysunku 2, a punktu końcowego Pk
punktowi P5. Punkt początkowy Pp nie zmienia swojego położenia w trakcie
działania algorytmu optymalizacji, podczas gdy punkt końcowy zmienia zarówno
położenie w osi X jak i w osi Z. Dzięki temu działanie algorytmu prowadzi do
zmiany wymiarów odbłyśnika.
3. OPTYMALIZACJA KSZTAŁTU ODBŁYŚNIKA
Zmieniono siatkę punktów obliczeniowych. Poprzednio konstruowane
założenia zmierzały do osiągnięcia jak największej wartości natężenia oświetlenia
przy założonej równomierności na powierzchni w kształcie kwadratu. Stąd do
Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu
209
takiego zadania wybrano odbłyśnik z kwadratowym otworem wyjściowym. Teraz
obliczenia będą dotyczyły odbłyśnika z okrągłym otworem. Taki odbłyśnik nie
nadaje się do równomiernego oświetlenia powierzchni kwadratowej. Jego
zadaniem jest oświetlenie powierzchni w kształcie koła.
Y
i+3
i+2
i+1
i
ri
ri+1 ri+2 ri+3 X
Rys. 3. Ilustracja rozmieszczenia punktów obliczeniowych wzdłuż promienia oświetlanej
powierzchni
Model odbłyśnika umieszczony jest na wysokości trzech metrów nad środkiem
okrągłej powierzchni o średnicy trzech metrów. Piętnaści punktów obliczeniowych
rozmieszczonych jest wzdłuż promienia oświetlanej powierzchni ze skokiem
wynoszącym 0,1 metra (od 0,05 m do 1,45 m). Obliczenie średniej arytmetycznej z
tak rozmieszczonych punktów nie jest równoznaczne z obliczeniem średniej
wartości natężenia oświetlenia na powierzchni koła. Wartość średniego natężenia
oświetlenia Eśr obliczana jest wtedy z zależności (1). Przyjmując odstępy pomiędzy
punktami siatki wynoszące 0,1 metra, ułamek we wzorze (1) będący sumą
stosunku kwadratów promieni siatki przybierze postać ciągu z wartościami od 1 do
29 zmieniającymi się ze skokiem równym 2.
n
E śr   Ei
i 1
ri  ri1 2
r12
n

ri  ri1 2
r12
i 1
(1)
gdzie: Ei - wartość natężenia oświetlenia w punkcie i, ri - promień wyznaczający
granice siatki, i = 1, 2, …, n, r0 = 0 (rys. 3).
W dotychczas wykonywanych badaniach stosowano funkcję celu z funkcją
kary. Zastosowanie funkcji kary miało na celu odrzucanie rozwiązań nie
spełniających przyjętego kryterium równomierności oświetlenia [1]. W
opisywanym przykładzie wprowadzono funkcję celu w postaci ważonej sumy
kwadratów różnic pomiędzy wartością obliczoną a wartością oczekiwaną (2).
n
2
F ( X )  Wi H i  H ci 
(2)
i 1
gdzie: Hi - obliczona w wyniku działania algorytmu optymalizacji wartość
określonego parametru (np. wartość natężenia oświetlenia), Hci - oczekiwana
210
Krzysztof Wandachowicz
wartość określonego parametru (np. natężenia oświetlenia), Wi – waga określająca
udział danego parametru w wartości funkcji celu.
W tym, konkretnym przypadku nowa postać funkcji celu skonstruowana jest w
następujący sposób:
 dla i=(1, 2, …, 15): Hi – wartość natężenia oświetlenia w punkcie i; Hci =300;
Wi+1 = Wi +2, W1 =1,
 dla i=(16, 17, …, 20): Hi – wartość natężenia oświetlenia w punkcie i; Hci =0;
Wi =100,
 dla i=21: Hi – wartość równomierności oświetlenia obliczona dla punktów
i=(1, 2, …, 15); Hci =0,7; Wi =1000 dla Hi < Hci, Wi =0 dla Hi > Hci..
Pierwszych piętnaście punktów obliczeniowych rozmieszczonych jest ze
skokiem 0,1 m w obrębie oświetlanej powierzchni. Kolejne punkty (od 16 do 20)
usytuowane są na zewnątrz oświetlanej powierzchni (od 1,55 m do 1,95 m). Celem,
do którego dąży algorytm optymalizacji jest uzyskanie takiego kształtu odbłyśnika,
który zapewni:
 na oświetlanej powierzchni natężenie oświetlenia o wartości jak najbardziej
zbliżonej do 300 luksów,
 poza oświetlaną powierzchnią natężenie oświetlenia o wartości jak najbardziej
zbliżonej do 0 luksów,
 dodatkowo
premiowane
są
rozwiązania
zapewniające
uzyskanie
równomierności o wartości co najmniej 0,7.
Obliczenia optymalizacyjne (poszukiwanie minimum funkcji celu) wykonano
za pomocą algorytmu genetycznego, w którym zastosowano następujące
rozwiązania [5, 6]:
 reprezentacja zmiennoprzecinkowa – pozwala na przybliżenie algorytmu do
przestrzeni zadania, dwa punkty leżące blisko siebie w przestrzeni reprezentacji
będą także leżały blisko siebie w przestrzeni zadania,
 skalowania funkcji celu metodą nadawania rang wyrównuje punktacje słabiej
przystosowanych osobników przy jednoczesnym zachowaniu dużej
różnorodności w populacji,
 selekcja elitarna przenosi do następnego pokolenia dwa najlepsze rozwiązania,
 krzyżowanie heurystyczne i mutacja z rozkładem Gaussa (wielkość mutacji
zmniejsza się w każdym nowym pokoleniu),
 strategia zmiany różnorodności populacji [7].
W tabeli 2 przedstawiono zestawienie uzyskanych wyników dla modelu z
czterema (4p) i pięcioma (5p) węzłami interpolacji.
Najlepszy wynik uzyskano dla modelu odbłyśnika z pięcioma węzłami interpolacji
kiedy funkcja celu miała postać ważonej sumy kwadratów. Uzyskana wartość
średniego natężenia oświetlenia wynosi 251,3 lx, a pole oświetlanej powierzchni
7,1 m2 (pole koła o średnicy 3 m). Sprawność oświetlenia oprawy z obliczonym
odbłyśnikiem o współczynniku odbicia = 0,9 równa się 89%. Jest to wartość
Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu
211
znacząco wyższa od wartości sprawności odbłyśnika z otworem w kształcie kwadratu i
źródłem światła o dużej powierzchni. Niniejszym potwierdzone zostały wcześniejsze
przypuszczenia dotyczące wpływu dużej powierzchni źródła światła oraz
niedopasowania kształtu otworu odbłyśnika do kształtu źródła światła na uzyskaną
wartość sprawności oświetlenia. Sprawność oprawy wynosi 91 % co oznacza, że tylko
2 % strumienia wypromieniowana zostaje poza oświetlaną powierzchnię.
Tabela 2. Zestawienie uzyskanych wyników
Opis
modelu
Funkcja celu
Eśr
[lx]
Równomierność oświetlenia
Emin/Eśr
4p
Z funkcją kary
246,9
0,69
4p
Ważona suma kwadratów (2)
246,7
0.75
5p
Z funkcją kary
247,1
0,70
5p
Ważona suma kwadratów (2)
251,3
0,89
W tabeli 3 przedstawiono podsumowanie wyników dla najlepszego rozwiązania.
Na rysunku 4 przedstawiono obliczony kształt profilu odbłyśnika. Algorytm
optymalizacji doprowadził do uzyskania trójkrzywiznowego profilu, a krzywa
profilowa posiada wyraźnie zaznaczone dwie części. Część górną odpowiedzialną za
doświetlenie środkowej strefy oświetlanej powierzchni, oraz część dolną
odpowiedzialną za doświetlenie stref leżących na skraju oświetlanej powierzchni.
Rys. 4. Rysunek obliczonego profilu odbłyśnika, dyskretyzacja powierzchni odbłyśnika,
widok z boku i widok z dołu
Na rysunku 5 przedstawiono rozkład natężenia oświetlenia wzdłuż promienia
oświetlanej powierzchni. Na rysunku 6 pokazano krzywą światłości oprawy
oświetleniowej z odbłyśnikiem (suma światłości modułu LED i odbłyśnika), którego
kształt obliczono w wyniku działania algorytmu optymalizacji. Brak monotoniczności
w środkowej części krzywej jest spowodowane skomplikowanym, trójkrzywiznowym
212
Krzysztof Wandachowicz
kształtem odbłyśnika. Wyraźnie widać podział na części krzywej, które zapewniają
doświetlenie środkowej i skrajnej strefy oświetlanej powierzchni.
Tabela 3. Zestawienie uzyskanych wyników
Nazwa
Wynik
Wartość funkcji celu
9 635 493,1
Najlepsze rozwiązanie
P2
P3
P4
P5
P6
dx
x = 0,016786 m z = -0,005725 m
x = 0,023571 m z = -0,021004 m
x = 0,030357 m z = -0,020719 m
x = 0,037142 m z = -0,030925 m
x = 0,043928 m z = -0,085665 m
-0,006072 m
Eśr [lx]
251,3
Równomierność oświetlenia
Emin/Eśr
0,89
Liczba iteracji / czas obliczeń [s]
(Intel Core Duo T2450 2,0 GHz)
0,55
300
250
E [lx]
200
150
100
50
0
0.0
0.5
1.0
r [m]
1.5
2.0
Rys. 5. Rozkład natężenia oświetlenia wzdłuż promienia oświetlanej powierzchni
Rys. 6. Krzywa światłości obliczonej oprawy oświetleniowej
Optymalizacja kształtu odbłyśnika z wykorzystaniem różnych postaci funkcji celu
213
4. WNIOSKI
Przeprowadzone badania pokazują, że nowa postać funkcji celu zapewnia
polepszenie skuteczności algorytmu optymalizacji. Jest to szczególnie istotne w
przypadkach, kiedy niewielka zmiana danych powoduje dużą zmianę wyniku.
Jednocześnie wykazano, że niewielka wartość sprawności oświetlenia jaką
osiągnięto ze źródłem światła o dużych rozmiarach nie wynika z niewłaściwego
działania algorytmu optymalizacji. Dla źródła światła o małych rozmiarach i
kształcie dostosowanym do kształtu odbłyśnika uzyskano dużą wartość
sprawności oświetlenia.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
Wandachowicz K.: Optymalizacja kształtu odbłyśnika zapewniającego uzyskanie
zakładanego poziomu równomierności oświetlenia. Przegląd Elektrotechniczny
5a/2012. Warszawa, Sigma-Not. 181-183.
Wandachowicz K., Kuczko W.: Weryfikacja metody obliczania odbłyśników opraw
oświetleniowych. Przegląd Elektrotechniczny, nr 1/2014, Warszawa, Sigma-Not,
PL ISSN 0033-2097, 281-284.
Wandachowicz K.: Obliczanie profilu odbłyśnika z wykorzystaniem interpolacji
Hermite'a. Materiały konferencyjne: XV Conference Computer Applications in
Electrical Engineering, ZKwE'2010, Poznań, 19-21.04.2010, 231-232.
Fritsch F. N., Carlson R. E.: Monotone Piecewise Cubic Interpolation. SIAM
Journal on Numerical Analysis, 17 (1980), 238-246.
Michalewicz Z.: Algorytmy genetyczne + struktury danych = programy
ewolucyjne. WNT Warszawa 2003.
Global Optimization Toolbox User’s Guide. The MathWorks, Inc.
Wandachowicz K.: Optymalizacja profilu odbłyśnika z zastosowaniem strategii
zmiany różnorodności populacji, XXII Krajowa Konferencja Oświetleniowa
Technika Świetlna 2013, Warszawa 21-22 listopada 2013, materiały konferencyjne.
OPTIMIZATION OF REFLECTOR SHAPE USING DIFFERENT FORMS
OF OBJECTIVE FUNCTION
There are presented research results that concern of calculation of mirror reflector
profile that is using for obtaining the highest value of average illumination and uniformity
ratio on the illuminated surface. The evolutiony algorithm with different forms of objective
function was used.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Małgorzata ZALESIŃSKA*
ANALIZA WARUNKÓW WYKONYWANIA BADAŃ
WYDOLNOŚCI WZROKOWEJ KIEROWCÓW
Z ZASTOSOWANIEM SYMULATORA JAZDY
Na poziom wydolności wzrokowej mają wpływ warunki oświetleniowe panujące na
drodze i w jej otoczeniu, własności geometryczne i fotometryczne przeszkód, jak i warunki
obserwacji. Do badania wydolności wzrokowej kierowców zbudowano w laboratorium
Zakładu Techniki Świetlnej i Elektrotermii Politechniki Poznańskiej symulator jazdy
samochodem. W trakcie badań prowadzonych w ramach grantu MNiSW nr N N510
666140 zauważono konieczność sformułowania zaleceń i wytycznych dotyczących
przeprowadzania pomiarów wydolności wzrokowej kierowców z zastosowaniem
symulatora jazdy samochodem. W artykule przedstawiono procedurę badawczą oraz
wyniki badań. Przeprowadzono analizę uzyskanych wyników oraz ocenę możliwości
zastosowania symulatora jazdy do badania wydolności wzrokowej kierowców.
SŁOWA KLUCZOWE: wydolność wzrokowa kierowcy, symulator jazdy samochodem,
oświetlenie drogowe, rozkład luminancji w polu widzenia kierowcy
1. WPROWADZENIE
Bezpieczne prowadzenie pojazdu wymaga bardzo wielu informacji pochodzących
ze wzrokowej analizy obszaru drogi i jej otoczenia. Kierowca musi rozpoznawać
zarys drogi, przejścia dla pieszych, chodniki, znaki i światła drogowe, punkty
orientacyjne, obecność innych użytkowników, ich położenie, prędkość oraz kierunek
poruszania się. Ponadto wszystkie te informacje muszą być odebrane w odpowiednim
czasie, aby możliwe było ich zidentyfikowanie i przetworzenie oraz podjęcie decyzji i
wykonanie odpowiedniego manewru. Wraz z nadejściem zmroku warunki widzenia
kierowców ulęgają znacznemu pogorszeniu. Uzyskanie w takich warunkach
odpowiedniego poziomu niezawodności wzrokowej kierowców możliwe jest dzięki
zapewnieniu właściwych warunków oświetleniowych panujących na drodze oraz w
jej bezpośrednim otoczeniu. Uznaje się, że spełnienie wymagań normatywnych [1] w
zakresie luminancji średniej drogi (natężenia oświetlenia), równomierności ogólnej
oraz wzdłużnej, a także ograniczenia olśnienia oraz zapewnienia prawidłowego
prowadzenia wzrokowego pozwala na uzyskanie odpowiednich, z punktu widzenia
wydolności wzrokowej oraz wygody widzenia kierowcy, warunków oświetleniowych
__________________________________________
* Politechnika Poznańska.
216
Małgorzata Zalesińska
na drodze. W przypadku otoczenia drogi sprawa jest o wiele trudniejsza, gdyż często
szybki rozwój nowych technologii wyprzedza ustawodawstwo i normalizację.
Przykład stanowić mogą wielkopowierzchniowe reklamy LED instalowane w
bezpośrednim otoczeniu dróg [2, 3, 4]. Dlatego też istnieje konieczność
systematycznego prowadzenia badań nad wydolnością wzrokową kierowców w
różnych warunkach oświetleniowych.
2. SYMULATOR JAZDY SAMOCHODEM ZBUDOWANY
W LABORATORIUM ZAKŁADU TECHNIKI ŚWIETLNEJ
I ELEKTROTERMII POLITECHNIKI POZNAŃSKIEJ
W trakcie prac badawczych związanych z realizacją grantu MNiSW nr N N510
666140 pt. Badanie wpływu wielkopowierzchniowych reklam z diodami
świecącymi na warunki widzenia kierowców w ruchu drogowym [5] w Zakładzie
Techniki Świetlnej i Elektrotermii Politechniki Poznańskiej zbudowany został
statyczny symulator jazdy samochodem. Zgodnie z klasyfikacją zawartą w
literaturze [6] symulator ten można zaliczyć do symulatorów klasy średniej.
Podstawowymi elementami symulatora są:
 model kabiny samochodu osobowego (przednia część Fiat Seicento)
posiadający klasyczną deskę rozdzielczą z przyciskami, radiem, działającymi
nawiewem i prędkościomierzem wskazującym aktualną prędkość jazdy oraz
manualną skrzynię biegów, pedały sprzęgła gazu i hamulca. Ponadto we
wnętrzu kabiny zastosowano zastępcze źródło olśnienia przeszkadzającego,
pochodzącego od opraw oświetlenia drogowego.
Widok fragmentu kabiny oraz jej usytuowanie na stanowisku laboratoryjnym
przedstawiono na rysunku 1.
 układ projekcji obrazu zbudowany został z ekranu o wymiarach 3,90 m na 2,90
m oraz projektorów multimedialnych głównego i pomocniczego. Projektor
główny wyświetla obraz drogi w zakresie kątów 26,7 º w lewo oraz 25,8 º w
prawo od osi optycznej obserwatora. Projektor dodatkowy zastosowany został
w celu uzupełnienia obrazu pod reklamą LED, która jest integralną częścią
stanowiska laboratoryjnego i ułatwienia kierowcy skrętu w prawo,
 oświetlenie peryferyjnego pola widzenia kierowcy zasymulowane poprzez
oświetlenie bocznych ścian laboratorium liniami LED, przesłoniętymi
mlecznymi płytami rozpraszającymi oraz przeświecalnymi szarymi zasłonami.
Zastosowane diod świecących oraz ich sterowanie umożliwiły uzyskanie
stałego podkładu luminancji średniej, zbliżonego do luminancji elewacji
budynków znajdujących się w otoczeniu drogi oraz zmiennej luminacji
symulującej ruch pojazdu względem otoczenia (okien, witryn ),
 stanowisko sterowania symulacją, w skład którego wchodzą dwa połączone ze
sobą komputery klasy PC. Komputer główny odpowiedzialny jest za
Analiza warunków wykonywania badań wydolności wzrokowej kierowców …
217
sterowanie wyświetlaną symulacją drogi oraz zbieranie danych dotyczących
przebiegu eksperymentu. Komputer dodatkowy steruje wyświetlaniem obrazu
na ekranie LED.
Przykład symulacji wyświetlanej na ekranie przedstawiono na rysunku 2.
Szczegółowy opis symulatora jazdy oraz sposób kalibracji stanowiska
laboratoryjnego opisano w literaturze [7, 8, 9].
Rys. 1. Wygląd symulatora jazdy samochodem oraz moduł reklamy LED: 1 – widok fragmentu
kabiny kierowcy, 2 – ekran, na którym wyświetlana jest symulacja drogi, 3 – moduł rzeczywistej
reklamy LED
Rys. 2. Przykład symulacji wyświetlanej na ekranie
Symulator jazdy samochodem osobowym zbudowany w Zakładzie Techniki
Świetlnej i Elektrotermii jest pierwszym w Polsce symulatorem, jaki został
wykorzystany w badaniach wpływu różnych warunków oświetleniowych panujących
na drodze po zapadnięciu zmroku na wydolność wzrokową kierowców.
Metodologia badań nad wydolnością wzrokową kierowców z zastosowaniem
symulatora jazdy samochodem nie jest opisana w literaturze, dlatego też istnieje
konieczność ustalenia warunków wykonywania takiego rodzaju badań. Z tego
względu, w laboratorium Zakładu techniki Świetlnej i Elektrotermii Politechniki
Poznańskiej, przeprowadzono badania pilotażowe zmierzające do ustalenia
kryteriów i warunków przeprowadzania badań wydolności wzrokowej kierowców
z zastosowaniem symulatora jazdy samochodem.
218
Małgorzata Zalesińska
3. WARUNKI WYKONYWANIA BADAŃ WYDOLNOŚCI
WZROKOWEJ KIEROWCÓWZ ZASTOSOWANIEM
SYMULATORA JAZDY
3.1. Opis procedury badawczej
Wydolność wzrokowa kierowcy jest wydolnością systemu wzrokowego, która
określa jego zdolność do zauważania subtelnych zmian w polu widzenia. Stopień
wydolności wzrokowej ma istotny wpływ na prawdopodobieństwo oraz zdolność
spostrzegania, odległość spostrzegania obiektu na drodze, wydolność reakcji, czy
spostrzeganie ruchu względnego. Na zbudowanym stanowisku laboratoryjnym
wydolność wzrokowa oceniana była na podstawie czasu reakcji obserwatora na
zasymulowane zdarzenie drogowe. Zdarzeniem drogowym było pojawienie się
przeszkód na jezdni przed obserwatorem bez święcących reklam w pobliżu drogi,
przeszkód przy świecących reklamach o zadanej luminancji oraz świecących
reklam, które miały zmylić czujność obserwatora. Czas reakcji mierzony był od
momentu pojawienia się przeszkody na drodze do reakcji kierowcy na to zdarzenie.
Reakcją kierowcy mogło być naciśnięcie pedału hamulca lub gwałtowny ruch
kierownicą, pozwalający na ominięcie przeszkody. System sterująco – kontrolny
umożliwia rejestrację czasu reakcji oraz rodzaju reakcji np. hamowanie, skręt
kierownicą, kolizja z przeszkodą lub z otoczeniem. Reakcja obserwatora na
wszystkie zdarzenia drogowe rejestrowana była z dokładnością do 1 ms.
W trakcie badań zastosowano przeszkody różnego typu: pieszy, pies, piłka leżąca
na ziemi, kwadraty o różnych luminancjach: 0.7, 1.2 i 3 cd/m2 (luminacja średnia
drogi wynosiła 1,5 cd/m2). Przykładowy wygląd przeszkód zamieszczono na rysunku
3. W celu jednoznacznego określenia czasu reakcji obserwatora na pojawienie się
przeszkody na drodze założono, tak samo, jak we wcześniej prowadzonych badaniach
[5, 10], natychmiastowe pojawienie się przeszkody na drodze.
Do przeprowadzenia badań przygotowano sześć tras jazdy symulatorem – jedną
trasę (trasa nauka), na której osoby badane zapoznawały się ze sposobem jazdy
symulatorem, rodzajami zdarzeń drogowych, wyglądem przeszkód, sposobem
pojawiania się na drodze oraz pięć tras, na których badaniom poddano różne kryteria
wykonywania pomiarów. Konstrukcja tras została tak przygotowana, aby możliwa
była analiza wyników ze względu na: rodzaj przeszkody, miejsce położenie
przeszkody na trasie przejazdu (prosty odcinek drogi, łuk), zastosowany scenariusz
kolejności przeszkód i reklam na drodze (same przeszkody przeplatane przeszkodami
ze świecącymi reklamami lub przeszkody z reklamami na początku i na końcu trasy, a
same przeszkody, bez reklam - w części środkowej), stopień złożoności zadania
wzrokowego (proste zadanie wzrokowe – obserwowanie drogi oraz bardziej złożone –
obserwowanie pobocza i szukanie określonych obiektów lub obserwowanie i
zapamiętywanie treści reklamowych), sposób powiększania obrazu reklamy
Analiza warunków wykonywania badań wydolności wzrokowej kierowców …
219
symulujący zbliżanie się obserwatora do obiektu (powolne oraz szybkie), rodzaj trasy
(trasa z samymi tylko przeszkodami bez świecących reklam oraz trasa, gdzie oprócz
samych przeszkód były także przeszkody pojawiające się na drodze w trakcie
świecenia reklamy LED).
W celu na wyeliminowania konstrukcji samej trasy przejazdu na czas reakcji
obserwatora trasy zostały tak zaprojektowane, aby składały się z tej samej liczby
skrętów, skrzyżowań, odcinków prostych, wyświetlanych w dokładnie tej samej
kolejności, ale z różną scenerią otoczenia (inny wygląd budynków).
Na początku badania każdy obserwator poinformowany został o celu i sposobie
przeprowadzenia eksperymentu oraz o możliwości rezygnacji w dowolnym momencie
jego trwania. Następnie przystępowano do nauki jazdy symulatorem (trasa nauka)
oraz przejazdów trasami podstawowymi. W celu wyeliminowania wpływu kolejności
tras na otrzymywane wyniki, wszystkich obserwatorów podzielono na grupy, którym
przypisano różną kolejność tras przejazdów w trakcie badań.
Po zakończeniu części badań związanych z jazdą na symulatorze obserwatorzy
poddawani byli badaniu czułości kontrastowej wzroku w warunkach mezopowych
oraz ostrości widzenia w warunkach fotopowych. Następnie wypełniali
kwestionariusz osobowy, zawierający podstawowe informacje demograficzne,
ankietę dotyczącą przeprowadzonych badań oraz przeprowadzano badania
koordynacji wzrokowo-ruchowej z zastosowaniem testu krzyżowego.
Rys. 3. Przykładowy wygląd przeszkód pojawiających się na drodze w trakcie symulacji
3.2. Wyniki i analiza badań laboratoryjnych
Do badań pilotażowych przystąpiło 39 wolontariuszy w wieku od 20 – 50 lat;
średnia wieku wynosiła 27 lat. Wszyscy posiadali prawo jazdy kategorii minimum B.
Większość osób posiadała prawo jazdy nie dłużej niż 10 lat. Jedna osoba była
kierowcą zawodowym. Sześciu, spośród badanych, nie ukończyło pełnego cyklu
badań. U obserwatorów wystąpiły objawy choroby symulatorowej. Opis typowych
objawów choroby symulatorowej przedstawiono w literaturze [6, 11, 12].
W tabeli 3.1. zamieszczono średnie czasy reakcji obserwatorów tśr w [ms] na
przeszkody różnego typu, występujące na trasie, bez działających reklam LED wraz
220
Małgorzata Zalesińska
ze wskazaniem miejsca położenia na drodze oraz kolejnością czasów reakcji od
najkrótszego do najdłuższego. W tabeli 3.2. zestawiono średnie czasy reakcji
obserwatorów na określone zdarzenia drogowe w zależności od przyjętego kryterium
analizy - tpśr średni czas reakcji dla przeszkód, które pojawiały się na drodze bez
działających reklam oraz trśr średni czas reakcji dla przeszkód, które pojawiały się na
drodze podczas świecenia reklamy.
Na podstawie przeprowadzonych badań pilotażowych, zdaniem autora, można
stwierdzić, że:
 Obserwatorzy mieli krótszy czas reakcji na pojawienie się przeszkód bez
działającej reklamy na poboczu drogi dla przejazdów, w trakcie których
występowały same tylko przeszkody, niż w przypadku umieszczenia na trasie
także przeszkód z działającymi reklamami (wymieszanie zdarzeń drogowych).
 W trakcie przejazdu trasą, na której znajdowały się tylko same przeszkody, bez
działających reklam, najkrótszy czas reakcji uzyskano dla przeszkody typu pies, a
najdłuższy dla piłki. Maksymalna różnica pomiędzy czasami wynosiła 71 ms. Dla
trasy, na której pojawiały się same przeszkody oraz przeszkody wraz ze
świecącymi reklamami najkrótszy czas reakcji uzyskano dla psa, a najdłuższy dla
pieszego, ale występował mniejszy wpływ typu przeszkody na czasy reakcji.
Różnica czasów pomiędzy najkrótszym i najdłuższym wynosiła 20 ms.
 W przypadku kwadratów, których pojawienie się na pasie ruchu zasymulowano
tylko w przypadku trasy bez świecących reklam, najkrótszy czas uzyskano dla
kwadratu o kontraście dodatnim względem tła. Fakt ten można uzasadnić
wyższą czułością kontrastową oka w zakresie kontrastów dodatnich, aniżeli
ujemnych. W przypadku najniższego kontrastu kwadratu z tłem potwierdzono
wynikami badań najniższą wydolność wzrokową obserwatorów.
 Dla każdego rozpatrywanego przypadku położenia przeszkody na łuku drogi
uzyskano krótszy czas reakcji obserwatorów. Przyczyną tego może być niższa
prędkość jazdy na łuku drogi, aniżeli po odcinku prostym.
 Na uzyskane średnie czasy reakcji miał wpływ zastosowany scenariusz dotyczący
pojawiania się przeszkód na drodze. Dłuższe czasy reakcji uzyskano w przypadku,
gdy wymieszane były zdarzenia drogowe, pojawienie się przeszkód bez działającej
reklamy przeplatane było przeszkodami ze świecącą reklamą. Odnotowano
wpływ prędkości powiększania się reklamy, symulującej zbliżanie się pojazdu
do reklamy, na czas reakcji obserwatorów dla przeszkód pojawiających się w
trakcie działania reklamy. Dłuższy czas powiększania się reklamy skutkował
wydłużeniem czasu reakcji osób badanych. Fakt ten można tłumaczyć dłuższym
czasem oddziaływania olśnienia na narząd wzroku, a tym samym mniejszą
wydolnością wzrokową obserwatorów. Przeprowadzone badania nie potwierdziły
hipotezy sformułowanej w trakcie badań [5], a dotyczącej przewidywania
momentu pojawienia się przeszkody na drodze wraz z rozpoczęciem wyświetlania
reklamy na ekranie LED.
Analiza warunków wykonywania badań wydolności wzrokowej kierowców …
221
Tabela 3.1. Średnie czasy reakcji obserwatorów tśr w [ms] na przeszkody różnego typu
występujące na trasie, bez działających reklam LED wraz ze wskazaniem miejsca
położenia na drodze oraz kolejnością czasów reakcji od najkrótszego do najdłuższego
Kolejność
przeszkody na
trasie
1
2
3
4
5
6
7
Rodzaj
przeszkody
Pieszy
Kwadrat o
L=3 cd/m2
Piłka
Kwadrat o
L=0.7 cd/m2
Kwadrat o
L=0.7 cd/m2
Pies
Pieszy
Położenie
przeszkody
na trasie
Czas reakcji
tśr [ms]
Kolejność czasów
reakcji
prosta
769
8
prosta
800
10
Łuk
695
3
prosta
780
9
łuk
713
4
prosta
753
6
łuk
713
4
8
Kwadrat o
L=1.2 cd/m2
prosta
762
7
9
Piłka
prosta
764
11
łuk
645
1
łuk
744
5
łuk
665
2
10
11
12
Kwadrat o
L=3 cd/m2
Kwadrat o
L=1.2 cd/m2
Pies
Wartość średnia z czasów reakcji dla wszystkich
przeszkód
742
Odchylenie standardowe
61
Zgodnie z tą hipotezą dłuższy czas wyświetlania treści reklamowych powinien
skutkować skupieniem uwagi obserwatorów na drodze i wyczekiwaniem na
pojawienie się przeszkody, a tym samym krótszym czasem reakcji. Skrócenie
czasu rozwijania reklamy do pełnego wymiaru ekranu LED powinno być
zaskoczeniem dla obserwatorów, a więc czasy reakcji powinny być dłuższe. W
przypadku samych tylko przeszkód na drodze uzyskano bardzo zbliżone wyniki świadczyć to może o dużej powtarzalności wyników pomiarów wykonanych w
podobnych warunkach.
222
Małgorzata Zalesińska
Tabela 3.2. Porównanie czasów reakcji obserwatorów na zdarzenia drogowe różnego typu
dla analizowanych kryteriów
Lp
1
2
Rodzaj
przeszkody na
trasie ze
świecącymi
reklamami
Rodzaj trasy
4
Położenie
przeszkody na
trasie przejazdu
5
Zastosowany
scenariusz
zdarzeń
6
7
8
741
709
780
723
753
747
Pieszy
789
-
Pies
769
-
Piłka
778
-
742
-
779
788
-
Łuk
Przeszkody bez reklam przed oraz
pomiędzy przeszkodami z reklamami
Przeszkody bez świecącej reklamy
umieszczone pomiędzy przeszkodami
ze świecącą reklamą
Obserwacja drogi
Obserwowanie otoczenia
Obserwowanie reklam
702
-
779
864
761
807
809
856
827
861
879
1007
Brak doświadczenia
793
888
Przynajmniej raz wcześniej
uczestniczyli w badaniach
725
807
Powolny
770
861
Szybki
774
836
Zastosowane kryterium podziału
Rodzaj
przeszkody na
trasie bez
reklam
3
Pieszy
Pies
Piłka
Kwadrat o L = 3 cd/m2
Kwadrat o L = 1.2 cd/m2
Kwadrat o L = 0.7 cd/m2
Średni
czas
reakcji dla
przeszkód
z
reklamami
trśr [ms]
-
Rodzaj zadania
wzrokowego
Doświadczenie
obserwatorów
w jeździe
symulatorem
Sposób
powiększania
obrazu reklamy
Trasa tylko z samymi przeszkodami
bez reklam
Trasa z przeszkodami i reklamami
Prosta
Średni
czas
reakcji dla
samych
przeszkód
tpśr [ms]
Analiza warunków wykonywania badań wydolności wzrokowej kierowców …
223
 Potwierdzono fakt, że rodzaj postawionego przed obserwatorami zadania ma
istotny wpływ na uzyskane wyniki. Trudniejsze zadanie wzrokowe, polegające na
obserwowaniu trasy oraz bezpośredniego otoczenia drogi, skutkowało
wydłużeniem czasu reakcji na pojawienie się przeszkód na drodze. W przypadku
dodatkowego zadania wzrokowego, jakim było obserwowanie treści reklamowych,
uzyskano najdłuższe czasy reakcji na przeszkody pojawiające się na drodze w
trakcie świecenia reklamy. Fakt ten spowodowany był olśnieniem powodowanym
przez wysokie luminancje powierzchni reklamy i dłuższym czasem odzyskiwania
przez osoby badane wydolności wzrokowej.
 Doświadczenie w jeździe symulatorem osób badanych ma istotne znaczenie na
uzyskiwane wyniki pomiarów. Obserwatorzy, którzy już wcześniej uczestniczyli w
badaniach, znali sposób wykonywania badań, posiadali większa pewność w
obsłudze symulatora, byli przyzwyczajeni do sposobu pojawiania się przeszkód na
drodze oraz wiedzieli na co należy zwracać uwagę, dlatego też uzyskali niższe
średnie czasy reakcji.
Na podstawie przeprowadzonych badań pilotażowych sformułować można
następujące zalecenia, dotyczące metodyki wykonywania badań wydolności
wzrokowej kierowców z zastosowaniem symulatora jazdy samochodem:
1. Badania wydolności wzrokowej kierowców z zastosowaniem symulatora jazdy
powinny być poprzedzone praktyczną nauką jazdy symulatorem samochodu
osobowego. Najlepiej jeżeli istnieje możliwość przeprowadzenia przygotowań w
osobnym terminie, niż badania właściwe. Przed badaniami właściwymi należy
wykonać przejazd trasą, która powinna być traktowana jako przypomnienie
obsługi symulatora.
2. Każdy cykl badań powinien być powtórzony przez tych samych obserwatorów
po pewnym odstępie czasu.
3. W celu uniknięcia wpływu kolejności tras na wynik pomiarów należy badaną
grupę obserwatorów podzielić na mniejsze podgrupy, dla których należy
zastosować różne kolejności tras przejazdu.
4. W trakcie badań należy stosować na trasie przeszkody różnego typu, aby rodzaj
zastosowanej przeszkody nie miał istotnego wpływu na uzyskane wyniki
pomiarów.
5. Przeszkody na trasie powinny być umieszczane w równej liczbie, zarówno na
odcinkach prostych jak i na łukach drogi, aby uniknąć wpływu usytuowania
przeszkody na trasie na wyniki pomiarów.
6. Ze względu na zmęczenie i znużenie osób badanych, badania wydolności
wzrokowej kierowców z wykorzystaniem symulatora jazdy nie powinny trwać
dłużej niż 30 minut (dotyczy to czasu samej jazdy symulatorem).
7. Do badań na symulatorze jazdy powinny przystępować osoby wypoczęte, w
dobrej kondycji psychicznej.
224
Małgorzata Zalesińska
4. PODSUMOWANIE
Zastosowanie symulatora jazdy samochodem w badaniach nad wydolnością
wzrokową kierowców pozwalana na zbliżenie warunków zewnętrznych do
rzeczywistości i umożliwia uzyskanie efektu prowadzenia pojazdu po ulicach miasta.
Wykonanie badań w laboratorium pozwala na wyeliminowanie wpływu wielu
czynników dodatkowych, mogących mieć wpływ na ostateczny wynik badań, a
występujących w rzeczywistych warunkach drogowych np. nieprzewidywalne
zachowanie innych uczestników ruchu drogowego, różne natężenie ruchu pojazdów,
warunki atmosferyczne. Poprzez zastosowanie w badaniach nagłego wtargnięcia
przeszkody na jezdnię możliwe jest także zbadanie rzeczywistego czasu reakcji kierowcy
na pojawienie się przeszkody na drodze. Przez zastosowanie takiego rozwiązania
możliwe jest wyeliminowanie czasu związanego z podejmowaniem decyzji o wykonaniu
jakiegokolwiek manewru. W warunkach rzeczywistych stworzenie takiej sytuacji byłoby
niemożliwe. Podstawową jednak wadą badań laboratoryjnych jest przeprowadzanie
pomiarów w warunkach bardziej lub mniej zbliżonych do rzeczywistości zarówno pod
względem doznań związanych z prowadzeniem samochodu, jak i pod względem
wykonywanego zadania wzrokowego – w rzeczywistości, w trakcie jazdy po mieście,
kierowca rzadko kiedy jest skupiony tylko i wyłącznie na pasie ruchu.
W literaturze nie ma podanych zasad, zgodnie z którymi powinny być wykonywane
badania wydolności wzrokowej kierowców przy wykorzystaniu symulatorów jazdy
samochodem. Uzyskane wyniki oraz przeprowadzona analiza wykazały istotny wpływ
wielu czynników na otrzymane wyniki pomiarów. Dlatego też niezbędne jest
prowadzenie dalszych prac badawczych, w trakcie których ustalone zostaną warunki,
zasady i kryteria wykonywania badań wydolności wzrokowej kierowców z
zastosowaniem symulatora jazdy.
LITERATURA
[1]
[2]
[3]
[4]
PN _ EN 13201:2007 - Oświetlenie dróg.
Wandachowicz K., Zalesińska M., Domke K., Mroczkowska S., Skrzypczak P.:
Wielkopowierzchniowe reklamy z diodami świecącymi a bezpieczeństwo ruchu
drogowego. Przegląd Elektrotechniczny, ISSN 0033-2097, Nr 4/2011, s. 73 – 77.
Domke K., Wandachowicz K., Zalesińska M., Mroczkowska S., Skrzypczak P.:
Digital billboards and road safety. In: Lighting in Engineering, Architecture and the
Environment, ed. Domke K., Brebbia C.A., WIT PRESS 2011, Southampton,
Boston, ISBN: 978-1-84564-550-2, pp. 119-131.
K. Domke, K. Wandachowicz, M. Zalesińska, S. Mroczkowska, P. Skrzypczak,
Large-sized digital billboards hazard. Design & Nature and Ecodynamics. Vol. 7,
No. 4 (2012) 367–380, ISSN: 1755-7437 (paper format), ISSN: 1755-7445 (online),
http://journals.witpress.com.
Analiza warunków wykonywania badań wydolności wzrokowej kierowców …
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
225
Badanie wpływu wielkopowierzchniowych reklam z diodami świecącymi na
warunki widzenia kierowców w ruchu drogowym. Sprawozdanie merytoryczne
projektu badawczego MNiSW nr N N510 666140. Poznań 2013.
Lozia Z.: Symulatory jazdy samochodem. Wydawnictwa Komunikacji i Łączności
Warszawa 2008.
Zalesińska M., Wandachowicz K.: Badanie reklam zewnętrznych z diodami
świecącymi za pomocą miernika rozkładu luminancji. Poznan University of
Technology, Academic Journals, Electrical Engineering, Issue 69, Poznań 2012, s.
275-282, ISSN 1897-0737.
Zalesińska M., Wandachowicz K., Research of luminance distribution in driver’s
field of view in the places where electronic billboards exists. LUMEN V4 IV
Lighting Conference of the Visegrad Countries, Bratyslava, 26-28. 09.12, ISBN
978-80-89275-32-8 EAN 9788089275328, p. 146-153.
Zalesińska M., Wandachowicz K.: Odtworzenie na stanowisku laboratoryjnym
rozkładów luminancji występujących w polu widzenia kierowców, Przegląd
Elektrotechniczny, ISSN 0033-2097, R. 90 NR 1/2014, s. 277-280.
Zalesińska M., Wandachowicz K., Domke K., Skrzypczak P., Mroczkowska S.:
Badanie wpływu reklam elektronicznych na warunki widzenia kierowców z
wykorzystaniem symulatora jazdy, XXII Krajowa Konferencja Oświetleniowa,
Technika Świetlna’ 2013, 21-22.11.2013,Warszawa, s. 117-120, ISNN 1506-6223.
Biernacki M., Dziuda Ł.: Choroba symulatorowa jako realny problem badań na
symulatorach. Medycyna Pracy, 63(3) s. 377-388.
www.ciop.pl/22384.html (dostęp 31.01.2013).
ANALYSIS OF CONDITIONS FOR RESEARCH OF DRIVERS VISUAL
PERFORMANCE USING DRIVING SIMULATOR
The level of visual performance is affected by the lighting conditions prevailing on the road
and its surroundings, the geometric and photometric properties of the obstacles, the conditions of
observation. The study visual performance of drivers built in the laboratory of the Department of
Lighting Engineering and Electroheat Poznan University of Technology driving simulator.
During research conducted under the Ministry of Science and Higher Education Grant no.
N N510 666140 noted the need for the formulation of recommendations and guidelines for the
measurement of driver’s visual performance using a driving simulator. The paper presents the
test procedure and test results. Carried out an analysis of the results obtained and the possibility
of using driving simulator to study visual performance.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Piotr KIEDROWSKI*
ZASTOSOWANIE PROTOKOŁU HOT POTATO
W STEROWANIU OŚWIETLENIEM DROGOWYM 
ANALIZA WŁAŚCIWOŚCI RUCHOWYCH W OPARCIU
O TEORIĘ GRAFÓW
W pracy przedstawiono metodę obliczania czasu komunikacji między oprawami latarni a
węzłem akwizycji i dystrybucji danych w sieci telemetrycznej przeznaczonej do sterowania
oświetleniem drogowym. Prezentowana metoda dotyczy wszystkich sieci komunikacyjnych, w
których dla powiększenia zasięgu stosuje się technikę multi-hop. Oprawy źródła światła
drogowego traktowane są jako węzły sieci telemetrycznej wykorzystujące do komunikacji
wspólne medium. W pracy rozważono dwie technologie transmisji: bezprzewodową w paśmie
ISM oraz przewodową PLC wykorzystującą do transmisji przewody przeznaczone do zasilania
latarni. Zastosowanie protokołu routingowego hot-potato wynika ze specyficznej topologii
sieci, jaką tworzy ciąg latarni drogowych, tzn. połączenia kaskadowego. W przypadku takiej
topologii sieci, jak również uwzględniając liczbę węzłów obsługiwanych przez pojedynczy
węzeł akwizycji i dystrybucji danych, protokół hot-potato jest ciągle wydajny przy zachowaniu
swej głównej zalety, jaką są małe wymagania w zakresie zasobów obliczeniowych oraz
pamięci RAM i ROM.
SŁOWA KLUCZOWE: Smart Lighting, Smart Grid, sterowanie indywidualne,
oświetlenie drogowe, oświetlenie uliczne, PLC, WSN
1. WPROWADZENIE
Sterowanie oświetleniem drogowym stosuje się przede wszystkim w celu
zmniejszenia kosztów oświetlenia dróg i ulic. Poza zmniejszeniem kosztów istotnym
jest również zmniejszenie emisji CO2 związanym z produkcją energii elektrycznej.
Według [1] szacuje się, że w Polsce ok. 20% całkowitego zużycia energii elektrycznej
konsumowane jest na oświetlenie, z tego znaczna część na oświetlenie drogowe.
Zmniejszenie zużycia energii realizuje się na kilka sposobów, ważniejsze z nich to:
zastosowanie sprawnych energetycznie źródeł; redukcja natężenia światła w
określonych sytuacjach z zachowaniem wymaganych parametrów świecenia;
precyzyjne sterowanie chwilami włączania, wyłączania i redukcji oświetlenia;
uwzględnienie sprawności źródeł światła w czasie ich eksploatacji długo i
__________________________________________
* Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy.
228
Piotr Kiedrowski
krótkoterminowej (tu w szczególności źródeł LED); sposoby utrzymania i
konserwacji systemu oświetlenia oraz uwzględnienie warunków termicznych.
Obecnie najpopularniejszą metodą sterowania oświetleniem drogowym jest
regulacja wartości napięcia zasilania całego odcinka (ciągu) drogowego z
precyzyjnym uwzględnieniem chwili włączeń, wyłączeń i redukcji wartości napięcia
w zależności od miejsca geograficznego. Mimo oczywistych oszczędności
rozwiązanie takie ma dwie zasadnicze wady. Pierwsza wada to brak możliwości
sterowania oświetleniem LED, którego natężenie światła nie jest regulowane
napięciem; druga wada to brak możliwości zdalnego sterowania pojedynczą latarnią w
ciągu, a jedynie zdalne sterowanie całym ciągiem. Na poniższym rysunku
przedstawiono sposoby sterowania oświetleniem zewnętrznym.
Rys. 1. Sposoby sterowania oświetleniem zewnętrznym
Sposób klasyfikacji prezentowany na rysunku 1 służy jedynie łatwiejszemu
zrozumieniu niniejszego artykułu. Sterowanie lokalne to takie, kiedy sterownik
znajduje się w obszarze oświetlanym przez sterowane źródło. Przykładem
sterowania lokalnego oświetleniem może być sterowanie z wykorzystaniem
sensorów ruchu.
Przykładem zdalnego sterowania ciągiem lub jego odcinkiem jest
najpopularniejsza obecnie stosowana metoda sterowania oświetleniem drogowym
i ulicznym z wykorzystaniem centralnego reduktora napięcia.
Przedmiotem niniejszej pracy jest zdalne sterowanie indywidualne z
wykorzystaniem dwóch niezależnych technologii transmisji: bezprzewodową w
paśmie ISM oraz przewodową PLC (ang. Power Line Communication). Możliwe jest
również zastosowanie technologii hybrydowej bezprzewodowej ISM i PLC. Zdalne
sterowanie indywidualne ma ogólniejsze zastosowanie niż zdalne sterowanie ciągiem i
zawsze umożliwia sterowanie w obu trybach zdalnych. Istniejące obecnie systemy
zdalnego sterowania indywidualnego wykorzystujące technikę PLC są w fazie
instalacji demonstracyjnych lub pilotażowych i opierają się głównie na starszych
technologiach PLC i technologii ZigBee. Sytuacja taka wynika z dwóch powodów,
tzn. oczekiwania na nowe przepisy [2] określające nowe wymagania i normy w
zakresie oświetlenia drogowego oraz definicji nowego standardu interfejsu PLC-
Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym …
229
PRIME, obejmującego nie tylko pasmo transmisji CELENEC A, ale również pasma
znajdujące się w zakresie powyżej 100 kHz [3, 4].
Powyższe rozwiązania znalazły zastosowania w Smart Metering, będącym
częścią komunikacyjną systemu Smart Grid. W odróżnieniu do Smart Metering,
gdzie topologią charakterystyczną była siatka [5], w systemach Smart Lighting
mamy do czynienia z topologią kaskadową, jako naturalną konsekwencję instalacji
latarni wzdłuż dróg. W przypadku, gdy sieć ma topologię kaskadową oraz
kierunek transmisji danych jest rozróżnialny przez węzły, protokół hot-potato jest
szczególnie wydajny w rozumieniu szybkości wymiany informacji, niezawodności
i małych wymagań [6].
2. CHARAKTERYSTYKA PROTOKOŁU HOT-POTATO
Protokół hot-potato został po raz pierwszy opublikowany w [7], jako
alternatywa dla protokołów typu store-and-forward. Protokół hot-potato nazywany
jest również deflekcyjnym protokołem routingowym [6]. Przekazywane pakiety
nie są kolejkowane, w przypadku, gdy optymalna droga jest zajęta, lecz kierowane
są inną drogą. Zakładając, że optymalna droga nie jest zajęta lub inne drogi są
skierowane we właściwym kierunku (tak jak w przypadku kaskady), protokół hotpotato będzie szybszym protokołem routingowym w porównaniu z tymi
stosowanymi w Smart Metering [8]. Kolejną zaletą protokołu hot-potato to niska
emisyjność i brak kolizji w odróżnieniu do protokołów typu „flooding”. W
systemach wykorzystujących wspólne medium transmisyjne, takich jak
bezprzewodowe czy PLC, węzeł odbierając pakiet nie zna adresu węzła, który go
nadał. Dlatego w rozważanym przypadku konieczne jest wprowadzenie
dodatkowego, trzeciego adresu węzła pośredniczącego. Takie rozwiązanie,
wymaga istnienia w węzłach tablicy, zawierającej listę sąsiadów (nie koniecznie
wszystkich), co i tak jest rozwiązaniem o wiele korzystniejszym (z punktu
widzenia obciążenia pamięci) od przechowywania tablic routingowych
opisujących całą sieć. Ponadto ze względu na 24 godzinny cykl włączania i
wyłączania (odmiennie niż w Smart Metering) oświetlenia, rozwiązanie
polegające na zbieraniu informacji o łączach z całej sieci jest nie do przyjęcia,
gdyż wymaga czasu. W przypadku hot-potato węzeł musi znać tylko adresy
węzłów sąsiednich i identyfikator opisujący jakość łączy do tych węzłów.
Identyfikator jakości łączy najczęściej tworzony jest na podstawie wartości mocy
odbieranego sygnału i odstępu sygnału od szumu.
3. UKŁADY TOPOLOGICZNE
Jak już sygnalizowano, węzły komunikacyjne latarni tworzą sieci o innej
topologii niż np. liczniki energii elektrycznej, mimo że w obydwu przypadkach
stosuje się te same rozwiązania elektroniczne, czyli SRD (ang. Short Range
230
Piotr Kiedrowski
Devices). Podobnie jak w sieciach AMR (ang. Automatic Meter Reading) liczba
łączy w sieci jest zmienna w czasie, jako konsekwencja zmiennych warunków
propagacyjnych. Z własnych obserwacji (w systemach telemetrycznych do
zdalnego odczytu liczników energii elektrycznej) wynika, że stosując technologie
bezprzewodowe w paśmie 433 MHz i 868 MHz zmiany warunków
propagacyjnych mają wolniejszy charakter niż w przypadku technologii PLC.
W przypadku (opisywanej) sieci o dużym zagęszczeniu, dużej liczbie węzłów,
gdzie wykorzystywane jest wspólne medium, z reguły mamy do czynienia z
nadmiarem łączy. Z jednej strony nadmiar łączy komplikuje procedury
routingowe, z drugiej rozładowuje ruch. Biorąc po uwagę przeznaczenie
opisywanej sieci można stwierdzić, że ruch jest znikomy, a prostota schematu
komunikacyjnego jest pożądana. To powody, dla których zastosowanie hot-potato
wydaje się być najwłaściwszym rozwiązaniem.
3.1. Układy topologiczne dla połączeń bezprzewodowych
Stosując rozwiązania bezprzewodowe w paśmie ISM 433 MHz lub 868 MHz,
gdzie maksymalna, dopuszczalna, wyemitowana moc wynosi 10 mW, zasięgi
transmisji wynoszą kilkaset metrów. Biorąc pod uwagę odstępy między
latarniami, które wynoszą kilkadziesiąt metrów mamy do czynienia z sytuacją, w
której węzły mają bardzo dużo sąsiadów, z którymi są połączone zawodnymi
łączami. Na rysunku 2, w postaci grafu, przedstawiono typowy, ogólny układ
topologiczny, jaki tworzą latarnie posiadające jedną oprawę, gdzie do transmisji,
wybrano najlepsze (i najkrótsze) łącza do czterech sąsiadów.
Rys. 2. Graf opisujący sieć w ciągu drogowym oświetlanym latarniami posiadającymi jedną oprawę
Oprócz węzłów brzegowych, wszystkie pozostałe to węzły czwartego stopnia,
posiadające dwa łącza krótkie i jedno dłuższe tzn. łącza pomiędzy węzłami (n)
i (n+1) oraz węzłami (n) i (n+2), odpowiednio.
Dla identycznego kryterium doboru węzłów sąsiednich, lecz innego układu
topologicznego, na rysunku 3 przedstawiono graf dla latarni posiadających po
dwie oprawy, węzły (n) i (n+12) są w niewielkiej odległości od siebie.
Rys. 3. Graf opisujący sieć w ciągu drogowym oświetlanym latarniami posiadającymi
po dwie oprawy
Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym …
231
Oczywiście można zaprezentować grafy dla latarni posiadających trzy, cztery a
nawet pięć opraw. Istotny z punktu widzenia zależności ruchowych w sieci jest
fakt, że łącza (pionowe) pomiędzy węzłami (n) i (n+12) są zbyteczne, bo odbierają
te same informacje i nie muszą ich sobie przekazywać. Na rysunku 4
zaprezentowano graf, gdzie łącza pomiędzy węzłami opraw zainstalowanych na
tym samym słupie wyeliminowano.
Rys. 4. Graf opisujący sieć w ciągu drogowym jak na rysunku 3, w której zostały wyeliminowane
łącza pomiędzy węzłami opraw zainstalowanych na tym samym słupie
Oprócz wspomnianej wcześniej niezasadności stosowania łączy „pionowych”,
wynikających z właściwości ruchowych, kolejny problem to brak możliwości
przekształcenia grafu zaprezentowanego na rysunku 3 w graf skierowany. W
praktyce prowadzić to będzie do wyboru (przez węzeł) dróg nieoptymalnych z
prawdopodobieństwem p/D, gdzie p to liczba łączy pionowych, a D stopień węzła.
3.2. Układy topologiczne dla połączeń PLC w trójfazowej sieci nN
Stosując rozwiązania komunikacyjne w oparciu o technikę PLC, transmisja
odbywa się nie w jednym, lecz w trzech wspólnych mediach, jako konsekwencja
trójfazowego zasilania ciągu drogowego. Węzeł akwizycji i dystrybucji
danych (WADD) posiada trzy porty fizyczne PLC lub sprzężenie pojemnościowe
umożliwiające transmisję z jednej fazy do drugiej. Pierwsze rozwiązanie jest nieco
droższe, ale korzystniejsze; WADD oprócz swych podstawowych funkcji pełni rolę
routera łączącego trzy podsieci, a w przypadku drugiego rozwiązania jedynie huba.
W odróżnieniu od rozwiązań bezprzewodowych, przy zastosowaniu PLC nie
występuje problem nadmiaru łączy albo jest on znacznie mniejszy. Sytuacja taka
wynika z trzykrotnie mniejszej liczby węzłów w każdej sieci oraz z faktu, że
oprawy zasilane są różnymi fazami naprzemiennie, co nawet trzykrotnie zwiększa
odstęp między węzłami.
4. METODYKA MODELOWANIA I ANALIZY
Graf może opisywać sieć, w tym sieć komunikacyjną do sterowania
np. oświetleniem drogowym. Z kolei każdy graf można opisać jako macierz
przyległości [MP], która opisuje wzajemne związki między węzłami sieci [9].
[MP] jest macierzą kwadratową o wymiarach w x w (gdzie w to liczba węzłów w
232
Piotr Kiedrowski
sieci). Elementy [MP] mogą przyjmować wartość ze zbioru {0; 1} zgodnie z
zasadą:
 mpij = 1 kiedy istnieje krawędź łącząca od węzła wi do węzła wj,
 mpij = 0 kiedy nie istnieje krawędź łącząca od węzła wi do węzła wj.
W sieciach komunikacyjnych krawędź to łącze jednokierunkowe.
Wartości elementów mpij macierzy [MP]h określają liczbę możliwych tras
pomiędzy węzłem i a j o długości h [10]. Długość trasy to liczba skoków.
W analizie właściwości ruchowych liczba tras jest przydatną informacją w
przypadku stosowania techniki transmisji multi-path. Multi-path zawsze
towarzyszy technika multi-hop. W przypadku zastosowania protokołu hot-potato
nie stosuje się techniki multi-path, a jedynie multi-hop [5]. Dlatego w analizie
właściwości ruchowych sieci opartych wyłącznie na multi-hop przydaną
informacją jest liczba skoków potrzebna do komunikacji między parami węzłów,
wraz z prawdopodobieństwem wystąpienia takiego zdarzenia, a nie liczba
możliwych tras. W tym celu zamiast macierzy [MP] należy zastosować macierz,
nazwijmy[MPp], której elementami są wartości prawdopodobieństwa, że węzeł i
przekaże informację dalej do węzła j. Transformacja [MP] do [MPp] polega na
zastąpieniu jedynie wartości elementów macierzy mpij = 1 wartością z zakresu [0;
1], zgodnie z prawdopodobieństwem wyboru takiej trasy przez węzeł
przekazujący. Węzeł docelowy nigdy nie jest węzłem przekazującym, dlatego
wszystkie elementy wiersza macierzy [MPp] o numerze równym numerowi węzła
docelowego są równe 0. Zakładając, że węzeł docelowy ma numer j, to macierz
[MPp] z wyzerowanymi elementami wiersza j zapisywana będzie jako [MPp]j.
Sposób tworzenia macierzy [MPp]j można również wyjaśnić na przykładzie.
Dla sieci jak na rysunku 2, zakładając, że węzeł 6 jest WADD oraz węzły 5 i 7
muszą traktować łącze 5-7 jako dwukierunkowe, to graf opisujący taką sieć
przedstawiono na rysunku 5. Łączy oznaczonych linią przerywaną nie
uwzględniono w analizie przeprowadzonej w tym rozdziale.
Rys. 5. Graf opisujący możliwe trasy z węzła numer 6 do pozostałych węzłów sieci
Dla grafu z rysunku 5, zakładając, że węzeł 12 jest węzłem docelowym,
macierz [MPp]12 ma postać jak poniżej.
Wartości elementów macierzy [MPp]12h mpp6,12 określają wartość
prawdopodobieństwa dotarcia informacji z węzła 6 do węzła 12 po h skokach.
Wartość takiego prawdopodobieństwa oznaczana będzie jako pi,j(h).
Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym …
MPp12
233
0
0
0
0
0
0
0
0
0
0
0
0


1
0
0
0
0
0
0
0
0
0
0
0

1 2 1 2 0
0
0
0
0
0
0
0
0
0


0
0
0
0
0
0
0
0
0 12 12 0
0
0 13 13 0
0 13 0
0
0
0
0


0
0 14 14 14 14 0
0
0
0
0
0

0
0
0
0 13 0
0 13 13 0
0
0


0
0
0
0
0
0
0
0 12 12 0
0


0
0
0
0
0
0
0
0 12 12 0
0
0
0
0
0
0
0
0
0
0
0 1 2 1 2


0
0
0
0
0
0
0
0
0
0
0
1

0
0
0
0
0
0
0
0
0
0
0
0 

Do analizy porównawczej użyty zostanie parametr ETX (ang. Expected
Transmissions), który powszechnie jest stosowany w analizie sieci WSN (ang.
Wireless Sensor Network). Parametr ETX to prognozowany lub wyznaczony z
próby wskaźnik, określający liczbę nadań pakietu lub jego kopii przez węzły sieci
w celu przesłania go między dwoma węzłami. W przypadku protokołu hot-potato
ETX jest również prognozowaną długością trasy lub po prostu prognozowaną
wartością liczby skoków wymaganych do komunikacji między i a j. Dla protokołu
hot-potato wartość ETX można obliczyć z poniższej formuły.
m
ETX i , j   h  pi , j h 
(1)
h 1
gdzie m to zmienna taka, że pi,j(h > m) = 0.
Bardzo często m ma wartość nieskończoną, wtedy z (1) można obliczyć jedynie
^
estymator ETX, oznaczany dalej, jako ETX i , j . Protokół hot-potato nie wymaga
stosowania czasu zwłoki w procesie przekazywania pakietów, dlatego bardzo
łatwo oszacować czas komunikacji będący iloczynem: długości ramki, prędkości
transmisji i liczby skoków. Z zależności (2) można obliczyć prawdopodobieństwo
dotarcia pakietu z określoną liczbą skoków (w określonym czasie) - fi,j(h).
h
f i , j h    pi , j n 
(2)
n 1
Zależność (2) ma duże zastosowanie praktyczne, pozwala np. na określanie czasu
oczekiwania na odpowiedź czy czasu, po którym należy wysłać ponowne zapytanie.
Do oceny efektywności protokołu w połączeniu i-j proponuje się wykorzystanie
współczynnika efektywności Ei,j zdefiniowanego w następujący sposób:
ETX i , j
(3)
Ei , j 
SPi , j
gdzie: SP to długość najkrótszej trasy.
234
Piotr Kiedrowski
5. PRZYKŁADOWE ROZWIĄZANIA IMPLEMENTACYJNE
Do dalszej analizy w tabeli 5.1 zestawiono wartości pi,j(h) i fi,j(h) uzyskane dla
przykładu z poprzedniego rozdziału i grafu zaprezentowanego na rysunku 5.
Tabela 5.1. Parametry ruchowe ścieżki 6-12 dla układu topologicznego z rys. 5
h
p
f
1
2
3
4
5
6
7
8
9
10
11
0
0
0
0
0,083
0,083
0,122
0,205
0,074
0,279
0,033
0,313
0,013
0,326
0,005
0,331
0,002
0,332
0,0006
0,333
0,0002
0,3332
Estymator wartości ETX dla m = 11 wynosi około 1,8, a długość najkrótszej
trasy SP wynosi 3. Wartość f6,12 jest bardzo mała i praktycznie od h = 8 nie wzrasta
wraz z liczbą skoków. Jeżeli ETX < SP oznacza to, że część prób komunikacji w
ogóle nie dochodzi do skutku nie ze względów zawodności łączy a rozwiązań
systemowych – współczynnik E nie może być mniejszy od 1. Zjawisko to łatwo
wyjaśnić analizując graf z rysunku 5. Jeżeli węzeł 6 skieruje pakiet do węzła 4
(prawdopodobieństwo takiego zdarzenia wynosi 0,25) to pakiet nigdy nie dotrze
do węzła 12; jeżeli 6 skieruje pakiet do 5 (prawdopodobieństwo 0,25) to z
prawdopodobieństwem 1/3 zostanie on przesłany do 7; z 7 może być przekazany
do 8 albo 9, ale również z powrotem na lewą stronę od 6. Ta niekorzystna sytuacja
wynika z faktu, że łącze 5-7 jest dwukierunkowe. Zmiana łącza 5-7 na
jednokierunkowe - od 5 do 7 poprawia parametry ruchowe do węzła 12, ale
pogarsza do 1. Jest to drugi powód (pierwszy powód podano w 3.1), dla którego
należy eliminować łącza dwukierunkowe. Trzeci powód to problemy
implementacyjne, np. komplikacja algorytmu protokołu w module węzła oprawy.
Eliminując łącze 5-7, elementy macierzy mpp5,7 = 0 i mpp5, 7= 0 , a mpp5,4,
mpp5,3, mpp7,8, mpp8,9 zmieniają wartość z 1/3 na 1/2. Dla tak zmodyfikowanej
macierzy [MPp]12 estymator wartości ETX dla m = 11 wynosi około 1,6 jest zatem
korzystniejszy niż przed modyfikacją, ale współczynnik E6,12 wynosi ok. 0,53
czyli mamy do czynienia z błędem systemowym. Wartość f6,12(h > 5) = 0,5, czyli
również dla nieskończenie dużego h, gdzie wartość f dla takiego h musi wynieść 1.
Sytuacja taka jest spowodowana tym, że spośród czterech łączy WADD jedynie 2
(50% wszystkich) skierują pakiet we właściwym kierunku.
O ile nie można ze względów implementacyjnych komplikować algorytmu w
węźle oprawy, o tyle węzeł WADD ma wystarczającą ilość pamięci, aby do
tablicy wszystkich węzłów sieci (którą już posiada) dodać dane o preferowanym
łączu lub łączach, przez które ma się z nimi komunikować. Bardziej eleganckim
rozwiązaniem jest stworzenie tablicy łączy własnych i przyporządkowanie im
adresów węzłów oprawy.
Stosując takie rozwiązania graf z rysunku 5 ulega modyfikacji i wygląda jak na
rysunku 6.
Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym …
235
Rys. 6. Docelowa postać grafu opisującego możliwe trasy z węzła numer 6 do pozostałych węzłów
sieci (po modyfikacji algorytmu wyboru łączy w WADD)
Po dokonaniu modyfikacji algorytmu w WADD, dla grafów zaprezentowanych
w rozdziale 3 w komunikacji węzeł 6 - pozostałe węzły, średnie wartości ETX6,j i
E6,j zestawiono w tabeli 5.2.
Tabela 5.2. Średnie wartości ETX6,j i E6,j dla grafów z rozdziału 3
graf
Rys. 2
Rys. 4
ETX6,j
E6,j
2,109
1,411
2,885
2,055
Rys.5
z uwzględnieniem dodatkowych dwu łączy
1,875
1,333
Otrzymane wyniki łatwo jest interpretować. Sieć reprezentowana grafem z rysunku
4 ma gorsze parametry od tej z rysunku 2, ponieważ posiada więcej węzłów i łączy, w
tym 75% to łącza krótkie. Sieć reprezentowana grafem z rysunku 5 ma lepsze
parametry od tej z rysunku 2, ponieważ posiada dwa dodatkowe długie łącza
wychodzące z WADD. Większa liczba łączy długich wychodzących z WADD
wynika z faktu, że ten może być wyposażony w antenę o lepszych parametrach. W
przypadku technologii PLC takiej zasady nie można przyjąć.
6. PODSUMOWANIE
Przedstawione w pracy metody badania właściwości ruchowych dotyczą
wszystkich rodzajów sieci, w których wykorzystywany jest protokół hot-potato.
Zaproponowana metoda wymiernej oceny właściwości ruchowych umożliwia
porównanie parametrów sieci wykorzystującej hot-potato z siecią o identycznej
topologii, w której wykorzystano „idealny” protokół umożliwiający wybór
najkrótszej ścieżki, co stanowi pośrednią metodę do porównania hot-potato z
innymi protokołami routingowymi. Porównując uzyskane wartości współczynnika
efektywności protokołu hot-potato z innymi protokołami [11, 12] można
stwierdzić, że idealnie nadaje się on do zastosowania w sterowaniu oświetleniem
drogowym (albo innych sieciach o podobnych układach topologicznych),
ponieważ posiada w większości przypadków lepszy współczynnik efektywności.
Wyjątek stanowią dwa protokoły, z których jeden charakteryzuje aż pięciokrotnie
większą wartością ETX, a drugi wymaga długiego czasu samokonfiguracji, co jest
czynnikiem dyskwalifikującym ze względu na 24 godzinny cykl regulacji
236
Piotr Kiedrowski
oświetleniem drogowym. Protokół hot-potato znalazł wiele zastosowań na
przestrzeni ostatnich 50 lat. Zdaniem autora protokół hot-potato będzie znajdować
coraz większe zastosowanie w wielu innych obszarach (takich jak te opisane w [6]
czy [13]) klasyfikowanych, jako systemy komunikacyjne dla Smard Grid.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
Górczewska M., Mroczkowska S., Skrzypczak P., Badanie wpływu barwy światła w
oświetleniu drogowym na rozpoznawalność przeszkód, Electrical Engineering, No.
73, 2013, pp. 165-172.
PN-EN 13201 – 2007, Oświetlenie dróg (prEN 13 201 – 2014 Current Status ‘Under
Approval’).
EN 50065-1:2011, Signalling on low-voltage electrical installations in the frequency
range 3 kHz to 148,5 kHz - Part 1: General requirements, frequency bands and
electromagnetic disturbances.
Matanza J, Alexandres S., Rodriguez-Morcillo C., Difference sets-based
compressive sensing as denoising method for narrow-band power line
communications, IET Communications Vol. 7 ( 15 ), 2013, pp. 1580-1586.
Dubalski B., Kiedrowski P., Petersen J. M., An Analysis of the Applicability of
"Hot-Potato" Routing in Wireless Sensor Networks Used in Energy Consumption
Monitoring Systems, Zeszyty Naukowe UTP - Seria: Elektrotechnika, nr 15 (257),
2010, pp. 5-24.
Busch C., Herlihy M., Wattenhofer R., Routing without Flow Control, Proceedings
of the 13th Annual ACM Symposium on Parallel Algorithms and Architectures,
Hersonissos, Greece, 2001, pp. 11-20.
Baran P., On Distributed Communications Networks, IEEE Trans. Commun. Syst.
vol. CS-12, 1964, pp. 1-9.
Kiedrowski P., Image Processing & Communications Challenges (ed. R. S. Choraś
& Antoni Zabłudowski), Easy Applicable Algorithm for Accelerate Reading Process
in AMR Systems based on WSN Solutions, Academy Publishing House EXIT,
2009, pp. 482-487.
Graham R.L., Knuth D.E., Patashnik O., Concrete Mathematics, Addison-Wesley
Comp. Inc. 1994.
Korzan B., Elementy teorii grafów i sieci - Metody i zastosowania, Wydawnictwo
Naukowo-Techniczne, Warszawa 1978.
Al-Karaki A.N., Kamal A.E., Routing Techniques in Wireless Sensor Networks:
a Survey, IEEE Wireless Comm., pp. 6-28, 2004.
Głąbowski M, Musznicki B., Nowak P., Zwierzykowski P.,Image Processing and
Communications Challenges 5, Advances in Intelligent Systems and Computing, An
Algorithm for Finding Shortest Path Tree Using Ant Colony Optimization
Metaheuristic, Publisher: Springer International Publishing, pp. 317-326, 2014.
Jędrychowski R., Kontrola pracy małych źródeł energii elektrycznej w sieci niskiego
napięcia, Rynek Energii, No 1 (104) pp.16-20, 2013.
Zastosowanie protokołu hot potato w sterowaniu oświetleniem drogowym …
237
APPLICATION OF HOT-POTATO PROTOCOL IN ROAD LIGHTING
CONTROL – TRAFFIC ANALYSIS BASED ON GRAPH THEORY
The paper presents a method for calculating the communication time between road
lighting nodes and the data acquisition and distribution node in telemetric networks
designed for road lighting control. The presented method is adequate for all types of
networks in which to enlarge the range a multi-hop technique is used. The study considered
two transmission technologies: wireless in ISM band and wired PLC, which uses the same
wires both for power supplying as well as data transmission. The usage of hot-potato
routing protocol is a consequence of the specific topology which is created by road lighting
infrastructure. In the case of such a network topology, as well as taking into account the
number of nodes supported by a single sink protocol hot-potato is still effective at keeping
its main advantages, which are small requirements in terms of computing resources and
RAM and ROM.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Małgorzata GÓRCZEWSKA*
Sandra MROCZKOWSKA*
ILUMINACJA WSPÓŁCZESNYCH OBIEKTÓW
ARCHITEKTONICZNYCH NA PRZYKŁADZIE
COLLEGIUM NOVUM W POZNANIU
W artykule, na przykładzie budynku Collegium Novum w Poznaniu, opisano wybrane
problemy związane z iluminacją współczesnych obiektów architektonicznych. W wielu
przypadkach, twórca obiektu ma istotny wpływ na wybór ostatecznego rozwiązania
oświetlenia fasady. Wskazano na istotną rolę wizualizacji komputerowej efektów
plastycznych, możliwych do uzyskania, zależnie od przyjętych, technicznych rozwiązań
oświetleniowych, dotyczących wyboru metody iluminacji, doboru rodzaju sprzętu
oświetleniowego oraz sposobu montażu opraw. Porównanie wizualizacji różnych
wariantów ułatwia podjęcie decyzji realizacyjnej.
SŁOWA KLUCZOWE: oświetlenie, iluminacja, komputerowa wizualizacja obiektów
1. WPROWADZENIE
Ważną rolą oświetlenia iluminacyjnego obiektów architektonicznych czy zespołów
urbanistycznych jest przywołanie światłem ich widoku, znanego z dziennego wyglądu
ulicy lub panoramy miasta. Odpowiednio dobrane światło, eksponując interesujące
obiekty, kształtuje nastrój, wpływa na podświadomość, tworząc zapamiętywany, nocny
wizerunek oświetlonego, pojedynczego budynku lub miasta [1, 2].
Opracowanie projektu iluminacji wiąże się z koniecznością oceny szeregu
uwarunkowań, mających wpływ na ostatecznie przyjęte rozwiązania techniczne.
Najogólniej ujmując, zagadnienie to obejmuje ocenę:
 aspektów estetycznych, emocjonalnych,
 aspektów techniczno-ekonomicznych.
Kryteria estetyczne i emocjonalne dotyczą głównie analizy perspektyw
widokowych obiektów, ich historycznej lub architektonicznej wartości i
znaczenia, atrakcyjności poszczególnych detali, itp. W odniesieniu do obiektów
współczesnych, których twórcy żyją, należy uwzględnić ich decyzje, zazwyczaj
sprowadzające się do zachowania spójności pomiędzy dziennym i nocnym
widokiem budynku, w powiązaniu z jego otoczeniem.
__________________________________________
* Politechnika Poznańska.
240
Małgorzata Górczewska, Sandra Mroczkowska
Kryteria techniczno-ekonomiczne dotyczą doboru odpowiednich źródeł światła
i opraw oświetleniowych, miejsc i sposobu ich montażu, zasilania, sterowania.
W praktyce projektowania iluminacji stosuje się metodę zalewową, punktową
lub obie łącznie [4]. Każdej z tych metod towarzyszą inne uwarunkowania
realizacyjne.
W metodzie zalewowej wykorzystuje się stosunkowo niewiele opraw dużej
mocy. Metoda ta nadaje się głównie do oświetlania obiektów o znacznych
gabarytach, obserwowanych z dużej odległości.
W metodzie punktowej wykorzystuje się więcej opraw małej mocy. Niewielkie
źródła światła dają możliwość uzyskania w oprawach dobrej optyki a także
umożliwiają montaż opraw bezpośrednio na elewacji budynków. Taka metoda
realizacji iluminacji nie wymaga prowadzenia instalacji na zewnątrz budynku oraz
zapewnia większą swobodę w operowaniu grą światła i cienia. Stosowanie metody
punktowej, wykorzystującej oprawy montowane na elewacji, ma swoje
ograniczenia. Podświetlenie detali architektonicznych „od dołu” tworzy silne
cienie nad elementami poziomymi oraz zbyt mocno eksponuje wertykalny układ
elewacji. Często zniekształca całościowy odbiór bryły budynku.
2. OPIS OBIEKTU
Budynki Collegium Novum UAM, zaprojektowane i wzniesione w latach 60tych XX wieku, zlokalizowane są na obszarze ograniczonym ulicami: Kościuszki,
Powstańców Wlkp. i Al. Niepodległości. Najbardziej wyeksponowanym obiektem
zespołu jest budynek, przedstawiony na rysunku 1, doskonale widoczny w
perspektywie Al. Niepodległości.
Rys. 1. Widok budynku Collegium Novum w Poznaniu w perspektywie Al. Niepodległości
Iluminacja współczesnych obiektów architektonicznych na przykładzie ...
241
W doborze sposobu iluminacji obiektów Collegium Novum należy się
kierować szczególną potrzebą całościowego wyeksponowania interesującego
wyrazu architektonicznego elewacji podłużnych budynków, z powtarzającym się
rytmem poziomych i pionowych detali.
3. WIZUALIZACJA KOMPUTEROWA ILUMINACJI OBIEKTU
Wizualizacja komputerowa iluminacji polega na realistycznym odtworzeniu
obiektu w przestrzeni wirtualnej komputera. Istnieje wiele programów
umożliwiających tworzenie grafiki 3D. Do wizualizacji iluminacji stosowane są
rendery, gdyż to właśnie one generują obraz trójwymiarowy oraz umożliwiają
nakładanie tekstur i efektów świetlnych [3]. Przykładami takich programów są 3D
Studio Max, LightWave 3D, 3D VIZ. Wizualizację można również zaprojektować
za pomocą zaawansowanych technicznie programów do projektowania oświetlenia,
takich jak Relux Professional oraz DIALux.
Wizualizację Collegium Novum w Poznaniu, który stanowi przykład
współczesnego obiektu architektonicznego, stworzono w programie 3ds Max. Pracę
nad wizualizacją komputerową rozpoczęto od zamodelowania geometrii obiektu,
którego podstawę stanowią plany architektoniczne i zdjęcia obiektu. Po stworzeniu
modelu geometrycznego, określono wygląd powierzchni poprzez odpowiedni dobór
parametrów, takich jak barwa, nasycenie i współczynnik odbicia. Wartości tych
parametrów wpłynęły na ostateczny efekt wizualny elewacji obiektu.
Rys. 2. Wizualizacja komputerowa budynku Collegium Novum w widoku od Al. Niepodległości
Kolejny etap wizualizacji komputerowej plastycznych efektów iluminacji
polegał na wprowadzeniu rozsyłów i odpowiednim rozmieszczeniu opraw
oświetleniowych, dobranych przez autora koncepcji iluminacji. Stworzono
242
Małgorzata Górczewska, Sandra Mroczkowska
komputerowe wizualizacje poszczególnych wariantów oświetleniowych, co
ułatwiło podjęcie ostatecznej decyzji realizacyjnej.
Rys. 3. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu kinkietów
wąskostrumieniowych, montowanych bezpośrednio na elewacji
Iluminacja budynku oprawami montowanymi bezpośrednio na elewacji, której
wizualizację przedstawiono na rysunku 3, nie zapewnia uzyskania oczekiwanego
efektu, ponieważ bryła budowli zostaje „przecięta” intensywnymi, pionowymi
plamami światła. Równocześnie, wnęki okienne pozostają w całkowitym cieniu.
Z uwagi na niewielką odległość opraw od elewacji, niemożliwe jest
doświetlenie górnych pięter budynku. W odbiorze wizualnym tego wariantu
dominują zbyt intensywne efekty świetlne, natomiast bryła budynku, jako całość,
nie jest eksponowana.
Taki sposób iluminacji byłby zasadny w odniesieniu do budynków, których
wysokość należałoby oświetleniowo zredukować. Dla Collegium Novum takie
rozwiązanie byłoby błędem.
Odsunięcie opraw od elewacji poprzez zastosowanie wysięgników, w celu
wyrównania poziomu oświetlenia fasady, jest niemożliwe z estetycznego punktu
widzenia. Z tego powodu korzystniejsze wydaje się rozwiązanie iluminacji z
wykorzystaniem opraw montowanych w gruncie, o odpowiednio dobranym rozsyle
strumienia świetlnego.
W wizualizacjach efektu oświetleniowego, uzyskanego dla wybranego sposobu
iluminacji, to jest dla rozwiązania wykorzystującego oprawy doziemne, porównano
warianty zastosowania opraw o różnych rozsyłach strumienia świetlnego.
Wariant przedstawiony na rysunku 4, zrealizowany z użyciem opraw o rozsyle
asymetrycznym, nie spełniał oczekiwań, ponieważ niedostatecznie doświetlał górne
Iluminacja współczesnych obiektów architektonicznych na przykładzie ...
243
poziomy budynku. Korekta rozkładu oświetlenia poprzez odsunięcie opraw od
budynku nie była możliwa z uwagi na rosnące w pobliżu drzewa, widoczne na rys. 1.
Rys. 4. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu opraw
montowanych w gruncie – wariant z rozsyłem asymetrycznym
Rys. 5. Wizualizacja komputerowa iluminacji Collegium Novum przy użyciu opraw
montowanych w gruncie – wariant z rozsyłem symetrycznym
244
Małgorzata Górczewska, Sandra Mroczkowska
Wariant pokazany na rysunku 5, zrealizowany z zastosowaniem opraw o
rozsyle symetrycznym, uznano za najkorzystniejszy, najbardziej równomiernie
oświetlający elewację budynku. Takie rozwiązanie uzyskało również aprobatę
twórcy obiektu, architekta Zygmunta Skupniewicza, któremu zależało na możliwie
całościowym, spójnym odbiorze bryły budynku.
4. WNIOSKI
Przedstawiony przykład wyboru sposobu rozwiązania iluminacji współczesnego
obiektu architektonicznego, w którego dziennym odbiorze dominuje bryła, jako
całość, a nie detale, wskazuje na celowość wykorzystywania nowoczesnych metod
komputerowego wspomagania projektowania oświetlenia. Warianty wizualizacji
oczekiwanych oświetleniowych efektów plastycznych, ułatwiają podjęcie decyzji
zarówno przez projektanta iluminacji jak i architekta, twórcę obiektu.
LITERATURA
[1]
[2]
[3]
[4]
Górczewska M., Some aspects of architectural lighting of historical buildings. Conf.
Light in Engineering, Architecture and the Environment, WIT Press, Southampton,
Boston 2011, ISSN: 1743-3509, str. 107 – 116.
Górczewska M., Mroczkowska S., Iluminacja dziedzińca Collegium Maius UAM w
Poznaniu. Przegląd Elektrotechniczny, ISSN 0033-2097, R. 88 NR 5a/2012,
str.173-176.
Żagan W., Wasserfurth N. Wizualizacja komputerowa oświetlenia – nowa jakość w
projektowaniu. Przegląd Elektrotechniczny, 78 (2009), nr.9, 388-392.
CIE Technical Report No 94 - Guide for Floodlighting.
ARCHITECTURAL ILLUMINATION OF CONTEMPORARY BUILDINGS
Chosen aspects of illumination concepts of contemporary buildings are described in the
article. The computer visualizations of lighting variants and final solution of Collegium
Novum illumination in Poznan are presented.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Tomasz STANKOWIAK*
Sandra MROCZKOWSKA*
BADANIA OGÓLNODOSTĘPNYCH ZAMIENNIKÓW
LAMP CIEMNIOWYCH
Celem badań było sprawdzenie czy ogólnodostępne lampy czerwone mogłyby pełnić
funkcję lamp ciemniowych w amatorskiej ciemni. W artykule zaprezentowano pomiary
fotometryczne i elektryczne kilku lamp czerwonych. Wyniki zaprezentowano na
wykresach. Do badań wykorzystano cztery rodzaje papierów fotograficznych, które
poddano naświetlaniu i wywołaniu. Wywołane papiery porównano ze sobą
organoleptycznie oraz poddano pomiarom densytometrycznym co potwierdziło
spodziewane efekty.
SŁOWA KLUCZOWE: fotografia, lampy ciemniowe, lampy czerwone, ciemnia
1. WSTĘP
W czasach fotografii cyfrowej, analogowa odchodzi już w zapomnienie, nie
zmienia to jednak faktu, że nadal są rzesze amatorów tradycyjnego wywoływania
zdjęć. W związku z tym pojawia się problem z dostępnością niezbędnych urządzeń
do wyposażenia ciemni, a zwłaszcza lamp ciemniowych. Nowoczesne
profesjonalne źródła światła stosowane w pracowniach artystycznych czy RTG są
poza zasięgiem finansowym zwykłego amatora. Za obiekt badań posłużyły
ogólnodostępne czerwone lampy, które z łatwością można nabyć w obiektach
handlowych. Badania obejmowały zarówno sprawdzenie źródeł światła pod
względem elektrycznym i fotometrycznym oraz oddziaływanie lamp na różnego
rodzaju papiery fotograficzne.
2. OPIS STANOWISKA BADAWCZEGO
Pomiar parametrów elektrycznych oraz strumienia świetlnego lamp
ciemniowych wykonano na stanowisku badawczym z lumenomierzem kulistym o
średnicy 2 m. Pomiar wykonano metodą porównawczą z wzorcem strumienia
świetlnego, przy wykorzystaniu ogniwa krzemowego skorygowanego do V(λ) i
cyfrowego miernika prądu fotoelektrycznego na bazie luksomierza typu
__________________________________________
* Politechnika Poznańska.
246
Tomasz Stankowiak, Sandra Mroczkowska
LUXMETER L50 firmy SONOPAN. Do zasilania lamp wykorzystany został
laboratoryjny zasilacz typu PCR2000M firmy KIKUSUI. Pomiary parametrów
elektrycznych przeprowadzono z zastosowaniem laboratoryjnego analizatora mocy
LEM Power Analyzer Norma 4000. Zakres badań elektrycznych obejmował: moc
P [W], współczynnik mocy cos  natężenie prądu I [mA]. Pomiar rozkładu
widmowego źródeł wykonano na ławie fotometrycznej z wykorzystaniem
spektrofotemetru typu X4 LIGHT ANALYZER firmy GIGAHERTZ-OPTIK. Jako
wzorzec strumienia wykorzystano wzorzec strumienia świetlnego produkcji firmy
PRC Krochman GMbH: nr 043 typ WI 5 Narva Φw = 1231lm ± 1,2%.
Badania oddziaływania lamp na papiery fotograficzne przeprowadzono w
warunkach całkowitej ciemności. Do wykonania badań wykorzystano statyw
fotograficzny, badane źródła, maskownicę fotograficzną, czasomierz, kuwety z
chemią fotograficzną. Po wywołaniu papierów próbki przebadano densytometrem
Eye-One pro i wyniki porównano ze sobą.
3. PRZEBIEG BADAŃ
Źródła światła wykorzystane do naświetlania papieru zgodnie z wymaganiami
normatywnymi zostały poddane wyświecaniu (dojrzewaniu) przez okres ponad 100
godzin. Do badań wykorzystano następujące źródła światła (tabela 1).
Tabela 1. Dane katalogowe i wyniki pomiarów dla badanych źródeł światła
(bd – brak danych)
Nazwa źródła
światła
Velleman T3
Spiral
OSRAM Star
Deco
OSRAM
Lumilux Red
L
OSRAM
Decospot
LED
ANS Glob
mini LED
ANS LED 20
Trzonek
Moc
katalogowa zmierzona
W
Trwałość
godziny
Strumień świetlny
katalogowy zmierzony
lm
E27
13
12,69
8000
850
132,22
E27
1
0,96
50 000
8
7,84
G13
18
17,90
12 000
900
1039,50
E14
1
0,87
25 000
bd
10,58
E27
1,2
1,24
bd
15
9,30
GU10
1
0,92
25 000
bd
8,40
Wykorzystano następujące rodzaje papierów: Fomabrom V112, Fomaspeed
V312, Ilford RC XPRESS MGP. 44M, ILFORD RC DELUXE MGD.25M.
Badania ogólnodostępnych zamienników lamp ciemniowych
247
Po przeprowadzeniu badań fotometrycznych i elektrycznych źródeł światła,
sprawdzono czy przebadane lampy naświetlają papier fotograficzny. W tym celu
na statywie umieszczano poszczególne źródła światła w odległościach od
oświetlanych próbek papieru dobieranych tak, aby uzyskać na powierzchni
roboczej natężenie oświetlenie o wartości 1 lx. Każda próbka papieru została
podzielona na 4 części, a następnie każdy fragment poddano ekspozycji światła w
czasie 0, 1, 3 oraz 7 minut. Po naświetleniu próbek poddano je procesowi
wywołania (rys. 1).
Rys. 1. Wpływ czasu naświetlania na stopień zadymienia papieru
Każdy fragment wywołanego papieru zmierzono densytometrem, aby uzyskać
wyniki w przestrzeni barw CIELab.
4. WYNIKI
Na podstawie pomiarów fotometrycznych i elektrycznych źródeł światła
uzyskano wyniki, z których sporządzono wykresy rozkładów widmowych:
Rys. 2. Wykres rozkładu widmowego dla lampy Velleman T3 Spiral 13 W/E27
Świetlówka kompaktowa Vellwman (rys. 2) emituje promieniowanie ciągłe w
zakresie fal od około 600 nm do 730 nm. Posiada trzy dominujące prążki, ich
długość fali wynosi 613 nm, 631 nm oraz 711 nm.
248
Tomasz Stankowiak, Sandra Mroczkowska
Rys. 3. Wykres rozkładu widmowego dla lampy Osram Lumilux Red L 18 W/60
Świetlówka liniowa OSRAM Lumilux Red (rys. 3) emituje promieniowanie
ciągłe w zakresie od około 570 nm do 660 nm, ponadto występują pojedyncze
prążki dla długości fal około 400 nm, 430 nm, 540 nm oraz 712 nm. Największa
moc emitowana jest dla 613 nm.
Lampa ledowowa Osram Star Deco (rys. 4) emituje promieniowanie widzalne
w zakresie od około 590 nm do 675 nm. Najwięcej energi wypromieniowywane
jest dla 641 nm.
Rys. 4. Wykres rozkładu widmowego dla lampy Osram Star Deco 1W/E27
Lampa ledowowa Osram Decospot LED (rys. 5) emituje promieniowanie
widzalne w zakresie od około 590 nm do 675 nm. Największa moc
wypromieniowywana jest dla 632 nm.
Rys. 5. Wykres rozkładu widmowego dla lampy Osram Decospot LED 1 W/E14
Badania ogólnodostępnych zamienników lamp ciemniowych
249
Lampa ledowowa ANS Glob mini LED (rys. 6) emituje promieniowanie
widzalne w zakresie od około 580 nm do 665 nm. Największa moc
wypromieniowywana jest dla 635 nm.
Rys. 6. Wykres rozkładu widmowego dla lampy ANS Glob mini LED 1,2 W/E27
Lampa ledowowa ANS LED 20 (rys. 7) emituje promieniowanie widzalne w
zakresie od około 600 nm do 650 nm. Największa moc wypromieniowywana jest
dla 633 nm.
Rys. 7. Wykres rozkładu widmowego dla lampy ANS LED 20 1 W/GU10
Po wywołaniu papierów fotograficznych porównano efekty naświetleń lamp.
Lampa Velleman T3 Spiral w żaden zauważalny sposób nie oddziałała na papiery
firmy Ilford. Widoczny efekt zadymienia zaobserwowano na papierach Fomaspeed
V312 oraz Fomabrom V112.Po wystawieniu papierów na ekspozycję lampy Osram
Lumilux Red ich stopień zadymienia okazał się na tyle wysoki, że papiery po
wywołaniu były czarne. Lampy Osram Star Deco, ANS Glob mini LED, ANS
LED 20 nie zadymiły w zauważalny sposób żadnej próbki papieru. Źródło Osram
Decospot LED wykazała podobny wpływ jak poprzednie lampy za wyjątkiem
papieru Fomaspeed V312.
Na podstawie pomiarów przeprowadzonych densytometrem uzyskano wyniki w
przestrzeni barw CIELab. Pomiary te potwierdziły wcześniejsze porównania
organoleptyczne. W poniższej tabeli przedstawiono wyniki widocznej reakcji
papieru na światło emitowane przez poszczególne lampy (tabela 2). Składowa L
250
Tomasz Stankowiak, Sandra Mroczkowska
mieści się w przedziale od 0 do 100 i określa luminancję. Składowa a reprezentuje
oś zielono-czerwoną, a składowa b oś niebiesko żółtą. Obie mieszczą się w
zakresie -120 do 120 [3].
Różnica pomiędzy dwiema barwami w przestrzeni CIELab opisywana jest za
pomocą wzoru :
2
2
2
(1)
E  L   a   b 
Przyjmuje się, że standardowy obserwator zauważa różnicę, gdy:
 0< E < 1 - brak zauważalnej różnicy,
 1< E <2 - różnica zauważalna dla doświadczonego obserwatora,
 2< E <3,5 - różnica zauważalna również dla niedoświadczonego obserwatora,
 3,5< E <5 - wyraźnie zauważalna różnica barw,
 5< E - wrażenie dwóch różnych barw [3].
Tabela 2. Wyniki pomiarów densytometrycznych przedstawione w przestrzeni barw Cielak
Nazwa
lampy
Valleman
T3 spiral
Osram
Decospot
LED
Nazwa
papieru
Współrzędne CIELab dla poszczególnych czasów
t = 0 [min]
t = 1 [min]
t = 3 [min]
t = 7 [min]
L/a/b
L/a/b
L/a/b
L/a/b
Fomaspeed
V312
94,1/0,5/-6,1
93,8/0,6/-6,1
93/0,5/-6,3
76,3/0,4/-3,6
Fomabrom
96,9/1,4/-3,7
96,9/1,3/-3,7
94,5/1,3/-3,5
86,1/1,3/-2,6
Fomaspeed
V312
96,3/0,9/-6,6
96,3/0,9/-6,6
94,2/0,8/-6,6
92,6/0,8/-6,4
Przykładowe obliczanie różnicy barw dla papieru Fomaspeed V312
oświetlanego lampą Valleman T3 spiral przy czasie naświetlnia 0 minut i 1 minuta:
E 
L 2  a 2  b  2

94,1  93,8 2  0,5  0,6 2   6,1  6,12
=
 0,09  0,01  0  0,316 - brak zauważalnej różnicy
5. WNIOSKI
Przeprowadzono badania rozkładu widmowego sześciu lamp czerwonych
dostępnych w sklepach. Przebadano czerwoną zintegrowaną świetlówkę
kompaktową, świetlówkę liniową, oraz lampy diodowe.
Porównując wyniki obliczeń z danymi katalogowymi, można zauważyć
zbieżności w wartości mocy [W] oraz znaczące rozbieżności w wartości strumienia
świetlnego ɸ [lm] (tabela 1).
Analizując rozkłady widmowe poszczególnych lamp widać, że wszystkie lampy
świecą w podobnym zakresie, a największa ilość światła jest wypromieniowywana
Badania ogólnodostępnych zamienników lamp ciemniowych
251
dla długości fali około 630 nm. Kolejny etap badań dotyczył prób ciemniowych dla
różnych rodzajów papierów oraz sprawdzania stopnia zadymienia próby papieru.
Przyglądając się próbką wywołanego papieru (rys. 8) oraz wynikom obliczeń
(tabela 3) widać, że ocena wizualna pokrywa się z pomiarami. Lampa, która nie
nadaje się do oświetlania ciemni to świetlówka liniowa Osram Lumilux Red.
Lampy, które naświetliły papier w niewielkim stopniu to Valleman T3 spiral oraz
Osram Decospot LED. Pozostałe lampy nie naświetliły papieru w żaden
zauważalny sposób, co zostało potwierdzone pomiarami densytometrycznymi.
Wyniki badań dla drugiego etapu wskazują na potencjalną możliwość
stosowana niektórych ogólnodostępnych lamp czerwonych do wyposażenia
amatorskiej ciemni zamiast drogich profesjonalnych lamp ciemniowych.
Rys. 8. Próbka papieru Fomabrom poddana ekspozycji lampą Valleman T3 spiral
Tabela 3. Wyniki obliczeń różnicy pomiędzy dwiema barwami w przestrzeni Cielak
Nazwa
lampy
Nazwa
papieru
Fomaspeed
V312
Valleman
T3 spiral
Fomabrom
Osram
Decospot
LED
Fomaspeed
V312
Odległość pomiędzy dwoma punktami
w przestrzeni trójwymiarowej
t = 0 [min]
t = 1 [min] a
t = 3 [min] a
a t = 1 [min]
t = 3 [min]
t = 7 [min]
E
E
E
0,316
0,83
16,91
Brak
Brak zauważalnej
Wrażenie
zauważalnej
różnicy
dwóch różnych
różnicy
barw
2,4
0,1
Różnica
8,44
Brak
zauważalna
Wrażenie
zauważalnej
również dla
dwóch różnych
różnicy
niedoświadczonego
barw
obserwatora
2,1
1,6
0
Różnica
Różnica
Brak
zauważalna
zauważalna dla
zauważalnej
również dla
doświadczonego
różnicy
niedoświadczonego
obserwatora
obserwatora
252
Tomasz Stankowiak, Sandra Mroczkowska
LITERATURA
[1] Felhorski W., Stanioch S.: Kolorymetria trójchromatyczna, WNT, Warszawa 1973.
[2] www.kodak.com/global/en/consumer/products/techInfo/k4/k4TestSafelite.shtml
[3] Jan Zabrodzki i inni: Grafika komputerowa metody i narzędzia, Wydawnictwo
Naukowo Techniczne, Warszawa 1994.
[4] Ralph W. Lamberecht, Chris Woodhouse: Way Beyond Monochrome, Focal Press,
Oxford 2011.
PARAMETERS OF POPULAR, COMMERCIALLY AVAILABLE,
RED LAMPS FOR DARKROOM USE
Nowadays the most popular is digital photography. However there are still some people
keen on traditional photo printing. According to that situation the problem of availability
darkroom lamps occurs. The article contains information and comparison of spectrum and
electrical parameters popular commercially available red lamps. In addition results of paper
fogging of most popular brands will be presented.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Janusz GONDEK*
Sławomir KORDOWIAK**
Krzysztof RATYŃSKI***
CYFROWE PROGRAMOWALNE STEROWNIKI
HYBRYDOWE DLA DIOD LED
Diody LED stosowane w technice świetlnej charakteryzują się dużą żywotnością 60 000
– 100 000 godzin, skutecznością świetlną powyżej 100 lm/W, są odporne na narażenia
mechaniczne i wielokrotne włączanie, nie wymagają układów zapłonowo–stabilizacyjnych
występujących w lampach wyładowczych, świecą od razu pełnym strumieniem, sterowane
są analogowo lub cyfrowo. Koszty eksploatacji źródeł światła LED są wielokrotnie niższe
od lamp tradycyjnych. Do sterowania i zasilania diod LED opracowane są nowoczesne
układy ze sterowaniem prądowym i PWM [2], [3], [4], [7], [12], [13].
SŁOWA KLUCZOWE: diody LED i LED RGB, matryca diodowa, programowalne
sterowniki diod LED, protokół DALI, PWM
1. WSTĘP
Diody LED znajdują coraz większe zastosowanie w technice oświetleniowej,
rozszerzając jej możliwości aplikacyjne. W tym celu szereg znanych firm w
świecie opracowało monolityczne układy zasilająco–sterujące, które rozszerzają
zakres aplikacji diod LED. Artykuł przedstawia wyniki prac badawczych
prowadzonych na Politechnice Krakowskiej, w firmie ENTERIUS i Prywatnym
Instytucie Technik Elektronicznych w Krakowie, w zakresie nowoczesnych
rozwiązań układowych, cyfrowych programowalnych sterowników hybrydowych
diod LED umożliwiających regulację natężenia światła i programowanie scen
świetlnych z protokołem DALI [6], [8], [10], [12], [13].
2. CYFROWE STEROWNIKI HYBRYDOWE DIOD LED
Przykładem nowoczesnych sterowników LED stosowanych w zasilaniu LED,
mogą być układy firmy STMicroelectronics serii VIPer. Są to sterowniki
impulsowe, z wysokonapięciowymi końcówkami mocy, wykonane technologią
__________________________________________
* Prywatny Instytut Technik Elektronicznych w Krakowie.
** Politechnika Krakowska.
*** ENTERIUS Krzysztof Ratyński, Kraków.
254
Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński
monolitycznych układów scalonych [5], [6], [7], [8], [10]. Na ich bazie, można
budować zasilacze sieciowe LED z separacją galwaniczną wyjścia od wejścia.
Przykład takiego układu podaje rys. 1. Wszystkie sterowniki serii VIPer są
wyposażone w układ tzw. miękkiego startu oraz zabezpieczone przed przepięciami,
a także zbyt niskim napięciem zasilającym, przed zwarciem obwodu wyjściowego i
przed przekroczeniem bezpiecznej temperatury struktury układu scalonego.
Rys. 1. Zasilacz LED ze sterownikiem VIPer – 12A
Napięcie zmienne230VAC po wyprostowaniu (mostek M1) zasila układ
przetwornicy impulsowej zrealizowany na układzie scalonym VIPer/12A. Napięcie
z wtórnego uzwojenia transformatora Tr, po wyprostowaniu (D3) i filtrowaniu
podawane jest na wyjście zasilacza LED. Tranzystor T1 wraz z diodą Zenera D4 i
transoptorem (U2) pełni rolę stabilizatora napięcia wyjściowego.
Z kolei rys. 2 przedstawia układ programowalnego sterownika LED
realizowanego na układzie scalonym PIC10F322T, który umożliwia regulację
jasności (PWM) podłączonych taśm LED (lub innych źródeł światła LED), za
pomocą dowolnego łącznika impulsowego (chwilowego). Układ umożliwia
regulację jasności od minimum do maksimum. Można też zmieniać kierunek
regulacji jasności. Układ sterownika zapamiętuje ustawioną jasność (tylko do czasu
odłączenia zasilania) i przywraca ją po ponownym załączeniu.
Rys. 2. Programowalny sterownik LED typu MD–1 (ściemniacz)
Układ MD–1 jest przeznaczony do małych instalacji oświetleniowych LED,
gdzie moc pojedynczego obwodu nie przekracza P  84W. Miniaturowe rozmiary
ściemniacza, pozwalają na jego instalację np. w puszce elektrycznej. Układ jest
Cyfrowe programowalne sterowniki hybrydowe dla diod LED
255
zasilany z napięcia U = 12 VDC 10%, pobór prądu w stanie spoczynku wynosi
< 3mA, posiada maksymalną obciążalność wyjścia LED równą 7A. Częstotliwość
PWM wynosi 500 Hz a rozdzielczość strumienia PWM sięga 10 bit.
Inny typ programowalnego sterownika przedstawia rys. 3. Jest to trójkanałowy
sterownik scen świetlnych LED i LED RGB.
Rys. 3. Programowalny sterownik scen świetlnych EC–11S
Sterownik umożliwia zaprogramowanie pięciu scen świetlnych, które mogą być
statyczne lub dynamiczne. Sceny statyczne programuje się, określając jasność diod
LED każdego z trzech kanałów wyjściowych. Z kolei programowanie scen
dynamicznych polega na wybraniu konkretnej sceny, z listy wcześniej
zaprogramowanych scen dynamicznych. W zależności od rodzaju podłączonego
oświetlenia LED sceny te określają jasność każdego z kanałów lub wypadkowy kolor
w przypadku systemu RGB. Sceny dynamiczne są wpisane do pamięci
mikrokontrolera na zasadzie programów w układzie EC–11 RGB. Sterowanie odbywa
się poprzez łączniki impulsowe łączące z masą. Impulsy „masy” (min. 200 ms, max.
nie określony). Po wykryciu masy na jednym z wejść, sterownik nie reaguje na
podanie masy, jednocześnie na inne wejścia, do czasu zaniku masy, na pierwszym
wejściu. Do programowania używany jest łącznik PRG, natomiast łącznik A
zmniejsza jasność danego kanału, a łącznik B – zwiększa jasność. Czas płynnego
zaświecania i wygaszania oraz przejścia pomiędzy różnymi scenami, jest ustawiony na
stałe i wynosi t = 2s. Wyboru jednej z pięciu scen dokonuje się poprzez podanie masy
na jedno z wejść (15) mikrokontrolera. Jeśli na żadnym z wejść, nie pojawia się masa,
to sterownik pozostaje wyłączony (w trybie czuwania).
Z kolei rys. 4. przedstawia schemat ideowy układu sterownika DALI dla
oświetlenia LED, typu: EC–133DL.
256
Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński
Rys. 4. Programowalny sterownik DALI dla oświetlenia LED typu: EC–133DL
Sterownik LED typu EC–133DL jest trójkanałowym ściemniaczem LED,
kontrolowanym za pomocą protokołu DALI (Digital Addressable Lighting Interface).
Umożliwia sterowanie większością dostępnych na rynku źródeł światła LED,
zasilanych napięciowo (np. taśmy LED, moduły LED). Sterownik może również
współpracować ze źródłami światła LED sterowanymi prądowo. Wówczas do wyjść
sterownika EC–133DL, należy podłączyć dodatkowe drivery typu ED–700 firmy
Enterius, które są typowymi interfejsami. Każde z wyjść sterownika może być
niezależnie sterowane za pomocą sygnałów DALI. W zależności od rodzaju
podłączonych źródeł światła LED, sterownik EC–133DL może pracować jako
ściemniacz trzech niezależnych obwodów LED lub jako sterownik LED RGB. Dzięki
wysokiej rozdzielczości sterowania PWM, sięgającej 16 bit, sterowanie każdym z
wyjść, przejścia pomiędzy barwami lub zmiany jasności są niezwykle płynne.
Dodatkowo, dzięki możliwości wyboru charakterystyki zmian jasności (funkcja
protokołu DALI) między liniową a logarytmiczną, dostosowanie pracy sterownika
EC133DL do wymagań danej instalacji LED jest bardzo dogodne. Każdy z trzech
kanałów wyjściowych, jest osobno adresowany i zgodnie ze standardem DALI,
programowanie adresu, możliwe jest w trybie automatycznym (wywoływanym ze
sterownika Master) lub ręcznym, z wykorzystaniem łącznika impulsowego PROG.
Wejście sygnałów DALI, posiada pełną separację galwaniczną od pozostałej części
układu. Sterownik EC–133DL posiada trzy wejścia typu OC (podające masę), o dużej
obciążalności prądowej, sięgającej 7A każde. Trójkolorowa dioda LED sygnalizuje
stan pracy sterownika. Podczas normalnej pracy kiedy sterownik EC–133DL nie
odbiera żadnych komunikatów, przeznaczonych dla niego dioda nie świeci. Odebranie
komunikatu przeznaczonego dla kanału Nr 1 jest sygnalizowane błyskiem koloru
czerwonego, dla kanału Nr 2 błyskiem zielonym, a dla kanału Nr 3 błyskiem
niebieskim.
Cyfrowe programowalne sterowniki hybrydowe dla diod LED
257
Rys. 5. Schemat interfejsu DALI sterownika EC–133DL
Sterownik EC–133DL jest zasilany napięciem U=12VDC ±30%. Posiada
częstotliwość PWM ~730Hz. Jest przeznaczony do montażu na szynach DIN (TS–
35, TH–35) w szafach i rozdzielniach elektrycznych.
a)
b)
Rys. 6. Schemat aplikacyjny sterownika DALI typu: EC–133DL
a) dla taśm LED itp., b) dla taśm LED RGB itp.
Inny typ programowalnego sterownika LED, przedstawia rys. 7. Jest to
skomplikowany sterownik (x–y) umożliwiający zaświecanie, w sposób
programowalny jednej lub wielu diod LED wyświetlacza składającego się z 96
diod LED.
Matryca diodowa LED jest sterowana driverami LED w sposób
programowalny. Diody LED są zaświecane impulsami (multipleksowane). Tego
typu praca diod pozwala na mniejsze nagrzewanie się diod LED, co w przypadku
258
Janusz Gondek, Slawomir Kordowiak, Krzysztof Ratyński
matryc diodowych jest zagadnieniem istotnym. Matryce diodowe LED znajdują
zastosowanie do podświetlania próbek w analizach mikroskopowych oraz w
specjalizowanych układach sygnalizacyjnych.
Rys. 7. Programowalny sterownik matrycy diodowej LED
3. PODSUMOWANIE
Opracowane sterowniki LED umożliwiają sterowanie większością dostępnych
na rynku źródeł światła LED zasilanych napięciowo. Uzyskano przy tym wysoką
rozdzielczość sterowania PWM. Tego typu sterowniki mogą być zastosowane w
inteligentnych systemach sterowania w budynkach etc. Sterowniki LED wykonano
Cyfrowe programowalne sterowniki hybrydowe dla diod LED
259
technologią powierzchniowego montażu, możliwa jest wersja hybrydowa.
Technologia hybrydowa zwiększa niezawodność działania i trwałość cyfrowych
sterowników LED. W specjalnych zastosowaniach koniecznym staje się
wykonanie sterowników w mikroelektronicznej technologii warstw grubych, która
jest bardzo odporna na działanie niekorzystnych czynników techno-klimatycznych
(wysokie i niskie temperatury, wysoka wilgotność powietrza). Umożliwia
maksymalną miniaturyzację sterowników i znacznie wydłuża ich trwałość.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
Elektronika Praktyczna, nr 3/2007.
Energooszczędne oświetlenie, perspektywy rozwoju w Europie i w Polsce. 20
czerwca 2007, Warszawa, Poland.
Gondek J., Kordowiak S.: Cyfrowe sterowniki Hybrydowe LED. XIII Conference
Computer Applications in Electrical Engineering. Poznan, April 14 - 16, 2008.
Wiśniewski A.: Diody elektroluminescencyjne (LED) dużej mocy. Przegląd
Elektrotechniczny, 05/2007.
Zaremba K., Pawlak A.: Parameters of model luminare with high power LED
diodes. Przegląd Elektrotechniczny, 05/2007.
Ronat O.: The Digital Addressable Lighting Interface (DALI). An Emerging
Energy-Conserving Lighting Solution. International Rectifier.
Gondek J., Kordowiak S., Habdank-Wojewódzki T.: Hybrydowe sterowniki LED do
opraw oświetlenia awaryjnego. XVII Conference Computer Applications in
Electrical Engineering 2012, ISSN 1897-0757. Poznan University of Technology
Academic Journals No 69, 2012.
Materiały informacyjne firmy Power Integrations, 2012.
Oświetlenie INFO Nr 4 (36), październik – grudzień 2011.
Zasilacze stabilizowane LED, PITE, materiały własne, 2012.
Żagań W.: Podstawy techniki świetlnej. Wydawnictwo Politechniki Warszawskiej
2005, ISBN 83-7207-541-7.
www.enterius.pl
Oświetlenie INFO Nr 4 (40), październik – grudzień 2012.
DIGITAL PROGRAMMABLE HYBRID LED DRIVERS
The paper contains the result of research work carried out in Private Institute of
Electronic Engineering together with Cracow University of Technology and ENTERIUS
Company. The works were dedicated for elaboration new digital programmable hybrid
LED drivers, thick-film technology and surface technology were used.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Łukasz PUTZ*
OPTIMIZATION ANALYZE OF THE LED LIGHTING
INSTALLATION FOR A QUALITY OF ELECTRICAL
ENERGY
The author of this paper plans to make a measurement of quality parameters for existing
and used lighting installation, made from electroluminescent diodes (LED). The
measurements will be made in a few different working states of installation. Based
on research will be conducted the analyze and this allow define the worst working state.
In the further will be selected elements which generate the most of distortion. The research
will aim to create optimal solution, that is maximal reduction of higher harmonics voltage
and current level, while minimal costs of influence in lighting installation.
KEYWORDS: words: electroluminescent lighting, higher harmonics of voltage and
current, LED, lighting installation, online UPS power supply, quality of electrical energy
1. INTRODUCTION
The concept of quality of electrical energy appeared relatively recently,
in the 80s of the twentieth century. It is a collection of various electrical quantities
(eg. voltage, frequency, harmonics, etc.) that determine is the electrical energy
provided to customers retain the appropriate parameters, allowing for the correct
operation of all electrical equipment [3].
Maintaining proper quality of electrical energy required to meet certain
minimum requirements that have been defined and stored in the Standards
and Directives. Poland has a Standard PN-EN 50160:1998 "Parameters
of the voltage supply in public distribution networks" [6].
The LED technology in electrical lighting is a method of producing light using
light-emitting diodes. This method based on the phenomenon of
electroluminescence (returning of energy through the excited electrons as the
photons of light). Light sources based on LED technology greatly affect on the
quality of electrical energy in power grids. The number of LED lamps is still
increasing and cause more and more noise. The work on reducing the negative
impact of LED on the electricity network are becoming necessary [2].
__________________________________________
* Poznan University of Technology.
262
Łukasz Putz
Bad parameters which determining the quality of electrical energy may cause
incorrect work of devices which distribute electricity, starting from overheating
transmission lines, through rough running motors, generators and transformers,
to the total destruction of these devices.
For private customers generating higher harmonics to the energy grid causes
a lot of interference in devices connected to this grid, while causes increasing
consumption of electrical energy [1].
2. IMPROVING THE QUALITY OF ELECTRICAL ENERGY
Power companies must provide electrical energy to customers
with the parameters defined in the Standard. Therefore in power plants,
transformer stations and substations are mounted devices which control
and improve the quality of electrical energy. Large customers are also required
to control quality and minimize distortion introduced into the power grid.
They can take care of it directly by replacing harmful elements in the electrical
installations or indirectly by using the systems or devices to prevent ingress
of higher harmonic voltage and current to the grid [1].
At present are using several technical solutions to improve the quality
of electrical energy [3]:
a) improving the design of the equipment that emits noise  rarely used
and difficult task which is not always bringing the desired effect;
b) using the passive filters, which are bent on a specific type of distortion,
continuously operating only in this one purpose - the solution is often used
because it allows to get quite good results with a relatively low price
(good price to quality ratio);
c) using active filters, which continuously are analyzing interference in real time
to reduce them - it is quite beneficial effect, allows to get satisfying results,
but rather expensive, although increasingly used;
d) using active power supply, which keeps the electrical equipment always
on, working in online mode, what means the device which fulfil so to say two
functions, first: allow to keep power supply into devices when a sudden
power failure in the electrical grid, second: at all times it is converting
the voltage signal passes through the device and forming an almost
undisturbed sinusoidal signal with a frequency of electrical grid (50 Hz).
3. PRE-MEASUREMENTS OF LIGHTING SYSTEM
Preliminary research allowed to determine the basic parameters
of the installation and the level of potential danger. Pre-measurements
were performed using a high class power quality meter FLUKE 434/PWR.
Optimization analyze of the LED lighting installation for a quality of …
263
The research was conducted in the momentary mode, that means the measurement
in short period of time [5].
Performed research allowed to determine the electrical parameters
of electroluminescent lighting installed. The supply voltage of installation is 240 V
and is slightly higher than the nominal (230 V), because the measurement
were performed in the main switchboard, when most electrical equipment
was turned off. The active power of installed lighting in the lobby was 720 W.
The system absorb very little reactive power (73 var), so is achieved a very high
power factor cos φ = 0.99. Effective current in the installation is 4.99 A [5].
From the observation of a levels of higher harmonics voltage and current
it can be seen that the odd harmonics of current intensity are highly raised (Fig.
1a). It affects on the significant distortion of the current intensity. The current
signal is quite different from a sinusoidal signal (Fig. 1b).
a)
b)
Fig. 1. Current distortion: a) the levels of higher harmonics, b) the current waveform
4. DETAILED MEASUREMENTS OF LIGHTING SYSTEM
The whole process of conducting of detailed research was very similar
to preliminary research. Only one difference was to performed more measurements
at different times of day and night. Additionally, to observe the changes
taking place in the lighting installation, was made measurements
in the tracking mode of quantity of the power quality in 6-hour periods.
The main purpose of any measurements was to determine the levels of higher
harmonics of voltage and current intensity. Behind the measurements in different
points of time was also conducted the observation of every higher harmonics
in a long period of time.
In addition to tracking higher harmonics of voltage and current were also
observed changes of other electrical quantities in a long period of time. These were
mainly: voltage, current intensity (Fig. 2), frequency, active power, reactive power,
apparent power and power factor [4].
264
Łukasz Putz
Fig. 2. The trend of RMS current intensity in 6 hours - tracking mode (screenshot from meter)
5. THE ANALYZE OF MEASUREMENTS OF ELECTRICAL
INSTALLATION
After processing the data stored in memory of the meter FLUKE 434/PWR
drawn graphs harmonic content of voltage and current. The analysis was
performed for three different working states of lighting installation:
a) full load of lighting installation - all light sources and power supplies are
enabled in the rated load (Fig. 3),
b) only power supplies working - light sources are disabled at the secondary side
of power supplies, power supplies are turned on (Fig. 4),
c) disabled lighting installation  light sources and power supplies are
disconnected from the electrical grid, the grid parameters were measured at the
connection point of the lighting installation.
In bar charts are presented the individual harmonics up to the 50th in the values
of effective current. To receive the percentage content of the of higher harmonics
should be taken the value of the first harmonic (50 Hz) as 100%
and the proportional determine the higher harmonics.
After summing up the basic harmonic and all higher harmonics (up to 50th)
in the Fourier series is achieved current waveform in time presented on Fig. 5.
The waveform does not have the shape of sinusoid, and it is very distorted [4, 5].
In the Standard PN-EN 61000-3-2:1997 "Electromagnetic Compatibility.
Acceptable levels. Limits for harmonics current emissions (equipment input current
≤ 16 A" specified ambiguously defined levels of harmonic current, while
these values are oversized. Nevertheless part of the harmonics current in the tested
installation is approaching the limits of normative levels [7].
Optimization analyze of the LED lighting installation for a quality of …
Fig. 3. Full load work - all light sources and power supplies enabled,
higher harmonics of current intensity before modernization
Fig. 4. Idle work - enabled power supplies, disconnect the light source,
higher harmonics of current intensity before modernization
Fig. 5. Waveform of current in lighting installation before modernization
265
266
Łukasz Putz
6. IMPROVEMENT THE PARAMETERS OF POWER QUALITY
IN TESTED LIGHTING INSTALLATION
Tested lighting installation was simulated numerically and optimized
to improve the power quality, and at the same time the lowest cost of interfering
on the installation are achieved. Three possible solutions were checked:
a) regulators of higher harmonics of voltage and current - the most expensive
solution because it would be necessary to use separate systems for each higher
harmonic, and there are too many higher harmonics in the tested installation,
b) capacitor batteries - the cheapest solution, but not giving satisfactory results in
the case of reduction the levels of higher harmonics of voltage and current,
c) UPS Online power supplies - the best solution, these power supplies are cheaper
than regulators of higher harmonics and at the same time they adjust voltage
and current harmonics better than capacitors.
The best solution in simulations was tested on the actual installation.
In the switchboard was connected UPS online power supply with power
up to 1 kW between lighting installation and switchboard. Then measured
and analyzed the results of measurement of higher harmonics voltage
and current intensity.
On the Fig. 6 and Fig. 7 was presented a graphic view the content of higher
harmonics of current after the modernization of lighting installation.
From the comparison results before and after modernization of lighting
installation it is evident that higher harmonics content has been reduced
by about 70%. It is a very good result. In the installation are dominating odd
harmonics. The value of the basic harmonic (50 Hz) was increased.
After summing up all the harmonics in the Fourier series is achieved current
waveform close to a sinusoid (fig. 8). Consequently, the current effective
value is higher [4, 5].
Fig. 6. Full load work - all light sources and power supplies enabled,
higher harmonics of current intensity after modernization
Optimization analyze of the LED lighting installation for a quality of …
267
Fig. 7. The idle work - enabled power supplies, disconnect the light source,
higher harmonics of current intensity after modernization
Fig. 8. Waveform of current in lighting installation after modernization
6. CONCLUSION
From the comparison above it shows, that the undertaken work have produced
the desired effect. As a result it was reduced the content of higher harmonics
of current in the lighting system of lobby in an office building. Comparing
the values of higher harmonics of current intensity before the research with values
after the research was achieved nearly 70-percent improvement.
BIBLIOGRAPHY
[1]
[2]
[3]
Bolkowski S.: „The Theory of Electrical Circuit”, pub. WNT, Warsaw 2013.
Collective Work: “Lighting Technology’09. Guide - Newsletter”, pub. PKO-SEP,
Warsaw 2009.
Krakowski M.: ”The Theoretical Electrical Engineering. Vol. 1. Linear and
nonlinear circuit”, pub. PWN, Warsaw 1999.
268
[4]
[5]
[6]
[7]
Łukasz Putz
Putz Ł., Nawrowski R.: ”Energy efficiency analysis of lighting installations using
LED technology”, Electrical Review, pp: 296-298, Warsaw, VI.2013.
Putz Ł., Typańska D.: ”Analysis of the electrical parameters of electroluminescent
lighting in the lobby of an office building”, Proceedings from International
Conference Advanced Methods of Theory of Electrical Engineering, pp: VI-3,
Roztoky u Krivoklatu (Czech Republic), 4-6.IX.2013.
Standard PN-EN 50160:1998 "Parameters of the voltage supply in public
distribution networks".
Standard PN-EN 61000-3-2:1997 ”Electromagnetic Compatibility. Acceptable
levels. Limits for harmonics current emissions (equipment input current ≤ 16 A)”.
P O Z N A N UN I VE RS I T Y O F T E C HN O L O G Y ACA D E MI C J O URN A L S
No 79
Electrical Engineering
2014
Marcin WESOŁOWSKI*
Ryszard NIEDBAŁA*
Jacek HAUSER**
WYZNACZANIE DYFUZYJNOŚCI CIEPLNEJ PRZY
WYKORZYSTANIU KAMERY TERMOWIZYJNEJ
Niniejsza praca dotyczy zagadnień wyznaczania dyfuzyjności cieplnej ciał stałych, przy
wykorzystaniu technik termowizyjnych. Pomiary parametrów cieplnych charakteryzujących
elementy termoizolacyjne są zazwyczaj długotrwałe, co ogranicza ich przydatność w
zastosowaniach praktycznych. Pomiary takie nie mogą być wykonywane w warunkach
produkcyjnych, do monitorowania jakości wszystkich produktów. W artykule zaprezentowano
nową metodę eksperymentalno-obliczeniowego wyznaczania dyfuzyjności cieplnej. Metoda
charakteryzuje się krótkim czasem pomiaru, wysoką dokładnością oraz niewielką wrażliwością
na warunki zewnętrzne. Dzięki temu istnieje możliwość jej łatwej implementacji w aplikacjach
o charakterze przemysłowym. W pracy przedstawiono koncepcję metody pomiarowej oraz
modelu urządzenia badawczego, wykorzystującego zespół promienników podczerwieni i
kamerę termowizyjną. Wykonane analizy oraz wstępne badania potwierdzają skuteczność i
wysoką dokładność proponowanych rozwiązań.
SŁOWA KLUCZOWE: pomiar dyfuzyjności cieplnej, kamera termowizyjna
1. WPROWADZENIE
Przewodność cieplna właściwa oraz dyfuzyjność cieplna są podstawowymi
parametrami charakteryzującymi ciała stałe pod względem zdolności
przewodzenia energii cieplnej odpowiednio: w stanie cieplnie ustalonym oraz
cieplnie nieustalonym. Istnieje wiele metod wyznaczania tych wielkości, zarówno
w stanach statycznych, jak i dynamicznych [1, 2, 3]. Bardzo często, w
przypadkach wymagających wysokiej dokładności, badania przewodności cieplnej
właściwej oraz dyfuzyjności wymagają wykonywania długotrwałych pomiarów w
warunkach laboratoryjnych [2]. Tego rodzaju pomiary nie mogą być wykonywane
na szeroką skalę, na przykład w warunkach produkcyjnych. Istnieje zatem
potrzeba opracowania i wykorzystywania procedur i urządzeń umożliwiających
wyznaczanie przewodności cieplnych w sposób szybki, oraz gwarantujących
__________________________________________
* Politechnika Warszawska.
** Politechnika Poznańska.
270
Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser
wysoką dokładność. Przykładem stosowalności tego rodzaju rozwiązań są procesy
wytwórcze materiałów i przegród termoizolacyjnych (lodówki, szyby okienne,
itp.), gdzie dodatkowo nie ma możliwości montażu czujników temperatury
wewnątrz analizowanego obiektu. Niniejsza praca dotyczy zastosowania
nowoczesnych technik pomiarowych w zagadnieniu wyznaczania dyfuzyjności
cieplnej materiałów, bądź elementów, na podstawie dynamicznych zmian
temperatury na powierzchni zewnętrznej badanych ciał stałych. Zaprezentowane
obliczenia dotyczące propagacji ciepła w analizowanych elementach umożliwiło
opracowanie przesłanek do metody pomiarowej. Wyszczególniono podstawowe
źródła błędów oraz sposoby ich eliminacji bądź ograniczenia. Opracowane
stanowisko pomiarowe wykorzystane zostało do wykonania wstępnych pomiarów
umożliwiających ocenę dokładności i stosowalności proponowanej metody.
2. KONSTRUKCJA STANOWISKA POMIAROWEGO
Niestacjonarne metody pomiarowe dyfuzyjności cieplnej, polegają zazwyczaj
na ocenie dynamicznych zmian temperatury wywoływanych przez kontrolowane
źródło ciepła. Ogólny schemat stanowiska pomiarowego, zgodnego ze standardami
przy tego rodzaju pomiarach, pokazany został na rysunku 1.
Rys. 1. Stanowisko do pomiaru dyfuzyjności cieplnej: 1- obiekt badany; 2- zespół promienników;
3- kamera termowizyjna; 4- komputer nadrzędny
Stanowisko składa się z zespołu promienników podczerwieni o konstrukcji
umożliwiającej izotermiczne nagrzanie badanej powierzchni płaskiej. Stopień
jednorodności pola temperatury jest wyznaczany na podstawie termogramów.
Warto zaznaczyć, iż wysoka dokładność metody pomiarowej możliwa jest do
osiągnięcia jedynie w przypadku jednokierunkowego przepływu ciepła, co
wymaga jednomiernego napromieniowania badanej powierzchni. W takich
warunkach możliwe jest stosowanie dowolnego sposobu pomiaru temperatury
powierzchni, na przykład przy wykorzystaniu pirometru umożliwiającego
dokonywanie bardzo szybkich pomiarów. W przypadku detekcji miejscowych wad
materiałów termoizolacyjnych, kamery termowizyjne stanowią obecnie najlepsze
rozwiązanie. Z tego względu, w proponowanej metodzie pomiarowej kamera
Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej
271
stanowi drugi element, istotnie wpływający na poszerzenie spektrum stosowalności
i dokładność metody pomiarowej. Trzecim elementem stanowiska jest komputer
nadrzędny z zaimplementowanym oprogramowaniem umożliwiającym szybkie
wyliczanie poszukiwanej wartości dyfuzyjności cieplnej.
3. WYMIANA CIEPŁA NA POWIERZCHNIACH CIAŁ STAŁYCH
Zagadnienia związane z analizą stanu pól temperatury na zewnętrznych
powierzchniach ciał stałych wymagają zazwyczaj rozpatrywania szeregu zjawisk
związanych z dyfuzją ciepła do wnętrza, oraz wymianą ciepła pomiędzy
rozpatrywaną powierzchnią a jej otoczeniemi. Określanie dyfuzyjności cieplnej a
(w m2/s), równej:
a

cp  
(1)
gdzie: - przewodność cieplna właściwa (w W/(m∙K); cp- ciepło właściwe (w
J/(kg∙K)); - gęstość (w kg/m3), wymaga dokładnej ilościowej analizy
wspomnianych zjawisk.
Określenie zasad pomiaru dyfuzyjności cieplnej rozpoczęto od przeprowadzenia
podstawowych obliczeń strumieni cieplnych wymienianych z powierzchni ciała
stałego na drodze konwekcji, radiacji oraz kondukcji. Podstawowe zależności podane
w [2, 3] wykorzystano do wyznaczania mocy cieplnych w stanie ustalonym. Założono
izotermiczność ciała stałego oraz otoczenia. Jedynie analizowana powierzchnia
charakteryzowała się temperaturą wyższą o 1 K, w stosunku do pozostałego obszaru
układu. Na rysunku 2 pokazano przebieg wartości współczynnika p - będącego
ilorazem wartości mocy cieplnej przewodzonej do wnętrza ciała stałego i sumie mocy
cieplnych traconych przez konwekcję i radiację - w funkcji przewodności cieplnej
właściwej , zmienianej w granicach 0 – 100 W/(m∙K).
Rys. 2. Charakterystyki stosunku mocy cieplnych przewodzenia do sumy mocy cieplnych traconych
przez konwekcję (1) i radiację (2) z powierzchni ciała stałego
272
Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser
Przy niskich wartościach przewodności cieplnych właściwych, wartości mocy
cieplnych traconych do otoczenia są porównywalne z mocą przewodzoną do
wnętrza ciała stałego. Precyzyjna znajomość strat cieplnych jest zatem niezmiernie
istotna przy wyznaczaniu dyfuzyjności cieplnych materiałów termoizolacyjnych.
Opracowanie metody wyznaczania dyfuzyjności cieplnej poprzedzone zostało
analizą zjawiska przewodzenia ciepła w ciałach stałych o zróżnicowanych
parametrach materiałowych. Celem obliczeń było dokonanie oceny wpływu
poszczególnych parametrów materiałowych oraz geometrycznych, na stan pola
temperatury badanego ciała. Obliczenia i analizy wykonano w oparciu o równanie
przewodzenia ciepła dla nie poruszających się ciał stałych (równanieFouriera –
Kirchoffa) o postaci [4]:
p
t

 V 
 2t
 c p  c p 
(2)
gdzie: t- temperatura (w K), τ- czas (w s), pV - gęstość objętościowa mocy cieplnej
(w W/m3).
Model matematyczny zagadnienia brzegowego wymiany ciepła zakładał, iż energia
cieplna od promiennika podczerwieni wydzielana jest w przypowierzchniowej
warstwie ciała stałego o grubości 1 nm. W pozostałym obszarze zależność (2) została
uproszczona poprzez pominięcie gęstości objętościowej mocy pV. Równania
przewodzenia ciepła uzupełniono warunkami granicznymi. Jako warunek początkowy
przyjęto jednorodną temperaturę całego układu termokinetycznego na poziomie t0 =
20ºC. Temperatura ta była charakterystyczna dla otoczenia rozpatrywanego ciała i nie
zmieniała się podczas całej analizy.
Na zewnętrznych powierzchniach analizowanego ciała założono warunek
brzegowy trzeciego rodzaju o postaci:.
 t F  t 0   
dt
dn
(3)
3
gdzie: α- całkowity współczynnik przejmowania ciepła (w W/(m ∙K)); tFtemperatura powierzchni; t0- temperatura otoczenia.
W celu uwzględnienia konwekcyjnej i radiacyjnej wymiany ciepła, całkowity
współczynnik przejmowania ciepła, równy sumie konwekcyjnego i radiacyjnego
współczynnika przejmowania ciepła, podano w postaci:
C Gr Pr       T
n
  k r 
c
0
F

 T0  TF2  T02

(4)
gdzie: Gr- liczba Grashofa; Pr- liczba Prandtla; ε- emisyjność.
Zaprezentowany model matematyczny stanowił kompletny opis analizowanego
układu. Z uwagi na ogólny charakter prowadzonych analiz, przyjęto model
jednowymiarowy, charakterystyczny dla jednostkowego przewodzenia ciepła w
nieskończenie rozległym układzie płaskim. Obliczenia wykonano przy
wykorzystaniu autorskiego algorytmu, zaimplementowanego w środowisku
Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej
273
MathCad. Wykonano szereg analiz, których podstawowym celem było
opracowanie metody wyznaczania parametrów ciała stałego na podstawie zmian
temperatury na jego powierzchni, oraz określenie dopuszczalnych granic
stosowalności metody, przy których charakteryzować się ona będzie akceptowalną
dokładnością. Podstawowe wymagania, co do metody pomiarowej sformułowano
następująco:
 szybkość działania, gwarantująca możliwość implementacji w warunkach
produkcyjnych;
 wysoka dokładność, umożliwiająca detekcję wadliwych konstrukcji powłok
termoizolacyjnych;
 niewrażliwość na środowisko robocze, zwłaszcza na zmienne warunki
temperaturowe otoczenia.
Z uwagi na powierzchniowy charakter pomiarów temperatury, wyodrębniono
grupę czynników istotnie wpływających na proces dyfuzji. Zgodnie z założeniami
proponowanej metody, pomiar dyfuzyjności cieplnej powinien odbywać się w
warunkach o możliwie odmiennych wartościach temperatury otoczenia. Badane
ciało w chwili początkowej będzie miało temperaturę równą temperaturze
otoczenia, a jego powierzchnia poddawana będzie działaniu impulsu energii
cieplnej. Wykonano obliczenia wpływu temperatury otoczenia na charakterystyki
nagrzewania i chłodzenia analitycznego ciała stałego, przy temperaturze otoczenia
zmienianej od 5ºC, do 50 ºC. Wybrane charakterystyki temperaturowe dla
analizowanych przypadków pokazano na rysunku 3.
Rys. 3. Przebiegi temperatur powierzchni ciała stałego, dla zróżnicowanych temperatur otoczenia:
1. t0 = 5ºC; 2. t0 = 20 ºC; 3. t0 = 35 ºC
Otrzymane wyniki są charakterystyczne dla modelu liniowego. Charakterystyki
zmian temperatury w czasie są analogiczne i przesunięte względem siebie o
wartość temperatur otoczenia. Wpływ temperatury otoczenia może być zatem
korygowany, poprzez dwukrotny pomiar temperatury powierzchni próbki, w
274
Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser
ustalonych chwilach czasowych. Nieznajomość mocy cieplnej wydzielającej się na
powierzchni badanego ciała oraz dokładnych warunków początkowych podczas
pomiarów, może być przyczyną znacznych błędów wynikających z niepoprawnej
korekcji warunków otoczenia. Dodatkowe analizy uwzględniające zmienny
współczynnik przejmowania ciepła umożliwiły stwierdzenie znikomego wpływu
tego parametru na wyliczane charakterystyki temperaturowo – czasowe.
W zagadnieniach praktycznych nagrzewania promiennikowego, trudno jest określić
rzeczywistą wartość mocy padającą na nagrzewaną powierzchnię. Zależna jest ona od
mocy promiennika (mogącej zmieniać się podczas nagrzewania), parametrów
powierzchni ciała stałego, oraz współczynników konfiguracji układu grzejnego.
Opracowany model obliczeniowy wykorzystano do ustalenia wpływu mocy
padającej na nagrzewaną powierzchnię na charakterystyki nagrzewania i
chłodzenia powierzchni ciała stałego. Zakładano, iż moc wydzielana w
przypowierzchniowej warstwie zmienia się w zakresie 2 – 5.5 kW. Założono
niezmienne parametry materiałowe ciała, oraz stałą wartość współczynnika
przejmowania ciepła. Wyniki obliczeń zaprezentowano na rysunku 4.
Rys. 4. Przebiegi temperatury powierzchni ciała stałego przy stosowaniu różnych mocy grzejnych.
1. P = 2 kW; 2. P = 3.5 kW; 3. P = 5.5 kW
Na podstawie obliczeń wykazano, iż nawet przy stosowaniu modelu liniowego,
o niezmiennych parametrach i warunkach granicznych, charakterystyki
nagrzewania i chłodzenia różnią, pod względem ilościowym, jak i jakościowym.
Zarówno stałe czasowe chłodzenia, jak i wartości temperatur w kolejnych chwilach
czasowych są odmienne. Nawet w skali bezwymiarowej nie udało się zunifikować
i uogólnić otrzymanych wyników. Wpływ mocy powierzchniowego źródła ciepła
(o nieznanej wartości) w połączeniu ze zmiennymi warunkami otoczenia,
praktycznie uniemożliwia zastosowanie pojedynczego impulsu energii do
powierzchniowego badania dyfuzyjności cieplnej ciał stałych.
Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej
275
4. METODA POMIARU DYFUZYJNOŚCI CIEPLNEJ
Wykonane obliczenia umożliwiły opracowanie nowej metody pomiaru
dyfuzyjności cieplnej, wykorzystującej stanowisko o konstrukcji pokazanej na
rysunku 1. Analiza źródeł błędów wykazanych podczas obliczeń była podstawą
doboru odpowiedniej procedury, gwarantującej akceptowalną dokładność wyników
uzyskiwanych podczas jej wykorzystywania. Algorytm pomiarowy pokazano na
rysunku 5.
Rys. 5. Procedura pomiarowa dyfuzyjności cieplnej
Wykorzystanie dwóch serii pomiarowych umożliwiło eliminację błędów metod
opierających się na pojedynczych impulsach, poprzez:
 uniezależnienie wpływu warunków zewnętrznych na współczynnik będący
podstawą wyznaczania dyfuzyjności cieplnej;
 brak potrzeby znajomości mocy wydzielanej w analizowanym ciele;
 eliminację błędów metody pomiaru temperatury.
Badania poprawności przyjętych rozwiązań potwierdzono odpowiednimi
obliczeniami. Powtórnej analizie poddano wpływ mocy cieplnej oraz warunków
otoczenia. Przebiegi temperatur przy symulacji pracy układu w warunkach
odmiennych mocy źródeł ciepła pokazano na rysunku 6.
Rys. 6. Przebiegi temperatury na powierzchni ciała stałego, w odpowiedzi na dwa 1- sekundowe
impulsy mocy, przy zróżnicowanych mocach źródła ciepła. 1. P = 2 kW; 2. P = 3.5 kW; 3. P = 5.5 kW
276
Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser
Dla wszystkich zaprezentowanych przebiegów wyznaczono stosunek różnic
temperatur w chwilach czasowych oznaczonych jako (I) i (II), oraz (III) i (IV),
zgodnie z zależnością (5):
w 
t ( I )  t ( II )
t ( III )  t ( IV )
(5)
Wartość zmiennej Δw we wszystkich przypadkach była stała, i wynosiła 0.892.
Wykazano zatem, iż w modelu liniowym, moc stosowanego źródła ciepła nie ma
wpływu na względny stosunek spadków temperatury w odpowiedzi na dwa
impulsy mocy grzejnej. Założenie to jest słuszne jedynie dla ciał
charakteryzujących się stałymi parametrami materiałowymi i stałymi wartościami
współczynników przejmowania ciepła. Podobne analizy wykonano podczas
badania wpływu warunków cieplnych otoczenia, na charakterystyki temperatury
wyznaczone w rozpatrywanym modelu. Wyniki obliczeń pokazano na rysunku 7.
Rys. 7. Przebiegi temperatury na powierzchni ciała stałego, w odpowiedzi na dwa 1- sekundowe
impulsy mocy, przy zróżnicowanych temperaturach otoczenia. 1. t0 = 5ºC; 2. t0 = 20ºC; 3. t0 = 35ºC
Również w tym przypadku wyznaczono zmienną Δw (5). We wszystkich
przypadkach stosunek temperatur w wybranych chwilach czasowych wynosił
0.892, analogicznie do poprzednio rozpatrywanego przypadku. Uzyskane wyniki
wykazały jednoznacznie brak wpływu czynników zewnętrznych oraz rodzaju i
mocy źródeł ciepła, na wartość zmiennej określonej zależnością (5). Możliwe jest
zatem jej zastosowanie w zagadnieniu pomiaru dyfuzyjności cieplnej. Wartość tej
zmiennej jest bowiem zależna jedynie od jej wartości, po przyjęciu liniowości
warunków granicznych i parametrów materiałowych. Fakt ten nie stanowi
poważnego źródła błędów w proponowanej metodzie, z uwagi na niską różnicę
temperatur pomiędzy badaną powierzchnią i otoczeniem.
Na podstawie wyliczeń współczynnika Δw (5) w funkcji dyfuzyjności cieplnej,
otrzymano zbiór wartości pokazany w skali półlogarytmicznej na rysunku 8.
Wyznaczanie dyfuzyjności cieplnej przy wykorzystaniu kamery termowizyjnej
277
Rys. 8. Wartości współczynnika Δw w funkcji dyfuzyjności cieplnej
Na podstawie wyników, dobrano dwie funkcje interpolujące wyniki, dla niskich
(materiały termoizolacyjne) i wysokich (przewodniki ciepła) wartości dyfuzyjności
cieplnych. Metoda pomiarowa wykorzystana została do konstrukcji stanowiska
pomiarowego, widocznego na rysunku 9.
Rys. 9. Stanowisko pomiarowe podczas pracy
Przykładowe wyniki badania termograficznego wycinka płaskiej powierzchni
aluminiowej pokazano na rysunku 10, dla charakterystycznych (5) chwil
czasowych.
Rys. 10. Termogramy wykonane dla powierzchni aluminium po czasie: a) 1 s; b) 2 s; c) 3 s; d) 4 s
278
Marcin Wesołowski, Ryszard Niedbała, Jacek Hauser
Wartość współczynnika Δw dla analizowanego przypadku wynosiła 0.966. Dla
tej wartości, wyznaczona dyfuzyjność cieplna wynosiła 0.387 m2/s. Porównując tą
wartość z danymi katalogowymi (0,392 m2/s), otrzymano błąd względny na
poziomie 1.27 %. Jest to wartość niewielka, potwierdzająca przydatność
opracowanej metody pomiarowej.
5. PODSUMOWANIE
W pracy zaproponowano prostą metodę wyznaczania dyfuzyjności cieplnej na
podstawie pomiarów temperatury powierzchni próbki. Krótki czas wykonywania
pomiarów umożliwia jej implementację w warunkach produkcyjnych. Wykonane
obliczenia analityczne i numeryczne uwidoczniły szereg czynników mogących
negatywnie wpływać na dokładność metod tej klasy. Dzięki wykonanym obliczeniom,
opracowano algorytm pomiarowy niewrażliwy na warunki środowiskowe, wartość
mocy cieplnej oraz błędy urządzenia pomiarowego temperatury. Podczas badań
wykazana została prawidłowość funkcjonowania algorytmu pomiarowego oraz jego
wystarczająca dokładność. Pewnym mankamentem jest znaczna wrażliwość metody na
odchyłki mierzonych temperatur. Fakt ten jest wynikiem silnego wpływu temperatur
mierzonych, na wartość dyfuzyjności.
LITERATURA
[1] Minialaga V., Paulaukas R.: Heat Dissipati1on Investigation by Thermivision,
Medical Physics in the Baltic States, Kaunas, 2010.
[2] Chudzik S.: Thermal Diffusivity measurement of Insulating Material Using Infrared
Thermogrphy, Opto-Electronics Review, nr 1/2012.
[3] Laskar J. M., Bagavathiappan S., Sardar M., Jayakumar T., Philip J., Raj B.:
Measurement of Tejrmal Diffusivity of Solids Using Infrared Thermography,
Materials Letters, no 62/2008.
[4] Dane ze strony matweb.com (01.06.0213).
[5] Hauser J.: Elektrotechnika. Podstawy Elektrotermii i Techniki Świetlnej. WPP 2006.
THERMOVISION MEASUREMENTS OF THERMAL DIFFUSIVITY
The article deals with thermal diffusivity measurements by using of thermovision
techniques. Methods for determination of thermal parameters of insulating bodies are time
consuming and so that, their utility in industry is inconsiderable. For example such
measurements can’t be used for online inspection of product quality. In the article, new
method for determination of thermal diffusivity was presented. Basic concept and model of
measuring device were discussed. The method is characterized by short measuring time,
high accuracy and low dependence on external conditions. Exemplary measuring results
were presented and all advantages of proposed method were proved.
POZNAN UNIVERSITY OF TECHNOLOGY ACADEMIC JOURNALS
No 79
Electrical Engineering
2014
Jurij WARECKI*
Michał GAJDZICA*
ANALIZA PROCESÓW ZACHODZĄCYCH PODCZAS
ZAŁĄCZANIA TRANSFORMATORA PIECA ŁUKOWEGO
ZASILANEGO Z UKŁADU Z FILTRAMI WYŻSZYCH
HARMONICZNYCH
Praktyka eksploatacji układów zasilania pieców łukowych prądu przemiennego
pokazała, że wielokrotne komutacje technologiczne transformatorów piecowych mogą stać
się przyczyną uszkodzenia transformatora systemowego i innych urządzeń sieci zasilającej.
W pracy zbadano wpływ konfiguracji sieci zasilającej na charakter procesów
przejściowych jednostki piecowej średniej mocy 50 MVA. Analizę zachodzących procesów
przejściowych w układzie zasilania pieca łukowego przeprowadzono stosując model
zrealizowany w pakiecie Matlab/Simulink.
SŁOWA KLUCZOWE: prąd rozruchowy, transformator piecowy, filtr wyższych
harmonicznych
1. WPROWADZENIE
Piece łukowe prądu przemiennego (Alternating Current Electric Arc-Furnace (ACEAF)) zaliczane są do odbiorników skupionych dużej mocy, o nieliniowych
charakterystykach dynamicznych. Praktyka eksploatacji pieców łukowych wielkiej
mocy wykazuje, że urządzenia układów ich zasilania ulegają częstym awariom na
skutek przetężeń oraz przepięć komutacyjnych. Zmiany mocy elektrycznej podczas
wytopu zależą głównie od jakości wsadu, dokładności pracy układu sterowania, a także
od zachodzących procesów cieplnych. Dane statystyczne informują, że w ciągu doby
liczba komutacji transformatora piecowego wynosi średnio 20-40 [4, 5]. Cykl topienia
metalu w piecach łukowych prądu przemiennego obejmuje trzy podstawowe,
uogólnione etapy technologiczne: 1) roztapianie wsadu, 2) świeżenie kąpieli oraz 3)
rafinowanie kąpieli. Każde stadium charakteryzuje określona zmiana mocy czynnej w
czasie oraz liczba wymaganych komutacji, z tendencją do jej zmniejszania oraz
stabilizacji procesów w ostatnim z cyklów. Pierwsze stadium w chwili roztapiania
wsadu charakteryzuje się największym poborem mocy elektrycznej, a piec w tym
czasie zużywa 60-80% całej energii elektrycznej cyklu technologicznego. W kolejnych
__________________________________________
* Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie.
280
Jurij Warecki, Michał Gajdzica
obserwuje się mniejsze wahania mocy spowodowane stabilniejszym paleniem łuku
elektrycznego.
Mając na celu zapewnienie kompatybilności elektromagnetycznej pieców
łukowych prądu przemiennego z układami zasilania stosuje się różne rozwiązania
techniczne. Najskuteczniejszą poprawę jakości energii elektrycznej w sieci
zasilającej zapewniają tyrystorowe kompensatory statyczne (Static Var
Compensator (SVC)) [8]. Eksploatacja układów zasilania wykorzystujących SVC
wykazała, że zapewniają one dynamiczną kompensację mocy biernej, wprowadzają
symetryzację napięć i prądów a także zmniejszają wahania napięcia. Z kolei
wykorzystanie w układach SVC filtrów wyższych harmonicznych, skutkuje
ograniczeniem zniekształcenia napięć w sieci zasilającej.
W artykule przeprowadzono analizę wpływu mocy transformatora systemowego
oraz konfiguracji układu kompensacyjno-filtracyjnego SVC na charakter prądów
przejściowych podczas włączeń technologicznych transformatora piecowego.
2. CHARAKTERYSTYKA MODELOWANEGO SYSTEMU
ZASILANIA ELEKTRYCZNEGO AC-EAF
Wybierając wariant zasilania AC-EAF dużej mocy, uwzględnia się następujące
czynniki: moc zwarcia w punkcie przyłączenia pieca lub grupy pieców, liczbę oraz
ich typ, moc znamionową transformatorów piecowych wraz z dysponowanymi
poziomami napięć zewnętrznego zasilania elektrycznego, charakterystyki
częstotliwościowe sieci elektrycznej względem węzła przyłączenia a także środki
polepszenia kompatybilności elektromagnetycznej AC-EAF z układami zasilania
elektrycznego. Realizacja topologii połączeń systemu przemysłowego między
punktem przyłączenia transformatora systemowego a transformatorów piecowych,
wynika bezpośrednio z układu hutniczego, mocy oraz liczby pieców łukowych.
Sposób połączeń wewnętrznych w chwili komutacji AC-EAF, ma bezpośredni
wpływ na wartość amplitud prądów łączeniowych oraz charakter zachodzących
procesów nieustalonych. Symulację procesów włączania transformatora piecowego
oraz badanie wpływu różnych kombinacji układu kompensacyjnego na przebiegi
przejściowe, zrealizowano z wykorzystaniem schematu układu zasilania z rys. 1.
Układ przemysłowy pieca łukowego prądu przemiennego zasilany jest z sieci
wysokiego napięcia 110 kV poprzez transformator mocy TS, o układzie połączeń
Yd11. Instalację zasilania AC-EAF tworzą: szyna średniego napięcia SN zasilająca
układ kompensacyjny oraz transformator piecowy TP o mocy 50 MVA i grupie
połączeń Yd1. Układ filtrujący FC (Filter Circuit) tworzą filtry: F-2, F-3, F-5 o
parametrach elementów umieszczonych w tabeli 1, pracujące w wskazanym
zakresie strojenia dla poszczególnych filtrów.
Za płynną regulację składowej biernej podstawowej harmonicznej prądu
dławika odpowiada układ TCR (Thyristor Controlled Reactor). W zależności od
Analiza procesów załączania transformatora pieca łukowego w środowisku …
281
struktury układu przemysłowego, zasilanie jednostki piecowej może odbywać się z
transformatorów systemowych o mocach: 80, 120 i 160 MVA.
a)
b)
Rys. 1. Schematy modelowanego układu zasilania pieca łukowego AC-EAF z udziałem układu
kompensacyjnego: a) topologia układu , b) układ symulacyjny
Tabela 1. Parametry elementów układu FC
Filtr
Obszar
strojenia
Pojemność
C [μF]
Indukcyjność
L [mH]
Rezystancja
R [Ω]
Inom
[A]
F2
1,86
89,51
28,30
0,24
447,51
F3
2,79
70,74
15,91
0,19
398,52
F5
4,65
152,81
2,64
0,05
921,24
Układ symulacyjny elektrycznego pieca łukowego tworzą: transformator mocy TS,
zasilany z trójfazowego źródła napięcia przemiennego E o parametrach sieci Rs, Ls.
Zasilanie pieca łukowego odbywa się poprzez transformator piecowy TP, włączany
wyłącznikiem Q1. W chwilach komutacji TP, układ kompensatora SVC pozostaje
załączony zapewniając bilansowanie mocy biernej na szynie średniego napięcia.
282
Jurij Warecki, Michał Gajdzica
3. PRĄD ROZRUCHOWY TRANSFORMATORA
Transformatory średniej mocy przeznaczone do stalowniczych procesów
elektrotermicznych
charakteryzują
typowe
wartości
parametrów:
Sn = 15...55 MVA, Uz(%) = 3,1 - 8,2 %, Io(%) = 1,08 - 1,3 %. Głównym elementem
odróżniającym transformator piecowy od typowego transformatora mocy jest
obecność dużej liczby zaczepów, zlokalizowanych od strony niskiego napięcia.
Komutacjom technologicznym transformatora piecowego zasilającego piec
łukowy towarzyszą duże amplitudy prądów włączania. Ich wartości przewyższają
wartości znamionowe prądów obciążenia 5-7 krotnie. Przyczyną powstawania
przetężeń podczas włączania transformatorów do sieci zasilającej, jest głębokie
nasycenie rdzeni układów magnetycznych, prowadzące do wzrostu prądów
magnesowania. W najcięższych warunkach komutacji, a w szczególności w chwili
przejścia napięcia zasilającego przez zero, największe amplitudy strumienia
magnetycznego wynoszą: Φo = (2,2÷2,3)Φm. Głębokie nasycenie nieliniowego
obwodu magnetycznego o reluktancji Rμ wzrasta tysiące razy, co z kolei
przyczynia się odpowiednio do zwiększania prądu magnesowania.
Prąd rozruchowy w chwili włączania jednostek transformatorowych pieców
łukowych, oprócz dużej amplitudy charakteryzują: jednokierunkowość, osiąganie
wartości maksymalnej w pierwszej połowie okresu po załączeniu oraz
oddziaływanie do chwili aż rdzeń transformatora nie osiągnie pełnego,
nominalnego namagnesowania. Przykładowy oscylogram prądu włączania
trójfazowej jednostki piecowej średniej mocy 50MVA zamieszczono na rys. 2.
Rys. 2. Prądy włączenia transformatora piecowego, otrzymany z pomiarów
Prąd włączania cechują również wyższe harmoniczne typu ciągłego, których
zmiana utrzymuje się aż do chwili osiągnięcia przez prąd magnesujący stanu
ustalonego. Powyższy fakt potwierdza przeprowadzona analiza Fouriera dla stanu
włączania transformatora piecowego, rys. 3.
Analiza procesów załączania transformatora pieca łukowego w środowisku …
283
Rys. 3. Zmiana wyższych harmonicznych prądu podczas włączenia jednostki piecowej 50 MVA
4. CHARAKTERYSTYKA UKŁADU SVC
Układ SVC to układ nadążny systemu zasilania pieca łukowego prądu
przemiennego, należący do grupy układów typu TCR-FC, o tyrystorowo regulowanej
indukcyjności dławika. Tworzą go dwa rodzaje elementów: regulowane dławiki TCR
oraz stałe filtry wyższych harmonicznych FC. Moc bierna pracującego układu SVC,
wynika z wypadkowej mocy filtrów oraz dławika, a jej regulacja odbywa się w sposób
ciągły poprzez sterowanie kątem zapłonu tyrystorów.
Moc układu FC jest sumą mocy biernych poszczególnych filtrów pasywnych: QF2 +
QF3 + QF5 = QFC. Z kolei dobór parametrów poszczególnych filtrów wyższych
harmonicznych odbywa się z uwzględnieniem poziomu wyższych harmonicznych
pieca łukowego i TCR. Przy tym należy brać pod uwagę odchylenia pojemności
kondensatorów i indukcyjności dławików filtrów występujące wskutek warunków
środowiskowych i niedokładności technologicznych. W przypadku większości
kondensatorów zmiany wartości pojemności z powodu warunków środowiskowych
wynoszą ±2% oraz (-5%...+10)% - z powodów technologicznych. W konsekwencji,
dopuszcza się zmiany pojemności filtru w zakresie -7%...+12%. W przypadku
indukcyjności przyjmuje się odchyłkę technologiczną w zakresie ±3%. Stąd możliwy
zakres odchylenia punktu rezonansowego od wyznaczanej wartości zawiera się w
przedziale 0,93h ≤ hr ≤ 1,05h. W praktyce inżynierskiej przyjmuje się, że bezpieczny
punkt rezonansowy filtru hr przypada na obszar między 2 - 10% poniżej wartości
dokładnej częstotliwości rezonansowej filtru. Prowadzi to do przesuwania punktów
rezonansowych charakterystyk impedancyjno-częstotliwościowych całego systemu
zasilającego w kierunku niższych wartości. Eksploatacja układów filtrujących w
warunkach przemysłowych, strojonych powyżej obszaru bezpiecznego dowiodła, że
wraz z upływem czasu oraz wskutek postępującego starzenia elementów, pracujące
układy stają się przyczyną rezonansów prądowych dla częstotliwości innych
harmonicznych. Modelując trójfazowe układy filtrujące badanego systemu zasilania,
wprowadzono częstotliwości strojenia poszczególnych filtrów zgodnie z tabelą 1.
Jurij Warecki, Michał Gajdzica
284
5. SYMULACJA PROCESÓW WŁĄCZENIOWYCH
A. Prądy włączenia transformatora piecowego
Wartości prądów włączania transformatora piecowego zależne są od mocy
zwarciowej na szynie przyłączenia jednostki piecowej. Na moc zwarciową w
największym stopniu ma wpływ transformator systemowy. Wartości
maksymalnych amplitud prądów rozruchowych transformatora piecowego dla
układów zasilania o różnych mocach transformatorów systemowych umieszczono
w tabeli 2. W modelu uwzględniono resztkową wartość namagnesowania na
poziomie 0,6Ψnom . Z punktu widzenia prądów łączeniowych badanej topologii
zasilania AC-EAF, maksymalne amplitudy prądu początkowego obserwuje się w
przypadku układu z transformatorem systemowym o największej mocy.
Zmniejszenie indukcyjności wypadkowej toru zasilania, w połączeniu z głębokim
nasyceniem rdzenia transformatora piecowego, prowadzi do wzrostu wartości
prądu w chwili komutacji.
Tabela 2. Maksymalne amplitudy prądów rozruchowych transformatora piecowego
Moc znamionowa transformatora
układu zasilania [MVA]
80
120
160
Amplituda prądu transformatora
piecowego [kA]
6,32
8,16
8,55
B. Wpływ topologii filtrów na procesy przejściowe
Określając sposób oddziaływania konfiguracji filtrów wyższych harmonicznych
na procesy przejściowe podczas włączania transformatora piecowego, przebadano
poszczególne układy pracy zgodnie z tabelą 3.
Tabela 3. Topologia połączeń układu FC
Klasyfikacja układu
Konfiguracja układu
Układ I
Podłączono pojedynczy filtr – F2, lub F3, lub F5
Układ II
Podłączono wszystkie filtry – F2+F3+F5
Na rysunku 4 podano oscylogramy prądów chwilowych dla wybranej fazy
podczas włączenia transformatora piecowego, w układzie zasilającym z
transformatorem systemowym o mocy 160 MVA, przy podłączeniu układu FC z
pojedynczym filtrem F5. Można wyraźnie zaobserwować, że maksymalne
amplitudy prądu przejściowego w obwodzie filtru występują po pewnym czasie od
początku włączenia TP, kiedy prąd piątej harmonicznej transformatora piecowego
Analiza procesów załączania transformatora pieca łukowego w środowisku …
285
osiąga maksymalne amplitudy. Wskutek oddziaływania prądu filtru F5 następuje
silne zmniejszenie amplitud prądu przejściowego transformatora zasilającego, co
skutkuje łagodzeniem mechanicznych stresów w mocowaniach jego uzwojeń.
Na rysunku 5 pokazano przebiegi prądów w układzie zasilającym jak dla
przypadku powyżej z transformatorem 160MVA, w sytuacji pracy wszystkich
filtrów układu FC.
Porównując wyniki modelowania z rysunku 4 i rysunku 5 można stwierdzić tak
zmianę charakteru prądów przejściowych transformatora systemowego i filtru F5,
jak i zmianę ich amplitud. Obecność wszystkich filtrów, skutkuje zmianą
charakterystyk częstotliwościowych układu zasilania, co powoduje wskazane
zmiany. Rezultaty pozostałych badań stanów włączania transformatora piecowego
zamieszczono w tabeli 4.
Rys. 4. Prądy przejściowe transformatorów oraz filtru F-5, Układ I
Rys. 5. Oscylogramy prądów chwilowych transformatorów oraz filtrów, Układ II
286
Jurij Warecki, Michał Gajdzica
Tabela 4. Maksymalne amplitudy prądów w obwodach układów filtrujących
Moc TS [MVA]
Układ połączeń FC
Amplituda prądu F2 [kA]
Amplituda prądu F3 [kA]
Amplituda prądu F5 [kA]
80
I
2,4
1,8
3,0
120
II
2,7
2,1
5,2
I
2,3
2,0
8,2
160
II
2,9
2,1
3,5
I
2,3
2,0
7,0
II
2,8
2,2
3,0
Z przeprowadzonej analizy amplitud prądów obwodów filtrujących wynika, że
decydujący wpływ na ich wartość oraz charakter zmian mają charakterystyki
częstotliwościowe układu zasilania, które zależne są od liczby pracujących w
systemie filtrów wyższych harmonicznych.
6. WNIOSKI
Wykonane badania wskazują, że moc transformatora systemowego zasilającego
przemysłowe układy AC-EAF wpływa na wartość amplitud prądu rozruchowego
transformatora piecowego. Praca układu filtrującego w różnych konfiguracjach
podczas włączania jednostki piecowej objawia się silnym wpływem wypadkowych
charakterystyk częstotliwościowych układu na wartości amplitud oraz charakter
prądów przejściowych poszczególnych filtrów.
LITERATURA
[1] Varetsky Y., Damping transients in compensated power supply system. // Proc. of VI
Sc. Conf. „Electrical power networks-SIECI 2008” Poland, Szklarska Poręba,
September 10–12, 2008. P.397-404.
[2] Abou-Safe A., Kettleborough G., Modeling and Calculating the In-Rush Currents in
Power Transformers, Damascus Univ., Journal Vol. (21)-No. (1)2005.
[3] Turner Ryan A.,Smith Kenneth S., Transformer Inrush Currents, Harmonic analysis
in interconnected systems, IEEE industry applications magazine, Sept|Oct 2010.
[4] Sawicki A., Zagadnienia energetyczne wybranych urządzeń elektrycznychsystemów
stalowniczych, Częstochowa 2010.
[5] Wciślik S., Elektrotechnika pieców łukowych prądu przemiennego- zagadnienia
wybrane, Kielce 2011.
[6] Dudley Richard F., Fellers Clay L., Special Design Considerations for Filter Banks in
Arc Furnace Installations, IEEE Transactions on industry applications, vol. 33, no. 1,
January/February 1997.
[7] Arya S., Bhalja B., Simulation of Steel Melting Furnace in MATLAB and its effect on
power Quality problems, National Conference on Recent Trends in Engineering &
Technology, 13-14 May 2011.
[8] www.ABB.com/FACTS SVC the key to better arc furnace economy.
Analiza procesów załączania transformatora pieca łukowego w środowisku …
287
TRANSIENTS ANALYSIS DURING ARC FURNACE TRANSFORMER
ENERGIZATION IN ENVIRONMENT OF HARMONIC FILTERS
The practice of operating AC electrical arc furnace power supply systems has shown
that frequent energizing unloaded furnace transformer can cause damage of the system
transformer and other system devices. To examination of supply system configuration
impact on switching transient nature an example of 50 MVA arc furnace unit was chosen.
The transient analysis has been carried out by simulating within Matlab/Simulink software.
Authors index
Authors
Piotr
Paul A.
Artur
Bartosz
Anna
Rafał
Michał
Grażyna
Michał
Dariusz
Alicja
Damian
Janusz
Małgorzata
Jacek
Marek
Jarosław
Tomasz
Tomasz
Robert
Marcin
Leszek
Piotr
Marta
Sławomir
Zbigniew
Dariusz
Jacek
Krzysztof
Justyna
Sandra
Ryszard
Ryszard
Marek
Łukasz
Krzysztof
Tomasz
Bakalarek
Bernstein
Bugała
Ceran
Cysewska-Sobusiak
Długosz
Filipiak
Frydrychowicz-Jastrzębska
Gajdzica
Gloger
Głów
Głuchy
Gondek
Górczewska
Hauser
Horyński
Jajczyk
Jarmuda
Jeżyk
Jędrychowski
Jukiewicz
Kasprzyk
Kiedrowski
Kolasa
Kordowiak
Krawiecki
Kurz
Majcher
Matwiejczyk
Michalak
Mroczkowska
Nawrowski
Niedbała
Paluszczak
Putz
Ratyński
Stankowiak
289
No of paper
5
19
6, 7, 8, 9
19
1
11
24
6, 7, 8, 9
33
2
14
18, 20, 21
30
28
32
22
4
16, 17
15
10
3
5
27
11
30
2
14, 18, 20, 21
22
4
13
28, 29
16, 17
32
23
31
30
29
Page
41
157
47, 55, 63, 71
157
9
87
197
47, 55, 63, 71
279
17
113
149, 165, 175
253
239
269
181
31
131, 141
121
79
25
41
227
87
253
17
113, 149, 165, 175
181
31
105
239, 245
131, 141
269
189
261
253
245
290
Authors index
Authors
Krystian
Adam
Andrzej
Grzegorz
Alicja
Grzegorz
Krzysztof
Jurij
Marcin
Małgorzata
Szymczak
Tomaszuk
Tomczewski
Trzmiel
Twardosz
Twardosz
Wandachowicz
Warecki
Wesołowski
Zalesińska
No of paper
1
12
15, 16
18, 20, 21
23
23
25
33
32
26
Page
9
97
121, 131
149, 165, 175
189
189
205
279
269
215

Podobne dokumenty