Warsztaty Doktoranckie 2012

Transkrypt

Warsztaty Doktoranckie 2012
Warsztaty
Doktoranckie
WD 2012
oraz letnia szkoła metod
numerycznych
Lublin
09 – 11 lipca 2012
Autorem logo jest Student IMUZ Piotr Kukiełka
Organizowane przez:
Politechnika
Lubelska
Instytut Elektrotechniki
Warszawa
Wydział Elektrotechniki
i Informatyki
Akademia Górniczo
Hutnicza
Wydział Elektrotechniki,
Automatyki, Informatyki
i Elektroniki
Pod patronatem Lubelskiego Oddziału Polskiego
Towarzystwa Elektrotechniki Teoretycznej i Stosowanej
Warsztaty Doktoranckie 2012
autor: student WEiI PL Mariusz Kura
ii
Warsztaty Doktoranckie 2012
Spis treści
1. STABILIZACJA WAHADŁA ODWRÓCONEGO Z NAPĘDEM INERCYJNYM
PRZY POMOCY REGULATORA LQR .................................................................... 11
2. OCHRONA KATODOWA ZBIORNIKÓW PODZIEMNYCH PRZED KOROZJĄ 13
3. METODA ZBIORÓW POZIOMICOWYCH W TOMOGRAFII IMPEDANCYJNEJ
...................................................................................................................................... 15
4. ANALIZA PORÓWNAWCZA OPŁACALNOŚCI INWESTYCJI W ŹRÓDŁA
ENERGII ODNAWIALNEJ ........................................................................................ 17
5. ZASTOSOWANIE MULTIMODALNEJ KLASYFIKACJI W ROZPOZNAWANIU
STANÓW EMOCJONALNYCH NA PODSTAWIE MOWY SPONTANICZNEJ .. 18
6. IDENTYFIKACJA
SYSTEMÓW
NIELINIOWYCH
PRZY
POMOCY
JĄDROWEGO ALGORYTMU LMS Z OGRANICZENIEM ZASOBÓW ............... 21
7. WPŁYW ŚRODOWISKA OBLICZENIOWEGO NA WYDAJNOŚĆ ALGORYTMU
ODWRACANIA MACIERZY .................................................................................... 23
8. INTELIGENTNY SYSTEM PRZYWOŁAWCZY ..................................................... 25
9. ROZSZERZONY
FILTR KALMANA JAKO ESTYMATOR STANU W
UKŁADZIE WAHADŁA ODWRÓCONEGO Z NAPĘDEM INERCYJNYM ......... 27
10. SYSTEM POMIAROWY DO WIELOKANAŁOWEJ REJESTRACJI SYGNAŁÓW
NEURONOWYCH METODĄ INVIVO ..................................................................... 29
11. PORÓWNANIE FUNKCJI OCENY SEGMENTACJI W KONTEKŚCIE METODY
REDUKCJI NADSEGMENTACJI OBRAZÓW BARWNYCH ................................ 31
12. KOMPARATOR
DO NADAWANIA ZNACZNIKÓW CZASOWYCH W
UKŁADACH ODCZYTOWYCH DLA DETEKTORÓW PASKOWYCH ............... 33
13. METODY STOSOWANE W BADANIACH NIENISZCZĄCYCH .......................... 35
- SYSTEM ELEKTRONICZNEGO STEROWANIA BEZPOŚREDNIM
WTRYSKIEM BENZYNY.......................................................................................... 38
14. FSI
15. ASIC IMPLEMENTATION OF HIGH EFFICIENCY 8-BIT ‘OCTALYNX’ RISC
MICROPROCESSOR .................................................................................................. 40
16. THERMAL ANALYSIS OF CMOS VOLTAGE-CONTROLLED OSCILLATORS 42
17. WPŁYW
CZASU ODPOWIEDZI NEUROSTEROWNIKA NA JAKOŚĆ
REGULACJI ................................................................................................................ 44
18. CONSTRUCTION AND VERIFICATION OF MATHEMATICAL MODEL OF
MASS SPECTROMETRY DATA .............................................................................. 46
19. WPŁYW ZWILŻALNOŚCI WYSOKOTOPLIWEGO PODŁOŻA NA JAKOŚĆ
WARSTW MIEDZIANYCH WYTWARZANYCH METODĄ POŚREDNIEGO
GRZANIA OPOROWEGO PRZY OBNIŻONYM CIŚNIENIU ................................ 49
iii
Warsztaty Doktoranckie 2012
20. MODELOWANIE I ANALIZA POLA MAGNETYCZNEGO W NIETYPOWYCH
UKŁADACH WSPÓŁRZĘDNYCH ........................................................................... 51
21. WYZNACZANIE
WSPÓŁCZYNNIKA
ABSORPCJI
WŁAŚCIWEJ
W CZASIE ŚRÓDMIĄŻSZOWEJ HIPERTERMII MIKROFALOWEJ ................... 54
22. WYKORZYSTANIE
FILTRU
CZĄSTECZKOWEGO
W
PROBLEMIE
IDENTYFIKACJI ........................................................................................................ 57
23. MODELOWANIE I BADANIA SYMULACYJNE HYDRAULICZNEGO UKŁADU
ZAPEWNIENIA STATECZNOŚCI POJAZDU ......................................................... 60
24. PROJEKT
7-BITOWEGO NISKOMOCOWEGO PRZETWORNIKA A/C W
TECHNOLOGII SUBMIKRONOWEJ O MAŁEJ POWIERZCHNI DO
ZASTOSOWAŃ WIELOKANAŁOWYCH ............................................................... 62
25. PROJEKT
UKŁADU
ELEKTRONIKI
FRONT-END
DO
ODCZYTU
DETEKTORÓW PIKSELOWYCH OPARTY NA INWERTERACH....................... 64
26. ANALIZA SZUMOWA KANAŁU ODCZYTOWEGO PRZEZNACZONEGO DO
WIELOKANAŁOWYCH UKŁADÓW SCALONYCH DEDYKOWANYCH DO
EKSPERYMENTÓW NEUROBIOLOGICZNYCH .................................................. 67
27. ANALIZA PORÓWNAWCZA PANELU FOTOWOLTAICZNEGO I DACHÓWKI
SOLARNEJ W ZASTOSOWANIU DO BUDOWNICTWA JEDNORODZINNEGO
...................................................................................................................................... 70
28. ZASTOSOWANIE REGULATORA PID DO STEROWANIA MANIPULATOREM
Z NAPĘDEM ELEKTROHYDRAULICZNYM O RÓWNOLEGŁEJ KINEMATYCE
...................................................................................................................................... 73
29. PRZEGLĄD
METOD DO SYNCHRONIZACJI Z SIECIĄ (PLL) DLA
PRZEKSZTAŁTNIKÓW ENERGOELEKTRONICZNYCH .................................... 75
30. METODA TWORZENIA MODELU ZIEMSKIEGO POLA MAGNETYCZNEGO
ZOPTYMALIZOWANEGO DLA OBSERWATORA ORIENTACJI SATELITY ... 78
31. COMPARISON OF DECAY FUNCTION AND MAPPED INFINITE BOUNDARY
ELEMENTS USAGE IN OPTICAL MAMMOGRAPHY .......................................... 80
32. ALGORYTMY
METAHEURYSTYCZNE
I
OPTYMALIZACYJNE
W
REKONSTRUKCJI KONDUKTANCJI SIATEK REZYSTORÓW .......................... 82
33. WPŁYW KLASY CZYSTOŚCI CIECZY NA ZJAWISKO EROZYJI KRAWĘDZI
STERUJĄCYCH SUWAKA SERWOZAWORU....................................................... 85
34. CAŁKOWANIE SYMBOLICZNE W METODZIE ELEMENTÓW BRZEGOWYCH
FOURIERA .................................................................................................................. 88
35. ELECTRONIC AIDS FOR BLIND PEOPLE – OVERVIEW .................................... 90
36. METODA
KLASYFIKACJI
OBRAZÓW
USG
TARCZYCY
Z WYKORZYSTANIEM INDUKCJI DRZEW DECYZJI ........................................ 93
37. WIZUALIZACJA PARAMETRÓW ANTEN SYMULOWANYCH PROGRAMEM
NEC-2........................................................................................................................... 95
38. ŚRODOWISKO LABVIEW W SYMULACJI WIRTUALNEGO
MOSTKA
WHEATSTONE`A ...................................................................................................... 97
39. STEADY STATE SYMBOLIC COMPUTATION – IMPLEMENTATION IN C++ 99
iv
Warsztaty Doktoranckie 2012
40. ON CEREBROSPINAL FLUID SEGMENTATION FROM CT BRAIN SCANS
USING INTERACTIVE GRAPH CUTS .................................................................. 102
41. ZASTOSOWANIE
JEDNOWIĄZKOWEGO DYNAMICZNEGO MIESZANIA
JONOWEGO DO MODYFIKACJI STYKÓW APARATÓW ELEKTRYCZNYCH
.................................................................................................................................... 104
42. ZASTOSOWANIE
METOD POZIOMICOWYCH DO PRZETWARZANIA
OBRAZÓW MEDYCZNYCH .................................................................................. 106
43. TOMOGRAF POJEMNOŚCIOWY DO ZASTOSOWAŃ PRZEMYSŁOWYCH II
.................................................................................................................................... 108
44. WPŁYW
TEMPERATURY
POŻARU
NA
WARTOŚĆ
NAPIĘCIA
ZASILAJĄCEGO URZĄDZENIA ELEKTRYCZNE ORAZ SKUTECZNOŚĆ
OCHRONY PRZECIWPORAŻENIOWEJ URZĄDZEŃ, KTÓRE MUSZĄ
FUNKCJONOWAĆ W CZASIE POŻARU .............................................................. 110
45. SYMULACJA WYBRANYCH UKŁADÓW BEZPRZEWODOWEGO PRZESYŁU
ENERGII ELEKTRYCZNEJ ..................................................................................... 119
46. TEMPERATURE
MEASURING DEVICE BASED ON THIN FILM
THERMORESISTORS .............................................................................................. 121
47. WEIGHTED LEAST-SQUARES POLYNOMIAL APPROXIMATION EMPLOYED
TO RH SENSORS’ CALIBRATION POINTS ......................................................... 123
48. ANALIZA ROZWIĄZAŃ ZWIĄZANYCH Z JĘZYKAMI MODELOWANIA DLA
URZĄDZEŃ MOBILNYCH POD KĄTEM INTERAKCJI UŻYTKOWNIKA Z
APLIKACJĄ .............................................................................................................. 125
49. WPŁYW NASYCENIA OBWODU MAGNETYCZNEGO NA PARAMETRY
MODELU OBWODOWEGO MASZYNY SYNCHRONICZNEJ Z MAGNESAMI
TRWAŁYMI .............................................................................................................. 127
50. PORÓWNANIE WYBRANYCH METOD OKREŚLENIA OBSZARU PŁOMIENIA
W WIZYJNYM SYSTEMIE DIAGNOSTYCZNYM .............................................. 129
51. 4 KANAŁOWY MODUŁ LED DO SYSTEMU WSPOMAGAJĄCEGO ROZWÓJ
ROŚLIN ..................................................................................................................... 131
WARUNKU BRZEGOWEGO DIRICHLETA NA SZYBKOŚĆ I
STABILNOŚĆ ROZWIĄZAŃ, PODCZAS MODELOWANIA PRĄDÓW
WIROWYCH ELEKTRYCZNYM POTENCJAŁEM SKALARNYM.................... 133
52. WPŁYW
53. VIBRATING BRACELET INTERFACE FOR BLIND PEOPLE ............................ 135
54. WPŁYW IMPLEMENTACJI MODELU PRZEJŚCIA I MODELU POMIAROWEGO
NA DZIAŁANIE FILTRU CZĄSTECZKOWEGO.................................................. 137
v
Warsztaty Doktoranckie 2012
vi
Warsztaty Doktoranckie 2012
autor: student WEiI PL Mariusz Kura
Statystyka
lp
1
2
3
4
5
6
7
8
9
Uczelnia
Politechnika Lubelska
Akademia Górniczo-Hutnicza
Instytut Elektrotechniki - Warszawa
Politechnika Poznańska
Politechnika Łódzka
Politechnika Warszawska
Uniwersytet Zachodniopomorski w Szczecinie
Politechnika Śląska
Wyższa Szkoła Zarządzania i Administracji w Zamościu
Łączna liczba artykułów
*)W tej tabeli prace autorów z różnych instytucji zaliczane są do każdej z nich.
vii
Liczba uczestników
16
16
5
13
3
2
1
1
1
54*)
Warsztaty Doktoranckie 2012
Warsztaty Doktoranckie
WD i IIPhDW
W ramach studiów doktoranckich odbywają się przemiennie krajowe Warsztaty
Doktoranckie (WD) i międzynarodowe Warsztaty Doktoranckie (IIPhDW) od
roku 2008.
Organizatorami warsztatów są: Instytut Elektrotechniki w Warszawie, Politechnika Lubelska oraz
Akademia Górniczo Hutnicza.
Kazimierz Dolny nad Wisłą 2008
Krynicy Górskiej czerwiec 2009
8
Warsztaty Doktoranckie 2012
Lublin – 2010
Zielona Góra - 2011
9
Warsztaty Doktoranckie 2012
10
Warsztaty Doktoranckie 2012
STABILIZACJA WAHADŁA ODWRÓCONEGO Z NAPĘDEM INERCYJNYM
PRZY POMOCY REGULATORA LQR
Adam Owczarkowski1, Jarosław Gośliński2
1,2
Politechnika Poznańska, Wydział Elektyczny
Streszczenie. Praca jest na temat stabilizacji obiektu zwanego wahadłem odwróconym z napędem inercyjnym IWP (ang. Interia Wheel Pendulum). Jest to
nieliniowy układ mechaniczny w postaci wahadła odwróconego składającego się z masztu i koła zamachowego umieszczonego na szczycie napędzanego
silnikiem prądu stałego. Autorzy zaproponowali stabilizację przy pomocy regulacji LQR, która do funkcjonowania wymaga linearyzacji i dyskretyzacji
równań matematycznych obiektu. Wykonano działania symulacyjno-eksperymentalne potwierdzające poprawność działania proponowanej metody.
Słowa kluczowe: wahadło odwrócone, regulacja liniowo-kwadratowa LQR, system nieliniowy, sterowanie optymalne, wahadło z napędem inercyjnym IWP
Stabilization control for the interia wheel pendulum based on LQR controller
Abstract. Work is about stabilizing the inverted pendulum object called IWP (Inertia Wheel Pendulum). It is a non-linear mechanical system in the form of
an inverted pendulum containing a flywheel mounted on top accelerated by DC motor. The authors suggested stabilization by LQR control, which requires
the linearization and discretization of the mathematical equations of the object.Simulation and experiment have confirmed proper operation of the proposed
method.
Keywords: LQR (Linear Quadratic Regulator), IWP (Inertia Wheel Pendulum), optimal control, underactuated system, non-linear system, inverted pendulum
bezwładności koła zamachowego, Ir - moment
bezwładności całego wahadła, lp - długość masztu, i prąd płynący przez silnik, mc - masa całkowita.
Wstęp
Na rysunku 1 przedstawiono uproszczony schemat
budowy wahadła odwróconego z napędem inercyjnym IWP
(ang. Interia Wheel Pendulum). Składa się z masztu
przytwierdzonego do podłoża przy pomocy przegubu
obrotowego i masy wirującej umieszczonej na szczycie, którą
napędza silnik prądu stałego. Posiada dwa stopnie swobody (kąt
α i φ) i jedno wymuszenie co sprawia, że układ ten nazywany
jest underactuated system. Celem układu regulacji jest
utrzymywanie wahadła w pozycji pionowej poprzez
generowanie odpowiedniego momentu rozpędzającego bądź
hamującego koło zamachowe. Problemem jest fakt, iż
stabilizujące wymuszenie występuje w skończonym horyzoncie
czasowym, ponieważ z fizycznego punktu widzenia nie jest
możliwe rozpędzanie koła bez końca.
2.
Linearyzacja
Regulacja LQR wymaga linearyzacji i dyskretyzacji
równań stanu. W procesie linearyzacji skorzystano z macierzy
Jacobiego
–
macierzy
kolejnych
pochodnych
cząstkowych.Równania stanu, które wykorzystano w trakcie
regulacji wyglądają następująco:


0

 gl p mc
x  
 Ik  Ir

0


1
b

Ik  Ir
0







0

 ,

 ks 

i
x  
Ik  Ir 
I  Ir 
 k

b 
 ks 

 I k 
I k 
0
b
1 0 0

 .
y  0 1 0  x
0 0 1
3.
Autorzy zaproponowali sterowanie przy pomocy
regulatora liniowo-kwadratowego LQR.
Na koniec przedstawiono wyniki działania w obiekcie
rzeczywistym stworzonym na potrzeby wykonania badań.
1.
Ik  Ir
 
ksi  b
w
postaci
dyskretnej
wyglądają
xk 1  Ad xk  Bd u k ,
(5)
y  Cd xk  Dd u k
(6)
gdzie: k - oznacza numer próbki, Al, Bl, Cl i Dl to macierze
dyskretnego równania stanu.
Taka postać równań upraszcza implementację ich w systemie
mikroprocesorowym.
Zastosowano
metodę
przybliżoną
wyznaczania macierzy równania stanu [4].
Chcąc wyznaczyć sterowanie proponowaną metodą
należało najpierw wyprowadzić dokładny model matematyczny.
Ponieważ układ ma dwa stopnie swobody, to do pełnego opisu
matematycznego wymagane są poniższe dwa równania:
ksi  b  b  gl p mc sin 
stanu
k
Model matematyczny
 
(4)
Dyskretyzacja równań
Równania
następująco:
Rys. 1. Rysunek poglądowy przedstawiający wahadło odwrócone.
(3)
4.
Regulator LQR
Na rysunku 2 przedstawiono schemat blokowy układu
regulacji z regulatorem LQR [1][7][8].
(1)
(2)
Ik
gdzie: ks – stała silnika, bα – współczynnik tarcia przegubu, bφ współczynnik tarcia koła zamachowego, g –
przyciąganie ziemskie, α - kąt odchylenia masztu od
pionu, φ - kąt obrotu koła zamachowego, Ik - moment
Rys. 2.
11
Schemat blokowy układu regulacji z regulatorem LQR.
Warsztaty Doktoranckie 2012
Jak widać tego typu regulator jako sprzężenie zwrotne
wykorzystuje cały wektor stanu x. Celem regulatora jest
ustabilizowanie masztu w położeniu pionowym i zatrzymania
koła zamachowego. Regulator ten za pomocą równania
Riccatiego wyznacza sterowanie optymalne w postaci wektora
wzmocnień K.
5.
układu wokół punktu linearyzacji, zwanej często ILQR (ang.
Iterative Linear Quadratic Regulator) [2][3].
Wejście w stan nasycenia nie powoduje komplikacji w
procesie sterowania. Nie są wymagane dodatkowe kompensacje
uruchamiane w tego typu momentach.
Regulacja LQR pozwala zapanować nad całym stanem
układu, co ułatwia proces projektowania regulatora.
Wyniki symulacji
Literatura
Badania symulacyjne dokonano w środowisku Matlab.
One pozwoliły wyznaczyć wektor wzmocnień K, który jest
równy:
K  43.04 6.20 0.13 .
[1]
[2]
(7)
Te wartości można wyznaczyć znając parametry obiektu i
wielkości Q i R.
6.
[3]
Wyniki eksperymentalne
[4]
Na potrzeby badań został sporządzony realny obiekt IWP,
który przedstawiono na rysunku 3.
[5]
[6]
[7]
[8]
[9]
Horla D., Sterowanie adaptacyjne – ćwiczenia laboratoryjne, Wyd. III,
Wydawnictwo Politechniki Poznańskiej, Poznań 2010
In-Won P., Bum-Joo L., Ye-Hoon K., Ji-Hyeong H. and Jong-Hwan K.,
Multi-objective Quantum-inspired Evolutionary Algorithm-based Optimal
Control of Two-link Inverted Pendulum, WCCI 2010 IEEE World Congress
on Computational Intelligence, July, 18-23, 2010 –CCIB, Barcelona, Spain
Li W. and Todorov E., Iterative linear quadratic regulator design for
nonlinear biological movement systems, in Proc. of Int. Conf. on
Informatics in Control, Automation and Robotics, Setubal, Portugal, Aug.
2004, pp. 1–8.
Sauer P., Sterowanie procesami ciągłymi i dyskretnymi – liniowe dyskretne
równania stanu, wykłady, Politechnika Poznańska.
Wang H., Dong H., He L., Shi Y., Zhang Y., Design and Simulation of
LQR Controller with the Linear Inverted Pendulum, International
Conference on Electrical and Control Engineering, China, 2010
Yishao Z., Convergence of the Discrete-Time Riccati Equation to Its
Maximal Solution, Department of Mathematics Stockholm University,
Sweden, December 1996
Zhang W., Hu J., On the Value Functions of the Optimal Quadratic
Regulation Problem for Discrete-Time Switched Linear Systems, 47th IEEE
Conference on Decision and Control, Cancun, Mexico, Dec. 9-11, 2008
Zhang W., Hu J., Abate A., On the Value Functions of the Discrete-Time
Switched LQR Problem, IEEE Transactions on Automatic Control, vol. 54,
no. 11, November 2009
Zhang B.,Wang J. G., The Analysis and Simulation of First-Order Inverted
Pendulum Control System Based on LQR, Third International Symposium
on Information Processing, China, 2010
__________________________________________________________________
mgr inż. Adam Owczarkowski
e-mail:
[email protected]
Rys. 3.
W 2011 roku ukończył studia o kierunku Automatyka
i Robotyka na Wydziale Elektrycznym Politechniki
Poznańskiej. Od tego czasu, jest studentem studiów
doktoranckich na tej samej uczelni. Jego praca
głównie skupia się na sensoryce opartej o technologię
MEMS, algorytmach sterowania robotów i
implementacji ich w systemach wbudowanych z
układami FPGA.
Widok obiektu zrealizowanego fizycznego.
Jednostką wykonawczą był niskoobrotowy silnik prądu stałego.
Koło zamachowe wykonano ze zwykłej stali, a większość
pozostałych elementów z aluminium. Do pomiaru położenia
kontowego koła użyto enkoder inkrementalny posiadający 1800
impulsów na obrót. Zastosowano jednostkę IMU (ang. Inertial
Measurement Unit) ADIS16355 firmy Analog Devices do
pomiaru odchylenia wahadła od pionu. Zawiera ona trzyosiowy
akcelerometr i trzyosiowy żyroskop. Na koniec estymowano
stan z pomocą rozszerzonego filtru Kalmana. Do zbierania
danych z czujników wykorzystano mikroprocesor ARM.
Następnie dane te kierowano do komputera klasy PC, w którym
dokonywano wszystkich obliczeń.
Cały zrealizowany system automatycznej regulacji był w
stanie stabilizować wahadło w nieskończonym horyzoncie
czasowym. Było możliwe zakłócanie układu, a tym samym
wychylanie go do ±15 stopni.
7.
mgr inż. Jarosław Gośliński
e-mail:
[email protected]
Ukończył studia z tytułem magister inżynier na
Politechnice Poznańskiej (2011). Od tego czasu, jest
studentem studiów doktoranckich na tej samej uczelni.
Zajmuje się głównie sterowaniem robotów latających
(UAV), identyfikacją parametrów modelu oraz
obserwatorami stanu. Jego zainteresowania skupiają
się również w obszarze algorytmu roju, formowania
grup jednostek latających oraz układów cybernetyczno
– fizycznych.
Wnioski
Poprawność
rozważania
teoretyczno-symulacyjnych
została udowodniona pozytywnym wynikiem eksperymentu.
Analitycznie wyznaczony wektor wzmocnień K, okazał się być
docelowym.
Regulator LQR dobrze nadaje się do stabilizacji obiektów
z natury nieliniowych. Jest możliwe poprawne funkcjonowanie
12
Warsztaty Doktoranckie 2012
OCHRONA KATODOWA ZBIORNIKÓW PODZIEMNYCH PRZED
KOROZJĄ
Agnieszka Wantuch
AGH, Akademia Górniczo-Hutnicza w Krakowie, Wydział EAIiE
Streszczenie. Niniejszy artykuł opisuje metodę obliczania gęstości prądu i potencjału w obrębie konstrukcji metalowych znajdujących się w ziemi. Ochrona
antykorozyjna stalowych zbiorników jest osiągana dzięki wykorzystaniu elektrod ochronnych. Symulację wykonano w przestrzeni 3D.
Słowa kluczowe: korozja, ochrona katodowa
Sacrificial Cathodic Protection of Underground Objects
Abstract. The present article describes the method of computation of the current density and potential distribution around metallic structures buried in soil.
Protection against corrosion of the steel tank is attained by placing protecting electrode. The simulation was performed in 3D.
Keywords: corrosion, cathodic protection
może być stosowana do ochrony przed korozją wszelkich
obiektów metalowych oraz ze stopów, nawet częściowo
zniszczonych procesami korozyjnymi, znajdujących się w
wodnym elektrolicie. Umożliwia ona zahamowanie
dalszych procesów korozyjnych i utrzymanie stabilnego
stanu w przyszłości.
Na rysunku 1 przedstawiono schemat ochrony
katodowej, którą można realizować na dwa sposoby:
wykorzystując anodę protektorową lub zewnętrzne źródło
prądu (napięcia). W pierwszym przypadku chroniony
przedmiot jest katodą ogniwa galwanicznego, którego
anodę stanowi metal mniej szlachetny. W drugim
przypadku pomocnicza anoda jest wykonana najczęściej
z materiału nieulegającemu roztwarzaniu (Pt, Pb, C, Ni).
a)
b)
Wstęp
Stal, dzięki swoim właściwościom oraz stosunkowo
niskiej cenie, jest jednym z materiałów, które są
najczęściej wykorzystywane w technice. Jednak poza
wieloma zaletami, posiada także dwie zasadnicze wady:
większość swoich cech mechanicznych traci w wyższych
temperaturach oraz nie jest odporna na korozję. Dlatego
koniecznym jest stosowanie ochrony przed korozją,
mającej na celu przede wszystkim zapewnienie
bezpiecznych warunków eksploatacji i niezawodności
struktur metalowych. Zapobiega uszkodzeniom, które
mogą zagrażać ludziom i środowisku.
Badania nad korozją wykazały, że najczęściej
przebiega ona według mechanizmu elektrochemicznego i
chemicznego. Szybkość korozji ogólnej w ziemi i w
wodach naturalnych szacowana jest na poziomie 0,01 –
0,02 mm/rok [2].
Proces korozji można zapisać reakcją chemiczną [1]:

2
Fe  2H  Fe  H 2
2Fe + O2 + 2H 2O = 2Fe(OH) 2
Rys. 1.
Schemat ochrony katodowej metalowych konstrukcji
podziemnych: a) z użyciem elektrody protektorowej i b) z
wykorzystaniem zewnętrznego źródła prądu stałego.
W środowisku obojętnym, powstające aniony OH–
łączą się z kationami Fe2+ i powstaje Fe(OH)2, który
wytrąca się w postaci osadu. Dalsze utlenienie Fe(OH)2
prowadzi do powstania hydratów Fe2O3·nH2O,
tworzących osad o charakterystycznym rdzawym
zabarwieniu.
Jedną z podstawowych prac z zakresu modelowania
korozji przemiennoprądowej jest artykuł Nielsena i
Cohna [6], w którym przedstawiono zastępczy schemat
korodującego ogniwa.
2. Podstawowe równania
Rozkład potencjału w elektrolicie opisuje równanie:
div   grad    0
(1)
Równanie to rozpatrujemy uwzględniając warunki
brzegowe Neumana i Dirichleta:
1. Ochrona przed korozją
W procesie korozji wyróżniamy dwa rodzaje reakcji
elektrochemicznych: anodową i katodową. Najważniejsze
reakcje katodowe związane są z pojawianiem się H2 w
roztworach elektrolitów.
2H + +2e-  H 2
ph  7

1
  in
n

(2)
 r  dane
(3)
gdzie  jest powierzchnią elektrody.
Równanie (1) razem z warunkami brzegowymi (2) i
(3) rozwiązano metodą elementów skończonych [4].
Zjawisko przeniesienia ładunku na granicy metal
dielektryk opisane jest za pomocą równania ButleraVolmera [3].
2H 2 O+2e-  H 2 +2OH - ph  7
Zależnie od rodzaju korozji oraz charakteru
chemicznego czynników korozyjnych istnieje wiele
sposobów
jej
zapobiegania
lub
przynajmniej
zmniejszania skutków. Za jedną z najbardziej
skutecznych metod ochrony przeciwkorozyjnej stali w
środowiskach naturalnych uznawana jest ochrona
elektrochemiczna, wykorzystująca sposoby galwaniczne i
elektrolityczne.
Najczęściej
stosowaną
metodą
przeciwdziałania korozji jest ochrona katodowa, która

 
  
i( )  ia  ik  io  exp    exp    



 k  
 a

13
(4)
Warsztaty Doktoranckie 2012
i0 – gęstość prądu wymiany [A/m2],
i – gęstość prądu na granicy metal-elektrolit,
 V  E0 – nadpotencjał danej elektrody [V],
V – potencjał przeniesienia na elektrodzie korodującej.
3. Obliczenia
Trudnością w projektowaniu ochrony katodowej przy
obecności złożonych struktur metalowych podziemnych
jest konieczność skoordynowania jej z ochroną
odgromową oraz przeciwporażeniową. Zatem w układzie
takim stosuje sie rozwiązania wywodzące się z koncepcji
lokalnej ochrony katodowej [5], zakładającej, że
rurociągi połączone są z siecią uziemiającą oraz ze
zbrojeniami żelbetu. W takiej sytuacji stosuje się ochronę
prądem z zewnętrznego źródła.
W rozważaniach uwzględniono występowania w
bezpośrednim otoczeniu chronionego katodowo obiektu
innych metalowych przedmiotów i ich wpływu na
skuteczność jego ochrony, a przecież stosowanie tej
metody wiąże się z występowaniem tak zwanych prądów
błądzących (rys. 2). Prądy te, płynąc przez metalowe
konstrukcje,
zakłócają
rozkład
natężenia
pola
elektrycznego.
0.44250
2
0.44200
0.44175
0.44150
0.44125
0.44100
1
0.44075
1
0.44050
0.44025
0.44000
0
2
4
6
8
10
Obwód metalowego obiektu [m]
12
Rys. 4. Rozkład potencjału na
obwodzie chronionego zbiornika
0.0
x10
-0.5
-1.0
1
1
-1.5
-2.0
-2.5
-3.0
2
-3.5
2
-4.0
0
2
4
6
8
10
12
Obwód chronionego zbiornika [m]
Rys. 5. Rozkład gęstości prądu
na
obwodzie
chronionego
zbiornika.
Prąd wypływający z powierzchni metalowego
obiektu powoduje, że w tych miejsca nasili się korozja.
Dlatego w podobnych przypadkach, chroniąc jedną
konstrukcję, można powodować wzrost zjawiska korozji
na pobliskich metalowych obiektach. W przypadku, gdy
są to fragmenty pewnej większej instalacji, ochrona
katodowa może stanowić dla niej poważny problem.
Podobnie
jak
w
przypadku
ochrony
z
wykorzystaniem anody galwanicznej, również przy
ochronie z zewnętrznym źródłem prądu widać znaczący
wpływ obiektu metalowego znajdującego się w pobliżu
chronionego obiektu na jakość ochrony. Także
dodatkowy obiekt metalowy może być narażony na
korozję.
Rys. 2.
Występowanie prądów błądzących przy stosowaniu ochrony
katodowej.
Jako przykład do obliczeń przyjęto zbiornik
znajdujący się pod ziemią, chroniony przed korozją
metodą ochrony katodowej za pomocą dwóch anod [7].
Przyjęto następujące uproszczenia:
model izotermiczny i pod stałym ciśnieniem,
przewodność materiału, z którego wykonane są
elektrody jest nieskończenie duża,
charakterystyka polaryzacji dana równaniem ButleraVolmera.
Literatura
[1] Praca zbiorowa: Ochrona elektrochemiczna przed korozją. Teoria i
praktyka, WNT, Warszawa 1991
[2] Dąbrowski J., Mrówka M., Suwart C.: Specjalna stacja ochrony
[3]
[4]

[5]
[6]
[7]
Rys. 3.
-4
2
0.44225
Gęstość prądu na powierzchni zbiornika [A/m2]
gdzie:
Konduktywność rury przyjęto na poziomie 107 S/m,
natomiast przewodność ziemi – 0,02 S/m. Zbiornik
(5) wykonano z żelaza, E0k  – 0,44 V, , a = k  0,2 V.
Symulacje przeprowadzono dla dwóch przypadków:
1 – brak metalowego obiektu w obrębie chronionego
zbiornika, 2 – metalowy obiekt jest położony poniżej
zbiornika o 1 m.
Rysunki 4 i 5 przedstawiają wykresy rozkładu gęstości
prądu oraz potencjału na obwodzie chronionej
konstrukcji. Wynika z nich, że pojawienie się
metalowego obiektu w obszarze, gdzie zastosowana jest
ochrona katodowa, powoduje wzrost wartości gęstości
prądu chroniącego zbiornik, a także wzrost napięcia na
powierzchni ochronionego obiektu.
Napięcie na powierzchni zbiornika [V]
RT
 nF
RT
k 
(1   )nF
a 
Geometryczne wymiary przykładowego problemu.
14
katodowej kompensująca oddziaływania prądów błądzących, IX
Krajowa konferencja Polskiego Komitetu elektrochemicznej ochrony
przed korozją, 7-9.06.2006
Jones, D.J.: Principles and prevention of corrosion, Mcmillan
Publishing Company, N.Y., 1992
Kurgan E., Sołek M.: Distribution of the Corrosion Current Density
in Inhomogeneous Soil, Proc. Internat. Conf. of Electromagnetic
Devices and Processes in Environment Protection, Nałęczów, 306315, 2003
Markiewicz M., Zaborowska K.: Pomiary ochrony katodowej
rurociągów na tłoczni gazu, Pomiary korozyjne w ochronie
elektrochemicznej, IX Krajowa Konferencja PKEOK, Zakopane, 79. 06. 2006
Nielsen L.V., Cohn P.: AC – Corrosion and Electrical Equivalent
Diagrams, CeoCor 2000, www.ceocor.lu, 1.03.2008
Wantuch A.: Porównanie obliczeń trój- i dwuwymiarowych w
analizie ochrony katodowej, IV Sympozjum PPEEm, Wisła 2011
Warsztaty Doktoranckie 2012
METODA ZBIORÓW POZIOMICOWYCH W TOMOGRAFII
IMPEDANCYJNEJ
Bartosz Waleska1, Jan Sikora1,2
Instytut Elektrotechniki, ul. Pożaryskiego 28, 04-703 Warszawa
Instytutat Elektroniki i Technik Informacyjnych, Wydział Elektrotechniki i Informatyki, Politechnika Lubelska, ul. Nadbystrzycka 38 A, 20 – 618 Lublin
1
2
Streszczenie. W artykule zaprezentowano połączenie metody elementów brzegowych i metody zbiorów poziomicowych w poszukiwaniu
nieznanego kształtu w elektrycznej tomografii impedancyjnej. Pokazane zostało jak wyznaczyć prędkość na symulowanym brzegu, jak ją
rozszerzyć i wykorzystać do przesunięcia brzegu jak również w jaki sposób reinicjować funkcję poziomicową, ostatecznie przedstawiono
przykład identyfikujący trzy obszary niejednorodne przy wykorzystaniu zbioru poziomicowego zawierającego wiele poziomic zerowych.
Słowa kluczowe: metoda elementów brzegowych, MEB, metoda zbiorów poziomicowych, elektryczna tomografia impedancyjna, analiza pola
Set level method in electrical impedance tomography
Abstract. In this paper was presented coupling BEM and Set Level methods for identification of unknown shape of interface in electrical
impedance tomography (EIT). It’s shown how determinate velocity, how extend it, how use it to move interface and finally how to reset level
function, finally is presented example showing identification three areas of heterogeneous using multi zero levels function.
Keywords: Boundary Element Method, BEM, Set Level Methods, electrical impedance tomography, field analysis
Wstęp
Badanie pola podzielić można zasadniczo na dwa
zagadnienia. Pierwsze obejmuje analizę i występuje
wtedy, gdy poszukiwana jest informacja o rozkładzie
pola w danym obszarze. Drugie związane jest z
zagadnieniem zadania odwrotnego (ang. inverse
problem). Polega ono na wyznaczeniu np. kształtu
obiektu przy znanym współczynniku materiałowym. Na
brzegu (powierzchni) badanego obiektu zostają
umieszczone elektrody. Poprzez polaryzację pary z nich,
wymusza się przepływ prądu przez obiekt, na
pozostałych elektrodach rejestruje się wartości rozkładu
potencjału. Na podstawie uzyskanych wyników
pomiarów za pomocą algorytmów dokonuje się
rekonstrukcji obrazu struktury wewnętrznej.
Rys. 1 Przykład struktury niejednorodnej złożonej, wewnątrz obszaru
 ograniczonej brzegiem 1 znajdują się dwa obiekty
1
wewnętrzne:
brzegiem
2 ograniczony brzegiem 2 oraz 3 ograniczony
3
G (1) (1)
 (1)
 d 
G (1)
d


n
(1) (1) (1) n
(1) (1) (1)
1 2 3
1 2 3
G (2) (2)
(2)
c (2)  
 d   G (2)
d
n
n
(2)
(2)


c
4. Metoda Zbiorów Poziomicowych,
niejednorodności strefowe
c
Metoda zbiorów poziomicowych (ang. LSM – Level
Set Method) jest numeryczną metodą przeznaczoną do
śledzenia przesuwającego się brzegu w kartezjańskim
układzie współrzędnych bez konieczności jego
parametryzowania. Zastosowanie metody pozwala na
łatwe śledzenie topologii brzegu, który dynamicznie się
zmienia [3].
(1)
(3)



(3)
(2)
G (3) (3)
(3)
 d    G (3)
d
n
n
(3)

Przy czym wartość współczynnika c :
 1, jeżeli punkt leży wewnątrz obszaru

c   0.5, jeżeli punkt leży na brzegu obszaru
0, jeżeli punkt leży na zewnątrz obszaru

(3)
Całki krzywoliniowe oznaczono nowymi zmiennymi:
G
(4)
Aij   d 
n

(5)
B  Gd 
Realizację rekonstrukcji pola badanego obiektu
wykonano w oparciu o numeryczną Metodę Elementów
Brzegowych (MEB, ang. Bounduary Element Method –
BEM). Główną zaletą MEB jest dyskretyzacja jedynie
brzegu obszaru, co oznacza skrócenie czasu obliczeń.
Przykład złożonej niejednorodności strefowej został
pokazany na rys. 1.
ij


Stosując nowe oznaczenie:
 Aij , i  j
(6)
Aij  
A

c
,
i

j
 ij i
Układ równań (2) można zapisać w postaci macierzowej:
Przypadek przedstawiony na rysunku 1 można opisać
układem równań różniczkowych wykorzystując funkcję
Greena:
15
Warsztaty Doktoranckie 2012
 A11

0
0

A21
 B21
2
2
A
 B
0
0
0
A33
2
2
obiektu do wyłączenia ze zbioru poziomicowego
określono na 0,5.
 11 


1
  1 
 2 


1
1
 B3     
 n 1 

 
1

0   n 2    B1 0 0  0 


 B33   13 
 0 




   1 



 
  n 3 
A31
(7)
Równanie stanu wyrażone jest przez równanie Laplace’a:
(8)
2  0
Równanie sprzężone do równania stanu wyrażone jest
przez równanie Poissona w postaci:
    u0
Rys. 2 Zdjęcie rentgenowskie obrazujące trzy obszary niejednorodne
objęte krwotokiem
(9)
Przyjmując warunki brzegowe:
     0,    1  2  3 
(10)
Zapis macierzowy równania sprzężonego jest
następujący:
 A11

0
0

A21
 B21
A22
 B22
0
0
0
A33
A31
 11 

 
T
1

  2     


1
 B3    1   f  


0   n 2    0 


 B33   13   0 

 

   1  


 
  n 3 
Rys. 3 Wygląd zbioru poziomicowego z 9 poziomicami zerowymi
Na rysunkach 4 i 5 przedstawiono poszczególne kroki
działania programu. W 300 kroku iteracji występujące
niejednorodności zostały wykryte.
(11)

wyznaczono jako różnicę
f
potencjałów w poszczególnych elektrodach w układzie
symulowanym i pomiarowym:
Przy czym wartość
  ij  uij , dla elektrod napięciowych

0, dla elektrod prądowych
f

Rys. 4 Krok 1
Literatura
(12)
[1] Berowski P.,Stasiak M. Sikora J.: Optymalne projektowanie kształtu
metodą zbiorów poziomicowych. Prace Instytutu Elektrotechniki, no.
233, pp. 22–30, 2007.
[2] Chen W., Cheng J., Lin J., Wang L.: A level set method to
reconstruct the discontinuity of the conductivity in EIT. Science in
China Series A: Mathematics, vol. 52, no. 1, pp. 29–44, 2009.
[3] Fedkiw R., Osher S., Level Set Methods and Dynamic Implicit
Surfaces, Springer-Verlag, Nowy Jork, 2003
[4] Jabłoński P., Metoda elementów brzegowych w analizie pola
elektromagnetycznego, Wydawnictwo Politechniki Częstochowskiej,
Częstochowa, 2003.
[5] Ito K., Kunisch K., Li Z.: Level-set function approach to an inverse
interface problem. INVERSE PROBLEMS, no. 17, pp. 1225–1242
[6] Sikora J., Numeryczne metody
rozwiązywania zagadnień
brzegowych: Podstawy metody elementów skończonych i metody
elementów brzegowych, Politechnika Lubelska, Lublin, 2011.
[7] Sikora J., Algorytmy numeryczne w tomografii impedancyjnej i
wiroprądowej, Oficyna wydawnicza Politechniki Warszawskiej,
Warszawa, 2000
[8] Waleska B.: Analiza pola w strukturze niejednorodnej metodą
elementów brzegowych. Prace Instytutu Elektrotechniki, no. 238, pp.
121–133, 2008
[9] Waleska B.: Coupling boundary element method and set level
methods for interface problems. Informatyka, Automatyka, Pomiary
w Gospodarce i Ochronie Środowiska, no. 3, pp. 17–23, 2011
Przy czym ij oznacza potencjał wyliczony w trybie
symulacji w j -tej projekcji w i elektrodzie, analogicznie
uij oznacza
potencjał
zmierzony
w
układzie
rzeczywistym w j -tej projekcji w i elektrodzie.
Ostatecznie prędkość w kierunku normalnym w
poszczególnych węzłach na ruchomym brzegu 2 i 3
wyznaczono:
  1
  1

p






 




n 2,i , j  n 2,i , j 


j



Vin 
p
Rys. 54 Krok 300 koniec symulacji
(13)
5. Przykład numeryczny
Na rysunku 2 przedstawiono zdjęcie rentgenowskie
obrazujące
trzy obszary
niejednorodne
objęte
krwotokiem oraz na rysunku 4 odniesienie tych obszarów
jako struktury przeznaczonej do symulacji numerycznych
(zaznaczone niebieską przerywaną linią).
Do identyfikacji zaznaczonych niejednorodności
strefowych
wykorzystano
zbiór
poziomicowy
posiadający
dziewięć
obiektów
ograniczonych
poziomicami zerowymi (rysunek 3). Podczas badania
przyjęto dyskretyzację 16 elementową, powierzchnię
Mgr inż. Bartosz Waleska
e-mail: [email protected]
Absolwent wydziału elektrycznego Politechniki
Warszawskiej kierunku Automatyka i Robotyka. W
chwili obecnej, autor jest pracownikiem działu
Badawczo-Rozwojowego dużej polskiej firmy
związanej z przemysłem petrochemicznym.
Uczestnik Studiów Doktoranckich Instytutu
Elektrotechniki w Międzylesiu.
16
Warsztaty Doktoranckie 2012
ANALIZA PORÓWNAWCZA OPŁACALNOŚCI INWESTYCJI W
ŹRÓDŁA ENERGII ODNAWIALNEJ
Damian Głuchy1
Politechnika Poznańska , Wydział Elektryczny
1
Streszczenie. W pracy przedstawiono trzy różne typy instalacji opartych na źródłach odnawialnych umożliwiających generację energii
elektrycznej. Dokonano porównania parametrów technicznych wybranych rozwiązań. Wyznaczono wartość uzyskanej energii elektrycznej w
czasie przewidywanego użytkowania instalacji generacyjnej. Sformułowano wady i zalety każdego rozwiązania oraz zaproponowano
przestrzeń typu obiektów, dla których można je wprowadzić do użytkowania.
Słowa kluczowe: panel fotowoltaiczny, analiza porównawcza, instalacja PV
The Comparative analysis of the profitability of investments in the renewable energy source
Abstract. The paper presents three different types of installations based on renewable resources enabling generation of electricity. Made
a comparison of the technical parameters of the selected solutions. The value of electricity generated during the anticipated use of the
generation plant. Formulated advantages and disadvantages of each solutions and proposed area for the object types which can be put
into use.
Keywords: photovoltaic panel, comparative analysis, PV installation
Odpowiada to polityce energetycznej, jaką Polska
przyjęła do roku 2030. Zakłada ona, że zwiększenie
uniezależnienia Polski od dostaw energii z zagranicy w
dużym stopniu uzyskana zostanie poprzez rozwój
energetyki odnawialnej. Ponadto wykorzystanie OZE
zwiększy stopień dywersyfikacji źródeł energii oraz
stworzy warunki do rozwoju energetyki rozproszonej
opartej na lokalnie dostępnych surowcach. Stworzenie
wielu niewielkich jednostek wytwórczych, będących w
bliskim otoczeniu odbiorcy, nie tylko podniesie lokalne
bezpieczeństwo energetyczne, ale przede wszystkim
zmniejszy straty przesyłowe. Tym samym „rozwój
energetyki odnawialnej ma istotne znaczenie dla
realizacji podstawowych celów polityki energetycznej”
Polski [2,3].
Wstęp
Na przestrzeni ostatniego dziesięciolecia znaczenie
energii elektrycznej pozyskiwanej z odnawialnych źródeł
znacznie się zwiększyło. Wynika to przede wszystkim ze
wzrastającego deficytu energetycznego na świecie,
związanego z intensywnym rozwojem gospodarki.
Jednocześnie zauważyć można silne naciski politycznospołeczne, aby nowo wyprodukowana energia była
bardziej ekologiczna. Tym samym wzrasta udział
odnawialnych źródeł energii w rynku energetycznym. W
zależności od wyboru metody pozyskiwania energii,
rozważyć należy wszystkie wady i zalety danego
rozwiązania.
W niniejszym artykule skupiono się na określeniu
kluczowych czynników determinujących opłacalność
inwestycji, opartej na różnego rodzaju technologiach
ekologicznego pozyskiwania energii. Przeprowadzono
również analizę ekonomiczną wybranych instalacji OZE
(odnawialnych źródeł energii).
2. Kryteria doboru i konfiguracji instalacji PV
Rozpatrując instalacje wyposażone w odnawialne
źródła energii, należy uwzględnić wiele czynników
determinujących długą i poprawną, a przede wszystkim
wydajną pracę. Dobierając elementy takiego układu,
oprócz
określenia
sposobu
wykonania
ogniw
fotowoltaicznych, należy uwzględnić pozostałe czynniki
takie jak:

powierzchnia do montażu ogniwa,

wielkości produkowanej energii,

zapotrzebowanie energetyczne urządzeń,

sposób wykorzystania energii.
Powyższe kryteria muszą być dobrane z uwzględnieniem
najważniejszego czynnika, czyli sposobu współpracy
instalacji z siecią elektroenergetyczną. To od niego
zależy opłacalność inwestycji.
Wyróżnia się systemy pracujące w trybie on-grid, offgrid oraz autonomiczne z podłączeniem do sieci
publicznej
1. Energetyka odnawialna w Polsce
Naciski na wytwarzanie energii ze źródeł
odnawialnych są równie ważne z punktu widzenia
ekologii jak ekonomii. Kurczące się zasoby paliw
kopalnianych zmuszają poszczególne państwa do
rozwoju OZE. Tego typu prace już teraz przynoszą
znakomite efekty w postaci zwiększenia efektywności
generacji i spadku cen instalacji generacyjnych, co
przekłada się na zwiększenie ich wykorzystania na
świecie. Również w Polsce (tabela 1) odnotowano wzrost
ilości energii oraz udziału OZE w sumarycznym zużyciu
energii elektrycznej.
Tabela 1. Udział energii elektrycznej z OZE w krajowym zużyciu
elektrycznej brutto w latach 2005-2009 [1]
2005
2006
2007
2008
Produkcja
energii
3,761
4,222
5,230
6,447
elektrycznej w
OZE [TWh]
Zużycie energii
elektrycznej w
145,7
150,8
154,0
153,4
Polsce [TWh]
Udział energii
elektrycznej
2,58
2,80
3,40
4,20
wytworzonej w
OZE [%]
energii
2009
3. Porównanie danych technicznych oraz analiza
opłacalności przykładowych instalacji opartych na
PV
Na rynku można znaleźć wielu producentów i ofert
sprzedaży kompletnych instalacji opartych na panelach
fotowoltaicznych. Różnią się one nie tylko mocami i
technologiami produkcji ogniw, lecz także sposobami
współpracy z siecią elektroenergetyczną czy też
możliwością magazynowania energii. Mnogość ofert
8,594
149,5
5,75
15
Warsztaty Doktoranckie 2012
wraz z poprawnym uwzględnieniem warunków pracy
pozwala wybrać takie rozwiązanie, które będzie
najbardziej korzystne nie tylko z punktu widzenia
energetycznego, lecz przede wszystkim finansowego. Do
analizy porównawczej wybrano trzy kompletne instalacje
różnych producentów. W tabeli 2 zostały zebrane ich
podstawowe parametry. W dalszej części pracy
poszczególne instalacje będą określane mianem
WARIANT I, WARIANT II, WARIANT III; adekwatnie
do nazw przyjętych w tabeli. W rozważaniach, w celu
uproszczenia, pominięto zarówno wszelkie formy
dodatkowego finansowania tego rodzaju inwestycji jak i
koszty związane z jej eksploatacją na przestrzeni 25 lat.
WARIANT I, oparty na amorficznych panelach
fotowoltaicznych, przeznaczony jest do pracy w trybie
oddawania całości energii do sieci. Cały zestaw
gwarantuje generację mocy na poziomie co najmniej
90 % po 12 latach i 80 % po 25 latach eksploatacji.
Szacowana przez producenta roczna produkcja energii
określana jest na około 4,1 MWh. Zakładając, że
rozpatrywana instalacja będzie pracowała nieprzerwanie
przez 25 lat, z uwzględnieniem zmniejszania
generowanej mocy co roku
o 1 % do wcześniej
przedstawionych progów gwarantowanych, wygeneruje
ona w przybliżeniu ponad 91 MWh. Przy cenie energii (z
odnawialnych źródeł i zielonych certyfikatów z 2011
roku) na poziomie 470,24 zł/MWh, inwestycja
wygeneruje blisko 43 tys zł. zysku. Koszt analizowanego
zestawu to wydatek nieprzekraczający 30 tys. zł.
WARIANT II oparty na panelach wykonanych z
ogniw polikrystalicznych, przeznaczony jest do generacji
energii przede wszystkim na potrzeby własne. Nadwyżki
zostają przesłane do sieci, natomiast wszelkie niedobory
muszą być uzupełniane poprzez zakup energii od
dystrybutora.
Cały zestaw gwarantuje generację mocy na poziomie co
najmniej 90 % po 10 latach i 80 % po 25 latach
eksploatacji. Szacowana przez producenta roczna
produkcja energii określana jest na około 2,2325 MWh.
Przyjmując założenia jak poprzednio instalacja ta
wygeneruje w przybliżeniu prawie 50 MWh. Wartości tej
energii nie można jednoznacznie określić, co wynika
przede wszystkim z charakteru instalacji. W najmniej
opłacalnym scenariuszu całość wygenerowanej energii
będzie odsprzedawana do sieci co wygeneruje zysk na
poziomie ponad 23 tys. zł. Jeśli natomiast nasza instalacja
będzie tak dobrana do obiektu, że całość wygenerowanej
energii będzie wykorzystywana, to na jej wartość będzie
składała się w przybliżeniu cena energii elektrycznej oraz
opłata za usługę dystrybucji. Przyjmując, łączną
oszczędność na każdej kWh na poziomie 0.55zł/kWh [4]
oraz uwzględniając coroczny wzrost ceny energii
elektrycznej o 6%, wyprodukowana energia będzie warta
prawie 45 tys. zł. Jak wynika z powyższych obliczeń
opłacalność inwestycji w dużej mierze zależy od
poprawnego doboru instalacji do zasilanego obiektu.
Koszt analizowanego zestawu to wydatek 28 tys. zł.
WARIANT III oparty na strategii autonomicznego
zasilania obiektu ma najgorszą relację ceny do ilości
wytworzonej energii. Jego główną zaletą jest natomiast
możliwość gromadzenia energii oraz jej wykorzystania w
innym dowolnym momencie. Postępując w obliczeniach
analogicznie jak w poprzedniej instalacji, tzn.
uwzględniając zmniejszenie sprawności oraz oszczędność
na kosztach wytworzenia i dystrybucji energii; okazuje
się, że inwestycja pozwoli wygenerować energię wartą
blisko 19 tys. zł. Wartość ta jest identyczna z kosztami
przedsięwzięcia co, uwzględniając spadek wartości
pieniądza, sprawia, że inwestycja wydaje się być
nieopłacalna. Oczywiście, w przypadku autonomicznego
systemu zasilania, należy pamiętać o oszczędnościach
związanych z kosztami przyłącza, które często
zniechęcają. Należy również uwzględnić przypadek, w
którym brak jest jakiejkolwiek możliwości dostępu do
sieci elektroenergetycznej. W takich okolicznościach
jedynym sposobem dostarczenia energii jest układ typu
off-grid.
Tabela 2. Dane techniczne poszczególnych instalacji fotowoltaicznych
[5,6]
WARIANT I
WARIANT II
WARIANT III
Elektrownia
Zestaw
Zestaw zasilania
słoneczna onautonomicznego
sieciowego
grid 4 kW
zasilania
on-grid 2.35kW
KANEKA
0,94kW
Specyfikacja
zestawu
Technologia
wykonania
Wymiary
moduły
fotowoltaiczn
ego [mm]
Gwarantowa
na nominalna
moc baterii
słonecznych
[kW]
Szacowana
roczna
produkcja
energii
[kWh]
Napięcie
sieci [V]
Częstotliwoś
ć sieci [Hz]
42 x moduły
KANEKA HB95
10 x moduły Vet
P 235Wp
4 x moduły Vet P
235Wp
Falownik KACO
Powador 4202
inwerter
SMA SB
2100TL
inwerter Victron
Energy C24/1600
2 x akumulatory
220Ah
regulator
ładowania CXN
40
krzem
amorficzny
krzem polikrystaliczny
1210x1008x40
1685x993x50
3,99
2,35
0,94
4100
2232,5
893
4. Wnioski
Kryzys energetyczny, jaki ma miejsce w ostatnich
latach, skłania do inwestowania w odnawialne źródła
energii.
Spory
potencjał
tkwi
w
ogniwach
fotowoltaicznych i ich odpowiednim wykorzystaniu.
Zarówno producenci jak i użytkownicy zaczynają
dostrzegać korzyści z generacji przyjaznej środowisku.
Dodając do tego dynamiczny rozwój technologii
związanej z odnawialnymi źródłami i zwiększenie
sprawności ich generacji, uzyskuje się kompletne
instalacje, których opłacalność stale rośnie.
Przedstawione rozważania potwierdzają, jak wielkie
znaczenie ma dobór odpowiedniego sposobu zasilania z
ogniw fotowoltaicznych w stosunku do układu
wykorzystującego energię. Wymienionym instalacjom
można przypisać szereg zalet i wad, których świadomość
przekłada się na większą opłacalność inwestycji.
230
50
Tryb pracy
on-grid;
całość energii do sieci
on-grid;
energia na
potrzeby
własne
on-grid;
energia
tylko na
potrzeby
własne
Cena [zł]
28 597,50
28 000
18 950
16
Warsztaty Doktoranckie 2012
WARIANT I to instalacja stosunkowo prosta w swej
konstrukcji, pozwalająca wygenerować sporą ilość
energii. Takie rozwiązanie jest idealne dla wszystkich
osób, które chcą zainwestować swoje oszczędności i mieć
pewny zwrot kapitału. Po uruchomieniu tego typu
instalacji obowiązki inwestora sprowadzają się
praktycznie tylko do okresowych przeglądów.
WARIANT II pozyskiwania energii już na wstępie
wymaga odpowiedniego doboru układu odbiorczego. Jak
wynika z obliczeń, największą opłacalność uzyskuje się,
gdy całość wytworzonej energii zostaje spożytkowania na
potrzeby własne. Analizując krzywe uzysku energii ze
źródeł fotowoltaicznych w skali roku zauważyć można,
że idealny odbiór będzie cechował się dużym
zapotrzebowaniem na moc w okresie letnim w godzinach
około-południowych. Ponadto instalacja pozwala
bilansować wszelkie niedobory i nadwyżki energii z
siecią elektroenergetyczną.
WARIANT III instalacji już podczas wstępnych
obliczeń znalazł się poniżej progu opłacalności. Nie
zmienia to faktu, że w przypadku braku możliwości
przyłączenia do sieci elektroenergetycznej istnieje
możliwość pozyskiwania energii praktycznie w tej samej
cenie, a w znacznie bardziej ekologiczny sposób.
Przedstawione
informacje
mogą
posłużyć
potencjalnym inwestorom do wykonania oceny
techniczno-ekonomicznej
instalacji
fotowoltaicznej
różnego typu.
W pracy nie poruszono zagadnień związanych z
dodatkowymi
formami
finansowania
instalacji
odnawialnych źródeł energii.
Literatura
[1] Raport określający cele w zakresie udziału energii
elektrycznej wytwarzanej w odnawialnych źródłach
energii
znajdujących
się
na
terytorium
Rzeczypospolitej Polskiej, w krajowym zużyciu
energii elektrycznej na Lata 2010-2019, Ministerstwo
Gospodarki, Warszawa 2011.
[2] Polityka energetyczna Polski do 2030 roku,
Ministerstwo Gospodarki, Warszawa 2011.
[3] Kowalska A., Wilczyński A., Źródła rozproszone w
systemie
elektroenergetycznym.
Wydawnictwo
KAPRINT, Lublin 2007.
[4] http://www.enea.pl dn.15.05.2012r.
[5] http://sklep.rotero.pl dn. 16.05.2011r.
[6] http://sg-systems.pl dn. 22.05.2011r.
Mgr inż. Damian Głuchy
e-mail: [email protected]
Obszarem zainteresowań autora są tematy związane z
zasilaniem
budynków
inteligentnych
oraz
odnawialnymi źródłami energii. Szczególną uwagę
skupia na systemach zasilania hybrydowego
złożonego z turbin wiatrowych oraz systemów PV.
Jako student Studiów Doktoranckich na kierunku
Nowoczesna Inżynieria Elektryczna i Informacyjna
oraz pracownik Instytutu Elektrotechniki i Elektroniki
Przemysłowej Politechniki Poznańskiej zaprezentował
wiele ciekawych publikacji na konferencjach
krajowych i międzynarodowych
17
Warsztaty Doktoranckie 2012
ZASTOSOWANIE MULTIMODALNEJ KLASYFIKACJI W
ROZPOZNAWANIU STANÓW EMOCJONALNYCH NA PODSTAWIE
MOWY SPONTANICZNEJ
Dorota Kamińska
Politechnika Łódzka , Wydział ELEKTROTECHNIKI, ELEKTRONIKI, INFORMATYKI I AUTOMATYKI
Streszczenie. Artykuł prezentuje zagadnienie związane z rozpoznawaniem stanów emocjonalnych na podstawie analizy sygnału mowy. Na
potrzeby badań stworzona została polska baza mowy spontanicznej, zawierająca wypowiedzi kilkudziesięciu osób, w różnym wieku i płci. Na
podstawie analizy sygnału mowy stworzono przestrzeń cech, którą kolejno poddano selekcji. Klasyfikację stanowi multimodalny mechanizm
rozpoznawania, oparty na algorytmie k-NN. Średnia poprawność rozpoznawania wynosi 62%.
Słowa kluczowe: rozpoznawanie emocji, sygnał mowy, algorytm k-NN.
Spontaneous emotion recognition from speech signal using multimodal classification.
Abstract. The article presents the issue of emotion recognition from a speech signal. For this study, a Polish spontaneous database,
containing speech from people in different age and gender, was created. From the speech signal features were determined and subjected to
selection. The process of recognition was based on multimodal classification, related to k-NN algorithm. The average of accuracy
performance is up to 62%.
Keywords: emotion recognition, speech signal, k-NN algorithm.
emocjami tzw. Berlin Database [5]. Są to nagrania
dziesięciu profesjonalnych aktorów (kobiet i mężczyzn),
wypowiadających dziesięć zdań w siedmiu różnych
stanach emocjonalnych (złość, strach, zadowolenie,
smutek, obrzydzenie, znudzenie, mowa neutralna). Inni
nagrywają dźwięki z audycji radiowych, filmów czy
programów telewizyjnych.
Kolejną fazą automatycznego rozpoznawania jest
dobór
odpowiednich
cech.
Zasadniczo
zbiór
deskryptorów powszechnie stosowanych do analizy
mowy spełnia się również przy rozpoznawaniu emocji.
Większość naukowców opiera swoje badania o
częstotliwość podstawową, formanty, energię sygnału i
prozodia. Czasami sięgają jednak do bardziej złożonych
cech, jak współczynniki MFCC, które są standardem w
rozpoznawaniu mowy [2].
Na podstawie zgromadzonych cech tworzone są
wektory cech
używane w następnym kroku –
klasyfikacji. Metody klasyfikacji to narzędzia
standardowe, ale ich dobranie jest również ważnym
elementem. Spośród prostych statystycznych metod
najczęściej używany jest algorytm k-NN, który daje
bardzo dobre wyniki. Z bardziej zaawansowanych metod
największą popularnością cieszą się ukryte modele
Markowa oraz coraz częściej wykorzystywane sztuczne
sieci neuronowe. Najczęściej jednak dokonywane jest
porównanie skuteczności kilku metod.
Wstęp
W komunikacji międzyludzkiej sygnał mowy, poza
przekazem semantycznym, niesie ze sobą informacje
dotyczące stanu emocjonalnego mówcy. W celu
polepszenia komunikacji człowiek-komputer/człowiekrobot (HCI/HRI) powstają systemy rozpoznawania
emocji, dzięki czemu stałaby się ona bardziej naturalna i
wiarygodna. Dotychczasowe badania opierają się głównie
na próbkach mowy odegranej, w której zdefiniowane jest
konkretne zabarwienie emocjonalne głosu. Uzyskiwane
są w ten sposób bardzo dobre wyniki rozpoznawania.
Jednakże spontaniczna mowa może stanowić zbiór
różnych emocji bądź ich mieszaninę [3]. Zdarza się, że
etykietowanie mowy przez ludzkich decydentów stanowi
problem, a emocje są przez nich różnie identyfikowane
[1]. Dlatego tworząc system, który miałby działać w
warunkach naturalnych, należy wziąć pod uwagę
złożoność emocji zawartych w mowie spontanicznej.
Przedmiotem niniejszych badań jest opracowanie
systemu realizującego identyfikację stanu emocjonalnego
mówcy. Podczas eksperymentów dokonano porównania
cech reprezentujących zarówno mowę spontaniczną jak i
odegraną przez profesjonalistów oraz ich wpływ na
identyfikację emocji naturalnych. Biorąc pod uwagę
złożoność emocji w mowie spontanicznej oraz ich
zmienność w trakcie wypowiedzi, zaproponowano
multimodalny proces klasyfikacji.
Pozostała część niniejszej pracy została podzielona
na cztery rozdziały. Pierwszy rozdział prezentuje krótki
przegląd literatury. Bazy mowy wykorzystane w
niniejszych badaniach opisane są w rozdziale 2. Następny
rozdział prezentuje przegląd metod i algorytmów
badawczych wykorzystanych w badaniach. W rozdziale
4. opisane zostało autorskie podejście do klasyfikacji
emocji w mowie naturalnej. Rozdział 5. stanowi krótkie
podsumowanie wykonanych badań oraz przyszłe kierunki
rozwoju.
2. Bazy mowy
Na potrzeby niniejszych badań stworzona została
polska baza mowy spontanicznej nacechowanej
emocjami. Głównym źródłem nagrań są programy
telewizyjne i audycje radiowe. Zebrano ponad 500 nagrań
o czasie trwania kilka-kilkanaście sekund pochodzących
od kilkudziesięciu osób w różnym wieku i różnej płci.
Nagrania zapisano w formacie PCM WAVE 44,1 kHz.
Na podstawie skompletowanych nagrań, ośmiu
decydentów dokonało ich klasyfikacji w sześć
podstawowych grup (klas) emocji: radość (H), smutek
(S), złość (A), strach (F), znudzenie (B) oraz mowa
neutralna (N). W ten sposób dokonano selekcji nagrań
niejednoznacznie określanych. Ostatecznie wybrano 300
nagrań
ocenionych
jednoznacznie.
Zachowano
proporcjonalny rozkład próbek na dane grupy.
1. Przegląd literatury
Prace nad systemem rozpoznającym emocje
rozpoczynają się od zgromadzenia odpowiedniej bazy
plików dźwiękowych. Większość naukowców korzysta z
gotowej, ogólnodostępnej bazy próbek nacechowanych
18
Warsztaty Doktoranckie 2012
Dodatkowo
dokonano
porównania
jakości
klasyfikacji emocji spontanicznych oraz odegranych. W
tym celu zastosowano również polską bazę emocji
udostępnianą przez Zakład Elektroniki Medycznej
Politechniki Łódzkiej. Stanowi ona zbiór 240 nagrań
pięciu różnych zdań wypowiadanych przez ośmiu
aktorów (4 kobiety, 4 mężczyzn). Zbiór podzielono na te
same grupy emocji, co baza opisana powyżej [6].
w danej części wypowiedzi, wybierana jest najliczniejsza.
Kolejny etap to kolejne głosowanie już w obrębie
konkretnych klas na całej długości wypowiedzi. W
wyniku tego głosowania uzyskujemy prognozę.
3. Metody i algorytmy badawcze
Z wyselekcjonowanych próbek mowy wyznaczono
parametry sygnału szeroko stosowane w rozpoznawaniu
mowy ludzkiej. Wśród nich znalazły się między innym:

parametry
statystyczne
wyznaczone
z
częstotliwości podstawowej sygnału F0;

energia sygnału;

położenie i szerokość pasm formantów F1-F4;

parametry
statystyczne
wyznaczone
z
współczynników mel-cepstralnych MFCC;

parametry
statystyczne
wyznaczone
z
współczynników PLP;

parametry
statystyczne
wyznaczone
z
współczynników LPC;

informacja o dźwięczności i tempie mowy oraz
inne parametry jakości głosu.
Na podstawie wymienionych grup parametrów,
stworzone zostały oddzielne wektory cech, które kolejno
poddano sekwencyjnej selekcji postępującej, w celu
zmniejszenia ich liczności.
Do klasyfikacji multimodalnej, szerzej opisanej w
następnym rozdziale, wykorzystano algorytm k
najbliższych sąsiadów. Klasyfikacja obiektu dokonywana
jest poprzez liczenie odległość między reprezentującym
go wektorem cech, a wszystkimi wektorami zbioru
treningowego. Do obliczenia odległości w niniejszej
pracy użyta została metryka Manhattan. Nowy obiekt
zaliczany jest do tej klasy, która jest najczęściej
reprezentowana wśród k najbliższych obiektów zbioru
treningowego. Algorytm ten daje możliwości nieliniowej
separacji klas, mimo prostoty, jest efektywny
obliczeniowo oraz pomocny w rozwiązaniu złożonych
problemów [4].
Rys. 1.
Algorytm klasyfikacji
Badania przeprowadzono w trzech grupach,
podzielonych ze względu na typy zbiorów uczących i
testowych:

baza emocji odegranych stanowi zbiór uczący i
testowy (grupa I);

baza emocji odegranych stanowi zbiór uczący,
zaś baza emocji spontanicznych zbiór testowy
(grupa II);

baza emocji spontanicznych stanowi zbiór
uczący i testowy (grupa II).
W grupach, których zbiór testowy i treningowy
stanowi ta sama baza (grupa I i III) jako metodę testów
zastosowano walidację krzyżową. Jednocześnie (również
w przypadku grupy I i III) zadbano, by w zbiorze
testowym nie pojawiały się nagrania mówców, którzy
byli w zbiorze uczącym, otrzymując w ten sposób
warunek rozpoznawania niezależny od mówcy. W
przypadku grupy II warunek ten jest automatycznie
spełniony. Wartości średnie rozpoznawania dla trzech
wyżej opisanych grup przedstawia tabela 1.
Tabela 1. Wyniki klasyfikacji emocji
Nr grupy
4. Proponowany system rozpoznawania
emocji
I
II
III
Typowy algorytm przetwarzania sygnału na potrzeby
rozpoznawania emocji składa się z trzech podstawowych
elementów. Pierwszym elementem jest wstępna obróbka
sygnału, którą w niniejszej pracy stanowi jedynie
odszumianie nagrań. Następnie tworzona jest przestrzeń
cech, na podstawie której jest przeprowadzane
rozpoznawanie. Ostatni etap stanowi klasyfikacja, czyli
określenie do jakiej klasy należy badany obiekt.
Biorąc pod uwagę możliwość zmiany zabarwienia
emocjonalnego w czasie, algorytm klasyfikacji,
przedstawiony na rysunku nr 1, składa się z czterech
elementów. Pierwszą z nich stanowi podział wypowiedzi
na trzy równe części: początek, środek i koniec.
Następnie każda część jest poddana osobnej klasyfikacji
przy użyciu klasyfikatora k-NN. Należy podkreślić, iż
proces ten również został podzielony na oddzielne
elementy, a ich liczność odpowiada liczności różnych
grup parametrów szerzej opisanych w poprzednim
rozdziale. Wyjście z pierwszego etapu klasyfikacji
stanowi wejście do kolejnego, jakim jest głosowanie. Na
podstawie liczności klas wskazanych przez klasyfikatory
Średni wynik klasyfikacji dla
danej grupy
78%
58%
62%
5. Wnioski
Jak pokazują badania, rozpoznawanie emocji w
głosie jest zadaniem trudnym, a póki co osiągane
rezultaty dalekie są od ideału. Ocena stanu
emocjonalnego na podstawie mowy stanowi problem
nawet dla człowieka. Szczególnie trudnym, choć bardzo
ważnym, zagadnieniem jest rozpoznawanie emocji w
mowie spontanicznej. Zgodnie z oczekiwaniami w
przeprowadzonych badaniach wyniki klasyfikacji grupy
I, zawierającej zarówno w zbiorze testowym jak i
treningowym staranne nagrania aktorskie, okazały się
wyraźnie lepsze niż tej, zawierającej nagrania mowy
spontanicznej. Przyczyna tkwi zarówno w złożoności
mowy naturalnej (zmiana zabarwienia emocjonalnego w
trakcie wypowiedzi oraz możliwość wystąpienia kilku
emocji w tym samym czasie) jak również w
subiektywnym charakterze odbioru emocji. Osiągnięte
wyniki pokazują, że wykorzystany algorytm okazał się
19
Warsztaty Doktoranckie 2012
przydatny do rozpoznania stanów emocjonalnych w
mowie spontanicznej
Naturalnym kierunkiem rozwoju prowadzonych
badań jest przede wszystkim sprawdzenie możliwości
innych algorytmów klasyfikacji jak również analizą
innych parametrów sygnału mowy. Być może dobrym
krokiem
byłoby połączenie systemu analizującego
sygnał mowy z analizą semantyczną wypowiedzi.
[3] Plutchik R.: The nature of emotion, American
Literatura
Dorota Kamińska uzyskała tytuł mgr inż. w 2009
roku na wydziale Elektrotechniki, Elektroniki,
Informatyki i Automatyki Politechniki Łódzkiej.
Obecnie
jest doktorantką
w
Instytucie
Mechatroniki i Systemów Informatycznych
Politechniki Łódzkiej. Główne zainteresowania
badawcze obejmują przetwarzanie sygnałów,
metody klasyfikacji oraz bazy danych.
Scientist, Volume 89, July-August 2001.
[4] Ślot K.: Rozpoznawanie biometryczne Nowe metody
ilościowej reprezentacji obiektów, 2010.
[5] http://pascal.kgw.tu-berlin.de
[6] http://www.eletel.p.lodz.pl/med/
______________________________________________
Mgr inż. Dorota Kamiska
e-mail: [email protected]
[1] Izdebski K.: Emotions in the Human Voice Volume I
Foundations, October 15, 2007
[2] Niewiadomy D., Pelikant A.: Digital Speech Signal
Parameterization by Mel Frequency
Coefficients and Word Boundaries.
Cepstral
20
Warsztaty Doktoranckie 2012
IDENTYFIKACJA SYSTEMÓW NIELINIOWYCH PRZY POMOCY
JĄDROWEGO ALGORYTMU LMS Z OGRANICZENIEM ZASOBÓW
Dominik Rzepka1 , Piotr Otfinowski1
AGH Akademia Górniczo-Hutnicza , Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
1
Streszczenie. W artykule zaprezentowano zastosowanie nowego algorytmu jądrowego LMS do identyfikacji systemów nieliniowych. Aby
ograniczyć ilość wektorów nośnych, będących nieodłącznym elementem algorytmów opartych o metody jądrowe zastosowano kryterium
selekcji. Nowe wektory wejściowe są przyjmowane do słownika, a następnie ze zbioru tych wektorów usuwany jest ten, który ma najmniejszy
wpływ na tworzony model nieliniowy. Przedstawione przykłady identyfikacji systemów nieliniowych potwierdzają skuteczność porównywalną
do algorytmów wykorzystujących większą liczbę wektorów nośnych.
Słowa kluczowe: metody jądrowe, uczenie maszynowe, regresja nieliniowa, algorytm LMS, dobór wektorów nośnych
Identification of Nonlinear Systems Using Fixed Budget Kernel LMS Algorithm
Abstract. In this paper a new version of kernel normalized least mean squares algorithm is applied to identification of nonlinear system. To
maintain a fixed amount of support vectors, requisite for kernel-based algorithm a pruning criterion is used. After admitting a new input
vector to the dictionary, a least important entry is selected and discarder. A few cases of nonlinear system identification are presented,
proving that algorithm performs well and it can maintain a performance comparable to state-of-the-art algorithms, using smaller number of
support vectors, with linear complexity.
Keywords: kernel methods, machine learning, nonlinear regression, least mean squares, pruning
(koniecznego do minimalizacji błędu modelowania)
wymaga dużej ilości obliczeń. Dla niektórych
przekształceń
 : N  F istnieje funkcja zwana
jądrem, umożliwiająca obliczenie tego iloczynu
skalarnego bez przechodzenia do wysokowymiarowej
przestrzeni F.
Wstęp
Modelowanie i identyfikacja systemów, których
odpowiedź jest nieliniową funkcją sygnału wejściowego
jest wykorzystywana w szerokiej gamie aplikacji, od
akustyki, przez automatykę, radiokomunikację, po
inżynierię biomedyczną i wiele innych dziedzin techniki.
Najbardziej uniwersalnym modelem stacjonarnego
systemu nieliniowego jest nieskończony szereg Volterry,
jednak jego złożoność jest wadą, która uniemożliwia jego
praktyczne zastosowanie. Uproszczone odpowiedniki –
modele Wienera i Hammersteina – mają strukturę
stosunkowo wygodną do implementacji, jednak nie są w
stanie przedstawić dowolnego systemu nieliniowego.
Efektywnym rozwiązaniem tego zagadnienia jest
zastosowanie metod jądrowych, które charakteryzują się
elegancka strukturą matematyczną, a możliwościami
modelowania dorównują modelowi Volterry. Jeżeli
modelowanie zostanie ograniczone do pewnego zbioru
wymuszeń, to model systemu nieliniowego może być
opisany przy pomocy skończonej liczby punktów
odniesienia (wektorów nośnych), dzięki czemu złożoność
obliczeniowa zostanie ograniczona do poziomu
umożliwiającego praktyczne zastosowanie. Identyfikacja
systemu przy pomocy tego rodzaju modeli może być
przeprowadzana
z
wykorzystaniem
algorytmów
adaptacyjnych, minimalizujących średniokwadratowy
błąd aproksymacji. Popularnym algorytmem stosowanym
powszechnie do tego celu jest LMS (ang. Least Mean
Squares), który cechuje się niską złożonością
obliczeniową O(N). W niniejszym artykule zostanie
przedstawiona znormalizowana, jądrową wersja LMS,
wzbogacona o prosty algorytm ograniczania ilości
wektorów nośnych.
  x  ,   y     x, y 
(1)
2. Algorytm Kernel LMS
Celem filtracji adaptacyjnej jest modelowanie
nieznanego systemu na bazie obserwacji zależności
pomiędzy jego wejściem x(n) a wyjściem d (n) 
(zazwyczaj w obecności szumu na wyjściu). Wyjście jest
ważoną sumą elementów wektora wejściowego, a celem
modelowania
jest
minimalizacja
błędu
średniokwadratowego między systemem modelowanym a
modelem:
e  n   d  n   wT x  n 
2
2
(2)
Wektor w  N można otrzymać stosując metodę
gradientu prostego, na której opiera się algorytm LMS
(ang. least mean squares). Po dodaniu normalizacji, która
poprawia zbieżność algorytmu, iterację algorytmu opisuje
równanie
w  n  1  w  n  
2 e  n  x  n 
x  n
(3)
2
gdzie μ jest parametrem określającym rozmiar kroku w
algorytmie.
Aby umożliwić modelowanie systemu nieliniowego
1. Metody jądrowe
W najprostszym przypadku liniowym, wyjście filtru
jest liniową kombinacją elementów wektora wejściowego
x(n)  N . Modelowanie systemów nieliniowych
wymaga również uwzględnienia członów zależnych od
wejścia w sposób nieliniowy. Rozszerzenie wektora
wejściowego o te człony można zapisać w postaci
przekształcenia  : N  F , gdzie F jest nazywane
przestrzenią cech. Ponieważ wymiarowość tej przestrzeni
jest wysoka, to wykonanie w niej iloczynu skalarnego
należy zastosować przekształcenie
e  n
21
2
:
 d  n   uT   x  n  
N
2
F.
(3)
Warsztaty Doktoranckie 2012
Wektor u musi więc mieć wymiarowość równą
wymiarowości   x  n   . Taki wektor u  F można
Literatura
[1] M. O. Franz, B. Schölkopf, A unifying view of Wiener and Volterra
przedstawić jako sumę
theory and polynomial kernel regression, Neural Computation,
Volume 18 Issue 12, December 2006, Pages 3097 – 3118
[2] B. de Kruif and T. de Vries. Pruning error minimization in least
squares support vector machines.
Neural Networks, IEEE
Transactions on, 14(3):696 – 702, may 2003.
[3] P. S. Diniz. Adaptive Filtering: Algorithms and Practical
Implementation. Kluwer Academic Publishers, Norwell, MA, USA,
2 edition, 2002.
[4] Y. Engel, S. Mannor, and R. Meir. The kernel recursive least
squares algorithm. IEEE Transactions on Signal Processing,
52:2275–2285, 2003.
[5] L. Hoegaerts, J. Suykens, J. Vandewalle, and B. De Moor. A
comparison of pruning algorithms for sparse least squares
support vector machines. Lecture Notes in Computer Science, page
12471253, 2004.
[6] P. Honeine, C. Richard, and J. C. M. Bermudez. On-line nonlinear
sparse approximation of functions. Information Theory, 2007. ISIT
2007. IEEE International Symposium on, pages 956 –960, june 2007.
[7] M. Lazaro-Gredilla, S. Van Vaerenbergh, and I. Santamaria. A
Bayesian approach to tracking with kernel recursive least-squares.
Machine Learning for Signal Processing (MLSP), 2011 IEEE
International Workshop on, pages 1 –6, sept. 2011.
[8] W. Liu, J. C. Principe, and S. Haykin. Kernel Adaptive Filtering.
John Wiley & Sons, Inc., 2010.
[9] J. Suykens, J. D. Brabanter, L. Lukas, and J. Vandewalle.
Weighted least squares support vector machines: robustness and
sparse approximation. Neurocomputing,48(14):85 – 105, 2002.
[10] S. Van Vaerenbergh, I. Santamaria, W. Liu, and J. Principe. Fixedbudget kernel recursive least-squares. Acoustics Speech and Signal
Processing (ICASSP), 2010 IEEE International Conference on, pages
1882 –1885, march 2010.
[11] S. Van Vaerenbergh, J. Via, and I. Santamaria. A sliding window
kernel RLS algorithm and its application to nonlinear channel
identification, Proceedings of the International Conference on
Accoustics, Speech and Signal Processing 2006, volume 5, page 789
792, may 2006.
(4)
M
u    m  xm 
m 1
przy użyciu pewnego zbioru wektorów xm. Wtedy
M

uT   x  n       m  x m     x  n   
 m1

M
   m  x m , x  n    αT k  n 
(5)
m 1
Dzięki temu możliwe jest zamodelowanie systemu
nieliniowego bez bezpośredniego operowania na
wysokowymiarowej przestrzeni cech. Konieczne jest
wyznaczenie wektora α oraz zbioru wektorów nośnych
xm. Wektor współczynników α można otrzymać przy
pomocy algorytmu LMS:
α  n  1  α  n  
2 e  n  k  n 
k  n
2
(6)
3. Dobór wektorów nośnych
W przypadku pełnej regresji jądrowej, jako zbiór
M
xm  wykorzystywane są wszystkie wektory trenujące
m1
model, jednak nakład obliczeniowy w takim rozwiązaniu
jest bardzo duży. Aby ograniczyć rozmiar tego zbioru
proponujemy użycie prostego kryterium selekcji, które
utrzymuje rozmiar zbioru xm M na stałym poziomie.
m1
Odrzucane są wektory, którym odpowiadają najmniejsze
bezwzględne wartości współczynników α. Algorytm
został zastosowany do identyfikacji kilku systemów
nieliniowych.
Wyniki
symulacyjne
(błąd
średniokwadratowy MSE) dla jednego z nich przedstawia
rys. 1. W wyniku zastosowania selekcji wektorów
rozmiar zbioru xm M wyniósł 50 wektorów nośnych,
Mgr inż. Dominik Rzepka
e-mail: [email protected]
Ukończył studia na AGH na kierunki
Elektronika (2009), a obecnie jest uczestnikiem
studiów doktoranckich w Katedrze Elektroniki
AGH, współpracując z Zespołem Widzenia
Komputerowego i Systemów Wbudowanych.
Jego zainteresowania obejmują radiowe
techniki transmisji danych, przetwarzanie
sygnałów cyfrowych, uczenie maszynowe i
sprzętową implementację algorytmów.
m1
podczas gdy pełny zbiór wektorów trenujących liczył 256
elementów. Ograniczenie to spowodowało jedynie
nieznaczne pogorszenie osiągów algorytmu, przy
znaczącym zmniejszeniu wymagań obliczeniowych.
Mgr inż. Piotr Otfinowski
e-mail: [email protected]
Ukończył Akademię Górniczo-Hutniczą w
2009,
kierunek:
Elektronika
i
Telekomunikacja, specjalność: Sensory i
mikrosystemy. Obecnie jest na trzecim roku
Studiów Doktoranckich na Wydziale EAIiE,
AGH. Pracuje jako asystent w Katedrze
Metrologii, AGH. Jego głównym tematem
badań naukowych są układy scalonych
przetworników analogowo-cyfrowych.
Rys. 1. Porównanie identyfikacji systemu nieliniowego algorytmami
NLMS – nieliniowym (jądrowym) oraz liniowym
22
Warsztaty Doktoranckie 2012
WPŁYW ŚRODOWISKA OBLICZENIOWEGO NA WYDAJNOŚĆ
ALGORYTMU ODWRACANIA MACIERZY
Daniel Sawicki1
1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki.
Streszczenie. Artykuł przedstawia porównanie wydajności wybranych środowisk obliczeniowych dla rozwiązania zagadnienia numerycznego odwracania
macierzy. Do obliczenia macierzy odwrotnej wykorzystano algorytm Gaussa-Jordana. Obliczenia w algorytmie zostały zrównoleglone w każdej iteracji
przez jednoczesne wykonywanie obliczeń dla wierszy parzystych i nieparzystych. Jako środowiska obliczeniowe wybrano nowe technologie: obliczenia w
chmurze oraz obliczenia na procesorach graficznych. Wykonano pomiary czasu obliczeń algorytmu odwracania macierzy i porównano wydajność
poszczególnych środowisk. Najlepszą wydajność osiągnięto dla obliczeń na procesorach graficznych.
Słowa kluczowe: odwracanie macierzy, obliczenia równoległe, obliczenia w chmurze, obliczenia na procesorach graficznych
IMPACT COMPUTING ENVIRONMENT ON PRODUCTIVITY MATRIX INVERSION ALGORITHM
Abstract. This paper presents performance comparison of selected computing environments to solve the numerical problem of matrix inversion. To calculate
the inverse matrix uses Gauss-Jordan algorithm. Calculations algorithm have been parallelized in each iteration by simultaneously perform calculations for
even and odd rows. As computing environments selected: cloud computing and calculations on GPUs. Computation time measurements of the matrix
inversion algorithm and compared the performance of specific environments. The best performance was achieved for GPU computing.
Keywords: matrix inversion, parallel computing, cloud computing, GPU computing
za zadanie przypisać każdy blok do wykonania któremuś z
dostępnych mikroprocesorów strumieniowych. Z tego względu,
aby wykorzystać pełną moc GPU, ilość bloków powinna być
przynajmniej równa ilości multiprocesorów w GPU. Większość
programów wykonywanych przy pomocy frameworku CUDA,
korzysta z niego używając następującej sekwencji działań:
alokowanie wejściowej i wyjściowej pamięci na karcie
graficznej, kopiowanie danych wejściowych do pamięci
graficznej, wykonywanie właściwych operacji (kerneli) na GPU,
kopiowanie danych wyjściowych z pamięci graficznej do RAM,
dealokowanie wejściowej i wyjściowej pamięci na karcie
graficznej.
Do testów użyto karty graficznej nVidia GT525M, która
dysponuje 96 zunifikowanymi jednostkami Shader,
2GB
własnej pamięci. Taktowania rdzenia, pamięci i jednostek
Shader, wynoszą odpowiednio 600/900/1200 MHz.
Wstęp
Wydajność obliczeniowa powstających urządzeń rośnie
Pierwsze karty graficzne do komputerów PC pozwalały tylko na
wyświetlanie jednokolorowego tekstu. Niedługo potem pojawiły
się ich udoskonalone warianty, które udostępniały możliwość
wyświetlania dwuwymiarowego obrazu graficznego, a kolejne
wersje pozwalały na coraz wyższą rozdzielczość i ilość kolorów.
W 1995 roku pojawiły się pierwsze karty graficzne
przetwarzające również tryb 3D. W kolejnych latach, napędzane
wymaganiami rynku, firmy produkujące chipsety graficzne
tworzyły coraz szybsze karty GPU, a wzrost wydajności kart
graficznych był zdecydowanie szybszy niż wzrost wydajności
CPU . Obecnie najszybsze procesory CPU mają wydajność ok.
100 GigaFlops , a najszybsze GPU osiągają ponad 1000
GigaFlops, zawierają dziesiątki rdzeni i zapewniają dużą
możliwość zrównoleglania operacji.
1. Technologia CUDA
CUDA (ang. Compute Unified Device Architecture) jest
technologią typu GPGPU (ang. general-purpose computing on
graphics processing units) pozwalającą na tworzenie z poziomu
języka C programów (obliczeniowych) wykonywanych
bezpośrednio na procesorze karty graficznej (GPU, ang.
graphics processing unit). CUDA wprowadzona została przez
firmę nVidia na początku 2007 roku i jej użycie wymaga
wykorzystania GPU projektowanych przez tą korporację. Aby
wykorzystać CUDA, należy posiadać kartę graficzną zgodną z tą
technologią, potrzebny jest również specjalny sterownik
graficzny oraz pakiet CUDA Runtime. Istnieją też oficjalne
biblioteki na tę platformę – CUBLAS (do wykonywania operacji
macierzowych) i CUFFT (do wykonywania transformacji
Fouriera). Na rysunku 1 jest podany schemat elementów
składowych.
Technologia CUDA ma skalowalny model programowania
równoległego – program można uruchomić na każdej ilości
mikroprocesorów GPU. Jedna funkcja wykonywana na GPU –
kernel – opisuje działania wykonywane w jednym wątku. Przy
wywołaniu kernela wymagane jest podanie ilości tzw. bloków
w gridzie, oraz ilości wątków w bloku. Liczby te określają, ile
wątków zostanie uruchomionych równolegle. Każdy blok
w gridzie oraz każdy wątek w bloku ma indeks określony
maksymalnie trzema wymiarami (na powyższej ilustracji
dwoma). Do każdego uruchomionego kernela można użyć innej
ilości bloków lub wątków. Po rozpoczęciu kernela, GPU ma
Rys. 1. Architektura CUDA
2. System Eucalyptus
System Eucalyptus pozwala na budowę struktur chmur
prywatnych zgodnych ze standardem Amazon EC2. Dzięki
temu, użytkownicy tego systemu korzystają z zasobów chmury
w ten sam sposób jak zasoby chmury publicznej oferowanej
przez Amazon. Pozwala to na prostą integrację tego rozwiązania
w ramach projektów chmur hybrydowych. Struktura systemu
Eucalyptus składa się z czterech elementów:
23
Warsztaty Doktoranckie 2012
•
kontrolera węzła NC (ang. Node Controller) - jest to zasób
fizyczny (najczęściej pojedynczy host),
na którym
uruchamiane są poszczególne instancje maszyn wirtualnych,
• kontrolera klastra CC (ang. Cluster Controller) – urządzenie
to ma spełnia trzy funkcje: przydziela zasoby NC dla zadań,
zarządza instancjami maszyn wirtualnych, a także zbiera
informacje o procesie realizacji zadań i wykorzystaniu
zasobów,
• kontrolera magazynowania Walrus (ang. Storage Controller)
– ten element przechowuje obrazy maszyn wirtualnych i
dane użytkowników,
• kontrolera chmury CLC (ang. Cloud Controller) – ten
element odpowiada za dostęp do zasobów zgłaszanych przez
użytkowników oraz za planowanie przydziału zasobów do
zgłoszonych żądań.
Podstawą do budowy środowiska testowego były system
Eucalyptus
a
jego
poszczególne
elementy zostały
zaimplementowane w oparciu o komputery klasy PC.
Komputery te były wyposażone w dwu-rdzeniowy procesor
firmy Intel ze wsparciem dla sprzętowej wirtualizacji, 2 GB
pamięci RAM, pamięć dyskową o pojemności 250GB oraz 2
interfejsy sieciowe. Podstawą realizacji wirtualizacji był pakiet
KVM. Poszczególne elementy struktury testowego systemu
Eucalyptus zostały przypisane do pokazanego na rys. 3b sprzętu
komputerowego w następujący sposób:
• kontroler klastra, kontroler magazynu, kontroler chmury
oraz Walrus (CC,SC, CLC, WS) – komputer PC1 (2
rdzenie, 4 procesory logiczne, współdzielone), 2 GB RAM,
250 GB HDD SATA, system Fedora 12 (x86_64),
• kontroler węzła (NC) – komputer PC2, PC3 (2 rdzenie, 4
procesory logiczne, współdzielone), 2 GB RAM
(współdzielona z VM), 250 GB HDD SATA, system Fedora
12 (x86_64),
•
klient - komputer PC4 (1 rdzeń, 2 procesory logiczne,
współdzielone), 512 MB RAM, 8 GB HDD SATA, system
Fedora 12 (x86_32).
a)
Rys. 3. Wyniki pomiarów dla poszczególnych rozmiarów macierzy
Literatura
[1] NVIDIA: NVIDIA CUDA. Programming Guide, ver. 4.1, 2011 r.
[2] NVIDIA CUDA: Non-graphic computing with graphics processors. Amazon,
2008 r.
[3] Triolet D.: Nvidia CUDA: Preview. www.behardware.com, 2007
[4] Nurmi D, Wolski R, Grzegorczyk Ch, Obertelli G, Soman S, Youseff L,
Zagorodnov D: The Eucalyptus Open-source Cloud-computing System, 9th
IEEE/ACM International Symposium on Cluster Computing and the Grid
(CCGRID), Vol. 0, 2009, pp. 124-131.
[5] Johnson D, Murari K, Raju M, Suseendran RB, Girikumar Y: Eucalyptus
Beginner’s
Guide
–
UEC
Edition,
CSS
Corp.
2010,
http://www.csscorp.com/eucauecbook, lipiec 2011.
[6] Robinson N., Valeri L., Cave J., Starkey T., Creese S., Hopkins P. : The
Cloud: Understanding the Security, Privacy and Trust Challenges, Raport Unit
F.5, Directorate-General Information Society and Media, European
Commission, 2010.
[7] Lei Z., Zhang B., Zhang W., Li Q., Zhang X., Peng J.:Comparison of Several
Cloud Computing Platforms. Second International Symposium on Information
Science and Engineering, pages 23–27, 2009.
b)
_________________________________________________
M.Sc. Daniel Sawicki
e-mail: [email protected]
Rys.2.
Architektura środowiska testowego a) logiczna, b) fizyczna
ukończył studia o kierunku elektrotechnika na
Wydziale Elektrotechniki i Informatyki Politechniki
Lubelskiej w 2006r. Obecnie jest zatrudniony jako
asystent w Instytucie Elektroniki i Technik
Informacyjnych Politechniki Lubelskiej
3. Wyniki pomiarów
Algorytm odwracania macierzy został przetestowany na:
karcie graficznej GT525 - GPU, środowisku chmurowym - CL,
procesorze 2 rdzeniowym - CPU oraz w programie MATLAB.
Przeprowadzono serię 30 pomiarów czasu dla 30 rozmiarów
macierzy począwszy od rozmiaru 16x16, a skończywszy na
rozmiarze 8192x8192. Wyniki przedstawiono na rysunku 4.
24
Warsztaty Doktoranckie 2012
INTELIGENTNY SYSTEM PRZYWOŁAWCZY
Dorota Typańska, Łukasz Putz
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. Celem artykułu jest przedstawienie stanowiska laboratoryjnego symulującego system przywoławczy instalowany w szpitalach. Wyjaśniono co to
jest inteligentny system przywoławczy, przedstawiono szczegółowy opis wykorzystanych elementów włącznie ze schematem budowy tablicy, rozmieszczeniem
komponentów oraz ich okablowaniem i podłączeniem. Szczegółowo został również opisany proces oprogramowania.
Słowa kluczowe: inteligentny system przywoławczy, programowalne przyciski, centrala sterująca
Inteligent calling system
Abstract. Describing the laboratory post simulating the calling system installed at hospitals is a purpose of the article. They explained what the calling
intelligent system was, a detailed description of used elements was presented inclusive with the outline of construction of the board, with arranging components
and wiring them up and connecting. In detail an also described process of providing software remained.
Keywords: intelligent calling system, programmable buttons, steering switchboard
przyspawanych do nich płaskowników stalowych o
wymiarach 30x5 mm[3].
Rysunek 1 przedstawia całość stanowiska
zamodelowanego w środowisku 3DS Max Studio 2009
wraz z elementami systemu[1].
Wstęp
Systemy przywoławcze znajdują zastosowanie
w większości placówek medycznych na świecie. Mają na
celu zagwarantować szybkie i łatwe informowanie
personelu o miejscu w którym potrzebna jest
natychmiastowa
pomoc.
Nowoczesne
systemy
umożliwiają
archiwizowanie
zdarzeń
oraz
porozumiewanie się z innymi oddziałami poprzez sieć
przenośnych telefonów.
Poniżej zostały opisane poszczególne elementy składowe
systemu, oraz sposób ich połączenia.
1. System przywoławczy – charakterystyka
ogólna
Rys 1. Widok gotowego stanowiska wykonanego w środowisku 3DS Max
System przywoławczy jest to system używany
najczęściej w szpitalach, domach opieki lub hospicjach
służący do przywołania personelu medycznego w czasie
nagłego złego samopoczucia pacjenta.
System przywoławczy, którego komponenty zostały
wykorzystane do zbudowania stanowiska laboratoryjnego
nazywa się Varo-Med. Głównym elementem jest
centrala
programowana
komputerowo
sterująca
przyciskami, gniazdami oraz lampami salowymi. Do
jednej centrali mogą być podłączone 63 sale, aby nadać
salom poszczególne adresy należy zaprogramować
odpowiednio centralę z komputera. Istnieje również
możliwość rozbudowania systemu o komunikację
głosową. Potrzebna do tego celu jest dodatkowa centrala
telefoniczna Panasonic wyposażona standardowo w kartę
IPCMPR z procesorem [3].
System rozpoznaje i przetwarza następujące zdarzenia:

przywołanie lekarza lub asysty z sali za pomocą
przycisków,

przywołanie z łazienki lub WC,

pokwitowanie (skasowanie przywołania),

przywołanie personelu za pomocą telefonu .
2. Opracowanie
i
przywoławczego
budowa
Schemat okablowania przedstawiony poniżej został
wykonany w programie Autocad[5].
Rys 2. Schemat okablowania
Rys 3 Programator ISP3-USB
Ze schematu wynika, iż centrala oddziałowa steruje
adresowo wszystkimi przyciskami. Jest bezpośrednio
połączona z przyciskami przywoławczo odwoławczymi z
elektroniką oraz wyświetlaczem LCD. Następnie do
PPO-E są połączone przycisk gruszkowy, przycisk
sznurkowy i przycisk odwoławczy w łazience oraz
korytarzowa lampka sygnalizacyjna.
3. Oprogramowanie
W systemie każdemu przyciskowi przywoławczo
odwoławczemu przypisany jest unikatowy adres.
Przypisywanie adresu następuje przy pierwszej
konfiguracji systemu, przed zaprogramowaniem centrali
systemowej[1].
Jednostką sterującą centrali systemowej jest
mikroprocesor ATmega8515. Do jego programowania
użyto oprogramowania E -Lab Programmer oraz
programatora ISP3-USB firmy E-Lab Computers.
Programator ISP3-USB łączy się z komputerem za
pomocą portu USB, dzięki temu może być zasilany
bezpośrednio z tego portu. Programator oferuje
możliwość zasilania programowanego obiektu i
automatycznie dostosowuje napięcie zasilania w
systemu
Budowa systemu przywoławczego polegała na
zamontowaniu następujących elementów: przycisku
przywoławczo- odwoławczego (PPO-E), przycisku
sznurkowego (PSZ), przycisku gruszkowego (PG) oraz
przycisku odwoławczego (PO) w puszkach Φ60
osadzonych w płycie wykonanej ze szkła akrylowego w
kolorze mlecznym o wymiarach 800x800 mm. Płyta
została przymocowana za pomocą czterech blachowkrętów do ramy wykonanej ze stalowych profili
kwadratowych o wymiarach 25x25x2 mm oraz
25
Warsztaty Doktoranckie 2012
zależności od zapotrzebowania programowanego obiektu
w zakresie od 2.7 V do 6V. Komunikacja programatora z
mikrokontrolerem odbywa się za pośrednictwem
protokołu ISP[2]. ISP jest rozwiązaniem konstrukcyjnym
stosowanym w mikroprocesorach umożliwiającym
programowanie
i
reprogramowalnie
układu
umieszczonego wewnątrz systemu. Protokół ISP
komunikuje się szeregowo z mikroprocesorem przy
pomocy interfejsu SPI reprogramowując wszystkie
nieulotne pamięci znajdujące się w układzie. Do
zaprogramowania mikrokontrolera ATmega8515 został
wykorzystany dziesięcioprzewodowy interfejs SPI
zgodny ze standardem Kanada ISP.
Do zaprogramowania procesora ATmega8515
wystarczy sześcioprzewodowy interfejs SPI. Podczas
programowania procesora urządzenie programujące
zawsze występuje w trybie Master, natomiast układ
docelowy w trybie Slave. Oznacza to, iż programator ISP
zapewnia zegar niezbędny do synchronizacji wymiany
danych poprzez linie SCK. Podczas każdego impulsu na
linii SCK transmitowany jest jeden bit z programatora do
mikrokontrolera poprzez linię MOSI ( Master Out - Slave
In). Jednocześnie każdemu impulsowi na linii SCK
odpowiada transfer jednego bitu z mikrokontrolera do
programatora poprzez linię MISO ( Master In – Slave
Out). By wejść w tryb programowania niezbędne jest
także utrzymywanie w stanu aktywnego niskiego linii
Reset mikrokontrolera. Do zakończenia procesu
konieczne jest ustawienie Reset w stan wysoki. Dla
zautomatyzowania procesu programowania, programator
przejmuje kontrolę nad linią resetu mikrokontrolera[4].
Po stronie komputera do programowania układu
używane jest środowisko programistyczne E-Lab
Programmer. Głównym przeznaczeniem tego programu
jest wpisywanie do mikrokontrolerów programów
napisanych i skompilowanych w zewnętrznych
środowiskach programistycznych za pomocą języków
wysokiego poziomu takich jak C oraz Bascom, lub w
języku Asembler. Do przycisku PPO-E w sali łóżkowej
przyporządkowany jest jeden przycisk odwoławczy
znajdujący się w toalecie. Domyślnie przycisk
przywoławczo
odwoławczy
kasuje
wezwania
przychodzące z toalety, z pozycji pokoju. Natomiast
przycisk odwoławczy znajdujący się w toalecie nie jest
obsługiwany[3].
Jeśli w toalecie znajduje się osobny kasownik w takim
przypadku należy dokonać zmian w pamięci EE-Prom
procesora przycisku PPO-E, podobnie jak miało to
miejsce
w przypadku programowania centrali
systemowej.
Rys 4 Końcówka progra- matora w
kształcie „widelca”
Operacji tej dokonuje się przy pomocy specjalnej
końcówki programatora w kształcie „widelca”. Jest to
interfejs SPI lecz z dostosowanym do potrzeb
programowania przycisku złączem. Na przycisku PPO-E
pomiędzy przyciskami znajdują się płytki stykowe, z
przeznaczeniem na ową końcówkę.
4. Podsumowanie
Głównym założeniem projektu było wykonanie
stanowiska dydaktycznego, dzięki któremu studenci
otrzymają możliwość zapoznania się z zasadą
funkcjonowania,
metodami
projektowania
oraz
sposobami programowania cyfrowych systemów
przywoławczych. Po zapoznaniu się z dostępnymi na
rynku rozwiązaniami dotyczącymi inteligentnych
systemów przywoławczych, wybrany został system
wchodzący na polski rynek i oferujący spory wachlarz
możliwości.
Wykonane stanowisko nie wykorzystuje obecnie
wszystkich
komponentów
oferowanych
przez
producenta. Do pracy wykorzystane zostały podstawowe
elementy bez których nie może obyć się żadne system
przywoławczy, przez co w przyszłości istnieje możliwość
dalszej rozbudowy.
Literatura
[1] Murdock K.: 3ds Max 2009. Biblia , Gliwice 2007
[2] Schima Sp. z o.o.: Instrukcja do sporządzenia projektów
systemów przywoławczych, Wrocław, 2009
[3] Schima Sp. z o.o.: Podręcznik użytkownika – Schima VaroMed, Wrocław, 2009.
[4] Typańska D., Gałczyński P., Olachowski F.: Praca
dyplomowa inżynierska -Inteligentny system przywoławczy,
Poznań 2010
[5] Wiatr J., Orzechowski M.: Poradnik projektanta elektryka
Mgr inż. Dorota Typańska
[email protected]
Asystent w Instytucie Elektrotechniki i
Elektroniki Przemysłowej na Wydziale
Elektrycznym Politechniki Poznańskiej.
Ukończone
studia
magisterskie
na
Wydziale
Elektrycznym
Politechniki
Poznańskiej. Od października 2011 roku
podjęte studia doktoranckie Nowoczesna
Inżynieria Elektryczna i Informacyjna.
Dotychczasowy dorobek naukowy to dwa
artykuły dotyczące badania wydajności
energetycznej oświetlenia wnętrz obiektów
sportowych i biurowych.
Mgr inż. Łukasz Putz
e-mail: [email protected]
Absolwent
jednolitych
studiów
magisterskich na kierunku Elektrotechnika
na Wydziale Elektrycznym Politechniki
Poznańskiej.
Specjalnosć:
Układy
Elektryczne i Informatyczne w Przemyśle i
Pojazdach. Praca dyplomowa w 2009 r.
uzyskała wyróżnienie w konkursie SEP na
najlepszą
pracę
magisterską.
Dotychczasowy
dorobek
naukowy
obejmuje 22 publikacje.
Rys 5. Styk do programowania na przycisku
PPO-E
26
Warsztaty Doktoranckie 2012
ROZSZERZONY FILTR KALMANA JAKO ESTYMATOR STANU W
UKŁADZIE WAHADŁA ODWRÓCONEGO Z NAPĘDEM
INERCYJNYM
Jarosław Gośliński, Adam Owczarkowski
Politechnika Poznańska, Wydział Elektryczny, Instytut Automatyki i Inżynierii Informatycznej
Streszczenie. W pracy przedstawione jest wyprowadzenie pełnego obserwatora wektora stanu dla wahadła odwróconego z napędem inercyjny. Wahadło
odwrócone z napędem inercyjnym stanowi mechanizm nieliniowy który posiada więcej stopni swobody niż wymuszeń. W celu poprawnego sterownia postuluje
się o znajomość wszystkich zmiennych stanu. W pracy przedstawiony został model wahadła. Następnie autor dokonał dyskretyzacji modelu oraz zapisu modelu
do postaci macierzowej, ostatecznie przedstawiony został obserwator bazujący na wyprowadzonym modelu oraz wyniki jego działania.
Słowa kluczowe: Rozszerzony Filtr Kalmana, Wahadło odwrócone z napędem inercyjnym.
Extended Kalman Filter as a full state observer in application of the Inertia Wheel
Pendulum
Abstract. This paper presents derivation of the full state observer for an inverted, inertia wheel pendulum (IWP). This is a non-linear, underactuated mechanical
system and therefore it has more degrees of freedom than control variables. In order to control this mechanical system properly, knowledge of all state variables
is needed. In this paper, author presented IWP’s model, which was later written in matrix form. Finally, based on the model, full state observer was derived. In
the end its results were shown.
Keywords: Inertia wheel pendulum, Extended Kalman Filter.
Wstęp
Odwrócone wahadło z napędem inercyjny, to
urządzenie mechaniczne, które pierwszy raz zostało
opisane w [3] od tego czasu powstało wiele prac, których
celem było określenie prawidłowego sterowania dla
takiego układu mechanicznego. Wahadło z napędem
inercyjnym jest jednym z wielu typów wahadeł
odwróconych, natomiast jego budowa została opisana w
rozdziale pt.: „Wprowadzenie do modelu”. W kolejnym
rozdziale, opisany został model matematyczny
rozpatrywanego wahadła. Wahadło to posiada jedno
sterowanie (prąd silnika) oraz grupę wyjść – zmiennych
stanu, z których część jest estymowana przy użyciu
klasycznego filtru Kalmana, a pozostała część jest
mierzona przy użyciu sensorów (en koder, żyroskop oraz
akcelerometr). W związku z problemem zakłóceń oraz z
potrzebą posiadania wszystkich zmiennych stanu
możliwie zbliżonych do wartość rzeczywistych,
wprowadzony został estymator stanu, opisany w
rozdziale trzecim. Wyniki działania estymatora oraz ich
porównanie z pomiarami zostały przedstawione w
rozdziale czwartym. W ostatnim punkcie autorzy
dokonali podsumowania i wyciągnięcia wniosków z
przeprowadzonych prac.
Rys. 1 Konstrukcja wahadła
2. Model matematyczny
Model matematyczny omawianego wahadła można
przedstawić za pomocą równań stanu. Jest to jednak
wygodne tylko wtedy gdy model nie posiada wyrażeń
nieliniowych. W omawianym przypadku występuje
nieliniowość w postaci funkcji trygonometrycznej. Zatem
w pierwszej części model zostanie przedstawiony za
pomocą równań:
̈
̈
̈
̇
( )
,
̇
,
(1)
(2)
gdzie: α – to kąt odchylenia wahadła od pionu (w osi Y),
- moment bezwładności koła zamachowego,
moment bezwładności całkowity wahadła, – prędkość
kątowa koła zamachowego,
- masa całkowita
wahadła, g- przyspieszenie grawitacyjne, - wysokość
na której zawieszony jest środek masy wahadła,
współczynnik tarcia w osi wahadła, k- wzmocnieni
prądowe silnika, i- prąd twornika silnika,
współczynnik tarcia w silniku.
Model (1), (2) nie może bezpośrednio posłużyć do
dalszych rozważań- jest on nieliniowy oraz ciągły. Na
tym etapie linearyzacja zostanie pominięta, natomiast
kolejnym krokiem będzie przeprowadzenie dyskretyzacji
powyższego
modelu.
Zakładając
zastosowanie
uproszczonej metody dyskretyzacji można uzyskać
macierze dyskretne równań stanu:
1. Wprowadzenie do modelu
matematycznego
Przechodząc do modelu matematycznego wymagana
jest wiedza o budowie omawianego wahadła. Wahadło
składa się ze sztywnej konstrukcji na której
zamontowany jest silnik prądu stałego, wyposażony w
koło zamachowe. Cala konstrukcja jest połączona z
podłożem za pomocą dwóch kół. Dzięki temu odebrany
jest jeden stopień swobody natomiast możliwy jest ruch
na boki oraz do przodu i tyłu. Konstrukcja omawianego
wahadła została pokazana na rysunku 1. Celem układu
sterującego wahadła jest utrzymanie kąta zerowego
(licząc od pionu) w osi Y. Jest to możliwe poprzez
rozpędzanie oraz hamowanie koła zamachowego.
Szczegóły działania wahadła zostały opisane w [1].
27
Warsztaty Doktoranckie 2012
(macierz ). Jako referencję przyjęto sygnał pomiarowy.
Dla równych nastaw tj.
wynik przedstawiono na
rysunku 2.
( )
,
[
(3)
]
[
,
(4)
],
(5)
]
[
[ ],
(6)
gdzie: - to okres próbkowania.
Model oparty o tak zdefiniowane macierze jest słuszny
przy założeniu że wektor stanu składa się z następujących
zmiennych:
[ ̇]
̇
Rys.2 Porównanie wyników estymaty obserwatora (kolor zielony) oraz
pomiarów z enkodera (kolor czerwony)
Jak widać, estymata nie zawiera szumu, który jest
stowarzyszony z pomiarami z enkodera.
5. Podsumowanie
(7)
W pracy dokonano opisu modelu matematycznego
wahadła odwróconego, dla którego następnie stworzono
obserwator wektora stanu. Obserwator pozwolił na
estymację wszystkich zmiennych stanu, tym samym
możliwym stało się zaimplementowanie sterowania
uzależnionego od wektora stanu (regulator LQ).
3. Obserwator stanu
Mając już model dyskretny w ujęciu macierzowym,
można wprowadzić ogólną postać obserwatora stanu
opartego o dwufazowy, rozszerzony filtr Kalmana
(opisany w [2]):
a) Faza predykcji:
̂
(̂
)
(̂
[1] Gośliński J., Owczarkowski A.: Control and model parameters
identification of inertia wheel pendulum. Proceedings of 9th
International Conference on Informatics in Control, Automation and
Robotics, Rzym, 2012.
[2] Królikowski A., Horla D.: Identyfikacja Obiektów Sterowania, Wyd.
2, Wydawnictwo Politechniki Poznanskiej, Poznań 2005.
[3] Spong, M. W., P. Corke, R. L.: Nonlinear control of the inertia
wheel pendulum. In research under grants CMS-9712170 and ECS9812591, Urbana, Kenmore, France 1999.
(8)
)
̂|̂
Literatura
[
̂
]
̂|̂
̂
(9)
̂
(10)
b)
Faza korekcji:
(̂
̂|̂
)
[
̂| ̂
̂
̂
]
(
̂
̂
(
(11)
)
(
mgr inż. Jarosław Gośliński,
e-mail: [email protected]
̂
̂ )
)
(12)
(13)
(14)
Ukończył studia z tytułem magister inżynier na Politechnice Poznańskiej
(2011). Od tego czasu, jest studentem studiów doktoranckich na tej
samej uczelni. Zajmuje się głównie sterowaniem robotów latających
(UAV), identyfikacją parametrów modelu oraz obserwatorami stanu.
Jego zainteresowania skupiają się również w obszarze algorytmu roju,
formowania grup jednostek latających oraz układów cybernetyczno –
fizycznych.
W pierwszej fazie predykowany jest wektor stanu a
priori ̂ , następnie obliczana jest macierz kowariancji
(również a priori). W drugiej fazie, wektor stanu jest
poddawany korekcie. Korekta ta bazuje na wektorze
pomiarowym , który koresponduje z wektorem stanu.
Po całym cyklu działania obserwatora stanu, wynik
zapisywany jest do wektora ̂ .
mgr inż. Adam Owczarkowski,
e-mail: [email protected]
W 2011 roku ukończył studia o kierunku Automatyka i Robotyka na
Wydziale Elektrycznym Politechniki Poznańskiej. Od tego czasu, jest
studentem studiów doktoranckich na tej samej uczelni. Jego praca
głównie skupia się na sensoryce opartej o technologię MEMS,
algorytmach sterowania robotów i implementacji ich w systemach
wbudowanych z układami FPGA
4. Wyniki działania estymatora stanu
Estymator został zaimplementowany w jednostce
sterującej. Podczas testów skupiono się głównie na
porównaniu wyników działania estymatora przy różnych
wartościach macierzy wariancji szumu procesu (macierz
) oraz macierzy wariancji szumu pomiarowego
28
Warsztaty Doktoranckie 2012
SYSTEM POMIAROWY DO WIELOKANAŁOWEJ REJESTRACJI
SYGNAŁÓW NEURONOWYCH METODĄ INVIVO
Jacek Rauza1, Mirosław Żołądź1, Piotr Kmon1, Paweł Gryboś2
AGH AKADEMIA GÓRNICZO-HUTNICZA, KATEDRA METROLOGII I ELEKTRONIKI, AL. MICKIEWICZA 30, 30-059 KRAKÓW
1
Streszczenie. W pracy opisano system do rejestracji sygnałów neuronowych z mózgu zwierzęcia znajdującego się pod narkozą. System
pozwala na jednoczesny pomiar sygnałów z 64 kanałów za pośrednictwem ostrzowej matrycy elektrod. System składa się z dedykowanego
układu scalonego do wzmacniania i filtracji sygnałów, układów zasilających oraz układu kontrolnego. Do akwizycji danych wykorzystywany
jest komputer typu PXI (ang. PCI eXtensions for Instrumentation). Wstępne testy potwierdzają poprawne działanie systemu.
Słowa kluczowe: Pomiary neurobiologiczne, wielokanałowe systemy pomiarowe, zintegrowane układy scalone, VLSI, matryce mikroelektrod.
MEASURING SYSTEM FOR IN VIVO MULTICHANNEL NEURAL SIGNALS
RECORDING
Abstract. This paper describes a system for recording neural signals from the brain of the animal under anesthesia. The system allows
simultaneous measurement of signals from 64 points by means of penetrating microelectrode electrode matrix. It consists of dedicated
integrated circuit for signal amplification and filtering, power supply module and control module. Dedicated data acquisition is performed
by using PXI (PCI eXtensions for Instrumentation) computer and a custom application. Preliminary tests show that the system is working
properly.
Keywords: neural recording, multipoint recording systems, integrated circuits, VLSI, microelectrodes array
umieścić kilkadziesiąt kanałów kondycjonujących
(wzmacniających i filtrujących) sygnał z matryc
mikroelektrod [3]. Oprócz kanałów kondycjonujących
układ taki wyposażony jest w multiplekser analogowy
pozwalający ograniczyć do jednego liczbę przewodów
przesyłających zarejestrowane sygnały. Schemat ideowy
scalonego wykorzystanego w opisanym systemie
pomiarowym pokazano na rysunku 2.
Wstęp
Mózg jest najbardziej skomplikowanym organem w
organizmie człowieka. Zrozumienie jak działa mózg
wydaje się być jednym z najważniejszych zadań nauki.
Znaczenie wynika z faktu, że intelekt jest jedynym
atrybutem, który znacząco odróżnia człowieka od
zwierząt. Praktycznym zastosowania takiej wiedzy mogą
być min. interfejsy BCI (brain–computer interface)
budowane w celu pomocy ludziom cierpiącym z różnego
rodzaju zaburzeń, takich jak uszkodzenia kręgosłupa,
mięśni lub nerwów [1].
1. Elektrody pomiarowe
Od kilkudziesięciu lat do pomiarów wewnętrznej
aktywności mózgu wykorzystuje się elektrody
wolframowe w szklanej otulinie. Konieczność
mocowania
każdej
elektrody
na
specjalnym
mikromanipulatorze oraz znaczne rozmiary całej
elektrody utrudniają rejestracja sygnałów jednocześnie z
więcej niż jednej elektrod.
Ostatnie postępy w technologiach mikroobróbki [2]
pozwoliły na wytwarzanie całej gamy urządzeń typu
MEMS (ang. Micro Electro-Mechanical Systems) czyli
zintegrowanych układów elektro-mechanicznych, których
co najmniej jeden wymiar szczególny znajduje się w skali
mikro (0,1 - 100 μm). Jednym z zastosowań technologii
MEMS jest produkcja matryc mikroelektrod (Rys. 1).
Elektrody te pozwalają na pomiar sygnałów z przestrzeni
międzykomórkowej
z
kilkudziesięciu
punktów
jednocześnie. Amplitudy rejestrowanych napięć wynoszą
nierzadko niewiele powyżej 100µV. Impedancja elektrod
osiąga zwykle wartości setek kiloomów.
Rys. 1.
Ostrzowa matryca 64-rech mikroelektrod.
Opisany wyżej układ kondycjonujący wymaga do
poprawnej pracy kilku napięć zasilających oraz układu
kontrolnego
odpowiadającego
za
sterowanie
multiplekserem
analogowym, zapis rejestrów
konfiguracyjnych oraz komunikację z aplikacją
użytkownika.
3. Układ kontrolny
Rolę układu kontrolnego pełni mikrokontroler
XMEGA16A4 firmy ATMEL. Ze względu na różnicę
poziomów napięć pomiędzy mikrokontrolerem (2.7V) a
układem kondycjonującym (1.8) umieszczono konwerter
poziomów ST2378. Komunikacja mikrokontrolera z
komputerem PC i stworzoną w środowisku LabVIEW
aplikacją użytkownika odbywa się za pośrednictwem
konwertera UART/USB firmy FTDI. Aplikacja
użytkownika pozwala na: ustawianie multipleksera w
tryb pracy ciągłej (cykliczne przemiatanie wszystkich 64
kanałów kondycjonujących) lub statycznej (ustawienie
2. Układ kondycjonujący
Do rejestracji sygnałów z elektrod szklanych używa
się wzmacniaczy i filtrów zbudowanych z elementów
dyskretnych. Takie podejście w przypadku rejestracji
sygnałów z matryc mikroelektrod jest nie do przyjęcia ze
względu na dużą ilość sygnałów, a co za tym idzierozmiary układu pomiarowego. Z pomocą przychodzi
tutaj technika produkcji układów scalonych VLSI (ang.
Very Large Scale Integration). Pozwala ona na jednej
strukturze krzemowej o powierzchni kilkudziesięciu mm2
29
Warsztaty Doktoranckie 2012
multipleksera na jeden wybrany kanał), generowanie
sygnału
testowego
o
zadanych
parametrach
(częstotliwość, kształt), ustawianie konfiguracji układu
kondycjonującego
(pasmo
częstotliwościowe,
wzmocnienie).
Za akwizycję sygnału odpowiada komputer PXI
będący zgodną ze standardem PC dedykowaną platformą
kontrolną pomiarową. Rejestracja sygnału odbywa się za
pośrednictwem
karty
oscyloskopowej
(14bitów,
100MHz). Zadaniem pracującej na komputerze PXI
aplikacji użytkownika jest demultipleksacja sygnału
(zamiana jednego sygnału z multipleksera układu
kondycjonującego na 64 sygnały odpowiadające
sygnałom zarejestrowanym z matrycy mikroelektrod)
oraz prezentacja i archiwizacja danych pomiarowych.
Rys. 4. Wyniki rejestracji sygnału testowego z użyciem ostrzowej
matrycy elektrod. Pokazano 8 z 64 kanałów. (amplituda: 1mV,
częstotliwość: 100Hz, czas trwania dodatniej części impulsu 0.5ms, czas
trwania dodatniej części impulsu 1.5ms).Górny rysunek przedstawia
pomiar uzyskany z dolną częstotliwością odcięcia filtru ustawioną na
kilka herców. Dolny rysunek przedstawia pomiar uzyskany z dolną
częstotliwością odcięcia filtru ustawioną na ok. 250 Hz.
Rys. 2.
Schemat ideowy oraz zdjęcie scalonego układu
kondycjonującego
do
wielokanałowej
rejestracji
sygnałów
neuronowych (rozmiar układu 5mm x 5mm).
Literatura
[1] L. R. Hochberg et al., “Neuronal ensemble control of prosthetic
devices by a human with tetraplegia”, Nature 442, 164-171, July
2006
[2] H. Oka, K. Shimono, R. Ogawa, H. Sugihara, M. Takateni, "A new
planar multielectrode array for extracellular recording application to
hippocampal acute slice." J. Neurosci. Meth., vol. 93, 1999, pp. 6167.
[3] P. Grybos, P. Kmon, M. Zoladz, R. Szczygiel, M. Kachel, M.
Lewandowski, T. Blasiak, “64 Channel Neural Recording Amplifier
with Tunable Bandwidth in 180 nm CMOS Technology”, Metrol.
Meas. Syst., Vol. XVIII (2011), No. 4Hagel R., Zakrzewski J.:
Miernictwo dynamiczne. WNT, Warszawa 1984.
mgr inż. Jacek RAUZA
e-mail: [email protected]
Rys. 3. Zdjęcie układu pomiarowego z zamontowaną ostrzową matrycą
elektrod (u góry). Zdjęcie wnętrza modułu pomiarowego (u dołu).
Absolwent wydziału Elektrotechniki,
Automatyki, Informatyki i Elektroniki
Akademii
Górniczo-Hutniczej
im.
Stanisława Staszica w Krakowie. Obecnie
doktorant na tymże wydziale. Zajmuje się
projektowaniem systemów pomiarowych
do wielokanałowej rejestracji aktywności
żywych sieci neuronowych.
4. Moduł pomiarowy
Moduł pomiarowy (Rys. 3) składa się z trzech płytek
drukowanych
zawierających:
scalony
układ
kondycjonujący, zasilacz oraz układ kontrolny.
5. Testy układu
Testy układu przeprowadzono zanurzając w
roztworze soli fizjologicznej podłączoną do modułu
pomiarowego matrycę mikroelektrod oraz podając do
roztworu impulsy napięciowe naśladujące potencjały
czynnościowe. Zarejestrowane sygnały dla różnych
ustawień dolnej częstotliwości odcięcia filtru oraz
różnych wzmocnień pokazano na rysunku 4. Wyniki
wstępnych testów potwierdzają poprawne działanie
układu.
30
Warsztaty Doktoranckie 2012
PORÓWNANIE FUNKCJI OCENY SEGMENTACJI W KONTEKŚCIE
METODY REDUKCJI NADSEGMENTACJI OBRAZÓW BARWNYCH
Jakub Smołka, Maria Skublewska-Paszkowska
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, Instytut Informatyki
Streszczenie. Artykuł przedstawia porównanie funkcji oceny segmentacji wykorzystanych do oceny wyniku redukcji nadsegmentacji w
obrazach poddanych działaniu transformacji wododziałowej. Przedstawiono krótko zastosowaną metodę redukcji nadsegmentacji oraz
funkcje oceny. Wyniki porównania omówiono i zilustrowano na wykresach.
Słowa kluczowe: transformacja wododziałowa, analiza skupień, ocena segmentacji, porównanie
Comparison of segmentation quality assessment functions in context of color image oversegmentation reduction method
Abstract. The paper presents comparison of segmentation quality assessment functions. The functions were applied to assessment of
segmentations obtained as a result of over-segmentation reduction using cluster analysis. The over-segmentation reduction method is briefly
described. The results of comparison are described and illustrated with charts.
Keywords: watershed transformation, cluster analysis, segmentation assessment, comparison
2. Funkcje oceny jakości segmentacji
Wprowadzenie
W porównaniu wykorzystano trzy funkcje służące do
oceny jakości segmentacji obrazów barwnych. Pierwszą z
nich jest funkcja F zaproponowana przez Liu i Yang [2].
Ma ona postać:
nc
e2
(1)
F ( I )  nc   i
Ai
i 1
gdzie: I – obraz, nc – liczba klas w segmentacji, Ai – pole
i-tej klasy, ei - błąd barwy i-tej klasy.
Druga funkcja – F’ – jest zmodyfikowaną przez
Borsotti’ego i in. [1] funkcją F. Ma ona postać:
W przypadku większości obrazów transformacja
wododziałowa prowadzi do nadsegmentacji. Jest to
zjawisko polegające na tym, że w wyniku segmentacji
liczba klas znacząco przewyższa liczbę rzeczywistych
obiektów. W [4] zaproponowano metodę redukcji
nadsegmentacji,
która wykorzystuje hierarchiczne
metody analizy skupień [3]. Metoda po przeprowadzeniu
procesu klasteryzacji, wymaga ustalenia poziomu, na
którym zostanie przecięta otrzymana hierarchia
podobieństwa. Poniżej przedstawiono porównanie trzech
funkcji oceny jakości segmentacji zastosowanych do
wyboru tego poziomu.
1
10  M  N
Amax
 r (a)
1
a
nc

ei2
(2)
Ai
gdzie: M i N – rozmiary obrazu, r(a) – liczba klas o polu
a, Amax – pole największej klasy, pozostałe oznaczenia
identyczne jak we wzorze (1).
Trzecia funkcja została również zaproponowana
przez Borsotti’ego i in. [1]. Ma ona postać:
2
nc 
 r ( Ai )   (3)
ei2
1




Q( I ) 
nc  

1000  M  N
Ai  
i 1 1  log Ai



(oznaczenia identyczne jak we wzorach (1) i (2))
Warto zauważyć, że w przypadku wszystkich
powyższych funkcji mniejsza wartość oznacza lepszą
segmentację.
F '(I ) 
1. Metoda redukcji nadsegmentacji
Jak
wspomniano
wyżej
metoda
redukcji
nadsegmentacji wykorzystuje analizę skupień. Służy do
grupowania zlewisk powstałych w wyniku transformacji
wododziałowej.
Jej przebieg jest następujący:
(1) określane są parametry klasteryzacji: zestaw
atrybutów zlewiska, metoda klasteryzacji, miara
podobieństwa oraz metoda standaryzacji atrybutów,
(2) obliczane
są
wartości
atrybutów
zlewisk,
(3) opcjonalnie
wartości
są
standaryzowane,
(4) budowana jest macierz odległości klastrów
(początkowo każdy klaster składa się z jednego zlewiska)
z wykorzystaniem wybranej miary odległości,
(5) algorytm wybiera dwa najbardziej podobne i łączy je
w jeden, (6) macierz odległości jest aktualizowana
zgodnie z wybraną metodą, (7) do hierarchii
podobieństwa (drzewa podobieństwa) dodawany jest
nowy węzeł, (8) w przypadku, gdy nie wszystkie obiekty
znajdują się w jednym klastrze, algorytm wraca do
punktu 5-go, (9) algorytm generuje segmentacje, które
zawierają liczbę klas z przedziału będącego parametrem
metody, (10) segmentacja powstaje poprzez przecięcie
hierarchii podobieństwa na poziomie powodującym
uzyskanie określonej liczby klas i wykonanie wszystkich
połączeń klastrów w dolnej części drzewa,
(11) otrzymane segmentacje oceniane są za pomocą
wybranej funkcji oceny, (12) wybierana jest najlepsza
segmentacja.
4
a 1
1
i 1
3. Porównanie funkcji oceny
W celu porównania funkcji oceny wykonywano
segmentacje obrazów testowych. Obrazy poddawano
działaniu
selektywnego
filtru
rozmywającego,
transformacji wododziałowej oraz wstępnej redukcji
nadsegmentacji. W dalszej kolejności przeprowadzono
klasteryzację z wykorzystaniem hierarchicznych metod
analizy zgodnie z opisem w punkcie 1 z tą różnicą, że
zachowywano wszystkie segmentacje z zadanego
przedziału (nie tylko najlepszą).
Na rysunkach 1, 2 i 3 przedstawiono wykresy
wartości funkcji oceny uzyskane dla jednego z obrazów
testowych. Jak widać funkcje znacząco różnią się
zakresem wartości, jednak ich przebieg jest podobny.
31
Warsztaty Doktoranckie 2012
Funkcja F
4. Wnioski
1,6E+11
1,4E+11
wartość funkcjii
1,2E+11
W przypadku segmentacji uzyskanych w wyniku
wykonania transformacji wododziałowej i grupowania
zlewisk za pomocą metod analizy skupień różnice między
funkcjami F oraz F’ są znikome. Obie funkcje, w
przypadku obrazów testowych, osiągały swoje minima
dla identycznej liczby klas. Funkcja Q charakteryzuje się
innym przebiegiem, jednak zazwyczaj osiąga minima dla
tej samej liczby klas co funkcje F i F’. Jej zaletą jest to,
że nie osiąga wartości 0 dla segmentacji, w której każda
klasa składa się z jednego piksela.
1E+11
8E+10
6E+10
4E+10
2E+10
0
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
liczba klas
Rys. 1. Zależność wartości funkcji F od liczby klas dla segmentacji obrazu
budynek_1.
Funkcja F'
120
wartość funkcjii
100
Literatura
80
[1] M. Borsotti, P. Campadelli, and R. Schettini.
60
Quantitative evaluation of color image segmentation
results. Pattern Recognition Letters, 19:741–747,
1998.
[2] Jianqing Liu and Yee-Hong Yang. Multiresolution
color image segmentation. IEEE Transactions on
Pattern Analysis and Machine Intelligence,
16(7):689–700, 1994.
[3] H. Ch. Romesburg. Cluster Analysis for Researchers.
Lulu Press, 2004.
[4] Jakub Smołka. Hierarchical cluster analysis methods
applied to image segmentation by watershed merging.
Annales UMCS Informatica, AI 6:73–84, 2007.
40
20
0
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
liczba klas
Rys. 2. Zależność wartości funkcji F’ od liczby klas dla segmentacji
obrazu budynek_1.
Funkcja Q
5000
4500
wartość funkcjii
4000
3500
3000
2500
2000
1500
Dr inż. Maria Skublewska-Paszkowska
e-mail: [email protected]
1000
500
0
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Pracownik naukowo-dydaktyczny pracujący
w
Instytucie
Informatyki
Wydziału
Elektrotechniki i Informatyki Politechniki
Lubelskiej. Tytuł magistra uzyskała na
Politechnice Lubelskiej. Stopień doktora
otrzymała
na
Politechnice
Śląskiej.
Działalność naukowa związana jest głównie
z tranformatami falkowymi, miarami jakości
oceny wizualnej kolorowych obrazów
i zastosowania ich w adaptacyjnej kompresji
obrazów.
liczba klas
Rys. 3. Zależność wartości funkcji Q od liczby klas dla segmentacji obrazu
budynek_1.
W celu dokładniejszego porównania wartości
wszystkich funkcji przeskalowano tak aby przyjmowały
wartości z zakresu [0; 1]. Wykresy znormalizowanych
wartości umieszczono na rysunku 4. Aby dodatkowo
uwypuklić różnice zakres wartości przedstawionych na
wykresie ograniczono do [0; 0,1]. Jak widać funkcje F, F’
i Q osiągnęły minima dla 7, 11 i 19 klas. Dodatkowo
funkcja Q osiągnęła minimum dla 9 klas.
Dr inż. Jakub Smołka
e-mail: [email protected]
Znormalizowane funkcje F, F' i Q
Pracownik
naukowo-dydaktyczny
w
Instytucie
Informatyki
Wydziału
Elektrotechniki i Informatyki Politechniki
Lubelskiej. Tytuł magistra uzyskał na
Politechnice Lubelskiej natomiast stopień
doktora na Politechnice Śląskiej. Jego
działalność naukowa związana jest z
przetwarzaniem obrazów cyfrowych w
szczególności z ich segmentacją oraz
kompresją.
0,1
0,09
wartość funkcji
0,08
0,07
0,06
funkcja Q
funkcja F'
funkcja F
0,05
0,04
0,03
0,02
0,01
0
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
liczba klas
Rys. 4. Zależność wartości znormalizowanych wartości funkcji oceny od
liczby klas dla segmentacji obrazu budynek_1.
32
Warsztaty Doktoranckie 2012
KOMPARATOR DO NADAWANIA ZNACZNIKÓW CZASOWYCH W
UKŁADACH ODCZYTOWYCH DLA DETEKTORÓW PASKOWYCH
Krzysztof Kasiński
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Wydział Elektrotechniki Automatyki Informatyki i Elektroniki, Katedra Metrologii i Elektroniki
Streszczenie. Artykuł prezentuje projekt niskomocowego komparatora przygotowanego dla potrzeb nadawania znaczników czasowych w wielokanałowym
scalonym układzie odczytowym do detektorów paskowych. Przedstawione zostały: zarys analogowego układu front-end z dwutorowym przetwarzaniem, czynniki
ograniczajace dokładnosc wyznaczania znacznika czasowego oraz dokładny projekt 3-stopniowego komparatora zoptymalizowanego dla docelowej aplikacji.
Słowa kluczowe: komparator, wielokanałowe układy scalone, detektory paskowe, mikroelektronika
Discriminator for timestamping in silicon strip detector readout integrated circuits
Abstract. This paper presents the design of a low-power comparator for timestamping purposes in multichannel integrated circuit for silicon strip detectors’
readout. A brief introduction to an analog front-end electronics with two signal paths is presented. Moreover, issues regarding accuracy of timestamp
determination and details of 3-stage comparator architecture are included.
Keywords: discriminator, komparator, multichannel integrated circuits, strip detectors, microelectronics
krótki. W tym przypadku wynosi on 30ns. Cecha
układów kształtujących (w tym przypadku CR-RC) jest
obecność tzw. time-walk’u, a więc zależności czasu
przejścia sygnału napięciowego przez poziom umownego
progu dyskryminacji od ładunku wejściowego. Powoduje
to błąd w określeniu dokładnego momentu, w którym
zdarzenie miało miejsce.
Wstęp
Obrazowanie z wykorzystaniem promieniowania X
oraz detektory śladowe dla Fizyki Wysokich Energii są
głównymi
obszarami
aplikacyjnymi
detektorów
paskowych. Do odczytu detektorów najczesciej
wykorzystywane są wielokanałowe układy scalone
dedykowane dla danej aplikacji (Rys. 1) [1].
Artykuł opisuje projekt komparatora dla potrzeb
nadawania znaczników czasowych w układzie
odczytowym do paskowych detektorów krzemowych o
dużej pojemności.
Rys. 3. Efekt zale_nosci znacznika czasowego od amplitudy impulsu.
Wyznaczono
zależność
wartości
znacznika
czasowego w funkcji ładunku wejściowego (Rys. 3).
Wynika z niej, że błąd wyznaczania sygnatury czasowej
wyniesie maksymalnie 18ns (nie uwzględniając szumu).
Dzięki pomiarowi ładunku wejściowego (za pomocą toru
z filtrem wolnym oraz przetwornikiem A/C) możliwa jest
jednak korekcja wyznaczania znacznika czasowego na
podstawie specjalnie przygotowanej tablicy wartości
korekcyjnych w zależności od zmierzonego ładunku.
Zakładając, że ładunek może być zmierzony z
rozdzielczością 1fC wtedy można oczekiwać redukcji
błędu do poziomu 9ns.
Rys. 1. System detekcyjny z detektorem paskowym
1. Układ elektroniki front-end i motywacja
Architektura pojedynczego kanału układu scalonego
o którym mowa obejmuje wzmacniacz ładunkowy i dwa
tory przetwarzania impulsu napieciowego (Rys. 2) [1][2].
Tor z filtrem tzw. wolnym jest zoptymalizowany pod
kątem niskich szumów i pomiaru amplitudy impulsu za
pomocą zintegrowanego przetwornika analogowocyfrowego. Zadaniem kanału z filtrem tzw. szybkim jest
dokładne określenie chwili czasu w którym pojawił się
ładunek wejściowy. Chwilę czasu określa dyskryminator,
którego próg powinien być ustawiony na jak najniższą
wartość, która gwarantuje pracę bez wpływu szumów.
Wyjście komparatora współpracuje z układem licznika i
zatrzasku.
Komparator współpracuje z szybkim filtrem. Jego
zadaniem jest ukształtowanie sygnału pod kątem pomiaru
czasu wystąpienia zdarzenia. Oznacza to, że czas
narastania impulsu na wyjściu filtru powinien być
Rys. 4. Efekt time-walk’u.
2. Projekt komparatora
Zadaniem komparatora jest wygenerowanie impulsu
cyfrowego dla każdego impulsu z szybkiego filtra, który
przekroczy próg dyskryminacji. W tej aplikacji, próg
zostanie ustawiony na wartość ok. 1fC (27mV). Tor filtra
szybkiego będzie wykorzystywany do nadawania
znaczników czasowych, co oznacza, że projektowany
komparator powinien charakteryzować się dużą
Rys. 2. Budowa kanału odczytowego
33
Warsztaty Doktoranckie 2012
szybkością działania oraz nie powinien znacznie
degradować timewalk’u.
Jednocześnie
układ
ten
powinien
zostać
zaprojektowany
pod
kątem
wykorzystania
w
wielokanałowym układzie scalonym a więc zarówno
pobierana moc jak i zajmowana powierzchnia powinna
zostać utrzymana na odpowiednio niskim poziomie. Dla
potrzeb projektu pobór mocy komparatora ograniczono
do 1mW, a powierzchnia powinna nie przekraczać
obszaru 150µm × 50µm.
Zdecydowano się na budowę 3-stopniowego
komparatora (Rys. 5). Pierwszy stopień jest
przedwzmacniaczem, który umożliwia korekcję rozrzutu
napieć na wyjściu wolnego filtru oraz zadawanie progu
dyskryminacji.
Drugi
stopień
jest
właściwym
komparatorem, a trzeci stanowią inwertery, których
wyjście jest sygnałem cyfrowym.
Rys. 7. Komparator z dodatnim sprze_eniem zwrotnym.
Przedstawiony
stopień
charakteryzuje
się
wzmocnieniem równym 3.6 V/V, które pozostaje liniowe
dla zakresu napięć odpowiadających wejściowemu
ładunkowi 0-2 fC.
Kolejny stopień zbudowany jest również w oparciu o
parę różnicową (M10-M11) (Rys. 7). Obciążenie stanowi
układ sprzężonych luster prądowych (M6-M9)
wprowadzających dodatnie sprzężenie zwrotne (a więc i
histerezę) w celu przyspieszenia działania układu i
redukcję wpływu zakłóceń na pracę komparatora.
Sprzężenie zwrotne można kontrolować poprzez
zmianę stosunku długości do szerokości par tranzystorów
w obciążeniu [3].
Trzeci stopień komparatora stanowi układ
inwerterów, którego zadaniem jest przekształcenie
sygnału z poprzedniego stopnia na poziomy cyfrowe
CMOS.
Rys. 5. Stopien wejsciowy dyskryminatora
Stopień wejściowy zbudowany jest w oparciu o parę
różnicową (M3-M4) zasilaną ze źródła prądowego M5
(Rys. 6). Para różnicowa obciażona jest dwoma rezystorami
(R1 – R2) oraz przez stopnie w architekturze wspólnego
zródła (M1-M2).
Sygnał z szybkiego filtra podawany jest na wejście
IN. Do bramki tranzystora M4 przyłożone jest napięcie,
które powinno odpowiadać napięciu stałemu na wyjściu
filtra przy braku sygnału.
Ze względu na rozrzuty produkcyjne zarówno
poprzedzających stopni jak i tranzystorów w tym
obwodzie powodujących przesuwanie efektywnego progu
dyskryminacji, napięcie odniesienia pochodzi z
przetwornika cyfrowo-analogowego zlokalizowanego w
każdym z kanałów układu scalonego. Pojawienie się
sygnału na wejściu powoduje rozbalansowanie pary
różnicowej i pojawienie się sygnału różnicowego na
wyjściu D1-D2.
Próg dyskryminacji zmieniany jest poprzez linie THR
sterujacą bazą tranzystora M1. Ponieważ tranzystory M1M2 pracują jak wtórniki źródłowe, przyłożenie różnych
napięć powoduje przesunięcie poziomów stałych na
wyjściach D1-D2. Dzięki takiemu zabiegowi zmieniają
się warunki pracy kolejnego stopnia co jest
równoznaczne ze zmianą progu dyskryminacji.
3. Podsumowanie
Przedstawiony komparator charakteryzuje sie
parametrami dopasowanymi do docelowej aplikacji.
Układ ten pozwala na określenie znacznika czasowego z
dokładnoscia ograniczona parametrami poprzedzajacych
stopni (filtrów i wzmacniacza ładunkowego).
Pobór mocy wynosi 400 μW a powierzchnia zajmowana
na krzemie wynosi 40 μm x 140 μm dzieki czemu układ
mo_na wykorzystac w strukturze wielokanałowej o
niewielkiej szerokości kanału (np. 50 μm).
Podziękowania
Praca powstała przy wsparciu Ministerstwa Nauki i
Szkolnictwa Wyższego.
Literatura
[1] Grybos P.: Front-end electronics for multichannel semiconductor
detector systems. Institute of Electronic Systems. Warsaw University
of Technology, 2010.
[2] Spieler H.: Semiconductor detector systems. Oxford University Press.
[3] Allen P., Holberg D.: CMOS Analog Circuit Design. Oxford
University Press.
Mgr inż. Krzysztof Kasiński
e-mail: [email protected]
W roku 2008 ukończył studia magisterskie na wydziale
Elektrotechniki, Automatyki, Informatyki i Elektroniki AGH.
Obecnie asystent w Katedrze Metrologii i Elektroniki tego
wydziału. Zainteresowania naukowe obejmuja miedzy innymi
projektowanie specjalizowanych układów scalonych oraz
systemów kontrolnopomiarowych. Jest autorem lub
współautorem ponad 25 prac naukowych.
Rys. 6. Stopien wejsciowy dyskryminatora
34
Warsztaty Doktoranckie 2012
METODY STOSOWANE W BADANIACH NIENISZCZĄCYCH
Karol Onoszko
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. Artykuł przedstawia zestawione różnych metod badań nieniszczących. Zostały w nim opisane badania ultradźwiękowe, radiacyjne, penetracyjne,
elektromagnetyczne oraz termowizyjne. Pokrótce przedstawiony jest zakres możliwości każdej z technik, jej zalety oraz wady, a także sposoby praktycznego
wykorzystania.
Słowa kluczowe: badania nieniszczące, badania ultradźwiękowe, metoda echa, metoda cienia, metoda rezonansu, badania radiograficzne, badanie penetracyjne,
badania elektromagnetyczne, badanie termowizyjne.
Methods used in NDT
Abstract. This paper presents NDT methods. The text describes ultrasonic testing, radiation, electromagnetic and thermal testing. Presented is a range of
possibilities of each technique, advantages and disadvantages, and ways of practical use.
Keywords: NDT, ultrasonic testing, the echo method, shadow method, the method of resonance, radiographic testing, penetration testing, electromagnetic
testing, thermal testing
Wstęp
ze stali ferrytowych, austenitycznych, aluminium,
magnezu, miedzi i jej stopów, ołowiu, niklu oraz
ceramiki szczególne przy określeniu jakości złączy
spawanych, części maszyn, czy pomiarów grubości.
Największym plusem badań ultradźwiękowych są ich
niskie koszta w porównaniu z innymi metodami, które
mogą być nawet o ponad połowę większe. Kolejną zaletą
jest stosunkowo duży zasięg wnikania ultradźwięków w
badany element. Wartość ta może wynosić nawet ponad
10 metrów i zależy w głównej mierze od częstotliwości
użytej fali oraz właściwości pochłaniania badanego
materiału. Należy również zwrócić uwagę, iż badanie
ultradźwiękowe łączy w sobie szybkość oraz gwarancję
dokładnego zlokalizowania wad wewnętrznych jak
i zewnętrznych,
przy
jednoczesnej
możliwości
otrzymania bezpośrednio wyników.
Badanie ultradźwiękowe nie należy do łatwych. Jest
najtrudniejszą metodą spośród stosowanych w praktyce
badań nieniszczących. Do jego przeprowadzenia
potrzebna jest
duża wiedza teoretyczna przy
jednoczesnym doświadczeniu. Badania ultradźwiękowe
ze względu na sposób uzyskania informacji można
podzielić na trzy metody badawcze: echa, cienia oraz
rezonansu.
Istnieją dwie grupy badań pozwalających
określić stan i właściwości badanego obiektu: niszczące
oraz nieniszczące (ang. Non-Destructive Testing – NDT).
Druga z wymienionych tu grup ma znacznie większy
zakres zastosowań. Wynika to z faktu, iż badania
nieniszczące pozwalają uzyskać informacje o obiekcie
bez fizycznego ingerowania w jego strukturę, przez co
rozwiązanie to jest tańsze w porównaniu z badaniami
niszczącymi. Obszarami, w których chętnie korzysta się z
metod nieniszczących są przede wszystkim przemysł
motoryzacyjny, gazowy, petrochemiczny, a także
lotnictwo i energetyka. Badanie pozwala ocenić jakość
eksploatowanych obiektów, jak również będących
jeszcze w trakcie procesu technologicznego.
Każda niejednorodność struktury, którymi mogą być
korozja, wtrącenia, rozwarstwienia, pęknięcia itp.,
powodują zmiany nie tylko właściwości mechanicznych,
ale również wpływają na inne np. przewodność
elektryczną. Dlatego stosując odpowiednią technikę
pomiarową, możliwe jest wykrycie uszkodzenia
generującego zaburzenie w sygnale pomiarowym.
Mówiąc innymi słowy, metoda powinna być
odpowiednio dobrana do wady, którą chcemy
zaobserwować.
Po przeprowadzeniu badania otrzymywana jest
informacja, która nie zawsze jest łatwa do
zinterpretowania. W niektórych metodach konieczne jest
dokonanie dodatkowych obliczeń, w celu dokładnego
określenia rodzaju i wielkości wady.
2. Badania radiograficzne
Obszarami, w których stosuje się badania
radiograficzne, są badania odlewów oraz złączy
spawanych wykonanych ze stali, tytanu, miedzi,
aluminium i ich stopów, jak również elementów
ceramicznych, drewnianych, gum i tworzyw sztucznych.
W przypadku elementów o większym stopniu złożoności
np. części maszyn lub urządzeń, konieczne jest
stosowanie odpowiednich zabiegów technicznych, czy
też przystosowanej do tego celu aparatury.
Badania radiograficzne, podobnie jak badania
ultradźwiękowe,
zaliczane
są
do
badań
wolumetrycznych. Otrzymywana przy pomocy tej
metody informacja umożliwia lokalizację, określenie
rodzaju, jak również wielkości wady. Badane obiekty
pochłaniają promieniowanie X oraz gamma, co
w powiązaniu ze zjawiskiem fizykochemicznym pozwala
uzyskać obrazu na kliszy. To właśnie stanowi podstawę
badań radiograficznych. Zasada przeprowadzania
pomiaru jest podobna jak w metodzie cienia. Tu również
po jednej stronie znajduje się przetwornik wysyłający, z
tą różnicą, iż w tym przypadku generuje on
promieniowanie rentgenowskie. Po drugiej stronie
poddanego badaniu elementu umieszcza się detektor,
1. Badania ultradźwiękowe
Ucho ludzkie potrafi wykryć dźwięki z zakresu od 16
Hz do blisko 16 kHz. Fale akustyczne będące powyżej tej
granicy i rozciągające się do 100 MHz noszą miano
ultradźwięków. Ten właśnie rodzaj fal został
zastosowany w jednej z najbardziej popularnych technik
badań nieniszczących, czyli badań ultradźwiękowych w
skrócie zwaną również UT.
W czasie przeprowadzenia badań ultradźwiękowych
zostają wykorzystane właściwości badanej struktury takie
jak sprężystość oraz jednorodność. Te właśnie parametry
mają kluczowe znaczenie przy rozchodzeniu się
ultradźwięków, powodują bowiem zmiany kierunku oraz
czasu przejścia fal wewnątrz badanej struktury. Dzięki
temu można analizować różnego rodzaju materiały
począwszy od gazów, poprzez ciecze, a na ciałach stałych
kończąc. UT stosuje się głównie do badań elementów
35
Warsztaty Doktoranckie 2012
którym może być błona srebrowa, luminoforowa płyta
obrazowa lub przetwornik cyfrowy. Padająca jednorodna
wiązka przechodząc przez obiekt zostaje częściowo
pochłonięta.
Stopień
pochłaniania
zależy
od
wewnętrznego zróżnicowania struktury i widoczny jest
na uzyskanym obrazie końcowym. Wady uwidocznione
są jako ciemniejsze obszary o nieregularnych kształtach
na jaśniejszym tle obiektu badanego. Badania radiacyjne
pozwalają na wykrycie różnego rodzaju wad m.in.
wtrąceń obcych metali, pęknięć, porowatości, braków
przetopu, czy pęcherzy gazowych.
Badanie radiograficzne uważane jest za najbardziej
wiarygodne spośród grup badań nieniszczących.
Jednakże metoda ta jest niezwykle kłopotliwa w
realizacji, a co za tym idzie kosztowna. Głównym
czynnikiem podnoszącymi cenę jest konieczność ochrony
personelu przed promieniowaniem jonizującym oraz
pracochłonność. W ostatnich latach radiografię
analogową
zaczęto
wspierać
technikami
informatycznymi, przez co tradycyjną kliszę zastąpiono
obrazem cyfrowym. Dzięki temu ograniczono koszta,
ułatwiono przetwarzanie i przechowywanie danych, przy
jednoczesnym zwiększeniu dokładności metody.
Obszarem zainteresowań badań penetracyjnych
najczęściej są elementy wykonane z metalu, ale również
wykorzystuje się tą metodę w innych przypadkach pod
warunkiem, iż badany obiekt nie jest porowaty oraz jest
obojętny na działanie penetranta. Szczególnie chętnie
stosuje się tą metodę w przemyśle motoryzacyjnym oraz
budownictwie.
Badanie penetracyjne należy do najstarszych z
spośród metod badań nieniszczących, mimo to są nadal
chętnie stosowana. Dzieje się tak ponieważ jest to szybki,
prosty oraz stosunkowo tani sposób określenia stopnia
uszkodzenia. Możliwe jest badanie szerokiej palety
materiałów o dowolnym kształcie i rozmiarach
praktycznie
w każdych
warunkach. Jedynymi
niedogodnościami jest konieczność oczyszczenia
i odtłuszczania powierzchni przed przeprowadzeniem
do badania. Utrudnieniem jest również wpływ
temperatury na penetranty, ich starzenie się oraz
toksyczność. Są to jednak pomijalnie niewielkie minusy
w porównaniu do korzyści stosowania metody.
4. Badania elektromagnetyczne
W badaniach elektromagnetycznych wykorzystywane
są zjawiska zmian rozkładu strumienia magnetycznego
w zależności od ośrodka, w którym się rozchodzi. Ten
typ badań ma zastosowanie jedynie w określeniu jakości
struktur metalowych mogących przewodzić prąd
elektryczny. Strumień nie wnika na dużą głębokości w
głąb obiektu, dlatego metody te mają charakter
powierzchniowy, mogąca penetrować badany element
jedynie na głębokościach od kilku do kilkunastu
milimetrów. Do badań elektromagnetycznych zaliczamy
dwa typy metod: prądów wirowych oraz megnetyczno
proszkowe.
3. Badania penetracyjne
W momencie, gdy materiał ulega uszkodzeniu tworzy
się defekt, który może zachowywać się jak kapilara (od
łacińskiego słowa capillus – włos). Powstaje w ten
sposób możliwość zajścia zjawiska włoskowatości,
wykorzystywanego w metodzie penetracyjnej. Zjawisko
to
oparte
jest
na
powstawaniu
ciśnienia
powierzchniowego cieczy w wąskich otworach, przez co
ciecz zostaje zassana do szczeliny powyżej powierzchni
swobodnej. W badaniu penetracyjnym stosuje się
specjalne do tego celu medium badawcze zwane
penetrantem.
Badanie penetracyjne składa się z kilku części, które
należy wykonać w odpowiedniej kolejności. Pierwszą
czynnością jest odpowiednie przygotowanie badanej
próbki polegające na jej oczyszczeniu. W najprostszym
przypadku przy użyciu szczotki lub piaskując. W
wypadku delikatniejszych powierzchni stosuje się parę
wodną pod ciśnieniem lub zmywacze. Kolejnym etapem
jest naniesienie penetranta. Odbywa się to poprzez
zanurzenie w nim obiektu, a w wypadku kiedy jest to
niemożliwe nanosi się go przy pomocy pędzla, aerozolu
lub w sposób elektrostatyczny. Po wniknięciu cieczy w
szczeliny usuwany jest jej nadmiar oraz wysusza się
powierzchnię badaną. Następną czynnością jest
naniesienie wywoływacza. Substancja ta powoduje
ujawnienie na zasadzie kontrastu z penetratorem miejsc i
wielkości wad. W wyniku tych czynności malują się na
powierzchni nieregularne kształty odpowiadające
nieciągłościom.
Ze względu na rodzaj użytej cieczy penetracyjnej
stosowane są trzy techniki badań. W pierwszej z nich –
technice barwowej stosuje się ciecze pozwalające na
osiągnięcie dużych czułości. Powstający czerwony obraz
dobrze kontrastuje na białym tle wywoływacza. W
drugiej
technice
stosowany
jest
penetrant
fluorescencyjny, który pod działaniem promieni UV
zaczyna świecić najczęściej kolorem żółto-zielonym.
Technika barwno-fluorescencyjna to trzecia z technik
łącząca w sobie dwie poprzednie. Uzyskiwany obraz
widoczny jest zarówno w świetle widzialnym jak również
pod wpływem promieni UV.
5. Badania termowizyjne
Termowizja to jedna z najprężniej rozwijających się
w ostatnim czasie technik pomiarowych. Jest to
stosunkowo nowa dziedzina w grupie badań
nieniszczących, dlatego nie istnieją jeszcze odpowiednie
normy precyzujące ten typ badań.
Dostarczając do badanego elementu energię zmienia
on swoją temperaturę. Zmiany temperatury w czasie są
obiektem zainteresowań pomiarów termowizyjnych
stosowanych do badaniach nieniszczących. Rozkład
temperatury zależy przede wszystkim od właściwości
badanego elementu takich jak: ciepła właściwego cp,
przewodność cieplnej λ oraz gęstości ρ. Przyjmując, że
wartości te są niezmienne, jednowymiarowe równanie
dyfuzji ciepła w ciele stałym można wyrazić wzorem:
∂2 T ∂T
a 2=
(1)
∂t
∂x
a=λ /ρ c p
gdzie
jest współczynnikiem dyfuzji materiału.
Po przekształceniu Laplaca równanie przyjmuje postać:
∂2 T
a 2 −sT =0
(2)
∂x
Przekształcając dalej równanie otrzymujemy:
∂2 T T
− =0
(3)
∂ x 2 L2
L=
√
a
/
s
gdzie
wyrażona w metrach określa drogę
dyfuzji i mówi jak głęboko dostarczone ciepło wnika w
strukturę.
Termowizyjne metody w badaniach nieniszczących
należą do grupy badań termowizji aktywnych, czyli
takich gdzie badany obiekt jest podgrzewany przez
36
Warsztaty Doktoranckie 2012
dodatkowe wymuszenie. Energia dostarczana może być
na wiele sposobów np. optycznie, ultradźwiękami,
mikrofalami, przy pomocy prądów wirowych lub
mechanicznie. Ze względu na charakter zmian
pobudzenia w czasie techniki te dzielimy na termowizję:
synchroniczną, z pobudzeniem impulsowym oraz z
pobudzeniem zmiennym skokowo.
[8]
[9]
[10]
[11]
http://badania-nieniszczace.com
http://www.ultrazip.pl
http://www.studiumndt.edu.pl
http://www.ndt-cr.pl
mgr inż. Karol Onoszko
e-mail:
[email protected]
Literatura
[1] Lewińska-Romicka A.: Metody diagnostyki urządzeń energetycznych
– badania nieniszczące. elektro.info 2009
[2] Więcek B., De Mey G.: Termowizja w podczerwieni podstawy
zastosowanie. Wydawnictwo PAK 2011
[3] http://www.pcb.com.pl
[4] http://pl.shvoong.com
[5] http://www.technic-control.com.pl
[6] http://www.ndt-net.pl
[7] http://www.ultrandt.pl
37
Warsztaty Doktoranckie 2012
FSI - SYSTEM ELEKTRONICZNEGO STEROWANIA
BEZPOŚREDNIM WTRYSKIEM BENZYNY
Łukasz Putz, Dorota Typańska
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. W artykule zaprezentowano szczegółową analizę systemu bezpośredniego wtrysku benzyny FSI (Fuel Stratified Injection) stosowanego w autach
koncernu Volkswagen Group. W pracy przedstawiono charakterystyczne elementy budowy z opisem ich wpływu na działanie tego typu silnika. Następnie
przedstawiono wyniki badań mocy silnika, momentu obrotowego, emisji spalin oraz zużycia paliwa, przeprowadzonych na modelu VW Passat 2.0 FSI oraz
porównano z osiągami odpowiednika o wtrysku pośrednim - VW Passat 2.0 MPI.
Słowa kluczowe: bezpośredni wtrysk paliwa, elektroniczne sterowanie silnikiem, FSI, mieszanka homogeniczna, mieszanka uwarstwiona, silnik benzynowy
FSI - electronic control of gasoline direct injection system
Abstract. In this article is presented a detailed analysis of FSI (Fuel stratified injection) gasoline direct injection system used in the Volkswagen Group cars. In
the paper are also presented characteristic elements of the construction with a description of their impact on the operation such a type of engine. Next are
presented results of research like engine power, torque, exhaust emissions and fuel consumption, carried out on the VW Passat 2.0 FSI and compared with
performance in the indirect injection equivalent - VW Passat 2.0 MPI.
Keywords: electronic engine control, FSI, fuel direct injection, gasoline engine, homogeneous mixture, stratified mixture
Wstęp
dolotowych oraz odpowiedniemu wyprofilowaniu denka
tłoka w komorze spalania.
Zmiana geometrii kanałów dolotowych odbywa się
na dwa sposoby:
a) przez zmianę długości – służy do tego
dwupołożeniowy walec przełączający, którego
położeniem kieruje sterownik silnika. Na podstawie
obciążenia, prędkości obrotowej i temperatury silnika
dobierane jest właściwe położenie walca;
b) przez podział na dwie części dolną i górną –
przepływ w dolnej części przewodu dolotowego jest
regulowany za pomocą dodatkowej przepustnicy.
Przy pracy na mieszance jednorodnej klapa jest
otwarta i powietrze dostaje się do cylindra całym
przekrojem kolektora dolotowego. Podczas pracy na
mieszance uwarstwionej, klapa zmyka dolną część, a
powietrze jest zasysane tylko górną częścią kolektora
dolotowego.
Aby wzmocnić rotację powietrza już zassanego do
komory spalania, stosuje się odpowiednio wyprofilowane
tłoki, ze specjalnym wgłębieniem zawirowującym
strumień powietrza (rys. 2) [2, 5].
Silniki FSI (Fuel Stratified Injection, czyli wtrysk
paliwa z uwarstwieniem ładunku) są pierwszą generacją
systemów
bezpośredniego
wtrysku
benzyny
zastosowanych w koncernie Volkswagena. Technologia
FSI po raz pierwszy została zastosowana w 2000 roku w
Volkswagenie Lupo. Według producenta jest to zupełnie
nowy rodzaj silników, zarówno ekonomicznych,
wydzielających mniej zanieczyszczeń, jak i bardziej
dynamicznych, w porównaniu z wcześniejszymi
rodzajami wtrysku [3].
1. Układ zasilania w paliwo w systemie FSI
Układ zasilania w paliwo ma budowę klasyczną dla
systemów bezpośredniego wtrysku benzyny, czyli z
rozdziałem na dwie części: nisko- i wysokociśnieniową
(rys 1). W obwodzie niskiego ciśnienia ciśnienie paliwa
jest regulowane (w zależności od potrzeb) w zakresie
0,05÷0,5 MPa. Przy rozruchu silnika wzrasta do 0,6 MPa.
Rys. 1. Schemat układu zasilania w paliwo w systemie FSI [4]
Rys. 2. Wpływ ukształtowania denka tłoka na tworzenie mieszanki
uwarstwionej w silniku FSI [40]
Najważniejszym elementem w obwodzie wysokiego
ciśnienia jest pompa wysokociśnieniowa. Ciśnienie
wytwarzane przez pompę może wynieść maksymalnie 12
MPa. Dzięki zaworowi regulacyjnemu możliwe jest
tłoczenie paliwa według aktualnych potrzeb silnika [5].
3. Sterowanie systemem wtrysku FSI
Głównym sterownikiem silnika jest układ Motronic
MED 9.5.10 firmy Bosch. Jego zadaniem jest kierowanie
pracą silnika odpowiednio do jego aktualnego obciążenia.
Żeby obliczyć obciążenie, sterownik musi otrzymać
sygnały z czujników temperatury powietrza zasysanego,
ciśnienia atmosferycznego i ciśnienia w kolektorze
dolotowym, prędkości obrotowej i położenia wału
korbowego, położenia pedału przyspieszenia, położenia
klap dodatkowej przepustnicy w kolektorze dolotowym.
Spalanie sterowane strumieniem paliwa może
odbywać się na dwóch rodzajach mieszanek: jednorodnej
i uwarstwionej. W czasie jazdy sterownik wybiera jeden
z czterech głównych rodzajów pracy (rys. 3) [2, 5]:
2. Układ dolotowy powietrza w systemie
FSI
W silnikach FSI kluczową rolę w tworzeniu
mieszanki
uwarstwionej
odgrywa
odpowiednie
ukształtowanie strumienia powietrza zasysanego.
Odpowiedni kształt strumienia uzyskuje się głównie
dzięki zastosowaniu zmiennej geometrii kanałów
38
Warsztaty Doktoranckie 2012
a) z ubogą mieszanką uwarstwioną z λ=1,6÷4,0, z
recyrkulacją spalin,
b) z ubogą mieszanką jednorodną z λ=1,55, bez
recyrkulacji spalin,
c) z mieszanką jednorodną stechiometryczną z λ=1, z
recyrkulacją spalin,
d) z mieszanką jednorodną stechiometryczną z λ=1, bez
recyrkulacji spalin.
5. Podsumowanie
Analiza otrzymanych charakterystyk mocy i
momentu obrotowego prowadzi do jednoznacznego
stwierdzenia, że korzystniejsze przebiegi uzyskuje silnik
z systemem bezpośredniego wtrysku benzyny. Auta
wyposażone w tego typu silniki, charakteryzują się
zwiększoną dynamiką i elastycznością, pozytywnie
wpływając na komfort jazdy.
Przeprowadzone badania i ich analiza porównawcza
wykazała wyższość systemów bezpośredniego wtrysku
benzyny nad układami wtrysku pośredniego. Możliwe
jest uzyskanie większej mocy i momentu obrotowego
silnika, przy relatywnie mniejszym zużyciu paliwa oraz
przy mniejszej emisji tlenku węgla do atmosfery [1].
Literatura
[1] Auto Moto Serwis (3/2007). Magazyn motoryzacyjny.
[2] Bosch Team: Informatory techniczne Bosch. Sterowanie silników ZI.
Zasada działania. Podzespoły. WKiŁ, Warszawa 2008.
[3] Herner A., Riehl H.J.: Elektrotechnika i elektronika w pojazdach
samochodowych. WKiŁ, Warszawa 2002.
[4] Materiały szkoleniowe firmy Volkswagen.
[5] Putz Ł.: Praca dyplomowa magisterska. Samochodowe systemy
bezpośredniego wtrysku benzyny. Politechnika Poznańska, Poznań
2009.
Rys. 3. Główne zakresy pracy silnika FSI [4]
4. Badania osiągów silnika FSI
W celu sprawdzenia wydajności silnika 2.0 FSI
zostały na nim wykonane badania w zakresie mocy
silnika, momentu obrotowego, emisji spalin oraz zużycia
paliwa. Jednocześnie dla uzyskania obiektywnego
porównania przebadano także silnik pośredniego wtrysku
benzyny 2.0 MPI [1].
Wszystkie pomiary przeprowadzone zostały na
hamowni
podwoziowej
zgodnie
z
wszelkimi
obowiązującymi normami. W pierwszej części
przeprowadzony został test jezdny NEDC, pozwalający
wyznaczyć ilość emitowanych spalin oraz zużycie paliwa
(tabela 1). Drugą część badań stanowiło wyznaczenie
charakterystyk silnika o wtrysku bezpośrednim (rys. 4).
Parametry
Tabela 1. Zestawienie wyników przeprowadzonych testów
Wyniki badań
Dane producenta
2.0 FSI
2.0 MPI
2.0 FSI
2.0 MPI
Moc [kW]
125(6200)
113(6200)
110(6000)
85(5200)
184(3700)
200(3500)
172(2600)
11,1
13,0
11,3
12,9
Trasa [l/100km]
6,9
7,5
6,4
7,5
Średnio[l/100km]
8,4
10,0
8,2
9,5
CO2 [g/km]
202
241
197
228
CO [g/km]
0,276
0,528
<2,3
<2,3
HC [g/km]
0,185
0,176
<0,2
<0,2
NOx [g/km]
0,092
0,065
<0,15
<0,15
Volkswagen Passat 2.0 FSI
111,377 kW
201,895 Nm
2000
3000
4000
5000
Prędkość obrotowa [obr/min]
240
230
220
210
200
190
180
170
160
150
140
130
Mgr inż. Dorota Typańska
e-mail: [email protected]
Asystent w Instytucie Elektrotechniki i
Elektroniki Przemysłowej na Wydziale
Elektrycznym Politechniki Poznańskiej.
Ukończone
studia
inżynierskie
na
Kierunku Automatyka i Zarządzanie na
Wydziale
Informatyki
Politechniki
Poznańskiej oraz studia magisterskie na
Kierunku Elektrotechnika na Wydziale
Elektrycznym Politechniki Poznańskiej.
Od października 2011 roku podjęte studia
doktoranckie
Nowoczesna
Inżynieria
Elektryczna
i
Informacyjna.
Dotychczasowy dorobek naukowy to dwa
artykuły dotyczące badania wydajności
energetycznej oświetlenia wnętrz obiektów
sportowych i biurowych
Moment obrotowy [Nm]
207(3300)
Moc [kW]
Moment [Nm]
Miasto [l/100km]
120
110
100
90
80
70
60
50
40
30
20
10
1000
Mgr inż. Łukasz Putz
e-mail: [email protected]
Absolwent
jednolitych
studiów
magisterskich na kierunku Elektrotechnika
na
Wydziale
Elektrycznym
PP.
Specjalnosć: Układy Elektryczne i Informatyczne w Przemyśle i Pojazdach. Praca
dyplomowa (wyróżnienie SEP) obroniona
w czerwcu 2009 r. Od 2009 r. asystent na
Wydziale Elektrycznym PP oraz student
studiów
doktoranckich
Nowoczesna
Inżynieria Elektryczna i Informacyjna.
Dotychczasowy
dorobek
naukowy
obejmuje 22 publikacje, większość o
tematyce
wyższych
harmonicznych
generowanych
przez
elektroluminescencyjne źródła światła.
6000
Rys. 4. Charakterystyki silników w VW Passat 2.0 FSI oraz 2.0 MPI
39
Warsztaty Doktoranckie 2012
ASIC IMPLEMENTATION OF HIGH EFFICIENCY 8-BIT
‘OCTALYNX’ RISC MICROPROCESSOR
Maciej Frankiewicz1, Ryszard Gał1, Adam Gołda1, Ireneusz Brzozowski1, Andrzej Kos1
1
AGH University of Science and Technology, Department of Electronics
Abstract. The paper presents structure of 8-bit RISC microcontroller with 16-bit address bus called OctaLynx. The processor behavior is described by Verilog
hardware description language and was fabricated as ASIC in CMOS LF 0.15
V) technology. Before fabrication FPGA tests were run. The system
consists of the core and some peripherals (8-bit general purpose input-output ports, timers/counters, USART, SPI).The processor was designed for tests of the
dynamic power management systems.
Keywords: Microcontroller, RISC, ASIC, CMOS, ALU, Timers/Counters, USART, SPI, Verilog
Implementacja 8-bitowego mikroprocesora „OctaLynx” typu RISC w układzie ASIC
Streszczenie. Artykuł prezentuje strukturę 8-bitowego mikrokontrolera typu RISC z 16-bitową magistralą adresową nazwanego OctaLynx. Procesor został
zaprojektowany z użyciem języka opisu sprzętu Verilog oraz sfabrykowany jako układ ASIC w technologii CMOS LF 0,15
V). Przed fabrykacją
wykonane zostały testy w układzie FPGA. Stworzony system składa się z jądra i peryferiów (8-bitowych portów I/O, liczników, SPI, USART). Procesor
przeznaczony jest do testów systemów dynamicznego zarządzania mocą w układzie.
Słowa kluczowe: mikrokontroler, RISC, ASIC, CMOS, ALU, liczniki, USART, SPI, Verilog
bit output bus for addresses, one 16-bit bidirectional,
multifunctional bus and 4 memory control lines.
The most important unit of every microcontroller is
its core. In this block all instructions are decoded and
executed. All additional devices, internal main bus and
peripherals are driven by this unit. The core consists of
the GPRU (General Purpose Register Unit), SP (Stack
Pointer) counter, control unit with instruction decoder
and ALU (Arithmetic Logic Unit) with SREG (Status
REGister).
Introduction
Authors’ team interests includes synthesis of digital
VLSI circuits and their usage in Dynamic Power
Management (DPM) systems. Presented controller, called
OctaLynx, is prepared for implementation in Application
Specified Integrated Circuit (ASIC) [1] [2] and was
designed with Verilog hardware description language [3].
Before fabrication of ASIC prototype, verification of the
project was necessary. Therefore, an evaluation board
with FPGA device has been designed in order to
implement the prototype of the designed microcontroller.
After verification it was implemented in CMOS LF
0.15 m technology with 1.8 V supply voltage.
The motivation of creating this microcontroller is a
lack of fast 8-bit microcontrollers with wide address bus.
Such processor may have many applications. The most
important ones are fast measurement systems. Authors
are planning to use presented microcontroller in tests of
their DPM system.
MEMORY
DRIVER
PROGRAMMER
EXTERNAL
MEMORY
DATA BUS
CORE
Fig. 1.
PERIPHERAL
Block diagram of the OctaLynx microcontroller arcchitecture
GPRU consists of the 32 8-bit registers. This registers
are used as a source for all arithmetic and logic
operations. As a result accumulator register is
unnecessary and amount of data transmissions with RAM
was reduced. Two 8-bit output buses are connected to
ALU, so both of functions arguments can be transmitted
in the same time. Result of ALU operation is transmitted
by 8-bit input bus and stored in one of the registers.
Additionally one 16-bit output bus and one 16-bit input
bus are connected to ALU for 16 bit operations. In
addition 3 pairs of the registers can be used as 16-bit
address pointers for indirect addressing. This registers are
named as X, Y and Z. For this reason 16-bit output bus
can be switched to RAM address bus. Control Unit is
very important and it controls all operations in
microcontroller. It consists of ID (Instruction Decoder),
IC (Interrupt Controller) and PC (Program Counter).
Instruction decoder performs two functions: reads
instruction code from program memory and decodes it;
sets proper control lines. Most of instructions are
executed in one clock cycle, but some of them require
few clock cycles (for example subroutine call). For this
reason ID is realized as a state machine. Instructions are
pipelined. It means that in one clock cycle one instruction
is executed and next instruction is decoded. Because
instruction decoder is complicated and slow (propagation
time over it is comparable with propagation time over
ALU) this solution improves timing of the controller.
1. Controller structure
Designed microcontroller is quite complex structure.
The system consists of the four fundamental units:
programmer unit, memory driver unit (processor
communicates with external memory), core and
peripherals. The most important element of the
microcontroller is an internal 16-bit main data bus. It
consists of 8-bit data bus, 6-bit internal address bus and
two control lines. The reason for creating such structure
was to improve communication between blocks. All of
them are connected to one main bus which is controlled
by part of the system core. Presented structure enables
easy addition of new peripherals and blocks which are
not included in this design but can be necessary while
further development of the controller. Block diagram of
the controller architecture is presented in Fig. 1 [4].
Memory Driver unit connects microcontroller with
external memory. This memory consists of the RAM
(Random Access Memory) and PM (Program Memory).
In addition, internal main data bus is leaded out, so
connecting external devices (for example additional IO
ports) is possible. The controller has 16-bit-width RAM
address bus and 16-bit program memory address bus. It is
possible to address up to 64kB of RAM memory and
128kB of PM (program memory is organized in 16-bit
words). To reduce number of needed IO lines,
multiplexing was used. As a result controller uses one 16-
40
Warsztaty Doktoranckie 2012
OctaLynx controller has ability to call 11 interrupts, so
interrupt control (IC) unit is necessary. IC is connected
with all units that can trigger interrupts and with
instruction decoder. When one of the units sends request
to IC and interrupts are enabled, IC sends request and
vector to ID. When return from interrupt has been
executed IC receives acknowledgment from ID and sends
it to proper unit. Then unit clears request. When more
than one interrupt is requested, IC decides which
interrupt will be executed firstly.
The peripheral unit is grouping all units that are not
necessary for the basic work of microcontroller but can
be useful. All peripheral units are also connected to
internal main data bus, so reading and writing control and
status registers in these units is possible. After reset
signal all peripherals are disabled to decrease power
consumption. This block consists of three GPIO (General
Purpose Input/Output) ports, SPI (Serial Peripheral
Interface) and USART (Universal Synchronous and
Asynchronous Receiver and Transmitter). Another very
useful block is the timers/counters unit. It allows accurate
timing of the program execution. It consists of one 16-bit
T/C0 (Timer/Counter) and two 8-bit timers/counters T/C1
and T/C2. All counters can be triggered from external
pin(A2) or from internal clock by configurable 10-bit
prescaler. The counters can work until overflow or until
previously selected value (after that they are cleared).
Additionally T/C0 has input capture function
implemented. As a result it is possible to set timer into
different modes: CTO (Clear Timer on Overflow), CTC
(Clear Timer on Compare) or PWM (Pulse Width
Modulation). Architecture of the microcontroller enables
implementation of another peripherals, both internal (in
future designs) and external (through main bus leaded
out).
divided into several separate blocks: CORE,
PERIPHERALS,
PROG
(programmer),
MMUX
(memory multiplexer) and CMUX (clock multiplexer).
The reason was to enable easy change of the processor
structure, especially future change of peripherals and
addition of internal memory. Additionally one, not
described before, functional block is presented on the
circuit topography. The clock multiplexer (CMUX) block
function is to select source of clock signal for the
processor. It is possible to use external source of clock or
use internal generator or internal Dynamic Power
Management (DPM) system. The blank space in the
middle of the layout is left free for those internal devices
(generators, sensors, control logic etc.). The layout covers
quite large area of about 0.7 mm x 0.45 mm.
Rys. 2.
Topografia procesora OctaLynx z zanaczonymi głównymi
blokami funkcjonalnymi.
3. Summary
Presented paper gives concise description of 8-bit
RISC microcontroller implementation named OctaLynx.
Structure of consecutive functional blocks has been
described.
Microcontroller has been implemented firstly in
FPGA chip. Some tests have been done and experiments
proved proper work of the controller. Consequently,
AISC implementation has been presented. The circuit
was synthesized in CMS LF 0.15 m technology with
1.8V supply voltage. Circuit structure and
2. ASIC implementation
In order to verify if the structure was designed property
some tests were done before fabrication. At the first stage
of testing each functional block was tested at simulation
level using Active-HDL environment. Second stage
included FPGA implementation of the processor in
Microsemi IGLOO nano AGL250 device. The last stage
in OctaLynx design was its implementation as an ASIC.
The prototype was fabricated in CMS LF 0.15 m
technology with 1.8 V supply voltage. The project was
realized with usage of two different techniques. Most of
the blocks (core, peripherals and programmer) were
synthesized from the Verilog code using bottom-up
technique. These way a lot of design time was saved.
General Purpose Register Unit (GPRU) and Memory
Multiplexer were designed using full-custom technique.
The reason to do so was to save area of the chip by
proper organization of the registers. The task was
possible to do manually because of good repeatability of
memory structures. Manual design of memory
multiplexer enabled possibly short and area-saving
connection of all functional blocks. Layout of created
microcontroller is presented in Fig. 2. The structure is
topography has been presented.
The processor is planned to be used in tests of
authors dynamic power management system and
other measurement boards.
Acknolegements
The work has been supported by the National Science
Center (NCN), research project NCN N N515 500340.
Literature
[1] Ye P., Ling C.: A RISC CPU IP Core. Proceedings of the 2nd
International Conference on Anti-counterfeiting, Security and
Identification ASID’2008, pp. 356-359
[2] Lee R., Mahon M., Morris D.: Pathlength Reduction Features in the
PA-RISC Architecture. Digest Papers of the 37th IEEE Computer
Society International Conference Copcon’92, pp. 129-135
[3] Lilja D.J., Sapatnekar S.S.: Designing Digital Computer Systems
with Verilog. Cambridge University Press, 2005
[4] Gał R., Gołda A., Frankiewicz M., Kos A.: FPGA implementation of
8-bit RISC microcontroller for embedded systems. Proceedings of the
18th International Conference Mixed Design of Integrated Circuits
and Systems MIXDES’2011, s. 323-328
41
Warsztaty Doktoranckie 2012
THERMAL ANALYSIS OF CMOS VOLTAGE-CONTROLLED
OSCILLATORS
Maciej Frankiewicz1 , Andrzej Kos1
1
AGH University of Science and Technology, Department of Electronics
Abstract. The paper presents impact of chip temperature on frequency generated by Voltage-Controlled Oscillators. Three different CMOS
structures have been tested. Resonant cross-coupled oscillator was designed and fabricated in AMS 0.35 m (3.3 V) technology and has at
ambient temperature the frequency range from 2.2 to 2.5 MHz. Two different ring oscillators were designed in UMC 0.18 m (1.8 V)
technology and have at ambient temperature the frequency range respectively from 0.6 to 2.8 GHz and from 0.4 to 1.9 GHz. All circuits were
designed using full-custom technique. Influence of temperature to tuning range and power consumption has been investigated.
Keywords: … VCO, LC, RO, CMOS, temperature
Analizy termiczne generatorów przestrajanych napięciem
Streszczenie. Artykuł przedstawia wpływ temperatury na działanie generatorów przestrajanych napięciem VCO. Przebadane zostały trzy
różne struktury układów CMOS. Generator rezonansowy został zaprojektowany i sfabrykowany w technologii AMS 0,35 m (3,3 V) i w
temperaturze pokojowej generuje częstotliwości z zakresu od 2,2 do 2,5 MHz. Dwa odmienne generatory pierścieniowe zostały
zaprojektowane w technologii UMC 0,18 m (1,8 V) i generują częstotliwości z zakresu odpowiednio od 0,6 do 2,8 GHz oraz od 0,4 do
1,9 GHz. Wszystkie układy zostały zaprojektowane techniką full-custom. Przetestowane zostało oddziaływanie termiczne na zakres
przestrajania oraz pobór mocy generatorów.
Słowa kluczowe: VCO, układy rezonansowe, generatory pierścieniowe, CMOS, temperatura
constant capacitance CCONST and variable one CVAR. In
order to maximize tuning range part of the capacity
coming from varactors should be more important [4].
Measurements in thermal chamber showed that
frequency generated by resonant VCO is not constant
with changes of the chip temperature. Rising temperature
caused higher frequency of oscillations. This can be only
result of changes of LC elements parameters. Change of
the transistors parameters was visible as smaller
amplitude of the oscillations at hotter chip. Tuning
characteristics of resonant VCO at different temperatures
are presented in Fig. 2.
At higher temperatures oscillations started fading.
The shape of the characteristic is caused by the change of
varactors capacity and is nonmonotone. Useful part of it
which can be took under consideration while designing
the circuit is o rising range from about 1.1 to 2.3 V.
Temperature dependence of this part will be investigated
in next parts of the paper.
Introduction
Work of every circuit depends on its temperature [1].
This impact is very important in case of integrated
circuits where all elements are in the same silicon die and
few elements dissipating large amount of power can
influence big number of other elements. Because of that
reason designers must take into account thermal aspects
of circuit work.
Temperature dependence is especially significant
factor in designing Temperature-Controlled Oscillators
(TCOs). In these structures Voltage-Controlled
Oscillators (VCOs) are tuned by the signal from
temperature sensors. If frequency produced by generator
is tuned by the chip temperature thermal behaviour of
generator itself must be known. Favorable situation is
when generated frequency changes with temperature
monotonically, then this change can be predicted and
included into design process. Another important issue is
impact of temperature to power consumption of the
generator.
In next sections three different CMOS generators will
be described. First is LC cross-coupled structure and next
are two ring oscillators. Resonant circuit was fabricated
and tested in thermal chamber while in case of ring
oscillators simulation results are presented. Some
temperature dependencies will be defined. Obtained
results can be helpful for engineers in designing TCOs or
temperature-independent generators.º
VDD
VDD
M1
M6
M2
M3
L
VOUT 1
1. Resonant oscillator
Resonant cross-coupled generator was designed and
fabricated in AMS 0.35 m technology with 3.3 V supply
voltage. LC circuits are widely used because of low phase
noise and high frequency but they cover big area of the
chip which can be a problem for some applications.
Presented structure consists of 4 PMOS and 3 NMOS
transistors. Resonant circuit is built of a spiral metal
geometry which works as an inductor L, a capacitor
between two polysilicon layers CCONST and two varactors
CVAR. Schematic diagram is presented in Fig. 1 [2] [3]. At
each moment only one arm of the circuit is working and
charging the LC circuit. Frequency generated by the
structure is equal (1) and C represents combination of
VOUT 2
CCONST
CVAR 1
CVAR 2
VCNT
M7
VGG
M4
Rys. 1.
M5
Schemat ideowy rezonansowego generatora VCO
f0 
42
1
2 LC
(1)
Warsztaty Doktoranckie 2012
oscillator which is a great advantage of such ring
oscillator. For higher control voltages the generated
frequency is getting smaller with temperature growth. On
the other hand at low control voltages the frequency is
slightly rising. Special attention has to be paid to this
region while designing the circuit. Between them there is
a single point at about 0.93 V where generated frequency
is independent on temperature. This information is very
useful when integrated circuit designer wants to
implement stable oscillator in the circuit with changing
thermal conditions. In such situation presented ring
oscillator with proper control voltage can be used.
Rys. 2.
Charakterystyki przestrajania rezonansowego VCO przy
różnych temperaturach
Because of power consumption minimization usage
of circuit other than inverter in ring oscillator structure is
possible [6]. For this reason five stage ring oscillator
based on CMOS XNOR gates was implemented in UMC
0.18 m technology. The circuit works very similar to
previous one. Temperature change of tuning
characteristic, presented in Fig. 5, is also not monotone –
generated frequency is falling with temperature growth at
higher control voltages and increasing with lower control
voltages. The thermally stable point of the characteristic
is about 0.9 V and 585 MHz. Tuning range is slightly
smaller than in inverter-based structure and getting
narrower for higher temperatures but still much larger
than in resonant structure.
2. Ring oscillators
Ring oscillators were designed and in UMC 0.18 m
technology with 1.8 V supply voltage. The structure
consists of odd number (2n-1) of inverters connected in
series, as presented in Fig. 3 [5]. Such circuit generates
square wave of frequency described by (2). This
frequency can be tuned by change of number of inverters
N in the ring or by change of single inverter propagation
time tP.
0
1
2
2n-1
…
Rys. 3.
Schemat ideowy oscylatora pierścieniowego
1
2 Nt P
First designed circuit consisted of five CMOS
inverters which propagation time was controlled by
change of their supply voltage. For too low supply the
oscillations faded. Obviously, on the output of the ring
there has to be another inverter with constant supply
which acts as a buffer for stable magnitude of output
wave. Tuning characteristic of the ring oscillator for
different temperatures (from 10 to 90ºC with 10ºC step)
is presented in Fig. 4. Direction of temperature change is
also marked.
f0 
(2)
3. Summary
Presented results will be used in authors work
including design of dynamic power management systems
using voltage-controlled oscillators. Obviously, the
precise values of parameters would differ for each new
design but the principles and direction of characteristics
change should stay the same. As a result the presented
measurements can be good reference for future works.
Acknowledgements
The work has been supported by the National Science
Center (NCN), research project NCN N N515 500340.
Literature
[1] Sapatnekar S.S.: Temperature as a First-Class Citizen in Chip
[2]
Rys. 4.
Charakterystyki
przestrajania
generatora
pierścieniowego przy różnych
temperaturach
Rys. 5.
Charakterystyki
przestrajania generatora
pierścieniowego z bramek
XNOR przy różnych
temperaturach
[3]
[4]
Thermal behaviour of the ring oscillator is quite
complex issue. With change of the temperature parasitics
change but also the carriers mobility changes (which
affects currents). As an effect the direction of the
characteristic change is not monotone. What is more, for
higher temperatures the tuning range is narrower. Despite
the fact that they are getting narrower with temperature
growth, they are still much larger then in case of resonant
[5]
[6]
43
Design. Proceedings of the 15th International Workshop on
Integrated Circuits and Systems THERMINIC’2009, pp. 1
Moon Y.-J., Roh Y.-S., Jeong C.-Y., Yoo C.: A 4.39-5.26 GHz LCTank CMOS Voltage-Controlled Oscillator with Small VCO-Gain
Variation. IEEE Microwave and Wireless Components Letters, Vol.
19 No. 8, 2009, pp. 524-526
Zihir S., Tasdemir F., Dinc T., Gurbuz Y.: A New Resonant Circuit
for 2.45 GHz LC VCO with Linear Frequency Tuning. Proceedings
of the 6th European Microwave Integrated Circuits Conference
EuMIC’2011, pp. 390-393
Frankiewicz M., Gołda A., Kos A.: Design of CMOS Analog and
Digital Phase-Locked Loops Based on Resonant VCO. Proceedings
of the 17th International Conference Mixed Design of Integrated
Circuits and Systems MIXDES’2010, pp. 247-250
Mroszczyk P., Gołda A., Kos A.: Niskomocowy generator
pierścieniowy CMOS sterowany napięciem. Materiały IX Krajowej
Konferencji Elektroniki KKE’2010, pp. 114-119
Kumar M., Arya S.K., Pandey S.: Voltage Controlled Ring
Oscillator Design with Novel 3 Transistors XNOR/XOR Gates.
Circuits and Systems 2/2011, pp. 190-195
Warsztaty Doktoranckie 2012
WPŁYW CZASU ODPOWIEDZI NEUROSTEROWNIKA NA JAKOŚĆ
REGULACJI
Marcin Lis1
1
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. W publikacji umieszczono wyniki dotyczące badania jakości sterowania siecią neuronową pracującą z różnym czasem
wykonywania obliczeń. Celem jest wyznaczenie (dla założonego obiektu) granicy częstotliwości, z jaką musi pracować sieć aby sterowanie
spełniało założone wskaźniki jakości. Do uczenia sieci neuronowej wykorzystano algorytm adaptacyjnej interakcji.
Słowa kluczowe: Sieć neuronowa, Adaptive Interaction, jakość regulacji, czas odpowiedzi, neurosterownik
Response time of neurodriver vs quality of regulation
Abstract. In the article reader can find the results of testing the quality of neural network control with varying calculations time. The aim is
to determine (for the assumed object) the limit frequency with which it must work to meet established quality indicators. Neural network
learning algorithm uses the Adaptive Interaction method.
Keywords: Neural network, Adaptive Interaction, quality of regulation, response time, neurodriver
Wstęp
b)
dla warstwy ukrytej:
  r    f ( p )
(2)
w
j
j
i
k
gdzie: j – numer wagi w warstwie wejściowej, k – numer
neuronu warstwy ukrytej, rj – sygnał doprowadzony do
wagi j, pk – suma sygnałów k-tego neuronu, przed
podaniem na funkcję aktywacji,
 w
(3)
i  w
i
i
W
publikacji
[2]
przedstawiono
wyniki
eksperymentów symulacyjnych dla sieci neuronowej
sterującej obiektem, realizującej zadanie nadążania za
sygnałem referencyjnym. Milcząco przyjęto założenie, iż
sieć wykonuje obliczenia (wartości wyjściowej oraz
adaptacji) co krok symulacyjny. Tematem tego artykułu
jest zbadanie wpływu ograniczenia ilości operacji w
stosunku do ilości kroków, które wykonuje symulacja
oraz zbadanie, jak wpływa to na jakość sterowania
obiektem.
Stwierdzenie, że sieć neuronowa może wykonywać
swoje obliczenia stosunkowo „rzadziej” jest bardzo
pomocne w kontekście używania jej w systemach
mikroprocesorowych. Przy sterowaniu przekształtnikami
wystarczy raz na okres kluczowania elementu mocy
zmieniać jego wypełnienie (w przypadku metody PWM),
a co za tym idzie, tylko raz wykonać obliczenia sieci
neuronowej. Przy ogólnoświatowym ukierunkowaniu na
jak
najbardziej
energooszczędne
sterowania
(mikroprocesor kiedy nie wykonuje obliczeń pobiera o
wiele mniej energii) jest to bardzo ważna cecha.
W pierwszym rozdziale umieszczono założenia
odnośnie sieci neuronowej oraz symulacji. W drugim
rozdziale zamieszczono informacje odnośnie obiektu
sterowania. Rozdział trzeci i czwarty przedstawia wyniki
symulacyjne, które obrazują, w jaki sposób częstotliwość
wykonywania obliczeń wpływa na jakość regulacji (dla
dwóch różnych sygnałów sterujących).
Początkowe wagi sieci zostały dobrane metodą
losową,
z uwzględnieniem zależności:
if sign(wa )  sign(wb   sign(wa )  sign(wa ) (4)
gdzie: a oraz b są to odpowiadające sobie neurony ze
względu na opóźnienie sygnału. Powyższa zasada ma
zastosowanie dla przynajmniej dwóch par wag w
warstwie ukrytej.
Nowością jeżeli chodzi o przyjęte założenia (w
porównaniu do [2]) jest wprowadzenie czasu
próbkowania. Co określony czas Tp następuje proces
obliczenia wartości wyjściowej sieci oraz zmiany
parametrów wartości wag poszczególnych neuronów.
Pomiędzy kolejnymi krokami czasowymi, wartość
wyjściowa z sieci jest zatrzaskiwana i równa ostatniemu
obliczeniu.
Wszystkie symulacje zostały przeprowadzone w
programie Matlab/Simulink. Krok, z którym zostały one
wykonane to 1e-6 (niezmienny podczas całej symulacji).
Użyta metoda całkowania: ode3. Schemat układu do
symulacji został przedstawiony na rys. 1. Na rysunku
widać generator funkcji prostokątnej. Na zbocze
narastające fali prostokątnej wykonują się wszystkie
obliczenia (wartości wyjściowej oraz adaptacji).
Zastosowany trigger narzuca wewnątrz bloku Sieć
Neuronowa osobny krok, synchronizując z nim
obliczanie wszystkich wewnętrznych całek. Całki
obliczane są metodą trapezów, którą w prosty sposób
można zaimplementować na mikrokontrolerze. Bloczek
wzmocnienia sygnału służy do rozciągnięcia zakresu
sygnału wyjściowego z sieci (funkcja tansig generuje
wartości z zakresu <-1, 1>). Struktura sieci neuronowej
(bez sprzężeń zwrotnych wewnątrz sieci oraz bez użycia
członu różniczkującego) przypomina regulator PI
działający w układzie z ujemnym sprzężeniem zwrotnym.
Parametr lr o wartości 200 oznacza współczynnik
adaptacji i będzie opisany w dalszej części artykułu.
1. Założenia odnośnie sieci neuronowej i
symulacji
Przy projektowaniu sieci neuronowej nałożone
zostały ograniczenia na ilość neuronów w warstwie
ukrytej oraz liczbę sygnałów opóźnień wejścia do sieci.
Symulacje były przeprowadzane dla 3 neuronów (2 w
warstwie ukrytej, 1 w wyjściowej), jako funkcje
aktywacji użyto logsig dla warstwy ukrytej oraz tansig
dla warstwy wyjściowej. Przyjęto brak wejścia bias na
każdy z neuronów. Sieć jest typu feedforward.
Sieć była uczona metodą adaptacyjnych interakcji.
Wzory opisujące algorytm uczenia mają postacie:
a) dla warstwy wyjściowej:
  e r
(1)
w
i
1
i
gdzie: w – waga, i – numer wagi w warstwie wyjściowej,
γ – współczynnik adaptacji, e1 – sygnał wejściowy do
sieci, bez opóźnienia, ri – sygnał wyjściowy z neuronu
warstwy ukrytej do i-tej wagi w warstwie wyjściowej,
44
Warsztaty Doktoranckie 2012
Rys. 1.
Schemat blokowy do symulacji sieci z obiektem
2. Obiekt
Obiekt, który został poddany sterowaniu przez sieć
neuronową można opisać za pomocą następujących
równań stanów (pominięto indeksy zależności od czasu):
 x  x  e 0.5 x  (1  x 2  5  )  u
(5)

y

x

gdzie: v ~ N(0, 1).
Obiekt z punktu widzenia sieci neuronowej jest
czarną skrzynką, tj. jedynymi znanymi sygnałami obiektu
jest jego wejście oraz wyjście.
3. Wyniki symulacyjne dla sygnału
y = 3sin(x)
Dla wylosowanych wag w sieci neuronowej (-0.1565
0.8315 0.5844 0.9190; 0.3115 -0.9286 0.6983 0.8680)
przeprowadzono symulację, w której sygnałem
sterującym był: y = 3sin(x). Na rys. 2 przedstawiono
wybrane przebiegi dla tego doświadczenia. Linią ciągłą
został przedstawiony przebieg odpowiedzi z obiektu,
linią przerywaną – sygnał zadany.
Tabela 1. Wpływ czasu obliczenia sieci na jakość sterowania
Odstęp czasowy pomiędzy
obliczeniami [s]
1 N
2
  y'i  yi 
N n 1
>6550e-6
6550e-6
6000e-6
5000e-6
3500e-6
2500e-6
1000e-6
100e-6
10e-6
1e-6
>20 – brak stabilności
0.0479
0.0370
0.0101
0.0067
0.0053
0.0039
0.0032
0.0031
0.0031
Rys. 2.
Od góry: przebieg odpowiedzi obiektu dla czasu obliczeń
odpowiedzi sieci na poziomie: 1e-6, 1000e-6, 6650e-6 [s]
4. Podsumowanie
W pełnej wersji artykułu zostanie umieszczony
rozszerzony opis przypadku dla sterowania y = 3·sin(x)
oraz zostanie opisany inny przypadek: y = 2·tri(x), gdzie
tri jest sygnałem trójkątnym symetrycznym o określonej
częstotliwości. Zostaną także wyciągnięte wnioski
odnośnie wpływu parametru lr na użyteczny zakres czasu
obliczeń sieci.
Analizując zawartość tabeli 1 można stwierdzić dwie
rzeczy:
a) zbytnia minimalizacja czasu obliczeń sieci nie robi
większej różnicy pod względem jakości sterowania.
Przy porównaniu wartości i przebiegów dla 1e-6 s
oraz 1e-1000 s można stwierdzić, że nie następują
żadne znaczące zmiany. Sieć neuronowa po czasie
„nauczenia się” obiektu spełnia swoje zadanie,
b) istnieje pewna granica czasu obliczeń wartości
wyjściowej, poniżej której odpowiedź z sieci nie jest
w stanie wysterować obiektu. Dla opisanych w tym
artykule obiektu oraz wag sieci, ta granica znajduje
się około 6550e-6 s. Na wykresie odpowiadającym
tej wartości czasu odpowiedzi można zauważyć, iż
sieć posiada duże trudności z dopasowaniem wyjścia
z obiektu do sygnału zadanego. Drobna zmiana tej
wartości, chociażby do 6560e-6 s powoduje
niestabilną pracę układu.
Literatura
[1] Brandt R. D., Feng Lin, Adaptive interaction and its application to
neural networks, Information Sciences, Volume 121, Issues 3–4, 2
December 1999.
[2] Lis M.: Sieć neuronowa jako regulator obiektu dynamicznego.
Materiały konferencyjne ZkwE 2012.
Mgr inż. Marcin Lis
e-mail: [email protected]
Student III-go stopnia na Politechnice
Poznańskiej od 2011 roku. Działalność
naukowa obejmuje zastosowanie sieci
neuronowych do sterowania obiektami o
nieznanej
strukturze
wewnętrznej,
z
ukierunkowaniem
na
sterowanie
przekształtnikami energoelektronicznymi
45
Warsztaty Doktoranckie 2012
CONSTRUCTION AND VERIFICATION OF MATHEMATICAL
MODEL OF MASS SPECTROMETRY DATA
Małgorzata Plechawska-Wójcik1
1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, Instytut Informatyki
Abstract. The article presents issues concerning construction, adjustment and implementation of mass spectrometry mathematical model
based on Gaussians and Mixture Models and the mean spectrum. This task is essential to the analysis and it needs specification of many
parameters of the model.
Keywords: Maldi-Tof mass spectrometry, Gaussians, Gaussian Mixture Models, SVM-RFE classification
Konstrukcja i weryfikacja matematycznego modelu danych widm masowych
Streszczenie. Artykuł przedstawia kwestie związane z konstrukcją, dopasowaniem i implementacją modelu matematycznego widm masowych
opartego o rozkłady normalne i mieszaniny rozkładów oraz o widmo średnie. To zadanie jest kluczowe dla analizy, wymaga też określenia
wielu parametrów modelu.
Słowa kluczowe: spektrometria masowa Maldi-Tof, rozkłady Gaussa, mieszaniny rozkładów Gaussa, klasyfikacja SVM-RFE
is performed to answer questions about patterns and the
most important features in the test dataset. The phases of
this analysis are: preliminary data processing, visual data
representation, construction of classifier and features
discovery, evaluation and results interpretation.
Before mass spectrometry classification analysis data
need to be pre-processed and prepared. It is of great
importance for the process of the further analysis and
quality of obtained results.
Pre-processing steps may vary depending on the
specific type of data and proposed exploration method. In
the case of proteomic data coming from mass
spectrometry studies noise correction, baseline
correction, normalisation, spectra alignment are usually
required [2,3]. Sometimes also missing data are handled.
The primary source of information about proteins, their
sequences and the genes encoding them constitutes
biological databases. Data contained in such databases
come from research experiments and their interpretation,
publications and other databases. Research centres which
undertake the construction and maintenance of biological
databases often cooperate and exchange data. The bestknown biological databases are: UniProt, NBCI, KEGG,
EXPASY, HPRD, EPO-KB.
However, before the classification and proteins
searching one need to find peaks of the spectrum.
Mixture models are a good way of large data sets
modeling. They are usually used to model natural
phenomena and biological processes. They can be also
applied in image processing and clustering. Mixture
models are often complex, they consist of many
individual probability distributions. Mixture models
allow interpret the whole population as a composite of an
adequate number of sub-populations, which enable to
perform detailed analysis and obtain better estimation. In
practice, the most commonly used mixture models are
based on Gaussian distributions. Such mixtures are
known as Gaussian Mixture Models (GMM).
The main task associated with mixture models is to
determine their parameters. The number of unknown
parameters is 3k-1, where k is the number of Gaussian
mixture’s components. For each mixture component one
need to estimate both its Gaussian parameters and its
weight. The parameters estimation task may occur to be
complex. The more components are included in the
mixture, the harder and more time consuming is the
estimation task.
Introduction
Mass spectrometry is popular, widely used technique
of determination of complex data composition. Proteomic
approaches to interpretation of biological phenomenon on
the level of proteins constitutes opportunities for
development and advancement of medical diagnosis in
many diseases area. In particular the proteomic analysis
offers great promise to understanding the process of
tumor development in human organism and its response
to the therapy.
The most important proteomic branches are:
identification of proteins in the analysed sample, proteins
features characteristic, specification of the proteins
number in the sample and comparison of the proteins
features.
Mass spectrometry is an analytical technique that
allows accurate measurement of mass to charge ratio of
the proteins. Is used to identify chemical compounds and
to determine their structure and elemental composition. In
proteomics, this method is used primarily to determine
the composition of complex mixtures, in particular the
identification of proteins. The spectrometer work consists
of three stages: ionization of molecules, the selection of
charged particles and their detection.
One of the most popular mass spectrometry used in
the proteomic research is Maldi-Tof. Sputtered and
spared by the laser beam in the electric field ions hit the
detector which determines the mass of ions on the basic
of their velocities and time of flight through the
spectrometer. Result of spectrometric studies is presented
in the form of the mass spectrum. The spectrum presents
the dependence of mass-to-charge ratio (M/Z) and
intensity. Intensity determines the number of ions that hit
the detector in a small, fixed time interval.
1. Models of mass spectra analysis
A model is mathematical data representation used to
present a process or phenomenon in a simplified manner.
This way of the process description allows better
understanding of its characteristics. For example, the
model can be created through the construction of the
classifier using a specific learning set and data set.
In the case of high-bandwidth mass spectrometry data
important issue is to determine the purpose and tasks of
the analysis. The next step is to select appropriate
methods and tools for the data exploration. The analysis
46
Warsztaty Doktoranckie 2012
The task of mixture models parameters solving can be
treated as a missing data problem. It can be formulated as
a task of determining the membership of a group of data
points to one of the distributions in the mixture. This
membership is unknown and must be estimated.
Parameters of the model should therefore be chosen so
that the data points were represented by their membership
to the individual components of the mixture.
The parameters of the mixture model need be
estimated with a method, which is able to handle the
missing values. In case of complex problems where the
number of parameters to estimate is large, typical
estimation methods, like the maximum likelihood, are not
appropriate to solve this tasks. An additional difficulty is
the existence of many local likelihood function extremes.
Therefore, likelihood maximisation of the data fit to the
Gaussian mixture model can be performed with
Expectation-Maximization algorithm (EM). The EM
method assumes the existence of hidden variables. In the
case of mixture models the hidden variables represent
variables defining affiliation of the each observation to
one of the Gaussian components.
for the components with the larger weights. This is a
desirable feature, when the goal of the analysis is to find
main elements of the modelled process. But it can be
problematic in the case of high requirements concerning
parameters fitting.
EM algorithm is an iterative, non-linear algorithm. Its
convergence is fast only in the initial phase of operation
(Figure 4). After a dozen of iterations the speed of
approach significantly decreases and the results of
successive iterations differ very little. This feature of the
algorithm might longer the duration of the whole method,
especially in the case of a high accuracy specified. The
algorithm has also high computational complexity,
especially the M step.
Despite the relatively slow convergence, premature
interruption of the algorithm can cause errors. The most
common problem is to find a local maximum. This
problem is usually caused by improper initial values of
the algorithm. To improve the method results the multiple
repetitions technique can be used. It involves multiple
runs of the algorithm with the initial values changed. This
solution enables to choose the estimation with the
maximum value of the likelihood function. This method
gives good results and it effectively improves the
estimation level. However, it causes extending of the
duration time and higher calculation complexity.
The problem of the local maximum might be improved
with careful selection of the input parameters.
The most obvious and quickest way to obtain initial
parameters is the random selection. However, such a
choice can be made in several ways. One is the random
distribution of data into specified number of elements
(this number is usually equal to the number of mixture
components) [1]. The is also possibility to use one of the
clustering algorithms, such as k-means or hierarchical
clustering. However, using this methods might be costly,
especially when it has to cover a large group of data. That
is why there solutions which are based on a randomly
selected samples. An alternative method of the input
parameters determination is generation based on the
primary peak detection method based on local extremes.
Obtained results, with Gaussian arousals added, allows
quick setting of the input parameters localized around the
relevant procedures results.
The task of mixture’s parameters estimation requires
known number of components. Obtaining this number of
components is important and hard task, especially in case
of complicated mixtures with overlapped peaks.
The important aspect is also determination of
calculation accuracy. Too low accuracy can cause the
local maximum problem. Too high value will lead to an
excessive increase of the computation time length.
Besides the mathematical analysis, the significant aim
is identification of proteins or peptides present in the
sample. Implementation of classification enables initial
determination of predictive model power that allows for
performing the functional analysis of identified peaks.
Data classification is difficult because of a strong
correlation of data combined with its high dimensionality.
Row spectra, composed of many thousands of features
and dozens of objects require a two-stage dimensionality
reduction. The first stage is decomposition with Gaussian
mask put on all spectra. This operation enable to reduce
the dimensionality to several hundred of features. The
second step was the selection of the most informative
features in the process of dimension reduction performed
with such methods like T-test, SVM-RFE or PLS. Due to
2. Problems of the model implementation
Expectation-Maximization algorithm is efficient
method of GMM estimation. However, to obtain
repeatable, reliable results one needs to appropriately
chose all parameters, such as the model parameters, its
correctness, number of the model parameters, initial
values, stop criterions, calculation accuracy and quality
assurance.
Parameters of the pre-processing can be adjusted to the
specific data before the main procedure of analysis. The
order of these operations is fixed and includes: averaging
technical repetition, outliers detection, baseline
correction, normalization, interpolation, calculation of the
mean spectrum. This order is a standard which has been
developed over the last few years of research in this field.
The most important parameters of the pre-processing are:
the window size of the baseline correction and using (or
not) the mean spectrum.
The important element of the analysis is appropriate
choice of the mixture options, in particular the number of
components. There is a possibility to use different
methods of number of components estimating such as the
BIC criterion, the basic functions of peak detection,
statistical methods determining the density distribution of
the parameters.
What is more, the characteristic of the EM algorithm is
of great importance for the analysis. The level of the
estimation task depends on the number of components
and the sample size.
The EM algorithm generates some specific types of
errors. The most frequent one is merging of distributions.
This phenomenon occurs when at least two distributions
with similar means value occurs. The merging probability
is greater, if also standard deviations are similar. When
the number of components is fixed, this join results in
generation of additional distributions, which usually have
small weight. Another type of error is generation of
distributions with large standard deviation and low
weight. In practice it results in long, flat distributions.
Sometimes additional distributions with small standard
deviation are also formed.
Another important feature of the EM algorithm is that
the better and quicker adjustment are usually obtained
47
Warsztaty Doktoranckie 2012

the high level of correlation it is necessary to the
implement classification based on features. Prepared in
this way data set can be subjected to SVM learning and
classifying.
the mean spectrum calculation.
The second method used in the analysis does not
require the calculation of the spectrum average. In this
case the mandatory pre-processing procedure consists of
only baseline correction. Normalization and interpolation,
however, were also perform to standardise the data.
The article presents detailed results of the
decomposition analysis. Presented mass spectra
processing method can be used not only for the spectra,
whose peaks are narrow and do not overlap. The method
also allows modeling of spectrum with a more complex
structure with overlapped peaks characterized by a large
variance. For these spectra, the methods based on local
maxima and minima usually fail.
3. Results
The method was tested with the set containing mice
subjected to irradiation. This data set was selected due to
the specificity of data. The relevant aspects are the large
number of biological and technical repetitions and the
possibility of treating samples as if they came from a
single organism. The analyzed data set contains twelve
repetitions: six biological and two technical repeats
performed on five mice from one litter. The analysis
conducted on this set is primarily a comparison of results
obtained using two methods: with the mean spectrum and
without it.
The analysis with the mean spectrum involves
standard, described earlier steps:
 baseline correction - the operation is necessary due to
typical character of the spectrum,
 interpolation – standardisation of points on the
independent axis,
 normalization – reduction of all spectra to one
common area under the curve,
Bibliography
[1] McLachlan G.: Finite mixture models. John Wiley and sons, 2001.
[2] Morris J., Coombes K., Kooman J., Baggerly K., Kobayashi R..:
Feature extraction and quantification for mass spectrometry data in
biomedical applications using the mean spectrum. Bioinformatics,
21(9): 1764-1775. 2005.
[3] Norris J., Cornett D., Mobley J., Anderson M., Seeley E., Chaurand
P, Caprioli R.: Processing MALDI mass spectra to improve mass
spectral direct tissue analysis. National institutes of health. 2007,
USA.
48
Warsztaty Doktoranckie 2012
WPŁYW ZWILŻALNOŚCI WYSOKOTOPLIWEGO PODŁOŻA NA
JAKOŚĆ WARSTW MIEDZIANYCH WYTWARZANYCH METODĄ
POŚREDNIEGO GRZANIA OPOROWEGO PRZY OBNIŻONYM
CIŚNIENIU
Jarosław Komorowski1 , Marek Binienda1, Magdalena Pokrzywa1, Paweł Just2, Emilia
Wołowiec1, Aneta Praska-Jaros1, Piotr Kula1
Politechnika Łódzka, Wydział Mechaniczny, 1Instytut Inżynierii Materiałowej, 2Katedra Technologii Materiałowych i Systemów Produkcji
Streszczenie. W artykule prezentowane są zagadnienia związane z badaniem wpływu zwilżalności wysokotopliwego podłoża na
jakość warstw miedzianych wytwarzanych metodą pośredniego grzania oporowego przy obniżonym ciśnieniu. W pracy przedstawiono
wyniki badań przetapiania sproszkowanej miedzi na podłożach metalowych o wyższej temperaturze topnienia niż sam surowiec.
Słowa kluczowe: miedź, grzanie oporowe, grzanie pośrednie, obniżone ciśnienie.
Wettability of a high substrate influence on quality films produced by copper indirect heat
resistance at reduced pressure
Abstract. The article presents issues related to examination of the impact of a high wettability of the substrate on the quality of the copper
produced by indirect resistance heating at reduced pressure. This paper presents the results of melting powdered copper metal substrates
with a higher melting point than the material.
Keywords: copper, heat resistance, indirect heat, reduced pressure.
wypadkowej działającej na cząsteczki na granicy faz. Jej
wartość jest jednym z czynników determinujących kształt
i powierzchnię kontaktu między fazami w przypadku,
gdy jedną z faz jest ciecz. Zwilżalność powierzchni
badanego materiału jest własnością określającą
zachowanie ciekłej miedzi na powierzchni w zależności
od sił kohezji wewnątrz cieczy oraz sił adhezji między
fazami. Poznanie zachowania się ciekłej miedzi na
różnorodnych podłożach metalowych pozwoli określić
ich wpływ na równomierne przetopienie warstwy
miedzianej na całej powierzchni podłoża oraz pozwoli
wybrać najlepszy rodzaj materiału do przetapiania
sproszkowanego miedzianego surowca.
Wstęp
W pracy przedstawiono wyniki badań nad
przetapianiem miedzi [1, 2, 3] w postaci proszku o
wielkości
ziarna
wynoszącego
50µm,
dzięki
wykorzystaniu nowatorskiej metody obustronnego,
pośredniego grzania oporowego grzałek wykonanych z
materiału wysokotopliwego jakim jest wolfram [4].
Przetopienie sproszkowanej miedzi na wysokotopliwym
podłożu wymaga dostarczenia odpowiedniej ilości ciepła
do
strefy
przetapiania.
Jedną
z
najbardziej
rozpowszechnionych metod jest grzanie oporowe
(rezystancyjne). Podczas przepływu prądu przez
przewodnik elektryczny wydzielane jest ciepło zgodnie z
prawem Joule’a- Lenza:
Q  I 2  Rt
2. Układ doświadczalny
(1)
Modyfikacja warstwy, możliwa jest w wyniku
dostarczenia odpowiedniej ilości ciepła do strefy
przetapiania sproszkowanej miedzi na wysokotopliwym
podłożu [5, 9]. W układzie doświadczalnym źródłem
ciepła jest grzałka oporowa (rezystancyjna) [7]. Na
rysunku nr 1 przedstawiono schemat metody oporowego
grzania podłoża molibdenowego.
gdzie: I- natężenie prądu w obwodzie, R- rezystancja
podłoża pomiędzy zaciskami, t- czas przepływu
prądu.
Wyniki
badań
stanowią
kontynuację
do
przeprowadzonych wcześniej prób przetapiania miedzi na
podłożu molibdenowym rozgrzewanym do temperatur
topnienia miedzi przy pomocy bezpośredniego grzania
oporowego.
Przeprowadzone próby wykazały, iż
największa ilość ciepła jest wydzielana w środkowej
części podłoża. Niejednorodny rozkład temperatury jest
jednak
przyczyną nierównomiernego zarodkowania
homogenicznego skutkującego niemożliwością uzyskania
płaskiego (w pewnym obszarze) frontu krystalizacji.
Rys.1. Schemat ideowy grzania
oporowego
1. Metody badań
Pierwsze próby przetopienia sproszkowanej miedzi
na podłożu molibdenowym pokazały problem jej słabej
zwilżalności i w efekcie problem z uzyskaniem równej i
pokrywającej całą powierzchnię podłoża warstwy.
Jednym ze zjawisk które zostały poddane badaniom było
napięcie międzyfazowe, które jest własnością fizyczną
pojawiającą się na granicy faz i wynikającą z różnicy
między energią oddziaływań cząsteczek wewnątrz
poszczególnych faz, a energią oddziaływań na granicy
faz. Powoduje to powstanie różnej od zera siły
gdzie: T- temperatura na
powierzchni blaszki, x- odległość
pomiędzy zaciskami.
Rys.2. Rozkład temperatury na
podłożu
Źródło prądu o dużej wydajności zasila blaszkę
molibdenową reprezentowaną na schemacie przez
rezystancję R. Podczas przepływu prądu w podłożu
wydzielane jest ciepło zgodnie z prawem Joule’aLenza (1).
W powyższym modelu przeprowadzono badanie
rozkładu temperatury
na długości podłoża
molibdenowego (rysunek 2).
49
Warsztaty Doktoranckie 2012
Największa ilość ciepła jest wydzielana w środkowej
części podłoża. Niejednorodny rozkład temperatury mógł
być
przyczyną
nierównomiernego
zarodkowania
homogenicznego skutkującego niemożliwością uzyskania
płaskiego (w pewnym obszarze) frontu krystalizacji.
Zaproponowany
został
układ
podgrzewania
pośredniego, w którym ciepło dostarczane jest do podłoża
poprzez
promieniowanie.
Schemat
elektryczny
przedstawiono na rysunku 3.
osiągane tam temperatury. Porcja sproszkowanej miedzi
pobiera ciepło z grzałek wolframowych, wystarczające
do jej przetopienia. Czas w którym następuje wzrost
temperatury wystarczającej do przetopienia może wahać
się w granicach od dowolnie długiego czasu do 1
sekundy. Podczas krystalizacji [1, 2, 4]roztopionej
warstwy możliwe jest szybkie obniżanie temperatury z
szybkością 80 oC na sekundę bądź dzięki kontroli
nagrzewania grzałek czas ten można dowolnie wydłużać.
W wyniku grzania oporowego dowolnego układu
grzałek wolframowych dochodzi do ich rozgrzewania a
najwyższa temperatura skumulowana jest po środku
każdej z grzałek. Dzięki prostopadle umieszczonym
grzałkom wolframowych w stosunku do podłoża o
wyższej temperaturze topnienia niż miedź możliwe jest
jego pośrednie, radiacyjne nagrzewanie do temperatur
znacznie przekraczających 1080 °C. Ciepło wydzielane
przez każdą z grzałek nagrzewa punktowo podłoże do
przetapiania miedzi. Zwiększenie ilości grzałek w
jednym układzie do wartości 7 pozwoliło na uzyskanie
jednakowego rozkładu temperatury na powierzchni
podłoża czego nie udało się uzyskać w przypadku jego
bezpośredniego grzania oporowego.
Podczas eksperymentów jako podłoża użyto blaszki
wykonane kilkunastu rodzajów metali w celu zbadania
ich wpływu na zwilżalność podłoża dla roztopionej
miedzi oraz ich ewentualnego wpływu na dyfuzję
zanieczyszczeń do warstwy miedzianej. Zbadano wpływ
rodzaju podłoża wykonanego z metali takich jak: Ti
(1688 °C), Cr (1857 °C), Ni (1455 °C), Mo (2623 °C).
2
1
Rys. 3. Schemat ideowy
układu grzania pośredniego
Rys.
4.
Model
układu
nagrzewania pośredniego. 1podłoże, 2- grzałki
Model układu nagrzewania podłoża do temperatury
topnienia surowca przy pomocy układu grzania
oporowego pośredniego
z wykorzystaniem grzałek górnej i dolnej przedstawiono
na rysunku 4.
3. Wyniki badań
W pracy oprócz wyników badań przedstawiono także
opracowany na PŁ w Instytucie Inżynierii Materiałowej
model układu podgrzewania pośredniego, w którym
ciepło dostarczane jest do podłoża poprzez
promieniowanie z górnego lub dolnego układu grzejnego.
Układ grzałek górnych rozmieszczony jest w
próżniowej komorze grzejnej w sposób równoległy do
układu grzałek dolnych w odległości 30mm. W skład
jednego układu grzałek górnych lub dolnych wchodzi 7
grzałek wolframowych które dzięki zjawisku grzania
oporowego są w stanie w sposób pośredni nagrzać
podłoże do temperatury topienia sproszkowanej miedzi.
Podłoże, które stanowi blaszka materiału o wymiarach
120x10x0,2mm jest wykonana zawsze z materiału o
wyższej temperaturze topnienia niż przetapiany surowiec.
Nagrzewanie do temperatury topnienia miedzi można
wykonać przy pomocy pojedynczego, górnego lub
dolnego układu grzałek lub podczas pracy obu
jednocześnie. Ważnym jest że pomiędzy układem grzałek
górnych i dolnych w równej odległości od każdej z
grzałek znajduje się podłoże do przetapiania miedzi
którego kierunek rozmieszczenia w przestrzeni komory
grzejnej pieca jest prostopadły. Dzięki tak zachowanej
orientacji uzyskano jednakowy rozkład temperatury na
całej powierzchni podłoża.
Zważywszy na wysoką temperaturę procesu, nieco
wyższą niż temperatura topnienia miedzi w celu
wyeliminowania
możliwości
utleniania
się
któregokolwiek z elementów, bądź składników biorących
udział w procesie przeprowadzany jest on w komorze
próżniowej przy ciśnieniu 40x10-3Pa. Przed właściwym
procesem sproszkowana miedź rozsypywana jest na
podłożu metalowym o wyższej temperaturze topnienia
niż sam surowiec. Podczas procesu do grzałek
dostarczany jest prąd o wysokim natężeniu mogący
rozgrzać je do temperatury nawet 2500oC, co odpowiada
temperaturze na podłożu molibdenowym wynoszącej
1700oC przy włączonych układach grzałek górnych i
dolnych. Zmniejszenie odległości układu grzałek górnej i
dolnej w stosunku do podłoża może podwyższyć
4. Wnioski
Badania pozwoliły na określenie najlepszego typu
materiału na którym przetapiana miedź tworzy
równomiernie rozłożone na całej powierzchni podłoża
cienkie warstwy.
Metoda ta może znaleźć zastosowanie przy tworzeniu
różnego rodzaju bimetali lub może posłużyć także do
kierunkowego oczyszczania przetapianego surowca.
Literatura
[1] Pacyna J.: Projektowanie składów chemicznych stali. Wyd. Wydz.
Metalurgii i Inżynierii Materiałowej AGH, Kraków 1997.
[2] Hannay N. B.: Chemia ciała stałego. PWN, Warszawa 1972
[3] Stolarz S., Rutkowski W.: Wolfram i molibden. PWT, Warszawa
1961
[4] Dobrzański L. A.: Materiały Inżynierskie. WNT 2006.
[5] Kula P.: Inżynieria warstwy wierzchniej. WPŁ, Monografie Łódź
2000.
[6] Bydałek A.: Metalurgia miedzi i jej stopów. PWSZ, Głogów 2011.
[7] Perzyk M., Waszkiewicz S., Kaczorowski M., Jopkiewicz A.:
Odlewnictwo. WNT, Warszawa 2000.
[8] Ferenc K. Spawalnictwo. WNT, Warszawa 2007.
[9] Żmija J.: Podstawy teorii zarodkowania i wzrostu kryształów.
Wyższa Szkoła Inżynierii w Radomiu, Radom 1981.
Mgr inż. Jarosław Komorowski
e-mail: [email protected]
Jarosław Komorowski ukończył studia w 2009
na Wydziale Mechanicznym w Instytucie
Inżynierii Materiałowej Politechniki Łódzkiej.
W 2012 ukończył studia podyplomowe na
Wydziale Elektrycznym PŁ. Obecnie prowadzi
prace badawcze nad nowatorską metodą
rafinacji krzemu wykorzystującą zjawisko
odwrócenia frontu krystalizacji. Jego prace
zostaną
wykorzystane
do
budowy
nowoczesnych i opłacalnych z ekonomicznego
punktu widzenia ogniw słonecznych.
50
Warsztaty Doktoranckie 2012
MODELOWANIE I ANALIZA POLA MAGNETYCZNEGO W
NIETYPOWYCH UKŁADACH WSPÓŁRZĘDNYCH
Mikołaj Skowron1
AGH Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki, Katedra
Elektrotechniki i Elelktroenergetyki
1
Streszczenie. Prezentowany artykuł zawiera rozwiązanie równania Laplace’a dla układu współrzędnych sferoidy spłaszczonej oraz
obliczenia rozkładu pola magnetycznego wewnątrz i wokół sferoidy spłaszczonej umieszczonej w jednorodnym polu magnetycznym.
Modelowana sferoida ma paramagnetyczne właściwości magnetyczne. Umieszczenie sferoidy spłaszczonej o takich właściwościach
powoduje zniekształcenie rozkładu pola magnetycznego, największe odkształcenia są na granicach ośrodków. Wielkość tych zmian zależy od
ułożenia modelowanej sferoidy względem polaryzacji pola.
Słowa kluczowe: pole magnetyczne, równanie Laplace’a.
Modeling and analysis of magnetic field for untypical coordinate systems
Abstract. The paper presents solution of the Laplace equation for the oblate spheroid coordinate system and calculate the magnetic field
distribution inside and around the oblate spheroid placed in a uniform magnetic field.. Modeled spheroid is paramagnetic magnetic
properties. Placement oblate spheroid with such properties deformation the magnetic field distribution, the biggest deformation on borders
of resorts. The magnitude of these changes depends on the pose spheroids modeled the polarization field.
Keywords: magnetic field, Laplace’s equation
Wstęp
gdzie:
b = a coshη,
c = a sinhη,
a – ogniskowa rodziny sferoid.
Parametr η zmienia się w przedziale od 0 do ∞. Jeżeli η
= 0 sferoida przyjmuje kształt odcinka o długości 2a,
leżącego na osi OZ. Dla η → ∞ sferoida staje się kulą
o nieskończenie dużym promieniu.
Zmienna θ przyjmuje wartości w zakresie od 0 do π,
przy czym wartość 0 związana jest z dodatnim
kierunkiem osi z, w szczególnym przypadku θ = π/2,
hiperboloida przechodzi w płaszczyznę xy z kołowym
otworem o promieniu a.
Natomiast zmienna ψ przyjmuje wartości w zakresie od
0 do 2π, jest to kąt mierzony wokół osi z. Powierzchnie
o stałych wartościach ψ są półpłaszczyznami
przechodzącymi przez oś z.
Przez analogię dla współrzędnej θ można używać
określenia „długość geograficzna” a dla ψ „szerokość
geograficzna” [8,9].
Dla
określenia
zjawisk
zachodzących
w
paramagnetykach umieszczonych w polu magnetycznym
konieczne jest w pierwszej kolejności wyznaczenie pola
magnetycznego wewnątrz oraz wokół badanych
obiektów. Jedną z możliwych metod jest otoczenie
badanego obiektu powierzchniami drugiego stopnia
[1,2]. Zastosowanie geometrii sferycznych pozwala
objąć większość możliwych kształtów. Jest to główny
powód szerokiego wykorzystania tych geometrii.
Szczególnym przypadkiem sferoidy jest sferoida
spłaszczona, stosuje się ją do przybliżenia wielu różnych
kształtów min. cząsteczek, ziarniaków roślin, ciała
człowieka i zwierząt a nawet łodzi podwodnych [3–7].
1. Współrzędne sferoidy spłaszczonej
Układ współrzędnych sferoidy spłaszczonej tworzy
się
przez
przyjęcie
ortogonalnej
rodziny
współogniskowych elips i hiperbol i obrót dokoła
mniejszych osi elips. Otrzymane powierzchnie
współrzędnych
są
spłaszczonymi
sferoidami,
półpłaszczyznami i hiperboloidami jednopowłokowymi
[8].
2. Równanie Laplace’a
Dla wyznaczenia rozkładu pola magnetycznego
wewnątrz i w otoczeniu rozważanego modelu ziarniaka
użyto równania Laplace’a w układzie sferoidy
spłaszczonej. Metodą analityczną rozwiązania równania
Laplace’a zastosowaną w obliczeniach jest metoda
rozdzielenia
zmiennych.
Metodę
rozdzielenia
zmiennych można użyć tylko wtedy, kiedy granice
środowisk są powierzchniami współrzędnych. Wobec
tego przyjmuje się naturalne założenie, że w
sferoidalnym modelu powierzchnie rozgraniczające
środowiska są opisane równaniami η = const.
We współrzędnych sferoidy spłaszczonej równanie
Laplace’a ma postać [8]:
Rys. 1. Współrzędne sferoidy spłaszczonej
)
Współrzędne sferoidy spłaszczonej (
związane są ze współrzędnymi prostokątnymi
następującymi zależnościami:
(
)
(
)
(1)
Powierzchnie η = const. są sferoidami spłaszczonymi
(2)
(3)
51
Warsztaty Doktoranckie 2012
Po rozdzieleniu zmiennych otrzymuje się układ równań
[8]:
powierzchni x = 0 natężenie pola nieznacznie maleje
zbliżając się do środka sferoidy względem jej krawędzi.
a)
b)
(4)
[ (
)
]
(
[
(5)
)
]
(6)
W przypadku, jeżeli
jest funkcją wszystkich
(
)
trzech
zmiennych
przestrzennych
szczególnym rozwiązaniem równania Laplace’a są
równania:
(
) (
)
(7)
(
) (
)
Jeżeli potencjał
zależy tylko od współrzędnej ,
równanie Laplace’a upraszcza się do wyrażenia:
c)
(8)
Rys. 2. Rozkłady natężenia pola magnetycznego dla sferoidy
spłaszczonej umieszczonej w jednorodnym polu magnetycznym
spolaryzowanym wzdłuż krótszej osi sferoidy dla : a) płaszczyzny z = 0,
b) płaszczyzny x=0. Rozkłady natężenia pola magnetycznego dla sferoidy
spłaszczonej umieszczonej w jednorodnym polu magnetycznym
spolaryzowanym wzdłuż dłuższej osi sferoidy dla c) płaszczyzny z = 0,
d) płaszczyzny y=0
W przypadku istnienia symetrii osiowej, potencjał
jest tylko funkcją współrzędnej , równanie Laplace’a
przyjmuje zatem postać (8), a jego rozwiązaniem
ogólnym są równania [8,9]:
(
)
(9)
lub
(
)
(10)
w których
A, B, C, D – stałe całkowania
Natężenie pola magnetycznego wewnątrz sferoidy
spłaszczonej umieszczonej w jednorodnym polu
magnetycznym
W celu wyznaczenia rozkładu pola magnetycznego
wewnątrz sferoidy spłaszczonej, zakładając symetrię
osiową, należy przyjąć następujące warunki brzegowe
[10-15]:
=
→
= 0,
→∞ →
Rozwiązanie równania Laplace’a w analizowanym
przypadku ma postać:
( )
{
(
[
)
(
)
Analizując drugi przypadek, w którym pole
magnetyczne jest spolaryzowane wzdłuż dłuższej osi
sferoidy, można zaobserwować, że zniekształcenia pola
magnetycznego są największe na granicy ośrodków
gdzie linie pola wnikają do wnętrza sferoidy pod
większym kątem. Dla płaszczyzny z = 0, natężenie pola
magnetycznego, zbliżając się do środka sferoidy
nieznacznie maleje w stosunku do krawędzi sferoidy.
Dla płaszczyzny y = 0 jest przeciwnie tzn. bliżej środka
sferoidy pole rośnie względem krawędzi. Na zewnątrz
sferoidy przy największej krzywiźnie powstaje szybki
wzrost pola, który następnie maleje do wartości pola
zewnętrznego.
Wewnątrz namagnesowanej sferoidy spłaszczonej
natężenie pola magnetycznego ma stałą wartość w całej
przestrzeni. Na zewnątrz sferoidy na granicy ośrodków,
natężenie pola nieznacznie rośnie i następnie szybko
maleje. Wzrost natężenia jest tym większy im większa
jest krzywizna sferoidy. Zniekształcenie pola jest
większe dla sferoidy namagnesowanej wzdłuż dłuższej
osi.
]} (11)
Do wyznaczenia natężenia pola, korzysta się z
zależności:
(12)
√
Ostatecznie otrzymuje się:
[
(
)
(
)
]
d)
Literatura
(13)
[1] Rawa H.: „Podstawy elektromagnetyzmu”, Oficyna wydawnicza
Politechniki Warszawskiej Warszawa 1996
Rysunek 2 przedstawia rozkład natężenia pola
magnetycznego wewnątrz oraz wokół sferoidy
spłaszczonej o właściwościach paramagnetycznych,
umieszczonej w jednorodnym polu magnetycznym.
[2] J. C. Maxwell: ,,A Treatise on Electricity and Magnetism”,
Clarendon Press, Oxford 1873 (www.google.books.pl)
[3] G. J. C. Aird: ,,Modeling the induced magnetic signature of naval
vessels”, University of Glasgow, 2000.
[4] Cieśla A., Skowron M.: ,,The analysis of the static magnetic field in
3. Wnioski
Sferoida
spłaszczona
o
właściwościach
paramagnetycznych, umieszczona w jednorodnym polu,
powoduje zniekształcenie tego pola. Rozpatrując
przypadek pola magnetycznego spolaryzowanego
wzdłuż jednej z krótszych osi można zauważyć, że
największe zniekształcenia są na granicy ośrodków
gdzie linie pola wnikają w sferoidę pod większym
kątem. Dla płaszczyzny z = 0 pole magnetyczne
wewnątrz sferoidy nieznacznie rośnie zbliżając się do jej
środka, względem krawędzi sferoidy. Natomiast dla
[5]
[6]
[7]
[8]
52
paramagnetic spheroids at the laminar structure on the example
grain wheat” ISEF'2007
International Symposium on
Electromagnetic Fields in mechatronics, electrical and electronic
engineering Praga 2007 str. 70–71.
Cieśla A., Kraszewski W., Skowron M., Syrek P.: ,,Wykorzystanie
silnego pola magnetycznego wzbudzonego przez elektromagnes
nadprzewodnikowy do biostymulacji przedsiewnej nasion”
Agrolaser Lublin 2006, str. 26–33.
H. Walt, P. Emmerich: ,,Chimeric human and mouse spheroids”,
Virchows Archiv B Cell Pathology Zell-pathologie, Volume 63,
Number 1 str. 227 – 230.
T.C. Richards: “Transversely Magnetized Oblate Spheroids” 2005,
Defence R&D Canada – Atlantic.
Moon P., Spencer D.E.:„Teoria Pola” PWN Warszawa 1966.
Warsztaty Doktoranckie 2012
[9] Pietrzyk W.: „Electric field influence on grain” Acta Agrophysica
Dr inż. Mikołaj Skowron
e-mail: [email protected]
Ukończył studia magisterskie w 2004 r. w
Akademii Górniczo – Hutniczej na Wydziale
Elektrotechniki, Automatyki, Informatyki i
Elektroniki na kierunku Elektrotechnika o
specjalności Elektroenergetyka.
W 2011 r. obronił pracę doktorską na tym
samym Wydziale. Od września 2011r. jest
adiunktem w Katedrze Elektrotechniki i
Elektroenergetyki.
W pracy naukowej zajmuje się zagadnieniami
wpływu pola magnetycznego na organizmy
żywe, oraz zastosowaniem nadprzewodników.
Vol. 5, 1996
[10] Turowski J: „Analiza i synteza pól elektromagnetycznych”, praca
zbiorowa, Wrocław, Wydawnictwo PAN 1990.
[11] Skowron M.: „Rozkład statycznego pola magnetycznego wokół
oraz wewnątrz wielowarstwowego elementu paramagnetycznego z
wykorzystaniem
współrzędnych
sferoidy
spłaszczonej”
OWD’2007, IX Międzynarodowe Warsztaty Doktoranckie Vol. 23,
s.253-258
[12] Dudziewicz J.: „Podstawy elektromagnetyzmu”. Warszawa, WNT
1972.
[13] Rawa H.: „Elektryczność i magnetyzm w technice”, Warszawa
PWN 1994.
[14] Griffiths D.J.: „Podstawy elektrodynamiki”, Warszawa PWN 2001.
[15] Zahn M.: „Pole elektromagnetyczne”. Warszawa, PWN 1989.
53
Warsztaty Doktoranckie 2012
WYZNACZANIE WSPÓŁCZYNNIKA ABSORPCJI WŁAŚCIWEJ
W CZASIE ŚRÓDMIĄŻSZOWEJ HIPERTERMII MIKROFALOWEJ
Piotr Gas
AGH Akademia Górniczo-Hutnicza, Katedra Elektrotechniki i Elektroenergetyki
Streszczenie. Śródmiąższowa hipertermia mikrofalowa jest inwazyjną metodą leczenia, w której grzanie elektromagnetyczne jest wytwarzane przez różnego
rodzaju aplikatory mikrofalowe umieszczone wewnątrz chorych tkanek. Dobry przykład może stanowić współosiowa antena ze szczeliną powietrzną
przedstawiona w niniejszej pracy. Opisany 2D model matematyczny stanowi połączenie elektromagnetycznego równania falowego dla przypadku fali TM oraz
biologicznego równania ciepła w stanie ustalonym. Wykorzystując metodę elementów skończonych zostały wyznaczone rozkłady mocy mikrofalowej oraz
współczynnika absorpcji właściwej wewnątrz tkanki ludzkiej. Wyniki symulacji zostały sporządzone dla różnych wartości mocy wejściowej anteny.
Słowa kluczowe: śródmiąższowa hipertermia mikrofalowa, współczynnik absorpcji właściwej (SAR), antena współosiowa ze szczeliną powietrzną, biologiczne
równanie ciepła
Evaluation of the Specific Absorption Rate during Interstitial Microwave Hyperthermia
Abstract. Interstitial microwave hyperthermia is an invasive kind of treatment in which electromagnetic heating is produced by various types of the applicators
located in the human pathological tissues. A good example may be a coaxial-slot antenna presented in this paper. The described 2D mathematical model consists
of a coupling of the electromagnetic wave equation for TM wave case and the bioheat equation under steady-state condition. Using the finite element method, the
microwave power deposition and the specific absorption rate (SAR) distributions in the human tissue are calculated. Moreover, the simulation results have been
made for different values of the microwave antenna’s total input power.
Keywords: interstitial microwave hyperthermia, specific absorption rate (SAR), coaxial-slot antenna, bioheat equation
oś symetrii
Wstęp
plastikowa
osłona
Śródmiąższowa hipertermia mikrofalowa stanowi
inwazyjną metodę leczenia patologicznych komórek
zlokalizowanych głęboko w ciele człowieka. Technika ta
znalazła szczególne zastosowanie w leczeniu raka,
ponieważ umożliwia grzanie guzów minimalnie
wpływając na otaczające je zdrowe tkanki [4].
Zwykle w miejsce chorobowych tkanek wbijane są
elektrody igłowe wytwarzające pola o wysokiej
częstotliwości, anteny mikrofalowe, przetworniki
ultradźwiękowe, przewodniki światłowodowe lub
wstrzykiwane są cząsteczki lub ciecze ferromagnetyczne.
Dowiedziono, że wysoka temperatura z zakresu 40oC –
46oC może doprowadzić do martwicy komórek
znajdujących się w odległości 1-2 cm od źródła ciepła
[3]. Co więcej, opisana technika jest odpowiednia do
leczenia guzów o średnicy mniejszej niż 5cm [1].
W celu określenia maksymalnych dopuszczalnych
skutków ekspozycji na pola elektromagnetyczne
wysokich częstotliwości (100 kHz – 10 GHz)
występujących
wewnątrz
organizmów
żywych
Międzynarodowa Komisja
ds. Ochrony przed
Promieniowaniem
Niejonizującym
(ICNIRP)
wprowadziła pojęcie współczynnika absorpcji właściwej
(SAR), który określa ilość energii elektromagnetycznej
pochłoniętej przez jednostkową masę ciała [8].
dielektryk
zewnętrzny
przewodnik
wewnętrzny
przewodnik
tkanka
d
szczelina
powietrzna
obszar obliczeniowy
Rys. 1.
Model geometryczny anteny współosiowej ze szczeliną
powietrzną
gdzie: Hϕ – składowa ϕ natężenia pola magnetycznego
[A/m], ε0 – przenikalność elektryczna próżni [F/m], εr –
względna przenikalność elektryczna danego ośrodka, μ0 –
przenikalność magnetyczna próżni [H/m], μr – względna
przenikalność magnetyczna danego ośrodka, σ –
przewodność elektryczna danego ośrodka [S/m], ω –
pulsacja pola elektromagnetycznego [rad/s].
Dla wszystkich metalowych powierzchni określono
warunki brzegowe jak dla idealnego przewodnika (PEC)
(2)
n E  0
gdzie: n – wektor normalny prostopadły do powierzchni,
E – wektor natężenia pola elektrycznego [V/m].
Zewnętrzne brzegi obszaru obliczeniowego, które nie
stanowią brzegu fizycznego (za wyjątkiem osi symetrii z
gdzie Eϕ(r) = 0) posiadają tak zwane warunki brzegowe
dopasowane, które czynią je zupełnie nie odbijającymi.
Przyjmują one następującą postać
(3)
n   E   H  2  H 0
1. Podstawowe równania i opis modelu
W modelu przedstawionym na rys. 1 przyjęto, że
antena współosiowa składa się z wewnętrznego
przewodnika, dielektryka, zewnętrznego przewodnika i
plastikowej osłony, która pełni funkcje ochronną dla
pozostałych elementów anteny.
W zewnętrznym przewodniku znajduje się szczelina
powietrzna o wymiarze 1 mm. Rozmiary anteny zostały
zaczerpnięte z [6]. Ze względu na symetrię osiową w
modelu wykorzystuje się współrzędne cylindryczne r, z,
ϕ a równanie falowe opisujące rozkład pola
magnetycznego w badanym obszarze przyjmuje postać:
1


 
(1)
2
    r  j
   H   0μ 0 r H  0
0 


gdzie: Hϕ0 – pole wejściowe anteny określone przez
1
Z Pwe
(4)
H 0 
Z r  ln(r2 / r1 )
W równaniu (4) Z oznacza impedancje falową
dielektryka wyrażoną w [Ω], Pin całkowitą moc
wejściową anteny w [W], natomiast r1 i r2 są
odpowiednio wewnętrznym i zewnętrznym promieniem
dielektryka w [m]. Punkt zasilający anteny modelowany
jest przy użyciu warunku brzegowego dla portu z
ustalonym poziomem mocy wejściowej Pin.
54
Warsztaty Doktoranckie 2012
Równanie (1) jest sprzężone z biologicznym
równaniem ciepła wyprowadzonym przez Pennesa [5],
które w stanie ustalonym wyraża się poniższą
zależnością:
(5)
  kT   bCbb (Tb  T )   SAR  Qmet
gdzie: T − temperatura tkanki [K], k − przewodność
cieplna tkanki [W/(m2 K)], ρ − gęstość tkanki [kg/m3], Tb
− temperatura krwi w naczyniach krwionośnych [K], ρb −
gęstość krwi [kg/m3], ωb – prędkość przepływu krwi
[1/s], Cb – ciepło właściwe krwi [J/(kg K)], SAR –
współczynnik absorpcji właściwej tkanki [W/kg], Qmet –
ciepło generowane przez procesy metaboliczne komórek
[W/m3].
W obliczeniach numerycznych do wyznaczania
współczynnika absorpcji właściwej przyjęło się używanie
następującej formuły [7]:
SAR 
1 2
E
2
Rys. 2.
Gęstość mocy dostarczana do tkanki przez współosiową
antenę ze szczeliną powietrzną
SAR(r)
1800
o
(6)
SAR = 1718 W/kg, T = 46 C
1600
Pin = 1.5 W
1400
Pin = 1.0 W
Warto w tym miejscu dodać, że iloczyn ρ SAR = Qext
charakteryzuje gęstość mocy dostarczoną do tkanki przez
antenę mikrofalową, która pośrednio ma wpływ na
temperaturę tkanki.
Ponieważ obszar obliczeniowy jest ograniczony tylko
do wycinka tkanki, zatem można założyć, że na brzegu
obszaru obliczeniowego związanego z tkanką wymiana
ciepła nie występuje a warunek brzegowy opisujący ten
proces jest następujący:
(7)
n   kT   0
SAR [W/kg]
1200
Pin = 0.5 W
o
SAR = 1145 W/kg, T = 43 C
1000
800
600
SAR = 573 W/kg, T = 40oC
400
200
0
Rys. 3.
2. Wyniki symulacji
W omawianym przykładzie tkanka ludzka i antena
mikrofalowa są rozpatrywane jako ośrodki jednorodne z
uśrednionymi parametrami materiałowymi. Założono, że
antena działa na częstotliwości f = 2,45 GHz. Ponadto,
przyjęto
wymiary
i
parametry
elektryczne
poszczególnych elementów anteny jak w [6] oraz
parametry fizyczne tkanki jak dla wątroby zgodnie z [2].
Co więcej, parametry krwi użyte w modelu zebrano w
poniższej tabeli.
0.002
0.004
0.006
0.008
0.01 0.012
r [m]
0.014
0.016
0.018
0.02
Rozkłady SAR wzdłuż osi radialnej na wysokości szczeliny
powietrznej dla różnych wartości mocy wejściowej anteny
mikrofalowej Pin
Doskonałym tego przykładem jest przedstawiona w
niniejszej pracy metoda obliczania współczynnika
absorpcji właściwej w czasie śródmiąższowej hipertermii
mikrofalowej. Przedstawione wykresy jasno pokazują, że
wraz z odległością od osi anteny maleją wartości mocy
mikrofalowej wydzielonej w tkance oraz wartości
współczynnika absorpcji właściwej (a co za tym idzie
również temperatury). Optymalne wartości SAR
charakterystyczne dla hipertermii uzyskano dla mocy
wejściowej anteny Pin z zakresu od 0,5 W do 1,5 W.
Tabela 1. Parametry krwi uwzględnione w równaniu Pennesa
ρb
Cb
Tb
ωb
Tkanka
[kg/m3] [J/(kg K)]
[K]
[1/s]
krew
1020
3640
310,15
0,004
Literatura
[1] Baronzio G.F., Hager E.D.: Hyperthermia in Cancer Treatment: A
Równania (1) i (5) wraz z odpowiednimi warunkami
brzegowymi zostały rozwiązane przy użyciu metody
elementów skończonych. Wyniki symulacji zebrano na
rysunkach 2 – 3. Rys. 2 przedstawia rozmieszczenie linii
ekwipotencjalnych dla gęstości mocy Qext wytworzonej
przez antenę mikrofalową w analizowanym obszarze dla
mocy wejściowej anteny ustalonej na poziomie Pin=1 W.
Na
kolejnej
rycinie
zestawiono
rozkłady
współczynnika absorpcji właściwej SAR dla różnych
wartości Pin, wzdłuż ścieżki przechodzącej przez tkankę
prostopadle do anteny na wysokości szczeliny
powietrznej (rys. 3).
[2]
[3]
[4]
[5]
[6]
3. Wnioski
Metody numeryczne stanowią przydatne narzędzie
analizy wielu złożonych zagadnień inżynierskich, w tym
również bioelektromagnetycznych i medycznych.
Symulacja komputerowa może być z powodzeniem
stosowana do obliczeń dozymetrycznych, bo pozwala w
prosty sposób oszacować wielkości trudne do
wyznaczenia w rzeczywistych warunkach, a co więcej
może stanowić pomoc w procesie terapeutycznym.
[7]
[8]
55
Primer. Landes Bioscience and Springer Science + Business Media,
New York 2006.
Gabriel C., Gabriel S., Corthout E.: The Dielectric Properties of
Biological Tissues: I. Literature Survey. Physics in Medicine and
Biology 1996, vol.41 no.11 p. 2231-2249.
Hurter W., Reinbold F., Lorenz W.J.: A Dipole Antenna for
Interstitial Microwave Hyperthermia, IEEE Transaction on
Microwave Theory and Techniques 1991, vol. 39, no. 6, p. 10481054.
McPhee S.J., Papadakis M.A., Rabow M.W., Current Medical
Diagnosis and Treatment 2012, McGraw-Hill, New York 2011.
Pennes H.H.: Analysis of Tissue and Arterial Blood Temperatures in
the Resting Human Forearm. Journal of Applied Physiology 1948,
vol.1, no. 2, p. 93-122.
Saito K., Hosaka S., Okabe S.Y.: A proposition on improvement of a
heating pattern of an antenna for microwave coagulation therapy:
introduction of a coaxial-dipole antenna. Electronics and
Communications in Japan, Part I: Communications 2003, vol. 86, no.
1, p. 16-23.
Walendziuk W., Forenc J.: Computation of SAR and Temperature
Increase Distribution in Human Body Numerical Model. Electrical
Review 2010, vol. 86, no. 3, p. 88-89.
International Commission on Non-Ionizing Radiation Protection
(ICNIRP): Guidelines for limiting exposure in time-varying electric,
magnetic and electromagnetic fields (up to 300 GHz). Health Physics
1998, vol. 74, no.4, p. 494-522.
Warsztaty Doktoranckie 2012
Mgr inż. Piotr Gas
e-mail: [email protected]
Absolwent
Wydziału
Elektrotechniki,
Automatyki, Informatyki i Elektroniki AGH
na kierunku Elektrotechnika (2007). Od roku
2008 asystent w Katedrze Elektrotechniki i
Elektroenergetyki
AGH.
Swoje
zainteresowania
naukowe
związał
z
tematyką
oddziaływania
pól
elektromagnetycznych
na
obiekty
biologiczne,
zastosowaniami
biomedycznymi i terapeutycznymi pól oraz
aspektem ich normalizacji.
56
Warsztaty Doktoranckie 2012
WYKORZYSTANIE FILTRU CZĄSTECZKOWEGO W PROBLEMIE
IDENTYFIKACJI
Piotr Kozierski
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. W artykule przedstawiono sposób identyfikacji parametrycznej obiektów nieliniowych zapisanych w przestrzeni stanu. Do identyfikacji użyto
metody największej wiarygodności (ML), a w niej wykorzystano filtr cząsteczkowy oraz algorytm oczekiwanie-maksymalizacja (EM).
Słowa kluczowe: identyfikacja, metoda największej wiarygodności, filtr cząsteczkowy, oczekiwanie, maksymalizacja
Use of particle filter in identification
Abstract. In article presented a way of parameter estimation of nonlinear dynamic systems in state-space form. Identification uses Maximum Likelihood method
(ML), Particle Filter approach and Expectation-Maximisation algorithm (EM).
Keywords: identification, maximum likelihood method, particle filter, expectation, maximisation
fgp apriori, a px k | Yk  to fgp aposteriori, czyli
rozkład który chcemy uzyskać, aby móc obliczyć
oczekiwaną wartość zmiennej stanu w chwili k
Wstęp
Tworzenie modeli obiektów ma bardzo duże
znaczenie w różnych dziedzinach nauki, takich jak
statystyka, ekonometria czy automatyka. Nie jest to także
dziedzina zamknięta, gdyż nadal posiada pewne obszary,
w których nadal są prowadzone badania, jak np.
identyfikacja obiektów nieliniowych [7].
W pierwszym rozdziale opisano zasadę działania
filtru cząsteczkowego. Drugi rozdział został poświęcony
wygładzaczowi cząsteczkowemu. Trzeci rozdział
przedstawia
metodę
największej
wiarygodności
wykorzystaną do procesu identyfikacji. W czwartym
rozdziale zamieszczono informacje dotyczące działania
algorytmu oczekiwanie-maksymalizacja.
xˆ k  Ex k Yk    x k px k Yk dx k .
(3)
W zapisie przyjęto, że
(4)
Yk  y1 , y 2 ,..., y k .
Prior jest wyrażony wzorem:
px k Yk 1    px k x k 1  px k 1 Yk 1 dx k 1 (5)
przy czym pierwszy czynnik pod całką jest to model
przejścia, zaś drugi to po prostu fgp aposteriori z chwili
poprzedniej.
Kluczowym
elementem
tej
metody
jest
przedstawienie rozkładu aposteriori px k | Yk  za
pomocą N losowo wybranych cząsteczek, z których
każda ma odpowiednią wagę. Na podstawie tej wiedzy są
obliczane estymaty [3]. Wykorzystywane jest przy tym
mocne prawo wielkich liczb (mpwl), dzięki któremu przy
odpowiednio dużej liczbie cząsteczek estymator jest
zbieżny do ciągłej reprezentacji rozkładu aposteriori.
Algorytm Bootstrap Filter opisany przez Gordona,
Salmonda i Smitha w [6] jest jednym z pierwszych
przykładów filtru cząsteczkowego [8, 9, 10]. W metodzie
tej wyróżnia się dwa kroki: predykcję i aktualizację.
Zakłada się, że znany jest zbiór N próbek z fgp
Krok
predykcyjny
polega
na
px k 1 | Yk 1  .
przepuszczeniu każdej z próbek przez model przejścia,
czyli wylosowaniu N nowych próbek x k* i  z rozkładu
zależnego od wartości stanu x k 1 i  w chwili
1. Filtr cząsteczkowy
Zadaniem filtru cząsteczkowego jest estymacja
zmiennej stanu w modelu, w związku z czym w
literaturze jest on często porównywany z filtrem
Kalmana, zaś sama filtracja jest przeprowadzana na
podstawie informacji o wyjściu obiektu.
Aby skorzystać z filtru cząsteczkowego muszą być
spełnione pewne założenia:
a) model obiektu można przedstawić w postaci
ukrytego modelu Markowa pierwszego rzędu (pomijam
wpływ sygnału sterującego w celu uproszczenia zapisu):
x k  f x k 1 , v k 1 ,  
(1)
y k  g x k , n k ,  
czyli stan zależy tylko od stanu w chwili poprzedniej, zaś
wyjście jest zależne od stanu w chwili bieżącej. v jest
szumem wewnętrznym, zaś n – szumem pomiarowym,
b) znany jest model przejścia (ang. System model)
px k | x k 1  , czyli prawdopodobieństwo wystąpienia
poprzedniej.
Aktualizacja polega na obliczeniu znormalizowanych
wag dla każdej próbki
(6)
p y k x k* i 
qi  N
 p y k x k* i 
 p y k x *j  j 

stanu x k pod warunkiem wystąpienia stanu x k 1 w
poprzedniej chwili,
c) znany jest model pomiarowy (ang. Measurement
model) p y k | x k  ,
d) znana jest początkowa funkcja gęstości
prawdopodobieństwa (fgp) px0 | y 0   px0  .
Filtr cząsteczkowy opiera się na regule Bayesa
p y k x k  px k Yk 1 
(2)
px k Yk  
p y k Yk 1 





j 1
czyli poszczególne wagi są zależne tylko od modelu
pomiarowego, a ponieważ wyjście obiektu jest dane,
podobnie jak wartości poszczególnych próbek, które
przed chwilą zostały przepuszczone przez model
przejścia, ten krok w praktyce sprowadza się do
przypisania wadze q i odczytanej wartości z p y k | x k  .
We wzorze (6) symbol  oznacza „wprost
proporcjonalne”, przy czym wiadomo, że
gdzie p y k | xk  to wiarygodność (zdefiniowana w
postaci modelu pomiarowego), p y k | Yk 1  to
N
q
funkcja normująca (ang. evidence), px k | Yk 1  to
i 1
57
i
 1.
(7)
Warsztaty Doktoranckie 2012
która jest stosowana z powodu możliwości zastąpienia
iloczynu sumą.
O ile wyznaczenie
(15)
p y k Yk 1    p y k x k px k Yk 1 dx k
Poszczególne próbki x k* (i ) wraz z wagami q i niosą
informacje o rozkładzie dyskretnym i są następnie
wykorzystane do powtórnego próbkowania (ang.
resampling) wszystkich cząsteczek. Należy
wylosować N nowych próbek x k i  , przy czym
jest
możliwe
cząsteczkowego,
optymalizacyjnego
ponieważ prócz
pochodnej
szansa, że będzie to dokładnie wartość x k* (i ) wynosi q i
(8)
Prx k  j   x k* i  qi
Algorytm Bootstrap jest czasami nazywany w
literaturze jako Sampling-Importance-Resampling (SIR),
jednakże różni się od tego typowego odgórnym
wybraniem funkcji ważności [1, 3].

(16)
p y k Yk 1 .

Jedno z rozwiązań polega na numerycznym
obliczeniu wymaganej pochodnej. Inne podejścia
zakładają rozwiązanie problemu bez potrzeby obliczania
pochodnej,
np.
poprzez
zastosowanie
metod
optymalizacji Simplex. W tym artykule zostanie
zaprezentowany algorytm Oczekiwanie-Maksymalizacja
(ang. Expectation Maximisation – EM) polegający na
obliczeniu przybliżenia ML.
2. Wygładzacz cząsteczkowy
Tak jak celem działania filtru cząsteczkowego jest
estymacja rozkładu brzegowego (2) [2], tak zadaniem
wygładzacza cząsteczkowego (ang. particle smoother)
jest estymacja rozkładu
px k x k 1  px k Ym 
(9)
px k 1 Ym   px k 1 Yk 1 
dx k
px k Yk 1 
przez co wygładzanie jest trudniejsze od filtracji i
korzystanie wprost z (9) jest możliwe tylko dla obiektów
dyskretnych zapisanych w przestrzeni stanu, lub dla
obiektów liniowych niskich rzędów [4].
Rozwijając zapis
Ym  y1 , y 2 ,..., y k , y k 1 ,..., y m  (10)
4. Oczekiwanie-Maksymalizacja
Algorytm jest iteracyjną metodą poszukiwania
maksymalnej wartości LYn  przy założeniu, że w
każdym kolejnym kroku wartość log-likelihood rośnie.
Kolejne kroki algorytmu są następujące [9]:
Algorytm 1 (Oczekiwanie-Maksymalizacja)
1) Inicjalizacja algorytmu; t  0 , dobranie takiego
 0 , aby Lt Yn  było skończone.
widać, że wygładzanie ma na celu znalezienie wartości
zmiennej stanu w chwili, w której znane są późniejsze
wartości wyjścia.
W szczególnym przypadku gdy
m  k  1,
wygładzacz stanie się po prostu filtrem.
W równaniu (9) mianownik pod całką to fgp apriori
wyrażona wzorem (5). Wyrażenie przed całką to fgp
aposteriori, którą można otrzymać poprzez wykorzystanie
filtru cząsteczkowego. Pierwszy czynnik w liczniku pod
całką to model przejścia, zaś drugi czynnik można
wyrazić tym samym wzorem (9) po zaktualizowaniu
chwili czasowej. Należy w taki sposób postępować aż do
momentu, w którym px k | Ym  = px k | Yk  . Takie
2)
3)
n 1
I 2    log px k 1 x k  p t x k 1 , x k Yn dx k dx k 1
I 3    log p y k x k  p t x k Yn dx k
n
5. Podsumowanie
W pełnej wersji artykułu poszczególne rozdziały
zostaną rozwinięte oraz zostanie przedstawiony przykład
identyfikacji wykorzystującej opisane metody i
algorytmy.
przy czym łączną fgp można zdekomponować na
p y1 ,..., y n   p y1  p y k Yk 1  (12)
n
k 2
Ze względu na monotoniczność (11), problem
maksymalizacji jest równoznaczny z problemem
minimalizacji
ˆ  arg min  LY 
n
to
logarytmiczna
LYn 
prawdopodobieństwa (ang. log-likelihood)
LYn   log pYn   log p y1    log p y k Yk 1 
n
(21)
k 1
n
gdzie
(20)
k 1
To podejście zakłada maksymalizację łącznej fgp
(ang. joint density) – obserwacji poprzez odpowiedni
dobór parametrów:
(11)
ˆ  arg max p y ,..., y 
 
Jeśli zmiana wartości  t 1 jest zauważalna, to
t=t+1 i przejście do kroku 2.
W kroku 2 należy dokonać obliczeń korzystając ze
wzoru
(18)
Q ,  t   I 1  I 2  I 3
gdzie
(19)
I 1   log px1  pt x1 Yn dx1
3. Estymacja metodą największej
wiarygodności
1
Oczekiwanie; obliczenie wartości Q ,  t 
Maksymalizacja; obliczenie
(17)
 t 1  arg max Q ,  t 
 
4)
rekurencyjne podejście jest jednym z dwóch opisanych w
[5].
 
poprzez
wykorzystanie
filtru
o tyle rozwiązanie problemu
(13) jest bardziej problematyczne,
(15) istnieje potrzeba obliczenia
Literatura
[1] Arulampalam S., Maskell S., Gordon N., Clapp T.: A tutorial on
(13)
postać
(14)
k 2
58
Particle Filters for On-line Non-linear/Non-Gaussian Bayesian
Tracking. IEEE Proceedings on Signal Processing, Vol. 50, No. 2,
2002, s. 174-188.
[2] Brzozowska-Rup K., Dawidowicz A.L.: Metoda filtru
cząsteczkowego. Matematyka Stosowana: matematyka dla
społeczeństwa 2009, T. 10/51, s. 69-107.
[3] Candy J.V.: Bayesian signal processing. WILEY, New Jersey 2009,
s. 237-298.
[4] Doucet A., Freitas N., Gordon N.: Sequential Monte Carlo Methods
in Practice. Springer-Verlag, New York 2001, s. 139-196.
Warsztaty Doktoranckie 2012
[5] Doucet A., Johansen A.M.: A Tutorial on Particle Filtering and
Piotr Kozierski
e-mail: [email protected]
Smoothing: Fifteen years later. Handbook of Nonlinear Filtering
2009/12, s. 656-704.
[6] Gordon N.J., Salmond N.J., Smith A.F.M.: Novel approach to
nonlinear/non-Gaussian Bayesian state estimation. IEE ProceedingsF, Vol. 140, No. 2, 1993, s. 107-113.
[7] Ljung L.: Perspectives on system identification. Plenary talk at the
17th IFAC world congress. Seoul, Korea. July 6-11.
[8] Merwe R., Doucet A., Freitas N., Wan E.: The Unscented Particle
Filter. Advances in Neural Information Processing Systems (NIPS
13), Dec. 2000.
[9] Schön T.B., Wills A., Ninness B.: System identification of nonlinear
state-space models. Automatica 47 (2011), s. 39-49.
[10] Simon D.: Optimal State Estimation. WILEY-INTERSCIENCE,
New Jersey 2006, s. 461-484.
Student studiów stacjonarnych III st. na
Politechnice Poznańskiej od 2010 roku. Obszar
zainteresowań
naukowych
obejmuje
identyfikację obiektów nieliniowych oraz filtry
cząsteczkowe.
59
Warsztaty Doktoranckie 2012
MODELOWANIE I BADANIA SYMULACYJNE HYDRAULICZNEGO
UKŁADU ZAPEWNIENIA STATECZNOŚCI POJAZDU
Andrzej Auguściński1 , Bartosz Minorowicz2
Politechnika Poznańska, Wydział Maszyn Roboczych i Transportu , 2Politechnika Poznańska , Wydział Budowy Maszyn i Zarządzania
1
W artykule zaprezentowano sposób modelowania i badania symulacyjne stateczności nowej koncepcji mobilnej maszyny roboczej. Z założenia maszyna ma
poruszać się po grząskim i nierównym terenie o zmiennych własnościach mechanicznych. Autorzy przedstawili w artykule problematykę oraz różne warianty
koncepcyjne zapewniające stateczność maszyny podczas ruchu.Do badań symulacyjnych wybrano układ z teleskopowymi ramionami. Eksperymenty symulacyjne
wykonano za pomocą oprogramowania Matlab/Simulink z wykorzystaniem uniwersalnej biblioteki SimHydraulics.
Słowa kluczowe: układ hydrauliczny, symulacja, modelowanie, maszyny robocze, stabilizacja.
Modeling and simulation research of a hydraulic stability system for vechicle
The paper presents the modeling and stability simulation tests of conceptual design of mobile working machine. By design the machine has to move on
a muddy and uneven terrain with variable mechanical properities.The authors presented in the article the problems and different variants of a conceptual
machinery to ensure stability during movement. For the simulation tests selected system with telescopic arms. For the simulation experiments used
a Matlab/Simuling software using the universal lubrary SimHydraulics.
Keywords: hydraulic circuit, simulation, modeling, working machines, stabilisation.
Obecna technika napędu i sterowań hydraulicznych
pozwala na uzyskiwanie krótkich czasów reakcji, oraz
ciągłej regulacji w systemie closed loop.
Wstęp
Historia
wykorzystania
komputerowego
wspomagania pracy (CAx), rozpoczyna się wraz
upowszechnieniem
się
w komercyjnym
użyciu
pierwszych komputerów Pojawienie się programów z
grupy CAE umożliwiło wykorzystanie ciągle rosnącej
mocy
obliczeniowej
układów
scalonych
do rozwiązywania skomplikowanych układów równań.
Oprogramowanie symulacyjne (SIM), umożliwiło
przeniesienie całości prac związanych z modelowaniem i
badaniami symulacyjnymi do środowiska wirtualnego
[1][2][3].
1. Wprowadzenie i określenie problemu
Rys. 2
Koncepcja budowy mobilnej maszyny roboczej z
jednym rzędem szeregowo umieszczonych kół jezdnych
posiada swoje mocne i słabe strony. Jej główną zaletą jest
możliwość zastosowania opon o bardzo dużej szerokości,
co minimalizuje nacisk na powierzchnię oraz powoduje
lepsze przeniesienie siły napędowej z kół jezdnych na
podłoże. Wadą tego rozwiązania jest to, że z powodu
dużej średnicy kół jezdnych, wysoko umieszczony jest
środek masy pojazdu. Dlatego dla zapewnienia
stateczności podczas jazdy i pracy zdecydowano się na
dodanie do maszyny pary kół podporowych (rys. 1).
Rys. 1
Teleskopowy układ zawieszenia
Najważniejszymi elementami układu są: 1 – siłownik
odpowiadający za ustalenie położenia w osi pionowej, 2
–kompletne koło podporowe z ramieniem, 3 – kompletne
koło jezdne, powierzchnia S, po której porusza się
maszyna.
Do badań symulacyjnych został wybrany układ
teleskopowy. Analizie poddano możliwy do wystąpienia
podczas eksploatacji przypadek rys. 3.
Koncepcja układu jezdnego mobilnej maszyny roboczej
2. Różne warianty układu zapewnienia
stateczności
W wyniku prac nad konstrukcją pojazdu powstały
cztery koncepcje mechaniczno hydraulicznego układu
zapewnienia stateczności pojazdu:
 układ oparty na równoległoboku przegubowym,
 układ teleskopowy (rys. 2),
 układ korbowy,
 układ dźwigniowy.
Rys. 3
Idea działania teleskopowego układu zawieszenia
Typową sytuacją jest, gdy jedno z kół podporowych
napotyka przeszkodę. Prowadzi to do odchylenia się
środka masy maszyny od osi pionowej, zaburzenia
stateczności oraz pogorszenia jakości pracy osprzętu
zamontowanego na maszynie. Celem działania układu
sterującego w sytuacji przedstawionej na rys. 3 jest jak
najszybsze uzyskanie kontaktu koła głównego z gruntem.
Wszystkie cztery wymienione układy pracują w
identyczny sposób. Ich wspólną cechą jest zastosowanie
ramion bocznych wyposażonych w napęd hydrauliczny.
60
Warsztaty Doktoranckie 2012
Dla sytuacji z rys. 6 i założonych wymiarów
gabarytowych szerokości
5[m] i wysokości 2[m],
wyznaczono zależność wychylenia kątowego α od
wartości uchybu u:
  arctan(u / a)[ ]
(1)
pozostawiając w części głównej modelu tylko niezbędne
elementy.
Za bezpieczny poziom wychylenia przyjęto α = 3[º],
czemu odpowiada wartość uchybu u około 130 [mm].
3. Model mechaniczny
Na potrzeby badań symulacyjnych powstał model
układu zawieszenia pojazdu (rys. 4). Z masą M związane
jest obciążenie przenoszone przez ramię podczas pracy.
Tak stworzony model umożliwia przebadanie
zachowania się układu w sytuacjach podobnych do
przedstawionej na rys. 3. Wszystko znajduje się
w zamkniętej przestrzeni. Ruch może odbywać się
jedynie w kierunku osi pionowej y. Wymuszeniem
kinematycznym jest zmiana odległości pomiędzy
płaszczyznami A oraz A’. Odległość ta zmienia się w
zakresie y1 = y± Δy gdzie: y1 – odległość pomiędzy
płaszczyznami, y – odległość w stanie ustalonym bez
wymuszeń (na rys. 4 y1 = y), Δy– amplituda wymuszenia.
Rys. 6
Model symulacyjny wykonany w Simulinku
6. Wyniki badań symulacyjnych
Zmiana profilu terenu została zobrazowana jako
zmiana położenia osi koła jezdnego, w osi pionowej y w
zależności od czasu t, dla prędkości roboczej 1[m/s].
Rys. 7
Porównanie zmian położenia osi koła w czasie dla
wymuszenia kinematycznego oraz zmian pozycji tłoka w siłowniku
7. Wnioski
Rys. 4
Pierwsze wyniki badań są obiecujące i zachęcają do
dalszego rozwoju tego tematu. Dla prędkości roboczej 1
[m/s], ani razu nie została przekroczona graniczna
wartość
uchybu
ustalona
w punkcie 2. (rys. 7). Wartość uchybu zależy od dwóch
parametrów: prędkości ruchu oraz wielkości napotkanej
na drodze przeszkody.
Model symulacyjny układu zawieszenia pojazdu
4. Układ hydrauliczny
Parametrem regulowanym będzie ciśnienie panujące
pod tłokiem siłownika, które w stanie ustalonym wynosić
będzie 5 [MPa]. Układ składa się z siłownika
dwustronnego
działania
z
jednostronnym
tłoczyskiem
(1),
zaworów
przelewowych (2, 3), zaworu ciśnienia maksymalnego
(4), ustawionego na wartość 5 [MPa], rozdzielającego
zaworu proporcjonalnego 2/2 (5), źródła zasilania oraz
układu regulacji UR (rys. 5).
Literatura
[1] MacKrell J,. Herzog B.: Encyclopedia of computer science.
Chichester: John Wiley and Sons Ltd., Chichester, 2000.
[2] Chlebus E.: Techniki komputerowe Cax w inżynierii produkcji.
Warszawa: WNT, 2000
[3] Bøhn J. H., Myklebust A.: Computer aided design [W:] McGrawHill Concise Encyclopedia of Science and Technology. New York
City: The McGraw-Hill Professional, New York City 2009.
Dr inż. Andrzej Auguściński
Jest opiekunem specjalności Mechatronika.
Prowadzi wykłady z przedmiotów: Podstawy
Konstrukcji Maszyn, Podstawy Pneumatyki i
Hydrauliki,
Układy
Hydrauliczne
i
Pneumatyczne.
Jego
główne
obszary
zainteresowań naukowych to: teoria konstrukcji,
dynamika układów napędowych. Jest autorem
i współautorem ok. 30 publikacji naukowych.
Rys. 5
Schemat układu hydraulicznego
Mgr inż. Bartosz Minorowicz
e-mail:
[email protected]
Autor jest doktorantem w Zakładzie Urządzeń
Mechatronicznych. Swoją działalność naukową
skupia wokół zagadnień związanych z
konstrukcją urządzeń elektrohydraulicznych oraz
narzędzi CAx. Odznaczony Medalem Rektora
Politechniki Poznańskiej w 2011 roku. Praca
magisterska została uznana za najlepszą w
Wielkopolsce w konkursie NOT
5. Model symulacyjny
Na podstawie modelu układu mechanicznego (rys. 4)
i schematu układu hydraulicznego (rys. 5) opracowany
został model symulacyjny. W tym celu posłużono się
programem Matlab/Simulink (rys. 6). W celu
zwiększenia czytelności modelu zastosowano jak
największą liczbę wyspecjalizowanych podsystemów,
61
Warsztaty Doktoranckie 2012
PROJEKT 7-BITOWEGO NISKOMOCOWEGO PRZETWORNIKA A/C
W TECHNOLOGII SUBMIKRONOWEJ O MAŁEJ POWIERZCHNI DO
ZASTOSOWAŃ WIELOKANAŁOWYCH
Piotr Otfinowski1, Piotr Kmon1, Rafał Kłeczek1
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki, Katedra Metrologii
1
Streszczenie. W artykule został przedstawiony projekt przetwornika analogowo-cyfrowego w technologii UMC CMOS 180nm. Wybraną architekturą jest
przetwornik kompensacyjny z równoważeniem ładunku. Duży nacisk został położony na zmniejszenie zajmowanej powierzchni jak i minimalizację poboru mocy,
co czyni prezentowany układ odpowiedni do zastosowań wielokanałowych. Zaprezentowany przetwornik osiąga 3 MS/s przy rozdzielczości 7 bitów i poborze
mocy 77 μW oraz zajmuje tylko 90 x 95 μm2.
Słowa kluczowe: przetwornik analogowo-cyfrowy, równoważenie ładunku, przetwornik kompensacyjny
Design of 7-bit low-power, low area ADC in submicron process for multichannel systems
Abstract. The design of analog-to-digital converter is presented, implemented in UMC CMOS 180nm technology. The successive approximation architecture
with charge redistribution has been chosen. Much emphasis was placed on limiting the area occupancy of the whole chip so as its power consumption, which
makes the described circuit suitable for multichannel applications. The presented converter achieves 3 MS/s with 7-bit resolution at 77 μW and occupies only 90
x 95 μm2.
Keywords: SAR ADC, charge redistribution, successive approximation
2. Projekt układu
Wstęp
W przetwornikach kompensacyjnych przetwornik
C/A jest najważniejszym blokiem, jako że decyduje o
rozdzielczości oraz nieliniowości całego przetwornika
A/C [3].
W prezentowanym układzie wybrano rozwiązanie
polegające na rozdzieleniu przetwornika C/A na dwie
części:
przetwornik
główny
oraz
przetwornik
pomocniczy [4]. Ma to na celu przede wszystkim
zmniejszenie zajmowanej powierzchni. Jako przetwornik
główny użyty został 4-bitowy przetwornik z podziałem
ładunku. Pełni on również funkcję układu próbkująco
pamiętającego. Jako przetwornik pomocniczy został
wykorzystany 3-bitowy dzielnik rezystancyjny.
Dynamiczny
rozwój
w
dziedzinach
wykorzystujących promienie X, takich jak spektometria
masowa lub obrazowanie medyczne, stawia coraz
większe wymaganie układom odczytu z detektorów
krzemowych [1]. Dodanie przetwornika analogowocyfrowego mierzącego amplitudę impulsu znacząco
poprawiłoby jakość pomiaru, umożliwiając bezpośredni
pomiar energii padającego promieniowania. Pozwoliłoby
to również ograniczyć negatywny efekt podziału ładunku
w detektorze na rozdzielczość przestrzenną systemu.
Innym odpowiednim zastosowaniem dla małych,
energooszczędnych przetworników A/C są systemy do
rejestrowania aktywności neuronowej [2]. Zbudowane są
one na bazie matrycy wielu elektrod, z których dane
muszą być odczytywane i przesyłane równocześnie.
Konwersja sygnałów na postać cyfrową nie tylko
ułatwiłaby ich dalszą transmisję, ale także umożliwiła
wstępną cyfrową obróbkę, mającą na celu ograniczenie
liczby danych do przesłania.
Celem pracy jest zaprojektowanie przetwornika A/C
odpowiedniego do przedstawionych zastosowań.
Przetwornik powinien osiągać rozdzielczość z zakresu 68 bitów, szybkość próbkowania co najmniej 2 MS/s oraz
charakteryzować się niskim poborem mocy. Jako że
planowane zastosowania układu obejmują systemy
wielokanałowe, jego pole powierzchni powinno być jak
najmniejsze.
Rys. 2.
Schemat przetwornika C/A z równoważeniem ładunku
Schemat komparatora jest zaprezentowany na rysunku
3. Składa się on z dwóch bloków funkcyjnych:
przedwzmacniacza oraz synchronicznego zatrzasku.
Przedwzmacniacz jest zrealizowany jako para
różnicowa tranzystorów NMOS MP2-MP3 z diodowo
połączonymi tranzystorami PMOS MP4-MP5 jako
obciążenie. Czas ustalania się wyjścia przedwzmacniacz
jest głównym czynnikiem ograniczającym szybkość
układu, stąd stopień przedwzmacniacza wymaga
stosunkowo wysokiego prądu polaryzacji równego 10
µA. Gwarantuje to, że czas odpowiedzi całego
komparatora będzie krótszy od połowy taktu zegarowego.
Drugim stopniem komparatora jest synchroniczny
zatrzask [5]. Jego zadaniem jest wzmocnienie sygnału do
poziomu napięć zasilania. Działa on w dwóch fazach.
Gdy sygnał zegarowy jest niski wszystkie węzły są
podłączone do napięcia zasilania, w celu uniknięcia
efektu histerezy. Jako że tranzystor M1 jest wyłączony
układ nie pobiera w tym stanie żadnego prądu. Przy
narastającym zboczu zegara rozpoczyna się faza
1. Architektura przetwornika
Wybraną architekturą przetwornika jest przetwornik
kompensacyjny z równoważeniem ładunku. Jej głównymi
zaletami jest niski pobór mocy oraz niewielkie rozmiary.
Osiągane szybkości konwersji są wystarczające do
planowanych zastosowań. Schemat blokowy architektury
przetwornika został przedstawiony na rysunku 1.
Rys. 1.
Schemat blokowy przetwornika A/C z równoważeniem
ładunku
62
Warsztaty Doktoranckie 2012
regeneracji. Tranzystor M1 jest włączany, a tranzystory
M2-M3 zaczynają przewodzić prąd przez krzyżowo
połączoną parę inwerterów M4 i M6 oraz M5 i M7.
Potencjał węzłów XP1 oraz XP2 maleje z różną
szybkością zależną od napięcia wejściowego zatrzasku.
W momencie gdy różnica potencjałów jest dostatecznie
duża, następuje regeneratywne przełączenie układu i
napięcie wyjściowe jest ustalone. W tym stanie układ
również pobiera zerowy prąd.
Tabela 1. Podsumowanie parametrów przetwornika A/C.
Proces produkcyjny
180nm CMOS
Rozdzielczość
7 bitów
Napięcie zasilania
1.8 V
Napięcie referencyjne
1200 mV
Częstotliwość zegara
25 MHz
Szybkość konwersji
3 MS/s
Pobór mocy
77 μW
Nieliniowość
0.16 / -0.8 LSB
2
90
95 μm
Zajmowany obszar
3. Podsumowanie
Rys. 3.
W artykule został przedstawiony projekt oraz wyniki
symulacji 7-bitowego przetwornika A/C. Jego małe
rozmiary oraz niski pobór mocy czynią go szczególnie
atrakcyjnym w zastosowaniach wielokanałowych.
Analizy Monte-Carlo przeprowadzone na modelu z
wyekstrahowanymi
pojemnościami
pasożytniczymi
wykazują również bardzo niską nieliniowość.
Układ został wyprodukowany w Maju 2012 roku.
Pomiaru gotowego układu zostaną przedstawione na
konferencji.
Schemat komparatora: a) przedwzmacniacz, b) zatrzask
Ostatnim blokiem składającym się na całość
przetwornika A/C jest cyfrowy blok sterowania, zwany
również Rejestrem Kolejnych Przybliżeń (ang.
Successive Approximation Register, SAR). Jego rolą jest
generowanie sygnałów sterujących kluczami oraz
komparatorem. Aby powierzchnia układu była jak
najmniejsza, blok ten został w całości zaprojektowany
ręcznie (ang. Full Custom).
Literatura
[1] Szczygiel R., Grybos P., Maj P., Tsukiyama A., Matsushita K.,
3. Plan masek układu oraz wyniki
symulacji
[2]
Prezentowany układ został wykonany w technologii
UMC CMOS 180nm. Plan masek gotowego układu
został przedstawiony na rysunku 4. Obszar zajmowany
przez część analogową (przetwornik C/A, komparator)
wynosi 90 µm x 45 µm, natomiast cyfrowy układ
sterowania zajmuje powierzchnię 70 µm x 30 µm.
Całkowity rozmiar chipu jest równy 90 µm x 95 µm.
[3]
[4]
[5]
Rys. 4.
mgr inż. Piotr Otfinowski
e-mail: [email protected]
Ukończył Akademię Górniczo-Hutniczą w 2009,
kierunek:
Elektronika
i
Telekomunikacja,
specjalność: Sensory i mikrosystemy. Obecnie jest na
trzecim roku Studiów Doktoranckich na Wydziale
EAIiE, AGH. Pracuje jako asystent w Katedrze
Metrologii, AGH. Jego głównym tematem badań
naukowych są układy scalonych przetworników
analogowo-cyfrowych.
dr inż. Piotr KMON
e-mail: [email protected]
Ukończył studia na Wydziale Elektrotechniki,
Automatyki, Informatyki i Elektroniki w 2007 r.
Tytuł doktorski uzyskał w 2012 r. broniąc pracy
dotyczącej wielokanałowych scalonych układów
elektronicznych dedykowanych do eksperymentów
neurobiologicznych. W swoich pracach zajmuje się
wykorzystywaniem nowoczesnych technologii
produkcji układów scalonych do zastosowań w
eksperymentach biologicznych.
Plan masek przetwornika A/C
Rysunek 5 przedstawia zbiorczy wykres 50 analiz
Monte-Carlo nieliniowości całkowej omawianego
układu. Dla najgorszego przypadku nieliniowość całkowa
oraz różniczkowa wynoszą odpowiednio +0.16 / -0.8
LSB i +0.17 / -0.1 LSB.
Rys. 5.
A/C
Taguchi T.: RG64—High Count Rate Low Noise Multichannel ASIC
With Energy Window Selection and Continuous Readout Mode.
IEEE Trans. on Nuclear Science, vol. 56, no. 2, pp. 487–495, April
2009.
Kmon P., Grybos P., Szczygiel R., Kachel M., Zoladz M.: Integrated
circuit with tunable bandwitdh for neural signal recording. MIXDES
’09, 2009, pp. 286–290.
Zhu Y., et al.: A 10-bit 100-MS/s Reference-Free SAR ADC in 90 nm
CMOS. IEEE Journal of Solid-State Circuits, vol. 45, no. 6, pp.
1111-1121, June 2010.
Rivetti A., Anelli G., Anghinolfi F., Mazza G.: A low-power 10-bit
ADC in a 0.25-μm CMOS: design considerations and test results.
IEEE Trans. on Nuclear Science, vol. 48, no. 4, pp. 1225–1228,
August 2001.
Chang Y., Wang C., Wang C.: A 8-bit 500-KS/s low power SAR ADC
for bio-medical applications. IEEE Asian Solid-State Circuits
Conference, 2007, pp. 228–231.
mgr inż. Rafał Kłeczek
e-mail: [email protected]
Ukończył AGH w 2009, kierunek: Elektronika i
Telekomunikacja, specjalność: Mikroelektronika i
aparatura biomedyczna. Obecnie jest na trzecim
roku Studiów Doktoranckich na Wydziale EAIiE,
AGH. Pracuje jako asystent w Katedrze Metrologii,
AGH. Jego głównym zainteresowaniem naukowym
jest projektowanie scalonych wielokanałowych
układów elektroniki front-end do odczytu
półprzewodnikowych detektorów promieniowania
X.
Symulacje Monte-Carlo nieliniowości całkowej przetwornika
63
Warsztaty Doktoranckie 2012
PROJEKT UKŁADU ELEKTRONIKI FRONT-END DO ODCZYTU
DETEKTORÓW PIKSELOWYCH OPARTY NA INWERTERACH
Rafał Kłeczek, Piotr Otfinowski
Akademia Górniczo-Hutnicza w Krakowie, Wydział Elektrotechniki Automatyki Informatyki i Elektroniki, Katedra Metrologii i Elektroniki
Streszczenie. Minimalizacja zajmowanej powierzchni krzemu przy jednoczesnym zachowaniu funkcjonalności oraz minimalizacja poziomu rozpraszanej mocy i
szumów własnych to wymagania stawiane nowoczesnym układom odczytowym elektroniki front-end. Prezentujemy elektronikę front-end dedykowaną do odczytu
detektorów pikselowych zaimplementowaną w dwóch technologiach submikronowych CMOS (180 nm i 130 nm). Zaprojektowany układ charakteryzuje się niskim
poziomem rozpraszanej mocy P = 13µW, niskimi szumami własnymi ENC = 59e- rms oraz zajmuje niewielką powierzchnię krzemu A = 850µm2.
Słowa kluczowe: elektronika niskoszumna, układ CMOS elektroniki odczytu front-end
The design of readout front-end electronics for pixel detector based on inverters
Abstract. Minimization of the silicon occupied area and maintaining both functionality and analog parameters of readout front-end electronics at desirable level
at same time are very challenging in the modern pixel applications. We present the design of readout front-end electronics dedicated for pixel detectors based on
an inverter amplifier implemented in two CMOS submicron technologies (130 nm and 180 nm). It is characterized by very low power dissipation level P =
13µW, low noise performance ENC = 59e- rms and small occupied chip area A = 850µm2.
Keywords: low noise electronics, CMOS front-end readout
Wstęp
Zastosowanie detektorów pikselowych w technikach
obrazowania opartych na promieniowaniu X, pozwala
otrzymać dwuwymiarowy obraz informujący o
rozkładzie przestrzennym padającego promieniowania X.
Droga do pozyskiwania coraz wyższej rozdzielczości
obrazu prowadzi poprzez zwiększanie ilości elementów
detekcyjnych w danej objętości detektora, czyli poprzez
zmniejszanie rozmiarów pojedynczego piksela. Z każdym
pojedynczym pikselem półprzewodnikowego detektora
skojarzony jest pojedynczy kanał elektroniki odczytu
front-end, których rozmiary muszą być zgodne. Rys. 1
przedstawia ideę architektury hybrydowego pikselowego
systemu, gdzie połączenia pomiędzy elektrodami
detektora a układem odczytowym są wykonane techniką
„bump-bond”.
Rys. 1. Architektura
odczytowego.
hybrydowego
pikselowego
Rys. 2. Architektura prezentowanego toru elektroniki odczytu frontend.
Padające fotony promieniowania X na spolaryzowaną
w kierunku zaporowym diodę (detektor) generują w niej
ładunek (pary elektron-dziura), który jest proporcjonalny
do energii padających cząstek. Wygenerowany ładunek
jest zbierany przez elektrody detektora: anoda przyciąga
dziury,
katoda
elektrony,
a następnie
zostaje
przetworzony przez stowarzyszony z detektorem tor
elektroniki odczytu. W przypadku toru elektroniki
odczytu pracującego z prądem upływu detektora nie
stosuje się pojemności sprzęgającej elektrodę detektora z
wejściem układu odczytowego. Aby impuls prądowy
wygenerowany przez detektor wpłynął do wzmacniacza
ładunkowego CSA (ang. Charge Sensitive Amplifier),
pojemność widziana z wejścia CSA musi być dużo
większa niż pojemność detektora CDET, która jest jednym
z kluczowych parametrów systemu. Wpływający impuls
prądowy jest całkowany przez pojemność sprzężenia
zwrotnego CFED, w wyniku czego na wyjściu
wzmacniacza ładunkowego otrzymywany jest skok
napięcia. Zadaniem układu kształtującego jest
uformowanie wyjściowego przebiegu napięciowego,
który z analogowo przetworzonego sygnału umożliwi z
zadaną rozdzielczością ekstrakcję informacji o wykrytym
promieniowaniu. Sygnał analogowy na wyjściu układu
kształtującego jest przetworzony na postać cyfrową za
pomocą dyskryminatora.
Niniejsza praca zawiera opis układu elektroniki
odczytu front-end zaprojektowanego w dwóch
technologiach submikronowych CMOS (CHRT 130 nm i
UMC 180 nm). Mając na uwadze ograniczenie
zajmowanej powierzchni krzemu przez analogową część
układu odczytowego, należy zaprojektować takie rdzenie
wzmacniaczy, które spełnią wymagania projektowe oraz
bez przeszkód będę mogły być zastosowane do budowy
poszczególnych stopni układu. Drogą do spełnienia
przedstawionych założeń jest zastosowanie wzmacniaczy
systemu
Zatem, zmniejszając rozmiar pojedynczego piksela
detektora należy zmniejszyć rozmiar pojedynczego
kanału odczytowego elektroniki front-end, co przy
jednoczesnym utrzymaniu wymaganego poziomu
rozpraszanej przez niego mocy, wartości szumów
własnych oraz rozrzutów parametrów analogowych
pomiędzy kanałami jest wiodącym nurtem w opisywanej
gałęzi technik obrazowania cyfrowego opartych na
promieniowaniu X, nad którym pracują naukowcy z
renomowanych instytucji badawczych [1-5].
1. Architektura toru elektroniki odczytu
front-end
Architektura prezentowanego toru elektroniki frontend do odczytu pikselowego detektora została
przedstawiona na rys. 2.
64
Warsztaty Doktoranckie 2012
opartych na strukturze inwerterów [4, 6-7]. Schemat
elektryczny toru odczytu zbudowanego przy pomocy
inwerterów został przedstawiony na rys. 3. Prezentowany
układ jest zbudowany z: wzmacniacza ładunkowego,
układu kształtującego którym jest filtr pseudogaussowski typu CR-RC oraz dyskryminatora.
Tabela 1. Parametry zaprojektowanego układu elektroniki odczytu frontend
technologia
rozpraszana moc [μW]
130 nm
11.9
180 nm
11.2
powierzchnia układu [μm2]
czas tp [ns]
600
80
630
60
ENC [e- rms] (dla CDET = 100fF)
59
62
Rys. 3. Schemat elektryczny prezentowanego toru elektroniki odczytu
front-end
Kluczową kwestią przy realizacji projektu jest
wymiarowanie zastosowanych rdzeni oraz dobór
odpowiedniego napięcia zasilania VDD. Należy otrzymać
wystarczająco dużą wartość pola wzmocnienia GBW
(ang. gain-bandwidth produkt) oraz wzmocnienia
napięciowego inwertera kV przy jednoczesnym
niewielkim poborze mocy. Wymiary zastosowanych w
projekcie tranzystorów wynoszą: WNMOS = 2μm, LNMOS =
LPMOS = 1.5μm, WPMOS = 6μm, a napięcie zasilania VDD =
1.2V.
Z punktu widzenia parametrów czasowych (czas
osiągania wartości szczytowej tp (ang. peaking time), czas
trwania impulsu) oraz szumowych (poziom szumów
własnych dla tego typu aplikacji określany jest jako ENC
(ang. Equivalent Noise Charge)) krytycznym elementem
toru jest rezystancja RFED występująca w sprzężeniu
zwrotnym wzmacniacza CSA. Została ona zrealizowana
jako tranzystor PMOS pracujący w zakresie liniowym
w celu otrzymania efektywnej rezystancji RFED w
zakresie od kilku MΩ do kilku GΩ, przy jednoczesnej
minimalizacji zajmowanej powierzchni krzemu. Wpływ
wartości RFED na otrzymywane przebiegi na wyjściu
układu kształtującego dla ładunku wejściowego q in = 1/3
fC w technologii CMOS 180 nm został przedstawiony na
rys. 4.
Rys. 5. Wartość ENC na wyjściu układu kształtującego w funkcji
rezystancji RFED sprzężenia zwrotnego wzmacniacza ładunkowego
CSA.
2. Wnioski
Zastosowanie inwertera jako rdzenia wzmacniaczy
toru elektroniki front-end ze względu na zajmowaną
przez niego powierzchnię krzemu jest bardzo
atrakcyjnym rozwiązaniem do odczytu informacji z
detektorów pikselowych. W celu minimalizacji poziomu
rozpraszanej mocy oraz szumu własnych układu, należy
ustalić odpowiednie wymiarowanie tranzystorów oraz
poziom napięcia zasilania VDD.
Literatura
[1] X. Llopart, M. Campbell, R. Dinapoli, D. San Segundo, E.
[2]
[3]
[4]
[5]
[6]
[7]
Pernigotti, "Medipix2: a 64-k Pixel Readout Chip With 55-µm
Square Elements Working in Single Photon Counting Mode,", IEEE
Trans. Nucl. Sci., vol. 49, no. 5, 2002, pp. 2279 - 2283.
P. Kraft, et al.: "Characterisation and calibration of Pilatus
detectors." IEEE Trans. Nucl. Sci., vol. 56, no. 3, 2009, p. 758- 764.
P. Pangaud, et al., "First Results of XPAD3, a New Photon Counting
Chip for X-Ray CT-Scanner with Energy Discrimination," IEEE
NSS-MIC 2007 Conference Record, vol. 1, p. 14-18.
R. Dinapoli, et al.: "A new family of pixel detectors for high frame
rate X-ray applications" Nucl. Instr. and Meth. A617, 2010, p. 384386.
P. Maj, P. Grybos, R. Szczygiel, "Development of a Fast Readout
Chip in Deep Submicron Technology for Pixel Hybrid Detectors",
Proceedings ot the 20th European Conference on Circuit Theory and
Design (ECCTD 2011), 29-31 August 2011, Linkoping, Sweden, p.
409-412.
R. Horisberger, D. Pitzl, “A novel readout chip for silicon strip
detectors with analog pipeline and digitally controlled analog signal
processing”, Nucl. Instr. and Meth. A, vol. 326, 1993, p. 92-99.
P. Kraft, “Characterization of the readout chip for the Pilatus 6M
Detector”, Diploma thesis, ETHZ-IPP Internal Report 03, 2005,
Switzerland.
mgr inż. Rafał Kłeczek
e-mail: [email protected]
Ukończył Akademie Górniczo-Hutniczą w
2009,
kierunek:
Elektronika
i
Telekomunikacja,
specjalność:
Mikroelektronika i aparatura biomedyczna.
Obecnie jest na trzecim roku Studiów
Doktoranckich na Wydziale EAIiE, AGH.
Pracuje jako asystent w Katedrze Metrologii,
AGH. Jego głównym zainteresowaniem
naukowym jest projektowanie scalonych
wielokanałowych układów elektroniki frontend do odczytu półprzewodnikowych
detektorów promieniowania X.
Rys. 4. Przebiegi na wyjściu układu kształtującego w zależności od
wartości rezystancji RFED sprzężenia zwrotnego wzmacniacza
ładunkowego CSA.
Rys. 5 przedstawia wpływ wartości rezystancji RFED
na poziom szumów własnych układu na wyjściu układu
kształtującego w zależności od zastosowanej technologii.
Tabela 1 przedstawia wyniki symulacyjne
zaprojektowanego układu odczytowego dla dwóch
technologii submikronowych.
65
Warsztaty Doktoranckie 2012
mgr inż. Piotr Otfinowski
e-mail: [email protected]
Ukończył Akademie Górniczo-Hutniczą w
2009,
kierunek:
Elektronika
i
Telekomunikacja, specjalność: Sensory i
mikrosystemy. Obecnie jest na trzecim roku
Studiów Doktoranckich na Wydziale EAIiE,
AGH. Pracuje jako asystent w Katedrze
Metrologii, AGH. Jego głównym tematem
badań naukowych są układy scalonych
przetworników analogowo-cyfrowych.
66
Warsztaty Doktoranckie 2012
ANALIZA SZUMOWA KANAŁU ODCZYTOWEGO
PRZEZNACZONEGO DO WIELOKANAŁOWYCH UKŁADÓW
SCALONYCH DEDYKOWANYCH DO EKSPERYMENTÓW
NEUROBIOLOGICZNYCH
Piotr Kmon1, Piotr Otfinowski1
Akademia Górniczo-Hutnicza, Al. A. Mickiewicza 30, 30-059 Kraków
1
Streszczenie. W artykule opisano budowę typowego kanału odczytowego wykorzystywanego do rejestracji sygnałów neurobiologicznych. Wskazano główne
źródła szumów jakie występują w tego typu układach i zwrócono szczególną uwagę na metody ich minimalizowania. Prowadzona w artykule dyskusja bierze pod
uwagę kluczowe parametry wpływające na odniesione do wejścia kanału odczytowego szumy, a mianowicie moc pobieraną przez kanał pomiarowy oraz
zajmowaną powierzchnię krzemu. Uwzględnia przy tym typowy kanał odczytowy składający się z przedwzmacniacza napięciowego, układu próbkującopamiętającego i przetwornika analogowo-cyfrowego. Pobierana moc oraz zajętość powierzchni są niezmiernie istotne w odniesieniu do budowy
wielokanałowego implantowanego układu scalonego przeznaczonego do rejestracji szerokiej gamy sygnałów neurobiologicznych. Artykuł zakończony jest
opisem zrealizowanego układu scalonego, którego rozbudowana funkcjonalność pozwala na wykorzystanie go do rejestracji szerokiej gamy sygnałów
neurobiologicznych.
Słowa kluczowe: wielokanałowe układy scalone, ASIC, eksperymenty neurobiologiczne, szumy napięciowe.
Noise analysis of the recording channel dedicated to the multichannel integrated circuits for
neurobiology experiments
Abstract. This paper presents the noise analysis of the main components of the typical recording channel dedicated to neurobiological experiments. Main noise
contributors are emphasized and its noise minimization techniques are presented. Noise analysis consider the main recording channel parameters that may be
crucial during multichannel recording system design. Authors also present the measurement results of the 8-channel integrated circuit dedicated to recording
broad range of the neurobiological signals.
Keywords: multichannel integrated circuits, ASIC, neurobiological experiments, input referred voltage noise.
wzmocnienia napięciowego czy też częstotliwości
granicznych),
- bezprzewodowa transmisja danych i energii.
W artykule przedstawiono powszechnie stosowaną
architekturę kanału odczytowego przeznaczonego do
eksperymentów neurobiologicznych i poddano ją analizie
szumowej. Poczynione w artykule analizy zostały
wykorzystane przy budowie układu scalonego
przeznaczonego
do
rejestracji
sygnałów
neurobiologicznych,
którego
wstępne
pomiary
zaprezentowano w rozdziale 3.
Wstęp
Dzięki ciągłemu rozwojowi technologii produkcji
dedykowanych układów scalonych (z ang. ASIC) oraz
wytwarzaniu mikromechanicznych struktur (z ang.
MEMS) przed naukowcami różnych dziedzin otwierają
się nowe możliwości rozwoju. Tak jest i również z
szeroko pojętą neurobiologią, w której jedną z metod
poznania skomplikowanych zależności występujących w
sieciach neuronalnych jest wykorzystanie zintegrowanej
elektroniki połączonej z elektrodami pomiarowymi.
Prowadzone badania mają na celu m.in. poznanie zasad
funkcjonowania określonych partii ludzkiego układu
nerwowego, służą jako źródło cennych informacji w
przemyśle farmaceutycznym, czy też mają pomóc w
poszukiwaniu informacji na temat kodowania i
przetwarzania informacji w centralnym układzie
nerwowym człowieka [1, 2, 3]. Zaawansowanie
współczesnych technologii ma również pozwolić w
niedalekiej przyszłości na budowę interfejsu ludzki układ
nerwowy – świat zewnętrzny (z ang. są to tzw. Brain
Machine Interfaces, BMI) i tym samym ułatwić życie
codzienne osobom z niedowładem kończyn. Pierwsze
pozytywne próby działania takich systemów były ostatnio
raportowane [4].
Ciągle jednak istnieje wiele kwestii, które
powstrzymują
przed
zbudowaniem
w
pełni
funkcjonalnego samodzielnego systemu. W kontekście
budowania
implantowanych
w
ciele
układów
pomiarowych należy wymienić problemy związane z
koniecznością wykonania elektronicznych układów
scalonych wykazujących się następującymi parametrami:
- bardzo niska moc pobierana przez kanał pomiarowy
(przyjmuje się, że powinna ona być na poziomie ok. 20
µW),
- architektura wielokanałowa,
- bardzo niskie, odniesione do wejścia kanału
pomiarowego, szumy napięciowe,
- wysoka jednorodność kluczowych parametrów
kanałów odczytowych (niskie rozrzuty m.in.
1. Budowa kanału pomiarowego
Na Rys. 1 zaprezentowano architekturę typowego
kanału pomiarowego stosowanego w eksperymentach
neurobiologicznych. Składa się on ze wzmacniacza
napięciowego połączonego z elektrodami pomiarowymi,
układu próbkująco-pamiętającego i przetwornika
analogowo-cyfrowego.
Rys. 1.
Uproszczony schemat blokowy typowego kanału
odczytowego przeznaczonego do rejestracji sygnałów
neurobiologicznych.
Zadaniem wzmacniacza napięciowego jest wstępne
kondycjonowanie sygnałów biologicznych, które
charakteryzują się bardzo niskimi amplitudami oraz
różnym pasmem częstotliwościowym (np. sygnały Local
Field Potentials - LFP - charakteryzują się amplitudami w
zakresie 10 µV – 5 mV i pasmem częstotliwościowym
w zakresie 1 Hz < 200 Hz, zaś tzw. neural spikes
charakteryzują
się
amplitudami
i
pasmem
67
Warsztaty Doktoranckie 2012
częstotliwościowym odpowiednio 10 µV – 200 µV i 200
Hz – 5 kHz. Wyjście wzmacniacza może być
wyprowadzone bezpośrednio do zewnętrznego układu
rejestrującego bądź, w przypadku architektury
wielokanałowej układu pomiarowego, do układu
próbkująco-pamiętającego
poprzedzonego
przetwornikiem analogowo-cyfrowym.
ustawiane dzięki wbudowanemu w układ rejestrowi
cyfrowemu. W celu zapewnienia wysokiej jednorodności
dolnej częstotliwości granicznej oraz wyjściowych napięć
stałych, każdy z kanałów odczytowych został
wyposażony w dwa 8-bitowe korekcyjne przetworniki
cyfrowo-analogowe
Wstępne pomiary układu wykazały, że kluczowe
parametry układu, takie jak wzmocnienie napięciowe,
dolna i górna częstotliwość graniczna, mogą być
zmieniane indywidualnie w każdym kanale odczytowym
w bardzo szerokim zakresie. Pojedynczy kanał
pomiarowy charakteryzuje się bardzo niskim poborem
mocy (11 µW) oraz niskimi wejściowymi szumami
napięciowymi (w zależności od ustawionego pasma
częstotliwościowego są one w zakresie 3 µV – 5 µV).
Dzięki rozbudowanej funkcjonalności układu możliwa
jest jego adaptacja w szerokiej gamie eksperymentów
neurobiologicznych. Podsumowanie zrealizowanych
pomiarów zostało zawarte w Tab.1.
2. Analiza szumów napięciowych kanału
pomiarowego
W związku z bardzo niskimi amplitudami
wejściowych sygnałów systemu pomiarowego istotnym
jest aby zadbać o jego bardzo niskie wejściowe szumy
napięciowe. Poniższa relacja przedstawia całkowite
wejściowe
szumy
RMS
kanału
pomiarowego
przedstawionego na Rys. 1:
2
2
2
2
(1)
VIN _ RMS  Venv
 Vamp
 VSH
 V ADC
gdzie: Venv – wartość skuteczna szumów napięciowych
środowiska w którym umieszczone są elektrody
pomiarowe oraz elektrod pomiarowych [µV], Vamp –
wartość skuteczna szumów napięciowych wzmacniacza
[µV], VSH – wartość skuteczna szumów napięciowych
pochodzących od układu próbkująco-pamiętającego
odniesiona do wejścia toru pomiarowego [µV], VADC –
wartość skuteczna szumów napięciowych przetwornika
ADC odniesiona do wejścia toru pomiarowego [µV].
4. Wnioski.
W artykule zaprezentowano analizę szumów
napięciowych wnoszonych przez główne bloki typowego
kanału odczytowego przeznaczonego do rejestracji
sygnałów neurobiologicznych. Pod uwagę wzięto szumy
napięciowe środowiska, w którym przeprowadzany jest
eksperyment neurobiologiczny, szumy napięciowe
elektrod
pomiarowych,
wzmacniacza
sygnałów
neurobiologicznych, układu próbkująco-pamiętającego
oraz
przetwornika
analogowo-cyfrowego.
Z
przytoczonych analiz wynika, że w kontekście budowy
wielokanałowych scalonych układów pomiarowych i
optymalizacji pojedynczego toru pomiarowego pod
kątem osiągnięcia bardzo niskich szumów wejściowych,
niezbędnym jest uwzględnienie wielu parametrów. Mowa
tu o wymaganiach dotyczących m.in. mocy pobieranej
przez finalny system pomiarowy, jego powierzchni oraz
wykorzystanej technologii. W artykule pokazano również
wstępne wyniki pomiarów zaprojektowanego 8kanałowego układu scalonego przeznaczonego do
rejestracji szerokiej gamy sygnałów neurobiologicznych.
3. Układ scalony do pomiaru szerokiej
gamy sygnałów neurobiologicznych
Na podstawie przeprowadzonych analiz szumów
napięciowych głównych bloków wchodzących w skład
neurobiologicznego toru pomiarowego, zaprojektowano
8-kanałowy układ scalony do pomiaru szerokiej gamy
sygnałów neurobiologicznych. Przy projekcie układu
kładziono szczególny nacisk na osiągnięcie bardzo
niskich wejściowych szumów napięciowych przy
równoczesnym zachowaniu niskiego poboru mocy i
małej zajętości powierzchni przez pojedynczy kanał
pomiarowy.
Układ
został
wyprodukowany
w
submikronowej technologii produkcji układów scalonych
CMOS 180nm i zajmuje powierzchnię 1.5 x 1.5 mm2.
Zdjęcie zmontowanego do płytki PCB układu, wraz z
zaznaczonymi jego głównymi blokami funkcjonalnymi
przedstawia Rys. 2.
Tab. 1.
Zestawienie głównych parametrów 8-kanałowego układu
scalonego.
Wykorzystana techologia
Rys. 2.
Zdjęcie zaprojektowanego 8-kanałowego układu scalonego,
gdzie: 1- to 8-wzmacniaczy napięciowych, 2 – analogowy
multiplekser z układem próbkująco-pamiętającym.
CMOS 180nm
Wzmocnienie napięciowe [V/V]
260 / 1000
Zakres
regulacji
dolnej
częstotliwości granicznej [Hz]
Regulacja górnej częstotliwości
granicznej [kHz]
Obszar zajmowany przez tor
pomiarowy [mm2]
0.3 ÷ 900
0.01- 0.28 / 9
Wejściowe szumy napięciowe
mierzone w danym paśmie [µV]
3 (1 Hz– 280 Hz)
5 (1 Hz–9 kHz)
4.2 (900 Hz – 9 kHz)
Pobór mocy przez pojedynczy
kanał [µW]
11
0.06
Podziękowania
Architektura pojedynczego kanału pomiarowego
składa się z dwóch stopni: ze wzmacniacza
napięciowego, w konfiguracji jak na Rys.1, ze
wzmacniacza napięciowego z regulowanym skokowo
wzmocnieniem, oraz z multipleksera analogowego.
Główne parametry układu takie jak dolna i górna
częstotliwość graniczna oraz wzmocnienie napięciowe są
Niniejsza praca była realizowana w ramach grantu
(2011/01/N/ST7/01256) - lata 2011-2013 oraz w ramach
grantu dziekańskiego.
Literatura
[1] A. V. Nurmikko, J. P. Donoghue, L. R. Hochberg, W. R. Patterson,
Y. – K. Song; C. W. Bull, D. A. Borton, F. Laiwalla, S. Park, Y.
68
Warsztaty Doktoranckie 2012
Ming, J. Aceros, “Listening to Brain Microcircuits for Interfacing
With External World—Progress in Wireless Implantable
Microelectronic Neuroengineering Devices”, Proceedings of the
IEEE, 2010, Vol. 98, No. 3, pp. 375 – 388
[2] A. M. Litke, N. Bezayiff, E. J. Chichilnisky, W. Cunningham, W.
Dabrowski, A. A. Grillo, M. Grivich, P. Grybos, P. Hottowy, S.
Kachiguine, R. S. Kalmar, K. Mathieson, D. Petrusca, M. Rahman,
A. Sher, ”What does the eye tell the brain?: Development of a system
for the large-scale recording of retinal output activity” IEEE
Transactions on Nuclear Science, Vol.51, No.4, Aug. 2004, pp.1434
– 40
[3] J. M. Levenson, H. E. Gibson, D. Gerber, M. Levin, “Perforated
Multielectrode Array in Drug Discovery”, 7th International Meeting
on Substrate-Integrated Microelectrode Arrays, 2010
[4] R. Hochberg, D. Bacher, B. Jarosiewicz, N. Y. Masse, J. D. Simeral,
J. Vogel, S. Haddadin, J. Liu, S. S. Cash, P. van der Smagt, J. P.
Donoghue, “Reach and grasp by people with tetraplegia using a
neurally controlled robotic arm”, NATURE, Vol. 4 8 5, May 2012
Dr inż. Piotr KMON
e-mail: [email protected]
Ukończył studia na Wydziale Elektrotechniki,
Automatyki, Informatyki i Elektroniki w 2007 r.
Tytuł doktorski uzyskał w 2012 r. broniąc pracy
dotyczącej wielokanałowych scalonych układów
elektronicznych
dedykowanych
do
eksperymentów neurobiologicznych. W swoich
pracach
zajmuje
się
wykorzystywaniem
nowoczesnych technologii produkcji układów
scalonych do zastosowań w eksperymentach
biologicznych.
Mgr inż. Piotr Otfinowski
e-mail: [email protected]
Ukończył Akademię Górniczo-Hutniczą w 2009,
kierunek:
Elektronika
i
Telekomunikacja,
specjalność: Sensory i mikrosystemy. Obecnie jest
na trzecim roku Studiów Doktoranckich na
Wydziale EAIiE, AGH. Pracuje jako asystent w
Katedrze Metrologii, AGH. Jego głównym
tematem badań naukowych są układy scalonych
przetworników analogowo-cyfrowych.
69
Warsztaty Doktoranckie 2012
ANALIZA PORÓWNAWCZA PANELU FOTOWOLTAICZNEGO I
DACHÓWKI SOLARNEJ W ZASTOSOWANIU DO BUDOWNICTWA
JEDNORODZINNEGO
Dariusz Kurz1
Politechnika Poznańska , Wydział Elektryczny
1
Streszczenie. W pracy przedstawiono porównanie parametrów technicznych paneli PV i dachówek solarnych dostępnych na rynku. Wyznaczono uzysk energii
elektrycznej z każdego pojedynczego elementu oraz z przykładowej przydomowej instalacji fotowoltaicznej przy założonych warunkach. Sformułowano wady i
zalety każdego rozwiązania oraz całej instalacji fotowoltaicznej, na podstawie których inwestor będzie mógł podjąć decyzję o wyborze właściwego dla siebie
rozwiązania.
Słowa kluczowe: ogniwo PV, panel fotowoltaiczny, dachówka solarna, analiza porównawcza, BIPV
Comparative analysis of photovoltaic panel and solar roof tile in application to family housing
Abstract. The paper presents a comparison of the technical parameters of PV panels and solar roof tiles commercially available. Energy yield was determined
from each individual element and the sample a household photovoltaic installation at established conditions. Formulated advantages and disadvantages of each
solution and the whole photovoltaic system under which an investor could decide to choose the right solution for you.
Keywords: PV cell, photovoltaic panel, solar roof tile, comparative analysis, BIPV
1. Porównanie
danych
technicznych
przykładowych elementów PV
Wstęp
Strategia rozwoju energetyki odnawialnej, uchwalona
przez Sejm RP 23 sierpnia 2001 roku, określa udział
energii wytworzonej w odnawialnych źródłach na lata
2010 i 2020, odpowiednio 7,5 % oraz 14 % w bilansie
energii pierwotnej [5]. Oznacza to konieczność
inwestycji w „zielone źródła” energii, jak na przykład w
energetykę
solarną.
Bezpośrednia
konwersja
promieniowania słonecznego na energię elektryczną, przy
której nie występuje generacja hałasu i emisja
zanieczyszczeń do środowiska naturalnego a także
rosnąca sprawność urządzeń fotowoltaicznych i spadek
ich cen sprawia, że systemy fotowoltaiczne zyskują w
ostatnich latach dużą popularność.
Na uwagę zasługuje również fotowoltaika
zintegrowana z budynkiem – BIPV (ang. Building
Integrated Photovoltaics), do których zalicza się m.in.
dachówki solarne, fotowoltaiczne folie hydroizolacyjne,
żaluzje czy markizy okienne oraz elementy elewacyjne
budynku. Elementy te, oprócz spełniania standardowych
funkcji materiałów budowlanych, generują dodatkowo
energię elektryczną.
Zarówno tradycyjne panele PV jak i dachówki
solarne spełniają swoje podstawowe zadanie, czyli służą
do zamiany energii Słońca w energię elektryczną. Jednak
inwestor musi dokonać wyboru, który element zastosuje
w swojej instalacji na podstawie analizy różnych
czynników.
Korzyści wynikające z instalacji systemów
fotowoltaicznych mogą być trudne do oszacowania i
subiektywne w swej ocenie. Małe, przydomowe
elektrownie słoneczne oddziałują pozytywnie na
następujące elementy [1]:

sieć energetyczną;

środowisko naturalne;

architekturę obiektów;

wartości społeczno – ekonomiczne.
Dla wielu inwestorów przeważającą cechą systemów
BIPV nad tradycyjnymi materiałami nie jest tylko
możliwość zmniejszenia kosztów budowy, ale
pozytywny wizerunek społeczny i postrzeganie ich
inicjatyw przez innych. Korzyści te podnoszą wartość
całego systemu, nawet jeśli nie przekładają się
bezpośrednio na wartości materialne.
Na rynku można znaleźć wielu producentów i ofert
sprzedaży paneli fotowoltaicznych o różnych mocach i
technologiach produkcji. Coraz częściej producenci
ogniw PV wprowadzają do swej oferty także dachówki
solarne, wyprodukowane głównie na bazie krzemu
monokrystalicznego. Do analizy porównawczej wybrano
dwa elementy z oferty firmy Fotton, oferującej oprócz
paneli PV także niezbędny osprzęt do stworzenia całej
instalacji fotowoltaicznej jak również całkowite, gotowe
systemy dla konkretnych zastosowań. W tabeli 1 zostały
zebrane parametry dachówki solarnej, której wygląd
przedstawiono na rysunku 2a i tradycyjnego panelu PV,
zaprezentowanego na rysunku 2b dla zastosowań
domowych. Zaprezentowane dane techniczne zostały
wyznaczone w warunkach testu standardowego STC
(ang. Standard Test Conditions) odnoszącego się do
natężenia
promieniowania
równego
1000 W/m2,
temperatury pracy modułu wynoszącej 25 oC oraz masy
powietrza równej 1,5.
a)
b)
Rys. 1.
Wygląd porównywanych elementów:
a) Dachówka solarna FTDS50 6V [6]
b) Panel fotowoltaiczny
SL/CL 60 12V [6]
Wybrane elementy wykonane są z tego samego
materiału – krzemu monokrystalicznego i posiadają
porównywalną moc maksymalną. Z dachówki można
otrzymać napięcie o połowę niższe niż z panelu, a ponad
dwukrotnie wyższą wartość prądu zwarcia.
70
Warsztaty Doktoranckie 2012
istnienie odpowiednich warunków do powszechnego
wykorzystania energetyki słonecznej [3, 4].
Wykorzystując metodę wyznaczania uzysku energii z
ogniw fotowoltaicznych zawartą w pracy [2] oraz
program Komisji Europejskiej [7] wykonano analizę
uzysków dla instalacji fotowoltaicznej zlokalizowanej w
Poznaniu,
zainstalowanej
na
dachu
domu
jednorodzinnego o ekspozycji południowej i kącie
nachylenia dachu wynoszącym 35o.
Dla pojedynczych elementów można otrzymać
roczny uzysk
energii
elektrycznej
wynoszący
ok. 42,75 kWh z dachówki solarnej oraz 54 kWh z
tradycyjnego panelu PV. Z jednej dachówki, mającej o
ok. 17 % niższą moc znamionową od panelu otrzymamy
o ok. 21 % mniejszy uzysk energii.
Analizie poddano także 1 kW instalację złożoną
zarówno z tradycyjnych paneli PV i dachówek solarnych.
Przy takich warunkach uzyskano wartości uzysku energii
elektrycznej na poziomie 900 kWh dla tradycyjnych
paneli i 855 kWh z dachówek solarnych. Z otrzymanych
wartości wynika ok. 5 % różnica w uzysku energii.
Należy pamiętać, że dla otrzymania założonej mocy
potrzebnych będzie ok. 16,67 paneli PV i aż 20
dachówek solarnych, co w przeliczeniu na koszty zakupu
samych
elementów
fotowoltaicznych
wyniesie
odpowiednio 8 951,96 zł oraz 11 980 zł.
Niższa moc dachówki i mniejsza powierzchnia
czynna nie jest jedyną przyczyną uzyskania mniejszej
ilości energii. W przypadku systemów BIPV większe
znaczenie ma wpływ promieni słonecznych na
temperaturę pracy ogniw fotowoltaicznych, gdyż wyższa
temperatura obniża ich sprawność. Panele montowane na
stelażu mają niższą temperaturę pracy, gdyż są naturalnie
chłodzone przez przepływające powietrze pomiędzy nimi
a dachem. Natomiast dachówki solarne są zamontowane
bezpośrednio na konstrukcji dachowej, gdzie nie
występuje swobodna wymiana gorącego powietrza z
otoczeniem.
Tabela 1. Dane techniczne dachówki solarnej i panelu PV [6]
Panel
Dachówka
słoneczny
solarna
SL/CL 60
FTDS50 6V
12V
Moc maksymalna – Pmax [W]
52
60
Napięcie nominalne – U [V]
6
12
Napięcie maks. (jałowe) – Uoc [V] 8,5
21,6
Napięcie w punkcie maks. mocy –
6,59
17,2
Um [V]
Prąd zwarcia – Isc [A]
8,05
3,79
Prąd w punkcie mocy maks. – Im
7,58
3,49
[A]
Napięcie maksymalne – Umax [V]
600
715
monokrystaliczn monokrystalic
Rodzaj ogniw
e
zne
Waga [kg]
5,5
7
Wymiary [mm]
1230x420x30
766x654x35
Powierzchnia brutto [m2]
0,51
0,5
Powierzchnia krycia [m2]
~ 0,42
~ 0,5
2
Powierzchnia czynna [m ]
~ 0,41
~ 0,5
Ilość elementów na 1 m2 [szt./m2]
~ 2,3
~2
Konstrukcja nośna
aluminium
aluminium
Kąt nachylenia dachu [ o]
25 ÷ 50
25 ÷ 50
bezpośrednio do
łat dachu o
na stelażu
Sposób montażu
rozstawie: 29,5 ÷
wsporczym
34 cm, 4 wkręty
Gwarancja producenta
3 lata
3 lata
90% – 10 lat
90% – 10 lat
Gwarancja wydajności ogniw
80% – 25 lat
80% – 25 lat
Cena [zł]
599,00
537,01
Panel charakteryzuje się niewiele większym
napięciem maksymalnym. Napięcie w stanie jałowym
dachówki jest o ok. 42 % wyższe od nominalnego, jednak
w przypadku panelu wartość ta jest wyższa aż o 80 %.
Producent udziela 3 letniej gwarancji na swoje produkty i
gwarantuje wydajność ogniw na poziomie 10 % przez
10 lat i 80 % do 25 lat pracy. Pomimo różnicy w
wymiarach, zajmują one identyczną powierzchnię, przy
czym panel jest cięższy, a należy jeszcze doliczyć stelaż,
na którym będzie zamocowany. Aby móc porównać
obciążenie konstrukcji dachu panelu z dachówką, od
wagi której należałoby odjąć jeszcze pokrycie dachowe
można się spodziewać, że ciężar tradycyjnej instalacji PV
może być nawet dwukrotnie wyższy. Koszt zakupu
dachówki jest w tym przypadku wyższy o ok. 10 % od
ceny panelu. Jednak gdyby odliczyć cenę dachówki
ceramicznej, zamiast której będzie zamontowana
dachówka solarna, to wydatki te prawdopodobnie by się
zrównały. Doliczając jeszcze stelaż dla paneli można
stwierdzić, że relatywnie cena montażu dachówki będzie
niższa od ceny panelu. Jednakże prawie cała
powierzchnia panelu jest powierzchnią czynną, czyli
oprócz ramki jest ona wypełniona ogniwami PV. W
przypadku dachówki aż 20 % jej powierzchni stanowi
ramka i częściowo jest przykrywana innymi
dachówkami, tak jak ma to miejsce przy pokryciach
dachowych. Można więc wywnioskować, że dachówka
charakteryzuje się wyższą sprawnością konwersji
fotowoltaicznej niż panel, jednak mimo wszystko uzysk
energii będzie mniejszy.
3. Wnioski
Instalację opartą na tradycyjnych panelach PV można
wznieść w dowolnym momencie, gdyż nie ingeruje ona
w bryłę budynku. Natomiast przy instalacji BIPV
najwłaściwszym czasem montażu jest okres budowy lub
modernizacji obiektu. Jednakże do niewątpliwych zalet
elementów systemu BIPV można zaliczyć:
 generację energii elektrycznej z darmowej energii
Słońca bezpośrednio w miejscu zapotrzebowania na
nią;
 zmniejszenie kosztów przesyłowych;
 możliwość wspomożenia sieci energetycznej w
przypadku większego zapotrzebowania na energię
przy generowaniu nadwyżki energii nad potrzebami
własnymi;
 zwiększenie niezależności energetycznej budynku;
 nowoczesny i proekologiczny wizerunek obiektu
oraz zwiększenie możliwości dla jego formy
architektonicznej;
 wytworzenie „czystej energii” z „zielonych źródeł”
oraz brak emisji zanieczyszczeń czy substancji
szkodliwych;
 oszczędność kosztów na materiały budowlane;
 lepsze zabezpieczenie instalacji fotowoltaicznej
przed uszkodzeniami i kradzieżą.
Wadą instalacji fotowoltaicznych, niezależnie od
zastosowanych elementów (paneli czy dachówek), jest
okresowość generacji energii, której ilość zmienia się w
2. Analiza uzysków energii
Wykorzystanie systemów fotowoltaicznych na
danym obszarze uzależnione jest przede wszystkim od
jego warunków geograficznych. Najistotniejsze jest
usłonecznienie terenu oraz liczba godzin dziennych, co
bezpośrednio przekłada się na całkowite nasłonecznienie
obszaru.
W Polsce wartość nasłonecznienia zawiera się w
przedziale ok. 900 ÷ 1100 kWh/m2, co wskazuje na
71
Warsztaty Doktoranckie 2012
ciągu doby oraz w poszczególne miesiące roku. Uzysk
energii uzależniony jest także od aktualnych warunków
pogodowych lub występujących okresowych zacienień
ogniw PV. Istotny problem stanowi także sprawność
konwersji
fotowoltaicznej
wynosząca
zaledwie
kilkanaście procent.
Aby oszacować rzeczywistą ilość użytkowej energii
elektrycznej na podstawie obliczonych uzysków energii z
elementów fotowoltaicznych należy jeszcze pomniejszyć
ją o straty na pozostałych podzespołach systemu, jak na
przykład inwerterze czy akumulatorze, sięgające rzędu
10 – 20 %.
Przedstawione
informacje
mogą
posłużyć
inwestorom do wykonania oceny ekonomicznej instalacji
fotowoltaicznej i wyboru odpowiedniej dla nich formy
elementów składowych systemu.
[3]
[4]
[5]
[6]
[7]
konferencja Advanced Methods in the Theory of Electrical
Engineering, 6 – 9 wrzesień 2011, Klatovy, Czechy, str. V7 – V8.
Paska J.: Wytwarzanie rozproszone energii elektrycznej i cieplnej,
Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2010.
Tytko R.: Odnawialne źródła energii, Wyd. OWG, Warszawa 2011.
Ministerstwo Środowiska: Program Rozwoju Energetyki Wiatrowej
w Polsce w latach 2002-2005, opracowane przez Europejskie
Centrum Energii Odnawialnej – EC BREC, Warszawa 2001.
http://www.elektrosklad.pl/, dn. 15.05.2012 r.
http://re.jrc.ec.europa.eu/pvgis/apps3/pvest.php, dn. 15.05.2012 r.
Mgr inż. Dariusz Kurz
e-mail: [email protected]
Obszarem zainteresowań autora są tematy
związane z odnawialnymi źródłami energii.
Szczegółową uwagę skupia na systemach
fotowoltaicznych zintegrowanych z budynkiem
będących źródłem energii elektrycznej w
budynkach inteligentnych. Jako student Studiów
Doktoranckich
oraz
pracownik
Instytutu
Elektrotechniki i Elektroniki Przemysłowej
Politechniki Poznańskiej przygotował wiele
interesujących publikacji, zaprezentowanych na
konferencjach krajowych i zagranicznych.
Literatura
[1] Kurz D.: Korzyści wdrażania systemów BIPV, XV konferencji
Zastosowanie Komputerów w Elektrotechnice, 11 – 13 kwiecień
2011, Poznań, Polska, str. 107 – 108.
[2] Kurz D., Trzmiel G.: Analyzing the method of determining the
energy output of photovoltaic roof tiles, X międzynarodowa
72
Warsztaty Doktoranckie 2012
ZASTOSOWANIE REGULATORA PID DO STEROWANIA
MANIPULATOREM Z NAPĘDEM ELEKTROHYDRAULICZNYM O
RÓWNOLEGŁEJ KINEMATYCE
Piotr Owczarek, Dominik Rybarczyk
Politechnika Poznańska, Wydział Budowy Maszyn i Zarządzania
1
Streszczenie. Artykuł opisuje zastosowanie regulatora PID do sterowania manipulatorem wyposażonym w napędy elektrohydrauliczne. Konstrukcja
manipulatora oparta jest na nietypowej kinematyce równoległej, w której ruchy poszczególnych ramion są od siebie zależne. Autorzy porównali wpływ nastaw
regulatora PID z regulatorem proporcjonalnym wykorzystując całkowy wskaźnik jakości z uchybu regulacji.
Słowa kluczowe: regulator PID, kinematyka równoległa, napęd elektrohydrauliczny, manipulator
Use of the PID controller to control of the pararell kinematic manipulator with electrohydraulic
servo-drives
Abstract. The article describes the use of the PID controller to control the manipulator equipped with electrohydraulic drives. The design of the manipulatora
was based on an unusual parallel kinematics, in which arm movements are dependent on each other. The authors attempted to minimize the error of process
control by the integral performance indices to compare the tuning parameters of PID controller with a proportional controller.
Keywords: PID controller, parallel kinematics, electrohydraulic servodrives, manipulator
Schemat blokowy stanowiska został przedstawiony na
rys. 2. Karty sterownicze obsługiwane były za pomocą
wyjść analogowych (sygnał napięciowy w standardzie
±10V), natomiast enkodery obsługiwane były za pomocą
szybkich wejść licznikowych z dokładnością kąta
wynoszącą 0.025o.
Wstęp
Zastosowanie manipulatorów w przemyśle w
znaczący sposób wpływa na szybkość oraz precyzję
wykonywania zadań. Najczęściej spotykanym rodzajem
napędów w tego typu urządzeniach są silniki elektryczne.
W przypadku operowania bardzo dużymi siłami napędy
tego typu mogą okazać się jednak niewystarczające,
dlatego rozwiązaniem tego problemu może być
zastosowanie napędów hydraulicznych.
1. Manipulator

2. Siłowniki
1. Opis problemu badawczego
Jedną z podstawowych nieliniowości serwonapędów
elektrohydraulicznych zbudowanych na bazie zaworu
proporcjonalnego jest występowanie tzw. strefy
nieczułości.
Ograniczenia
konstrukcyjne
zaworu
powodują, że przestrzeń działania suwaka jest nieco
zmniejszona lub zwiększona, tworząc w efekcie strefę
nieczułości (najczęściej dodatnią). Problem nieliniowości
serwonapędów elektrohydraulicznych oraz ich sterowania
został opisany w [1, 2]. Dodatkowym problemem w
przypadku opisywanego układu jest nietypowa
kinematyka manipulatora, ponieważ napędy nie znajdują
się bezpośrednio w przegubach manipulatora, a to
powoduje, że ruch poszczególnych ramion może być
zależny, tak jak przedstawiono na rys. 1. Opis kinematyki
manipulatorów można znaleźć w [3]. Autorzy założyli, że
sterowanie z wykorzystaniem regulatora PID umożliwi
skuteczne sterowanie opisywanym urządzeniem oraz w
pewnym stopniu
kompensację
wpływu
wyżej
wymienionych nieliniowości.
3. Enkodery inkrementalne

2. Opis stanowiska badawczego
Rys. 1.
Widok manipulatora z napędem elektrohydraulicznym
Rys. 2.
Schemat układu sterowania
3. Przeprowadzone badania
W celu badania skuteczności sterowania, konieczne
stało się zbudowanie stanowiska badawczego. Punktem
centralnym był dwuosiowy manipulator o kinematyce
równoległej (rys.1). Każdą z osi wyposażono w siłowniki
hydrauliczne połączone z zaworami proporcjonalnymi.
Zawory proporcjonalne sterowano za pomocą
dedykowanych kart. Całość zasilano za pomocą pompy o
stałym wydatku ciśnienia. Jako układ pomiarowy
zastosowano enkodery inkrementalne o rozdzielczości
3600 impulsów/obr.
Układ sterowania oparty był na sterowniku PLC
firmy B&R komunikujący się z oprogramowaniem PVI
Menager (ang. Process Visualization Interface) [4].
W celu sprawdzenia skuteczności działania
opisywanego systemu autorzy przeprowadzili badania
rzeczywiste. Manipulator wykonywał ruchy typu Point to
Point (z punktu do punktu) jako skok jednostkowy z
zakresu 0-20o, dla obu przegubów manipulatora. System
sterowania oparty był na równoległej strukturze
dyskretnych regulatorów proporcjonalnych - w
pierwszym cyklu badań – oraz – dyskretnych regulatorów
typu PID [5] - w drugim cyklu badań.
Aby
porównać
skuteczności
działania
poszczególnych regulatorów posłużono się całkowymi
wskaźnikami jakości. Są one wskaźnikami globalnymi
73
Warsztaty Doktoranckie 2012
(całościowymi), które
energetyczną układu.
mogą
wyrażać
interpretację

I   | e(t ) | dt
Tabela 1. Całkowe wskaźniki jakości
P
PID
(2)
0
gdzie: I – całkowy wskaźnik jakości, e – uchyb regulacji.
Wzmocnienie
kp=2000
kp=500, kd=10, ki=200
e
87,03
80,86
e
427,56
399,49
Analizując
otrzymane
wartości
wskaźników
zauważono, że jakość regulacji jest lepsza w przypadku
regulatora PID, dla obu osi manipulatora, a uchyb w
czasie ustalonym został sprowadzony do zera.
Pierwszy etap badań został zrealizowany z
wykorzystanie regulatora proporcjonalnego o różnych
nastawach wzmocnienia. Na rysunku 3 przedstawiono
przebiegi zmian kąta  manipulatora.
4. Wnioski
Autorzy zastosowali regulator PID do sterowania
manipulatora
z
napędem
elektrohydraulicznym.
Konstrukcja manipulatora oparta była na nietypowej
kinematyce równoległej (ruchy w osiach dla
poszczególnych ramion  były od siebie uzależnione).
Autorzy porównali wpływ nastaw regulatora PID z
regulatorem proporcjonalnym. Z uwagi na ograniczenia
wynikające z wartości natężenia strumienia cieczy
roboczej przepływającej przez elementy hydrauliczne
stosowanie regulatora PID wykazało poprawę regulacji
minimalizując całkowy wskaźnik jakości.
Rys. 3.
Literatura
Wykres kąta α dla regulatora proporcjonalnego przy
wymuszeniu typu skok jednostkowy
[1] Milecki A.: Liniowe serwonapędy elektrohydrauliczne. Modelowanie
i sterowanie, Wydawnictwo Politechniki Poznańskiej, Poznań 2003.
Dla niskich wartości wzmocnienia w układzie
widoczne były duże wartości uchybu związane z
nieliniowym charakterem zaworu hydraulicznego. W
miarę zwiększania wartości wzmocnienia uchyb malał, aż
do wartości bliskiej zero. Na przebiegu można zauważyć
wyraźny wpływ ograniczenia wynikający z wartości
natężenia strumienia cieczy roboczej przepływającej
przez poszczególne elementy układu. Dlatego też,
zwiększając wzmocnienie układu powyżej kp=200 nie
wpływano znacznie na czas regulacji.
Rys. 4.
[2] Dorr H., Ewald R., Hutter J., Kretz D., Liedhegener F., Schmitt A.:
[3]
[4]
[5]
[6]
Vademecum Hydrauliki Tom 2 Technika hydraulicznego sterowania
zaworami proporcjonalnymi i serwozaworami, Mannesmann
Rexroth GmbH, 1986.
Jezierski E.: Dynamika robotów, WNT, Warszawa 2005.
www.br-automation.com
Dyskretny regulator PID
http://atmel.com/dyn/resources/prod_documents/doc2558.pdf
mgr inż. Piotr Owczarek
e-mail: [email protected]
Doktorant
w
Zakładzie
Urządzeń
Mechatronicznych Politechniki Poznańskiej.
Urodzony 01.05.1987 r. w Sieradzu. Ukończył
studia w2011r. na Wydziale Elektrycznym PP.
Jest na studiach doktoranckich od 2011 r. na
Wydziale Budowy Maszyn i Zarządzania PP.
Jego zainteresowania obejmują nowoczesne
metody cyfrowego przetwarzania obrazów
(między innymi algorytmy rozpoznające twarze),
metody sztucznej inteligencji. Projektowanie
urządzeń elektronicznych mechatronicznych.
Programowanie w językach wyższego poziomu
takich jak: C, C++, AVR-GCC, ST, LD.
mgr inż. Dominik Rybarczyk
e-mail: [email protected]
Asystent
w
Zakładzie
Urządzeń
Mechatronicznych na Wydziale Budowy maszyn
i Zarządzania Politechniki Poznańskiej. Urodzony
13.05.1986 r. w Poznaniu. Ukończył studia w
2010 r. na Wydziale Budowy Maszyn i
Zarządzania Politechniki Poznańskiej. Jego
zainteresowania
obejmują
urządzenia
mechatroniczne, sterowniki mikroprocesorowe,
metody sztucznej inteligencji oraz serwonapędy
elektrohydrauliczne.
Wykres kąta α dla regulatora PID przy wymuszeniu typu skok
jednostkowy
Drugi etap badań wykonano zmieniając nastawy
regulatora PID. Jego stosowanie ma sens jedynie dla
niskich prędkości, w których nie występują fizyczne
ograniczenia przepływu strumienia cieczy (działanie
całkujące). Wyniki badań przedstawiono na rys. 4.
Zmieniając wartości wzmocnienia ki zauważono poprawę
regulacji. Dobierano parametry wzmocnień, aż do
sprowadzenia uchybu w czasie ustalonym do zera.
Zestawienie wyników otrzymanych całkowych
wskaźników jakości z czasu regulacji 19 sekund dla
wybranych nastaw regulatorów przedstawiono w tabeli 1.
Praca naukowa finansowana ze środków na naukę w latach 20102012 jako projekt badawczy pt. "Zastosowanie metod sztucznej
inteligencji do nadzorowania pracy urządzeń mechatronicznych z
napędami elektrohydraulicznymi sterowanymi bezprzewodowo".
74
Warsztaty Doktoranckie 2012
PRZEGLĄD METOD DO SYNCHRONIZACJI Z SIECIĄ (PLL) DLA
PRZEKSZTAŁTNIKÓW ENERGOELEKTRONICZNYCH
Piotr Lipnicki1
1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, Katedra Napędów i Maszyn Elektrycznych
Streszczenie. Niniejszy artykuł zajmuje się kluczowym aspektem, jakim jest synchronizacja przekształtników energoelektronicznych przyłączonych do sieci
elektroenergetycznej. Dzisiaj wiele elementów Rozproszonych Systemów Wytwarzania Energii (RSWE), takich jak układy FACTS, elementy sieci trakcyjnych i
kondycjonery energii elektrycznej zawierające przekształtniki energoelektroniczne, potrzebują zoptymalizowanych algorytmów synchronizacji. Warto zauważyć,
że również operatorzy sieci przesyłowych posiadają szczegółowe wymagania odnośnie synchronizacji z siecią. Jednym z wielu sposobów pozwalającym na
uzyskanie dobrych efektów synchronizacyjnych jest użycie algorytmu pętli zamykania fazy (PLL). W artykule tym przedstawiono wyniki badań dla różnych
algorytmów PLL. Wyjaśniono jak działają i opisano ich funkcjonalność, możliwości zastosowania i wady. Przeanalizowano również wpływ asymetrii napięcia
wraz z harmonicznymi na metody synchronizacji. Algorytmy PLL zostały sprawdzone i ocenione przy mocy symulacji.
Słowa kluczowe: pętla synchronizacji fazowej (PLL), harmoniczne, asymetria napięcia, systemy dystrybucji, , przekształtniki mocy, kody sieci
Overview of methods for synchronizing with the power gird (PLL) for power converters
Abstract. This paper deals with crucial aspect of synchronizing power converters connected to the utility grid. Today, many components of Distributed Power
Generation Systems (DPGS), such as Flexible Alternating Current Transmission Systems (FACTS), traction applications and power line conditioners containing
power converters, have an important demand for optimized synchronization algorithms. It should be noted that also Transmission System Operator have specific
requirements for synchronization with the grid. One of the possible ways to achieve a good performance in terms of synchronization is to use a phase lock loop
algorithm (PLL). This paper shows the results of investigation on different PLL methods, explaining how they work along with a summary describing their
features, possibilities and drawbacks. In the end the impact of voltage unbalances and harmonics on synchronization algorithms is analyzed. The PLL methods
were evaluate by the means of simulations.
Keywords: phase-lock loop(PLL), harmonics, voltage unbalance, distribution systems, , power converters, grid codes
kompensującego,
inne
natomiast
proponują
uwzględnienie tych zjawisk już w samej metodzie
sterowania. W tym artykule zaprezentowany zostanie
drugi typ rozwiązań.
Wstęp
Nowoczesna koncepcja sieci przesyłowych zakłada,
że w przyszłości coraz większą rolę będą odgrywać
Rozproszone Źródła Energii (RZE). Jednym z
dominujących trendów jest coraz szersze zastosowanie
układów energoelektronicznych. Spowodowane jest to
możliwościami, jakie dają układy zawierające
przekształtniki energoelektroniczne. Pozwalają one m.in.
na: na zarządzanie energią w sposób efektywny,
zapewniają wysoką jakość energii, ciągłość zasilania.
Podstawową
informacją
dla
układów
przekształtnikowych podłączonych do sieci są
częstotliwość i kąt sieci użytkowej. Kąt fazowy wektora
prądu/napięcia składowej podstawowej w punkcie
przyłączenia do sieci powinien być wykrywany „online”
w czasie rzeczywistym. Pozwala to na sterowanie
przepływem energii między przekształtnikiem, a siecią.
Powyższe zdanie pokazuje jak ważnym elementem
dla każdego układu jest odpowiednia synchronizacja z
siecią. Dla tego też w każdym kraju operatorzy sieci
posiadają
odpowiednie
regulacje
dotyczące
synchronizacji. Polski operator PSE określa wyraźnie
czas synchronizacji z siecią dla nowych jednostek, a
także czasy re-synchronizacji urządzeń np. o zapadach
napięcia, bądź chwilowych odłączeniach [1]. W tym roku
w Europie stowarzyszenie operatorów sieci pracuje nad
dokumentem określającym zasady i wymagania
dotyczące przyłączonych źródeł energii. Ważnym
elementem jest możliwość szybkiej re-synchronizacji [2].
Odpowiednie algorytmy synchronizujące są w stanie
wykryć odpowiedni kąt nawet w przypadku asymetrii
napięcia, bądź też występowania harmonicznych.
Jak pokazano poniżej kąt fazowy sieci może zostać
wykryty za pomocą algorytmów PLL. Jakość zamknięcia
kąta w metodzie PLL ma bezpośredni wpływ na
wydajność obwodów sterowania przekształtników [3].
Niepożądane zakłócenia takie jak asymetria napięcia,
spadki napięcia, zapady napięcia, harmoniczne są
szkodliwymi zjawiskami mającymi negatywny wpływ na
działanie algorytmów PLL [3]. By przeciwdziałać tym
zakłóceniom stosuje się różne metody. Jedne skupiają się
na dodaniu do urządzenia odpowiedniego filtra, układu
1. Teoria mocy chwilowej w wirującym
układzie odniesienia p-q
Nowoczesne algorytmy synchronizacji w dużej
większości przypadków bazują na teorii mocy chwilowej
p-q opracowanej prze Hirufumi Akagiego [4]. Teoria ta
zaproponowała użycie tzw. Układu odniesienia p-q-r,
który wiruje synchronicznie wraz z wektorem napięcia
systemu trójfazowego. W układzie tym sygnały, na
których operujemy mają stałą amplitudę, co pozwala na
łatwe ich sterowanie. Ponadto, gdy weźmiemy pod
uwagę prąd, to w tym układzie odniesienia moce
chwilowe ( zarówno moc czynna jak i bierna) są
zdefiniowane poprzez liniowo niezależne komponenty
prądu id i iq. Aby przejść od układu trójfazowego do
układu p-q należy wykonać szereg transformacji [4].
Pierwszym krokiem jest przejście z koordynat abc do
αβ. Jest to realizowane w następujący sposób:



o
o
o
2 
(1)
f abc   ( f a  e j 0  f b  e j120  f c  e j 120 )
3
f  Re[ f abc ]
(2)
f   Im[ f abc ]
(3)
2
2
2
2
2
f abc   [ f a  (cos 0  j sin 0)  f b  (cos
 j sin )  f c  (cos
 j sin )]
3
3
3
3
3

(4)

2
2
2 2
2
2
f abc   [ f a  cos 0  f b  cos
 f c  cos ]  j  [ f a sin 0  f b sin )  f c sin ]
3
3
3
3
3
3
(5)

1
f abc  f  jf  ; f 0  ( f a  f b  f c )
3
2
2 

cos 0 cos 3
 f 

2
 f     sin 0 sin 2

  3 
3
1
 f 0 
 1
2
 2
75
cos
3  fa 
2   
 fb
 sin
3  
1
  f c 
2

(6)
(7)
Warsztaty Doktoranckie 2012

1
 f 

 f   2  0
  3 
 f 0 
1
2

1
2
3
2
1
2

1 
2  f 
 a
3  

fb
2  

1   f c 
2 
2. PLL w wirującym układzie odniesienia

Powszechnie stosowaną metodą synchronizacji w
systemie trójfazowym jest algorytm PLL-SRF (PLL –
Synchronous Reference Frame; PLL w wirującym
układzie odniesienia). W metodzie tej wartość chwilowa
kąta fazowego jest wykrywana poprzez synchronizację
wirującego układu odniesienia algorytmy PLL z
wektorem napięcia sieci użytkowej. Sygnał odniesienia
jest „zamykany” (synchronizowany) z wektorem napięcia
za pomocą regulatora proporcjonalno-całkującego (PI –
proportional intergrating). Regulator ten dostraja oś p
wirującego układu odniesienia do wektora napięcia sieci.
Można również dostroić oś q wirującego układu
odniesienia do wektora napięcia by otrzymać poprawnie
działający mechanizm synchronizacji. Wybór pomiędzy
tymi dwoma możliwościami zależy od aplikacji. W
przypadku sterowania przekształtnikiem sieciowym
preferowane jest dostrojenie osi p. W przypadku
sterowania maszyną elektryczną powinno wybrać się oś q
[5].
Ogólną strukturę działania algorytmu PLL-SRF
przedstawia Rys. 3. Jak to zostało opisane wcześniej
metoda ta używa dwóch transformacji sygnałów (abc do
αβ i αβ do pq).
(8)
gdzie: fa, fb, fc - to zmienne sygnału w fazie a,b i c, fα, fβ,
f0 – to zmienne sygnału w układzie αβ. Przejście z układu
abc do αβ w postaci graficznej ilustruje Rys. 1.
Rys. 1.
Zilustrowane przejście z układu abc do αβ za pomocą
wektorów.
Drugim etapem jest przejście ze statycznego układu αβ
do wirującego układu pq. Realizowane jest to w
następujący sposób:
 f  jf 
f p  Re[ f  e j ]  Re[ f  jf  ]  e j  Re   j  
 e

(9)
 f  jf 
(10)
f p  Im  j  
 e

f  jf 
f  jf 
cos   j sin 
f  e j 


cos   j sin 
cos   j sin  cos   j sin 
(11)
Rys. 3.
Powyższy układ, oprócz transformacji sygnałów,
zawiera również regulator PI i element całkujący. W celu
synchronizacji z osią p po transformacjach używamy
tylko komponentu q. Za pomocą sygnałów Vq i VqREF
(sygnał odniesienia) zostaje stworzony sygnał błędu,
który jest podawany na wejście regulatora PI. Wyjście
regulatora PI jest sumowane z blokiem ωff, który
reprezentuje pulsację komponentu podstawowego (ωff
=2π50). Po scałkowaniu sygnału pulsacji otrzymujemy
wartość kąta θ. Kąt ten jest wykorzystywany do dalszego
przetwarzania sygnałów w różnych układach odniesienia.
Aby zrealizować odpowiednie wysterowanie
algorytmu PLL-SRF należy dobrać odpowiednie
wzmocnienia dla regulatora PI w taki sposób, aby
zminimalizować błąd. Metoda dostrajania nastaw
regulatora, która jest opisana w [6], daje możliwość
dokładnego określenia czasu osiadania i tłumienia dla
algorytmu PLL-SRF. W ten sposób łatwo możemy
zaprojektować wolny, bądź szybki algorytm PLL
dostrajając tylko dwa parametry. Metoda dostrojenia jest
związana z transmitancją układu PLL przedstawionego
na Rys.3. Transmitancja projektowanego układu PLL ma
postać:
K
Kp  s  p
(17)
Ti
H ( s) 
K
s2  Kp  s  p
Ti
gdzie: Kp – to wzmocnienie członu proporcjonalnego, Ti
– czas osiadania członu całkującego. To wyrażenie
można porównać z transmitancją drugiego rzędu, która
ma postać:
f  e j  f cos   f  sin   j (- f sin   f  cos  )
(12)
f  e j  Re[ f ]  j Im[ f ]
(13)
f  e j  f p  j f q
(14)
 f p   cos 
 f   - sin 
 q 
 f 0   0
sin 
cos 
0
0   f 
0  f  
1  f 0 
(15)
 f p   cos  sin    f 
(16)
f 
 
 q   sin  cos    f  
gdzie: fα, fβ, f0 – to zmienne sygnału w układzie αβ ,a fp, fq
- to zmienne sygnału w układzie pq, θ . Przejście z
układu αβ do pq w postaci graficznej ilustruje Rys. 2.
Rys. 2.
Struktura blokowa algorytmu PLL-SRF.
Zilustrowane przejście z układu αβ to pq za pomocą wektorów.
76
Warsztaty Doktoranckie 2012
[5] Ciobotaru, M.; Teodorescu, R.; Blaabjerg, F., “A New Single-Phase
PLL Structure Based on Second Order Generalized Integrator”,
Power Electronics Specialized Conference 2006, PESC’06, 37 th
IEEE 18-22 June 2006
[6] Timbus, A.; Teodorescu, R.; Blaabjerg, F.; Liserre, M.;
„Synchronization Methods for Three Phase Distributed Power
Generation Systems. An Overview and Evaluation", Power
Electronics Specialists Conference, 2005. PESC ’05. IEEE 36th 1616 June 2005
2    n  s  n2
(18)
s  2    n  s  n2
– pulsacja naturalna, ζ – współczynnik
G( s) 
2
gdzie: ωn
tłumienia.
Porównując równania (17) i (18) jesteśmy w stanie
dobrać odpowiednie wzmocnienia dla regulatora PI w
poniższy sposób. Z Teorii sterowania wiemy, że:
Mgr inż. Piotr Lipnicki
e-mail: [email protected]
Jest absolwentem Politechniki Lubelskiej i
Uniwersytetu
technicznego
w
Aalborgu.
Zajmował się zagadnieniem kompensacji mocy
biernej dla farm wiatrowych. Opracował metodę
sterowania dla kompensatora mocy biernej
STATCOM. Pracę magisterską pisał we
współpracy z duńską firmą Vestas. Pracował nad
zagadnieniem
sterowania
przekształtników
napięciowych połączonych równolegle. Interesuje
się zagadnieniem sieci inteligentnych „smart
grids”, w pracy doktorskiej zajmuje się
algorytmami synchronizacji z przekształtników
energoelektronicznych z siecią.
Literatura
[1] Instrukcja Ruchu i Eksploatacji Sieci Przesyłowej – IRiESP, PSE
Operator, 1-10-2011.
[2] ENTSO-E Draft Network Code for Requirements for Grid
Connection applicable to all Generators, European Network of
Transmission System Operators for Electricity, 24 January 2012
http://www.entsoe.eu
[3] G. Xiaoqiang, W. Weiyang, S. Xiaofeng, and S. Guocheng, “Phase
Locked Loop for electrically-interfaced converters in distributed
utility networks”, in Proceedings of International Conference on
Electrical Machines and Systems (ICEMS 2008), Oct.17-20 2008,
pp. 2346–2350
[4] H. Kim, H. Akagi “The Instantaneous Power Theory on rotating p-qr Reference Frames”, IEEE International Conference on Power
Electronics and Drive Systems, PEDS’99, July 1999, Hong Kong
77
Warsztaty Doktoranckie 2012
METODA TWORZENIA MODELU ZIEMSKIEGO POLA
MAGNETYCZNEGO ZOPTYMALIZOWANEGO DLA
OBSERWATORA ORIENTACJI SATELITY
Paweł Zagórski
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie, Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki.
Słowa kluczowe: ziemskie pole magnetyczne, satelita, model, CubeSat
Method for Creating Earth's Magnetic Field Model Optimized for Satellite Attitude Observer
(Digest)
Keywords: Earth's magnetic field, satellite, model, CubeSat
czasu t, P – stowarzyszonymi funkcjami Legendre'a
zależnymi od kąta θ.
Model ten zakłada brak źródeł pola magnetycznego
powyżej powierzchni Ziemi, tak, aby obliczenie
skalarnego potencjału było możliwe. Przy obliczeniach
wykorzystuje się jedynie pewną liczbę nmax najbardziej
znaczących wyrazów szeregu (który w istocie jest
nieskończony). Mniej więcej co 5 lat stowarzyszenie
International Association of Geomagnetism and
Aeronomy (IAGA) odpowiedzialna za uaktualnianie
modelu publikuje listę współczynników dla początku
nowego roku bazowego (tzw. epoki). Od roku 2003
podawane są współczynniki g oraz h dla pierwszych
trzynastu wyrazów szeregu (co daje aż 195 wartości
współczynników). Do prognozowania przyszłych
wartości pola służy odpowiednia poprawka. Zakładany
jest stały roczny przyrost (lub spadek) współczynników g
oraz h. IAGA podaje wartości owych rocznych
przyrostów lub spadków dla pierwszych 8 wyrazów
szeregu
(a
więc
dodatkowo
80
wartości
współczynników).
Dzięki
swojej
budowie
model
umozliwia
prognozowanie wartości pola magnetycznego od
poziomu powierzchni Ziemi do odległości liczonych w
tysiącach kilometrów. Dzieki temu jest on powszechnie
stosowany w analizie misji kosmicznych na orbicie
okołoziemskiej. Choć model IGRF jest bardzo dokładny,
przy wykorzystaniu go dla obserwatorów orientacji
satelity musi on być obliczany na pokładzie pojazdu.
Znajdująca się w pętli obserwatora procedura jego
obliczania wykonywana jest stosunkowo często (z
częstotliwością równą częstotliwości odświerzania
informacji o orientacji pojazdu). Jak widać ze struktury
wzoru (1) złożoność obliczeniowa całego algorytmu
wynosi n2max, gdzie nmax jest ilością obliczanych wyrazów
szeregu.
Dodatkowo w wielu dostępnych implementacjach
funkcje Legendre'a są obliczane rekurencyjnie, co
upraszcza
imlepentację,
ale
zwiększa
nakład
obliczeniowy.
Jak
łatwo
sobie
wyobrazić
komputerpokładowy satelity musi w reżimie czasu
rzeczywistego uporać się z bardzo wieloma
różnorodnymi zadaniami, więc wykorzystanie tego dość
skomplikowanego modelu rodzi w praktyce spore
trudności. Większa ilość obliczeń wykonywanych na
pokładzie pociąga za sobą konieczność zastosowania
bardziej wydajnego, a zarazem energochłonnego systemu
komputerowego.
Wiele misji małych satelitów dla oszczędności
energii wykorzystuje inne podejścia. Przykładem mmoże
tu być satelita klasy CubeSat o nazwie Comass-I [5].
Dzięki temu, że jego planowana orbita była kołowa (a
Wstęp
Małe satelity stały się w ostatnich latach bardzo
popularną platformą edukacyjną i naukową. Istotną rolę
w rozwoju tego trendu odegrała zaproponowane przez
Cal Poly specyfikacja CubeSat [6] opisująca standard
satelitów o masie 1kg i kształcie sześciennej kostki o
boku mierzącym 10cm. Według danych organizajci
AMSAT [3] od roku 2005 kilkadziesiąt pojazdów tego
typu zostało zaprojektowanych, zbudowanych i
wystrzelonych w kosmos przez uniwersytety z całego
świata. Jednym z nich był pierwszy polski satelita PWSat w całości zbudowany przez studentów Politechniki
Warszawskiej.
Z uwagi na ograniczenia dostępnej przestrzeni,
energii oraz środków finansowych pojazdy tego typu
często opierają się na innowacyjnym podejściu do
problemów, które w większych pojazdach typowo
rozwiązuję się przez instalowanie na pokładzie
kosztownego i wrażliwego osprzętu. Jednym z takich
zagadnień jest pomiar orientacji przestrzennej satelity.
Aby uzyskać konieczne do poprawnej komunikacji i
nakierowywania instrumentów badawczych na cel
informacje o orientacji pojazdu w niektórych małych
satelitach stosuje się obserwatory oparte na prostych
pomiarach pola magnetycznego Ziemi i położenia Słońca
[1].
Porównując te dane z odpowiedznimi modelami
można odtworzyć kwaternion orientacji. Ninejsza praca
przedstawia propozycję modelu pola magnetycznego,
który jest interesującym kompromisem pomiędzy
precyzyjnymi i kosztownymi obliczeniowo modelami
obliczeniowymi a prostym i niezbyt dokładnym
tablicowaniem danych.
1. Analiza istniejących rozwiązań
Standardy Europejskiej Agencji kosmicznej [2]
wymieniają model International Geomagnetic Reference
Field [4] jako obowiązujący model ziemskiego pola
magnetycznego. W modelu tym wartość wektora indukcji
magnetycznej liczona jest jako ujemny gradient sklarnego
potencjału V przedstawionego w postaci szeregu:
, (1)
gdzie: r, θ , λ - geocentryczne współrzędne sferyczne, R
jest promieniem bazowym (6371.2 km), g oraz h
współczynnikami o odpowienich indeksach zależnymi od
78
Warsztaty Doktoranckie 2012
więc promień r był stały) oraz zaniedbaniu zmian pola w
czasie możliwe było zapisanie wyliczonych wcześniej na
Ziemi na podstawie modelu IGRF wartości wektora
indukcji magnetycznej B w trójwymiarowej tablicy
(wymiary to: długość geograficzna, szerokość
geograficzna, oraz 3 współrzędne wektora B). Każdy
składnik wektora był zapisany na 2 bajtach, a
współrzędne geograficzne zmieniały się co pół stopnia,
więc całkowity rozmiar tablicy wyniósł 1448kB.
Rozwiązanie takie zmnieszało praktycznie do zera ilość
obliczeń, jakie trzeba było wykonać na pokładzie satelity.
Wprowadzało to jednak niedokładności ze względu na
zaniedbanie zmienności czasowej oraz faktu, że satelity
nie zawsze trafiają na dokładnie taką orbitę, jaka jest dla
nich planowana.
Wydaje się, że istnieje kilka zabiegów modyfikujących
model IGRF, które można zastosować, by uzyskać
obiecujący kompromis pomiędzy jakością modelu a jego
złożonością obliczeniową. Zabiegi te obejmują:
 zmniejszenie ilości wyrazów szeregu, w jaki
rzowijamy potencjał magnetyczny zmniejszając tym
samym koniecznych obliczeń,
 dostrojenie
współczynników
powstalego
uproszczonego modelu tak, by był on dokładniejszy
w przestrzeni, w jakiej pracować ma konkretny
satelita, przy jednoczesnym pogorszeniu dokładności
poza tą przestrzenią,
 wprowadzenie dodatkowej poprawki,
 dodatkowe zabiegi związane ze sposobem
implementacji.
2. Proponowany model
3. Wnioski
Łatwo zauważyć, że przedstawione w poprzednim
rozdziale skraje rozwiązania mają poważne słabości.
Należy zauważyć, że istnieje pole do eksperymentów nad
rozwiązaniem pośrednim. Dla każdej misji satelitarnej
mozna stworzyć model pola magnetycznego, który
będzie zarazem znacznie bardziej precyzyjny od
stablicowanych danych, jak i znacznie mniej złożony
obliczeniowo od modelu IGRF. Przy projektowaniu
takiego modelu należałoby zwrócić uwagę na kilka
czynników:
 kolejne generacje modeli IGRF pozwalają na
obliczenie wartości pola dla znacznie szego obszaru
przestrzeni, niż jest to konieczne dla misji satelitarnej
(od powierzchin Ziemi, aż do kilkudziesięciu tysięcy
kilometrów od jej srodka). W tym konkretnym
zastosowaniu potrzebny jest jedynie model, który
będzie dokładny na wysokościach, jakie planowo
osiągnie satelita (a więc pomiedzy perygeum a
apogeum jego orbity) z pewnym zapasem
bezpieczenstwa uwzględniającym błąd manewru
umieszczenia na orbicie,
 najwięszy wpływ na złożoność obliczeniową modeli
IGRF ma duża ilość niezaniedbywanych wyrazów
szeregu, a zatem także współczynników g oraz h, a
także
konieczność
wielokrotnego
obliczania
stowarzyszonych funkcji Legendra,
 niedokładność modeli opierających się na prostym
stablicowaniu danych wynika z zaniedbania zmian w
czasie, a także z przyjętej rozdzielczości zmiennych
przestrzennych,
 modele tablicowe są mało elastyczne i nie pozwalają
na odczyt poprawnych wartości w przypadku, gdy
satelita w wyniku drobnej awarii rakiety nośnej
osiągnie inną niż planowana orbitę.
W artykule przedstaiwona zostanie procedura
tworzenia modelu ziemskiego pola magnetycznego
dostosowanego do warunków orbitalnych konkretnej
misji satelitarnej. Omówione zostanie zagadnienie doboru
optymalnej ilości znaczących wyrazów szeregu,
metodyki dostosowywania współczynników oraz
wyliczania dodatkowej poprawki.
Zostanie również przedstawione porównanie tak
utworzonego uproszczonego modelu z referencyjnym
modelem IGRF oraz z przykładowym modelem opartym
na tablicowanych danych. Oceniona zostanie ilość
obliczeń wymagana dla każdego z tych modeli, ich
dokladność na przestrzeni typowego czasu trwania misji
satelitarnej oraz wrażliwość na niedokładność uzyskanej
orbity.
Literatura
[1] Choukroun D.: Novel Methods for Attitude Determination Using
Vector Observations. Israel Institute of Technology, Haifa 2003
ECSS-E-10-04A, Space Environment. ESA-ESTEC, 2000
http://www.amsat.org/amsat-new/satellites/cubesats.php
http://www.ngdc.noaa.gov/IAGA/vmod/igrf.html
Gießelmann, J. : Development of an Active Magnetic Attitude
Determination and Control System for Picosatellites on highly
inclined circular Low Ertha Orbit/s. RMIT University 2006
[6] Lee S, et al.: CubeSat Design Specification . Cal Poly SLO 2009
[2]
[3]
[4]
[5]
mgr inż. Paweł Zagórski
e-mail: [email protected]
Urodzony w Krośnie. Mieszka i studiuje w
Krakowie. Student studiów trzeciego stopnia na
kierunku Automatyka i Robotyka. Członek Sekcji
Inżynierii
kosmicznej
Koła
Naukowego
Automatykow Integra. Stypendysta Europejskiej
Agencji Kosmicznej. Zainteresowania: inżynieria
kosmiczna, teoria sterowania, metodologie
testowania oprogramowania.
79
Warsztaty Doktoranckie 2012
COMPARISON OF DECAY FUNCTION AND MAPPED INFINITE
BOUNDARY ELEMENTS USAGE IN OPTICAL MAMMOGRAPHY
Maciej Pańczyk
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki
Abstract: Among the methods of finding approximate numerical solutions, Boundary Element Method is a valuable choice to analyze an infinite area. In such
cases it is to create so-called open boundary numerical model of the analyzed object. One of two types of infinite boundary elements can be used to receive
results without accuracy losses and with significant reduction of the mesh size. Implementation of two main lines of infinite boundary elements development,
advantages and disadvantages will be discussed on the example of optical mammography screening examination for early detection of breast cancer.
Keywords: Boundary Element Method, Infinite Elements, Optical Tomography
Porównanie elementów brzegowych nieskończonych z funkcjami zaniku i odwzorowanych na
przykładzie mammografii optycznej
Streszczenie: Spośród metod poszukiwania przybliżonego rozwiązania, do analizy obszarów nieograniczonych doskonale nadaje się metoda elementów
brzegowych. W zagadnieniach takich tworzy się numeryczny model obiektu o tzw. otwartym brzegu. Można wówczas zastosować jeden z dwóch typów elementów
brzegowych nieskończonych i bez pogorszenia dokładności wyników zmniejszyć rozmiar siatki elementów. Zalety i wady takiego rozwiązania jak również
porównanie warunków implementacji obu gałęzi elementów nieskończonych w MEB zostaną omówione na przykładzie mammografii optycznej stosowanej do
wczesnego przesiewowego wykrywania nowotworów piersi.
Słowa kluczowe: Metoda elementów brzegowych, elementy brzegowe nieskończone, tomografia optyczna
interpolation functions n=3 was chosen. Decay function
infinite basis interpolation functions becomes:
Introduction
There are two main lines of infinite boundary
elements development: decay functions infinite elements
and mapped infinite elements. First type uses special
decay functions in conjunction with ordinary boundary
element interpolation functions. In that case field variable
tends monotonically to is far field value while reaching
the element boundary adjacent to the infinite surrounding.
That causes that along finite element length, variable
changes in the way that reflects the physics of the
problem up to infinity. Second type transforms the
element from finite to infinite domain. Field variable will
reach it’s far value following geometrical coordinates
which extends into infinity. Changing the basic
interpolation functions interfere into Boundary Element
Method (BEM) fundamental rules. Application of infinite
elements in the open edge of the object also requires to
use special quadratic boundary elements. This is another
complication for most mesh generators. On the other
hand process of infinite elements incorporation into BEM
is quite logical and results in significant hardware
requirements and calculation time reduction. All major
aspects of the implementation of both infinite elements
types into BEM will be presented on the example of
optical mammography.


M i  ,   Ni  ,   i  0  i  0 
3
(2)
For the exponential decay function of the form:
Di  ,   exp  i    L
(3)
where L[m] is a length which determines the severity of
the decay, basis infinite interpolation functions are given
by:

M i  ,   Ni  ,  exp i    L

(4)
The basis interpolation function Ni for standard eight
nodes quadrilateral isoparametsic boundary elements are
given by the following formulas (5):
N 0 ( , )  (1   )(1  )(1    ) / 4,
N1 ( , )  (1   2 )(1  ) / 2,
N 2 ( , )  (1   )(1  )(1    ) / 4, (5)
N 3 ( , )  (1   )(1   2 ) / 2,
N 4 ( , )  (1   )(1  )(1    ) / 4,
1. Infinite boundary elements theory
N 5 ( , )  (1   2 )(1  ) / 2,
The basic idea of the decay function infinite
boundary element construction is that the standard basis
interpolation functions Ni are multiplied by so called
decay functions Di [4, 2, 9, 3]. Two types of decay
functions will be considered: reciprocal and exponential.
Reciprocal decay functions for the decay in positive
direction of ξ are as follows ([1]):
n
(1)
Di  ,    i   0   i   0 
where i corresponds to the node number, (ξo ,ηo) is some
origin point. This point must be outside infinite element
on the opposite side to that which extends to infinity, n
has to be greater than the highest power of ξ encountered
in Ni . If the decay is in the positive ξ direction then ξo <
−1.
Respectively ηo < −1 for the decay in the positive η
direction. This avoids a singularity within the element.
For second order eight node quadrilateral elements basis
N 6 ( , )  (1   )(1  )(1    ) / 4,
N 7 ( , )  (1   )(1   2 ) / 2.
Decay function infinite elements based on 8 node,
second type, quadrilateral standard boundary elements
are presented on figure 1. It is to notice that it consists of
8 nodes. The only important thing is to keep correct
relation between decay function and node numbers which
decides in which direction the element, exactly the
element properties (geometry remains unchanged)
extends into infinity.
Mapped infinite boundary elements based on 8 node,
second type, quadrilateral standard boundary elements
are presented on figure 2.
It should be noticed that in such a case the element
will consist only of 5 nodes. Nodes 2, 3, 4 tend to infinity
and will not take part in the calculations.
80
Warsztaty Doktoranckie 2012
standard model which consists only form finite boundary
elements. The role of the infinite elements is only to
receive the correct solution in the area of interest.
Reducing the number of mesh elements almost to 50 % is
fundamental for inverse problem solution when the
forward problem has to be calculated many times. Not all
mesh generators allows to create pure quadrilateral mesh
or to distinguish separately areas covered by the most
popular triangular elements and infinite part covered by
quadrilateral 8 node elements. The author doesn’t know
the generator which would allow to create 5 node infinite
quadrilateral mapped elements. Despite that in optical
mammography light sensors and sources are located in a
special hemispherical or cone shape constant form. If so
it is to notice that the effort related to manual creation of
infinite element mesh which surrounds the area of
interests has to be done only once. Implementation of
infinite boundary elements into boundary element method
improves computational efficiency in case of the breast
model almost 4 times and allows to avoid the problem of
setting incorrect boundary conditions.
Fig. 1.
Transformation of standard 8 node quadrilateral boundary
element into decay type infinite element: a) in one positive ξ
direction, b) in two positive ξ and η directions
Fig. 2.
Transformation of standard 8 node quadrilateral boundary
element into mapped infinite element: a) in one positive ξ direction,
b) in two positive ξ and η directions
Literatura
[1] Arridge S. R.: Optical tomography in medical imaging, Inverse
Problems, vol.15, No.2 (1999), pp.R41{R93
Corresponding so called serendipity type basis
interpolation functions M̂ i for mapped infinite elements
are given by formula (6).
[2] Beer G., Watson J. O. Infinite Boundary Elements, International
Journal for Numerical Methods in Engineering, vol.28 (1989), pp.
1233 – 1247
[3] Beer G., Watson J. O. and Swoboda G. Three-dimensional analysis
of tunnels using in_nite boundary elements, Computers and
Geotechnics, vol.3 (1987), pp. 37 – 58
[4] Bettess P. Infinite Elements, Penshaw Press, 1992
[5] Moser W., Duenser Ch. and Beer G. Mapped infinite elements for
three-dimensional multiregion boundary element analysis,
International Journal for Numerical Methods in Engineering, vol.61
(2004), pp. 317 – 328
[6] Ross M. Modeling Methods for Silent Boundaries in Infinite Media,
ASEN 5519- 006: Fluid-Structure Interaction Aerospace Engineering
Sciences - University of Colorado at Boulder, 2004,
http://www.colorado.edu/engineering/CAS/courses.d/FSI.d/FSI.proje
cts.d/ FSI.projects.Ross.silent.pdf
[7] Sikora J. Boundary Element Method for Impedance and Optical
Tomography, Oficyna Wydawnicza Politechniki Warszawskiej,
Warsaw (2007)
[8] Tarvainen T. Computational Methods for Light Transport in Optical
Tomography, PhD Thesis, Department of Physics, University of
Kuopio,
(2006),
http://physics.uku._/~vilhunen/phdthesis
ttarvainen.pdf
[9] Watson J. O. Advanced implementation of the boundary element
method for two- and threedimensional elastostatics, Developments in
Boundary Element Methods - 1 (Editors P.K. Banerjee and R.
Butter_eld), Elsevier Applied Science Publishers, vol.61 (1979), pp.
31 – 63
[10] Zacharopoulos A., Arridge S. R., Dorn O., Kolehmainen V. and
Sikora J. Three-dimensional reconstruction of shape and picewise
constant region values for optical tomography using spherical
harmonic parametrization and a boundary element method, Inverse
Problems, vol.22 (2006), pp.1-24
[11] Zienkiewicz C. O., Emson C. and Bettess P. A novel boundary
infinite element, International Journal for Numerical Methods in
Engineering, vol.16 (1983), pp. 393 – 404
[12] Zienkiewicz C. O. The Finite Element Method, MCGraw-Hill, 4th
edition, New York 1993
 1       2
1  1
Mˆ 0 
, Mˆ 1 
 1   ,
1
1 2
1  1
 1       2
(6)
Mˆ 5 
 1   , Mˆ 6 
,
1 2
1
2
Mˆ 7 
 1  2 .
1
Despite its name the procedure for deriving these
functions is quite logical and clearly described by
Zienkiewicz [12] (in chapter 7) or by Bettess [4] (in
chapter 4). The infinite basis interpolation functions M̂ i


grow without limit as a coordinate approaches infinity,
and are applied to the geometry. The ordinary basis
interpolation functions Ni are applied to the field
variables [7].
It is necessary to use these infinite basis interpolation
functions to calculate Jacobian and regularization
transformations. Analyzed area as well as corresponding
integral equation will consists of both parts finite and
infinite surrounding an open edge.
For debugging purposes, in case of ordinary basis
interpolation functions one has to check if the sum of all
basis interpolation functions is unity and if the sum of all
their derivatives is zero. A simple test is to check if each
function has unit value at its own node and zero at the
other nodes. For decay type functions and for nodes
remaining in the calculations in case of mapping
functions that condition is also fulfilled. There is no exact
analogy for the nodes which escape into infinity at
mapped infinity elements. Further tests using
Zienkiewicz type of mapped infinite elements [11] are
devised by Bettess [4].
Maciej Pańczyk, PhD Eng. - graduated from the
Faculty of Electrical Engineering, Lublin
University of Technology. He worked in the
Department
of
Fundamental
Electrical
Engineering, Lublin University of Technology,
then in Information Technology Departament in
Bank BDK S.A and since 2004 at the Institute of
Computer Science, Lublin University of
Technology. His work focuses on the
electromagnetic field and programming.
2. Discussion
Both types of infinite boundary elements offer almost
identical results, similar to these achieved by using
81
Warsztaty Doktoranckie 2012
ALGORYTMY METAHEURYSTYCZNE I OPTYMALIZACYJNE
W REKONSTRUKCJI KONDUKTANCJI SIATEK REZYSTORÓW
Piotr Zegarmistrz
AGH Akademia Górniczo-Hutnicza, Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Streszczenie. W pracy przedstawiono wyniki analizy algorytmów rekonstrukcji konduktancji prostokątnych siatek rezystorów na podstawie pomiarów
brzegowych. Opracowano i zaimplementowano algorytmy rekonstrukcji bazujące na metodach metaheurystcznych (symulowane wyżarzanie, algorytmy
genetyczne) oraz optymalizacyjnych. Zaproponowane algorytmy porównano pod względem stabilności numerycznej oraz poprawności uzyskiwanych wyników.
Przedstawiono ograniczenia istniejących algorytmów oraz zaproponowano usprawnienia.
Słowa kluczowe: siatka rezystorów, algorytm rekonstrukcji, tomografia rezystancyjna, symulowane wyżarzanie, algorytmy genetyczne, metody optymalizacyjne
Metaheuristic and optimization algorithms for reconstruction of conductances in resistive grids
Abstract. The problem of reconstruction of conductances in rectangular resistive grids from boundary measurements is studied. Several reconstruction
algorithms based on metaheuristics (simulated annealing, genetic algorithms) and optimization methods are compared in terms of numerical stability and
accuracy of the results. Limitations of the algorithms are discussed and several improvements are proposed.
Keywords: resistive grid, reconstruction algorithm, resistance tomography, simulated annealing, genetic algorithms, optimization methods
rezystancyjnej zwany jest zestawem danych Neumanna,
podczas gdy wektor potencjałów węzłów brzegowych
zwany jest zestawem danych Dirichleta. Na podstawie
odpowiednich pomiarów można łatwo zdefiniować
odwzorowania Neumann–Dirichlet oraz Dirichlet–
Neumann [1,2], które w sposób jednoznaczny określają
wartości konduktancji elementów siatki rezystorów.
Wstęp
Rekonstrukcja konduktancji siatek rezystorów na
podstawie
pomiarów
brzegowych
wzbudza
zainteresowanie od wielu lat. Istotą problemu
rekonstrukcji jest znalezienie wartości konduktancji
elementów łączących węzły siatki, mając dostęp jedynie
do węzłów brzegowych.
W roku 1990 Curtis i Morrow zaproponowali
analityczny algorytm rekonstrukcji konduktancji na
podstawie pomiarów brzegowych [1,2]. Udowodnili oni,
że problem rekonstrukcji ma jednoznaczne rozwiązanie
oraz wykazali, że problem ten ma charakter ciągły, tzn.
że jeżeli wartości pomiarów na brzegach siatki są do
siebie zbliżone, to siatki, dla których uzyskano te wyniki
są zbudowane z elementów o zbliżonych wartościach
konduktancji. W pracy [5] wykazano, że wspomniany
algorytm analityczny ma pewne ograniczenia, a w pracy
[6] zaproponowano usprawnienia pozwalające na
rekonstrukcję siatek o większych rozmiarach.
Opracowanie
algorytmów
pozwalających
na
rekonstrukcję siatek o odpowiednio dużych rozmiarach
(składających się z wielu elementów) może pozwolić na
zastosowanie ich do rozwiązania problemu tomografii
rezystancji ośrodków ciągłych z wystarczającą
rozdzielczością.
Rys. 1. Przykładowa siatka o rozmiarze 4x6 węzłów
2. Algorytm rekonstrukcji
W celu wykorzystania procedur metaheurystycznych
i optymalizacyjnych do rekonstrukcji konduktancji
należy zdefiniować odpowiednią funkcję celu w taki
sposób, aby jej globalne minimum odpowiadało
prawidłowemu rozwiązaniu problemu.
W prezentowanych w tej pracy badaniach funkcję
celu skonstruowano w oparciu o pomiary dla
odwzorowania Neumann–Dirichlet. Do obliczenia
wartości
funkcji
celu
dla
wybranej
próbki
wykorzystywany jest zawsze więcej niż jeden wektor
prądów brzegowych, gdyż rozmiar wektora potencjałów
węzłów brzegowych (równy k–1, gdzie k jest liczbą
węzłów brzegowych) jest zawsze mniejszy od liczby
elementów siatki.
Funkcja celu zdefiniowana jest następująco:
1. Skończone prostokątne siatki rezystorów
Siatką rezystorów nazywamy obwód elektryczny, w
którym elementy rezystancyjne łączą sąsiednie węzły
kratownicy. W pracy rozważany jest przypadek
kratownicy prostokątnej. Założono, że każdy węzeł
wewnętrzny jest połączony z czterema węzłami
sąsiednimi oraz że każdy węzeł brzegowy jest połączony
z jednym węzłem wewnętrznym (rys.1). Ponadto
założono, że wszystkie konduktancje posiadają wartości
dodatnie i skończone.
Siatka o n wierszach i m kolumnach posiada (n–
2)·(m–2) węzłów wewnętrznych oraz 2·(n+m–4) węzłów
brzegowych, co daje całkowitą liczbę n·m–4 węzłów.
Algorytm rekonstrukcji konduktancji na podstawie
pomiarów brzegowych można zrealizować w oparciu o
procedurę, w której wymuszane są odpowiednie prądy w
węzłach brzegowych, a mierzone są różnice potencjałów
pomiędzy tymi węzłami. Można również zastosować
podejście odwrotne – wymuszać napięcia pomiędzy
węzłami brzegowymi i dokonywać pomiaru prądów
brzegowych. Wektor prądów brzegowych siatki
l k 1
f (G )    (V
s 1 t 1
org
st  V
test
st )
2
(1)
gdzie G=(G1,G2,...,Gp) jest wektorem konduktancji siatki,
p oznacza liczbę elementów siatki, l=k/2 jest liczbą
zestawów pomiarowych, k−1 jest rozmiarem zestawu
Dirichleta, Vorgst jest zmierzonym potencjałem węzła t w
s-tym zestawie pomiarowym dla oryginalnej nieznanej
siatki, a Vtestst jest obliczonym potencjałem węzła t w stym zestawie pomiarowym dla siatki testowej G.
Wektory prądów brzegowych wybrano tak, aby
wstrzykiwać prąd o wartości J=1 w wybranym węźle
brzegowym i pobierać ten sam prąd z węzła położonego
symetrycznie względem środka siatki. Prądy w
pozostałych węzłach brzegowych wynoszą zero. Dla
kolejnego wektora prądów brzegowych źródło
wymuszające jest przesuwane symetrycznie do
82
Warsztaty Doktoranckie 2012
sąsiednich węzłów. W ten sposób do obliczenia wartości
funkcji celu wykorzystywanych jest k/2 zestawów
Neumanna i przez każdy element siatki co najmniej raz
płynie niezerowy prąd.
W przypadku algorytmów bazujących na procedurach
metaheurystycznych obliczenie wartości funkcji celu dla
każdej próbki jest niezbędne do oceny jej dopasowania
do oryginalnej siatki. Procedury te polegają na
przeszukiwaniu zbioru obiektów tego samego typu i
wskazaniu próbki/osobnika najbardziej zbliżonego do
oryginału. Do celów badawczych wybrano procedurę
symulowanego wyżarzania oraz algorytm genetyczny w
podstawowej wersji.
Algorytmy bazujące na metodach optymalizacyjnych
są tak skonstruowane, że problem rekonstrukcji
konduktancji jest sformułowany jako zagadnienie
znalezienia minimum funkcji wielu zmiennych, gdzie
liczba zmiennych odpowiada liczbie elementów siatki.
Jeżeli siatka testowa odpowiada dokładnie oryginałowi,
funkcja celu określona wzorem (1) przyjmuje wartość
zero. Dla każdej innej siatki, funkcja celu przyjmuje
wartość dodatnią. Zaimplementowane i przetestowane
metody optymalizacyjne poszukiwania minimum funkcji
to algorytm sympleksowy Neldera-Meada, metoda quasiNewtona, metoda sekwencyjnego programowania
kwadratowego
(optymalizacja
nieliniowa
z
ograniczeniami) oraz nieliniowa metoda najmniejszych
kwadratów.
Aby określić pewne charakterystyczne właściwości
funkcji celu wygenerowano wykresy przedstawiające
zależność wartości funkcji celu od dwóch wybranych
konduktancji siatki. Punkt środkowy płaszczyzny X-Y
odpowiada
sytuacji,
gdy
wartości
wybranych
konduktancji są równe wartościom dla oryginalnej siatki.
W punkcie tym funkcja celu przyjmuje wartość zero.
Przykładowy wykres przedstawiono na poniższym
rysunku.
symul. wyżarzanie
alg. genetyczny
sympleksowy-NM
quasi-Newton
sekw. prog. kw.
met. najmn. kw.
0.1
0.1
0.1
0.1
0.1
0.1
10.0
10.0
10.0
10.0
10.0
10.0
5.980584
2.462503
14.77997
0.001183
0.000077
0.000000
11.23374
1.096279
1.230723
1.103715
1.129632
0.123826
Uśredniono wyniki z 20 pomiarów. W celu
uproszczenia interpretacji analizowano tylko siatki
kwadratowe – o równej liczbie węzłów w wierszu i
kolumnie. Ponadto dla wybranych procedur ustawiono
górne ograniczenie czasu obliczeń dla pojedynczej próbki
na wartości 10.0 sekund.
Jak widać z Tabeli 1. już dla niewielkiego rozmiaru
siatki (siatka o rozmiarze 4×4 węzły ma 12 elementów)
istnieją bardzo poważne różnice w działaniu
poszczególnych algorytmów. Algorytm bazujący na
procedurze symulowanego wyżarzania był za każdym
razem przerywany, po osiągnięciu wspomnianego
wcześniej maksymalnego czasu obliczeń. Jak widać po
wartości maksymalnego błędu rekonstrukcji, minimum
globalne funkcji celu nie zostało w tym czasie
znalezione. Bardzo duża wartość błędu rekonstrukcji dla
metody sympleksów Neldera-Meada może wynikać z
braku stabilności numerycznej metody dla omawianego
problemu. Na podstawie wyników z Tabeli 1. wybrano
algorytm bazujący na metodzie najmniejszych
kwadratów i zbadano jego właściwości dla większych
rozmiarów siatek (n).
Tabela 2. Metoda najmniejszych kwadratów dla większych rozmiarów
siatek
Średni Czas Obliczeń
n
GMIN GMAX % poprawnych wyników
[s]
3
0.1
10.0
100
0.081235
4
0.1
10.0
100
0.123826
5
0.1
10.0
80
0.732583
6
0.1
10.0
70
4.101307
7
0.1
10.0
20
30.18785
8
0.1
10.0
0
30.90485
Zaobserwowano,
że
metoda
najmniejszych
kwadratów działa w taki sposób, że albo osiąga minimum
globalne funkcji celu w stosunkowo krótkim czasie, albo
jej czas obliczeń znacznie się wydłuża i algorytm
zatrzymuje się po osiągnięciu ustawionej wartości
maksymalnej liczby iteracji, nie znajdując minimum.
Wraz ze zwiększaniem rozmiaru siatki, maleje odsetek
przypadków w których funkcja osiąga minimum globalne
i znajduje poprawne rozwiązanie. Zastosowano
usprawnienie polegające na uruchomieniu procedury
wielokrotnie, z różnych punktów startowych i wybraniu
najlepszego rozwiązania. Pozwoliło to na rekonstrukcję
dla siatki o rozmiarze 7 ze 100%-ową skutecznością, ale
nie
zwiększyło
zakresu
rozmiaru
prawidłowo
rekonstruowanych siatek.
W celu osiągnięcia prawidłowej rekonstrukcji dla
większych siatek należy zmniejszyć zakres możliwych
konduktancji.
Wyniki
takiego
eksperymentu
przedstawiono w Tabeli 3.
Rys. 2. Wartość funkcji celu w funkcji zmiennych (G10,G50) dla siatki o
rozmiarze 7x7 węzłów (60 elementów)
Najważniejszą obserwacją jest, że funkcja celu może
być bardzo płaska w otoczeniu minimum. Wynika z tego,
że znalezienie w przestrzeni poszukiwań punktu o bardzo
małej wartości funkcji celu nie oznacza, że znalezione
rozwiązanie jest blisko oryginału.
3. Uzyskane wyniki
Tabela 3. Metoda najmniejszych kwadratów - ograniczony zakres
konduktancji
Średni czas
n
GMIN GMAX % poprawnych wyników
obliczeń [s]
7
1.0
2.0
100
0.76
8
1.0
2.0
100
2.09
9
1.0
2.0
77
32.95
Zaproponowane algorytmy zaimplementowano i
przetestowano przy użyciu oprogramowania MATLAB
7.12.0 (R2011a). Algorytmy porównano dla różnych
rozmiarów siatek i różnego zakresu wartości
konduktancji, z których zbudowana jest siatka.
Tabela 1. Porównanie metod dla siatki o rozmiarze 4
Średni
maksymalny
Średni czas
Algorytm
GMIN GMAX
błąd
obliczeń [s]
rekonstrukcji
4. Wnioski
Przedstawiono możliwości zastosowania metod
optymalizacyjnych
i
metaheurystycznych
do
83
Warsztaty Doktoranckie 2012
rekonstrukcji
konduktancji
siatek
rezystorów.
Przetestowano sześć algorytmów. Wykazano, że
algorytm
bazujący
na
nieliniowej
metodzie
najmniejszych kwadratów przewyższa skutecznością
pozostałe algorytmy. Udowodniono, że dla wybranego
zakresu możliwych konduktancji istnieje ograniczenie
rozmiaru siatki, dla którego rekonstrukcja prowadzi do
poprawnego
rezultatu,
przy
zachowaniu
satysfakcjonującego czasu obliczeń.
Literatura
[1] Curtis E.B., Morrow J.A.: Determining the resistors in a network.
SIAM J. Applied Math., nr 50 (1990), s. 918-930.
[2] Curtis E.B., Morrow J.A.: The Dirichlet to Neumann map for a
[3]
[4]
[5]
Podziękowanie
Autor dziękuje prof. dr hab. inż. Zbigniewowi Galiasowi za cenne
wskazówki oraz pomoc w implementacji omówionych algorytmów oraz
interpretacji uzyskanych wyników. Praca została sfinansowana ze
środków przeznaczonych na badania statutowe Akademii GórniczoHutniczej, grant nr 10.10.120.133.
[6]
84
resistor network. SIAM J. of Applied Math., nr 51 (1991), s. 10111029.
Filipowicz S.F., Rymarczyk T.: Tomografia Impedancyjna, pomiary,
konstrukcje i metody tworzenia obrazu. BelStudio, Warszawa 2003.
Nita K., Sikora J., Wójtowicz S., Biernat K., Impedance tomography
data acquisition system for brick walls humidity level evaluation.
Przegląd Elektrotechniczny, nr 11/2007, s. 171-173.
Zegarmistrz P., Galias Z., “Study of the algorithm for reconstruction
of conductances in square resistive grids” In Proc. Int. Conference on
Signals and Electronic Systems, ICSES'06, Łódź, 2006, s. 193-196.
Zegarmistrz P., Galias Z., “On reconstruction of conductances in
resistor grids from boundary measurements”, In Proc. European
Conference on Circuit Theory and Design, ECCTD'07, Sevilla, 2007,
s. 783-786
Warsztaty Doktoranckie 2012
WPŁYW KLASY CZYSTOŚCI CIECZY NA ZJAWISKO EROZYJI
KRAWĘDZI STERUJĄCYCH SUWAKA SERWOZAWORU
Bartosz Minorowicz1 , Frederik Stefański2
Politechnika Poznańska, Wydział Budowy Maszyn i Zarządzania, 2Politechnika Poznańska, Wydział Budowy Maszyn i Zarządzania
1
Streszczenie. Autorzy artykułu postanowili przedstawić zagadnienie czystości cieczy hydraulicznych oraz jej wpływ na niezawodną pracę serwozaworów.
Zanieczyszczenia zostały sklasyfikowane względem źródeł ich pochodzenia oraz wywoływanych skutków. Spośród występujących w serwozaworach procesów
zużyciowych, teoretycznej analizie poddano zużycie erozyjne. Dla serwozaworu Vickers SM 4-20-10 wyznaczono maksymalne prędkości przepływu i na tej
podstawie określono energię uderzających w krawędzie cząsteczek.
Słowa kluczowe: serwozawór, ISO 4406, zanieczyszczenia, suwak, erozja
EFFECT OF FLUID CLEANLINESS CLASS FOR THE PHENOMENON OF EROSION OF
THE SERVOVALVE METERING EDGES
Abstract. Authors decided to present a hydraulic fluids contamination issue and its influence on the reliable operation of the servo valves. Contaminations were
classified relative to their sources, and its effects. Among wear processes occurring in the servovalves, theoretical analysis of erosive wear was performed. For
Vickers SM 4-20-10 servovalve set the maximum flow velocity and on this basis the energy of particles hitting the edges.
Keywords: servovalve, ISO 4406, contamination, spool, erosion
Utracona zostaje kontrola nad precyzją sterowania,
zwiększeniu ulegają przecieki wewnętrzne oraz histereza.
Wstęp
Połączenie
zaawansowanych
układów
elektronicznych
i hydrauliki
siłowej
umożliwiło
powstanie urządzeń o dużej mocy oraz wysokiej precyzji
regulacji, przy zaoszczędzeniu energii i pieniędzy. Takie
połączenie występuje w hydraulicznych układach
proporcjonalnych i serwoukładach. Układy te posiadają
wszystkie zalety kojarzone z hydraulika siłową, czyli
największy we wszystkich maszynach stosunek mocy do
masy oraz dużą sztywność elementów wykonawczych
(siłowników). Serwozawory to wysoce precyzyjne
urządzenia pracujące w zamkniętym układzie regulacji
(ang. closed loop) (rys. 1).
2. Zjawisko erozji i jego wpływ na
serwozawór
Jednym
z
kluczowych
rodzajów
zużycia
wpływającym
na przedwczesne
zniszczenie
serwozaworu, jest zjawisko erozji Zgodnie z definicją
literaturową erozja, to zużycie powstające w wyniku
uderzania drobnych cząstek o powierzchnię materiału
powodując jego ubytek [1]. W przypadku serwozaworu,
możemy mówić o zanieczyszczeniu znajdującym się w
oleju hydraulicznym, którego przepływ powoduje erozje
napotkanych krawędzi [2]. Szczególnie istotnym
miejscem z punktu widzenia, jakości pracy serwozaworu
są jego krawędzie sterujące (rys. 2). Dla serwozaworów
możemy przyjąć występowanie przekrycia zerowego lub
niewielkiego dodatniego. Maksymalny skok suwaka to
0,8 [mm], zazwyczaj są to wartości dużo mniejsze rzędu
0,1-0,3 [mm]. W tym miejscu występują największe
przepływy cieczy, a energia uderzających w krawędzie
cząstek jest największa.
Rys. 1 Przekrój serwozaworu Vickers SM 4-20-10[13]
Czystości
cieczy jest
kluczowym
czynnikiem
wydłużającym żywotność i niezawodność pracy
serwozaworów. Właściwy dobór klasy czystości cieczy
ma istotny wpływ na ponoszone koszty. Warto rozważyć
czy nakłady finansowe przeznaczone na podniesienie
klasy czystości cieczy, przełożą się w równomierny
sposób na wydłużenie czasu eksploatacji serwozaworów.
Rys. 2 Erozyjne zużywanie krawędzi sterujących
Znaczący wpływ na szybkość erozji krawędzi
sterujących ma ilość cząstek w przepływającej cieczy.
Ilość cząstek jesteśmy w stanie oszacować na podstawie
klasy czystości cieczy, jaki powinna mieć ciecz
hydrauliczna.
1. Zanieczyszczenia w układzie
hydraulicznym
Jednym z następstw niewłaściwej filtracji w układzie
hydraulicznym jest powolna degradacja powierzchni i
krawędzi sterujących. W wyniku różnych procesów
zużyciowych takich jak zużycie ścierne, adhezyjne,
zmęczeniowe, erozyjne, korozyjne i kawitacyjne
powstają
kolejne
mikrocząstki
przyspieszające
zapoczątkowane
procesy.
Wśród
zużycia
długookresowego występuje erozyjna degradacja
krawędzi sterujących w parze suwak tuleja, co w
znaczący sposób przekłada się, na jakość pracy zaworu.
3. Klasyfikacja zanieczyszczenia cieczy wg
ISO 4406
W literaturze znaleźć można inny podział cząstek
stałych na 2, 5, 15 µm lub tylko na 5 i 15 µm. Podział ten
nawiązują do starej normy ISO 4406, w której
uwzględniano tylko wielkości 5 i 15 µm (np. ISO 13/10).
Jeżeli zapis kodu czystości cieczy posiada dwie wartości
wyróżnione pogrubieniem oznacza to, że jest zgodna z
85
Warsztaty Doktoranckie 2012
podziałem 2, 5, 15 µm, np. ISO 16/14/11. [4] Zalecana
wielkość
filtracji
dla
elektrohydraulicznych
serwozaworów określona jest zazwyczaj przez ich
producentów. Najczęściej podawaną klasą czystości
cieczy dla serwozaworów to 16/14/11 dla ciśnienia
roboczego
210
Bar
[4][2][6][5].
W
tabeli
1 przedstawiono zestawienie klasy czystości cieczy
proponowanej przez producenta, wraz z ilością cząstek
stałych, które mogą się w niej pojawić na 1 cm3 badanej
cieczy [7][8].
porównania przedstawiono ilość energii, jaką posiadają
wszystkie cząstki dla 8 godzin pracy serwozaworu.
Tabela 2. Sumaryczna energia kinetycznej cząstek w zależności od klasy
czystości dla 8 godzin pracy zaworu w [J]
2 µm
Vicke
rs
ISO
16/14
/11
Rexro
th
ISO
16/13
MOO
G
ISO
14/11
MOO
G
ISO
13/10
Tabela 1. Ilość cząstek stałych w zależności od klasy czystości cieczy
2 µm
5µm
15µm
Vickers ISO 16/14/11
320 ÷ 640
80 ÷ 160
10 ÷ 20
Rexroth ISO 16/13
320 ÷ 640
40 ÷ 80
MOOG ISO 14/11
80 ÷ 160
10 ÷ 20
MOOG ISO 13/10
40 ÷ 80
5 ÷ 10
4. Energia cząstek zanieczyszczenia
Obliczenie wykonane zostały dla maksymalnego
ciśnienia pracy, przy jakim bezawaryjnie może pracować
serwozawór. Założono, że przepływ przez szczelinę
będzie stały, odpowiada to sytuacji zachowania stałej
prędkości silnika hydraulicznego dla obciążenia
zmiennego w czasie. W celu orientacyjnego wyznaczenia
prędkości przepływu przez szczeliny serwozaworu oraz
energii cząstek stałych wykorzystano wzór:
(1)
2
Q  Cd  A0     p

Po przekształceniu:
(2)
x
15µm
Suma
MAX
MIN
MAX
MIN
MAX
MIN
MAX
9,972
19,94
38,95
77,91
131,5
262,9
180,39
360,79
-
-
155,8
311,6
525,9
1052
681,68
1363,4
-
-
38,95
77,91
131,5
262,9
170,42
340,84
-
-
19,48
38,95
65,73
131,5
85,21
170,42
5. Wnioski
Na podstawie tabeli 2, można zauważyć, że
proponowane przez MOOG’a zwiększenie klasy filtracji
cieczy z ISO 14/11 do 13/10 powoduje zmniejszenie
energii cząstek o 50%. Przyjmując najgorszy możliwy
wariant taki, że całe zanieczyszczenie w cieczy uderza w
krawędzie sterujące, spowoduje to dwukrotnie wolniejszą
erozję tych powierzchni. Pogorszenie czystości cieczy o
dwie klasy z ISO 14/11 na 16/13 powoduje zwiększenie
energii skumulowanej w zanieczyszczeniu o 400%.
Przyjmując najgorszy możliwy wariant taki, że całe
zanieczyszczenie w cieczy uderza w krawędzie sterujące,
spowoduje to czterokrotnie szybszą erozję tych
powierzchni. Największą różnicę w ilości energii
możemy zauważyć dla klasy czystości ISO 13/10 i 16/13,
sięgającą 800%. Z powyższego wynika, że niewielki
pogorszenie czystości cieczy (1-2 klasy) powoduje
kilkukrotne zmniejszenie czasu zużycia krawędzi
sterujących suwaka i tulei, a w konsekwencji żywotność
całego serwozaworu.
Q
2
Cd  d     p max

gdzie: Δp – spadek ciśnienie na szczelinie serwozaworu
[Pa], Cd – współczynnik rozładowania, A0 (A0=πdx) –
pole powierzchni szczeliny [m2], ρ – gęstość cieczy
[kg/m3], Q – przepływ cieczy przez szczelinę [m3/s].
Prędkość przepływu [m/s]
5µm
MIN
Literatura
[1] Wieleba W.: Analiza procesów tribologicznych zachodzących
Cd 0,5
Cd 0,55
Cd 0,6
Cd 0,65
[2]
[3]
[4]
Spadek ciśnienia na szczelinie [MPa]
[5]
Rys. 3 Prędkość przepływu w zależności od spadku ciśnienia
[6]
Efektem prowadzonych analiz teoretycznych jest
wyznaczenie przemieszczenia suwaka oraz prędkości
przepływu w zależności od spadku ciśnienia na szczelinie
serwozaworu dla różnych wartości współczynnika
rozładowania
Cd.
Wykorzystując
wartości
przemieszczenia
suwaka
wyznaczono
prędkości
przepływu (rys. 3). Maksymalne prędkości przepływu
przez szczelinę przy krawędziach sterujących zawierają
się w przedziale od 170 do 270 [m/s]. Znając prędkość
przepływu cieczy, wielkość cząstek i ich ilość możemy
wyznaczyć szacunkową wielkość energii wszystkich
cząstek znajdujących się w strumieniu. Pozwala to na
określenie, jaką ilość energii mają zanieczyszczenia dla
określonej klasy czystości w 1 cm3 cieczy. Energia
cząstek może zostać przetworzona na pracę zniszczenia
powierzchni sterujących suwaka i tulei. W tabeli 2 dla
[7]
[8]
podczas współpracy kompozytów PTFE ze stalą, Oficyna
Wydawnicza Politechniki Wrocławskiej, Wrocław 2002.
J. Cundiff, Fluid power circuits and controls, CRC Press, 2002.
ISO 4406:1999
The systemic approach to contamination control, Eaton Corporation,
2002.
R.W. Park, Contamination control – a hydraulic OEM perspective,
MOOG, 1997.
R. Ewald, J. Hutter, Proportional and servo valve technology,
Mannesmann Rexroth AG, 1989.
Merritt H., Hydraulic Control Systems, John Wiley & Sons, New
York, 1967,
Galal Rabie M., Fluid Power Engineering, Mc Graw Hill, New York
2009.
Mgr inż. Bartosz Minorowicz
e-mail:
[email protected]
Autor jest doktorantem w Zakładzie Urządzeń
Mechatronicznych. Swoją działalność naukową
skupia wokół zagadnień związanych z
konstrukcją urządzeń elektrohydraulicznych oraz
narzędzi CAx. Największe dotychczasowe
osiągnięcia to: Medal Rektora Politechniki
Poznańskiej przyznany w 2011 roku oraz
wygrana w konkursie NOT na najlepszą pracę
dyplomową w Wielkopolsce.
86
Warsztaty Doktoranckie 2012
Mgr inż. Frederik Stefański
e-mail:
[email protected]
Autor jest doktorantem w Zakładzie Urządzeń
Mechatronicznych. Swoją działalność naukową
skupia wokół zagadnień związanych z
konstrukcją urządzeń elektrohydraulicznych oraz
wykorzystanie
technik
wspomagania
komputerowego CAx w projektowaniu maszyn.
87
Warsztaty Doktoranckie 2012
CAŁKOWANIE SYMBOLICZNE W METODZIE ELEMENTÓW
BRZEGOWYCH FOURIERA
Edyta Łukasik1, Beata Pańczyk1, Jan Sikora1,2
1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, 2Instytut Elektrotechniki Warszawa
Streszczenie. Tradycyjna metoda elementów brzegowych(MEB)[4] pozwala uzyskać rozwiązanie problemu, ale tylko w przypadku istnienia znanego rozwiązania
fundamentalnego. Bardziej uniwersalne podejście oferuje MEB Fouriera [1], która realizuje, przy pewnych założeniach, obliczenia bez znajomości rozwiązania
podstawowego. Równoważność obu metod została pokazana w pracy [1]. Współczynniki ostatecznego układu równań liniowych wyznaczane są w przestrzeni
Fouriera. W artykule zaprezentowano implementację całkowania symbolicznego [2] w pakiecie Matlab [7] do wyznaczania całek osobliwych w MEB Fouriera.
Słowa kluczowe: metoda elementów brzegowych Galerkina i Fouriera, całkowanie symboliczne
Symbolic integration for Fourier Boundary Element Method
Abstract. The traditional Boundary Element Method (BEM) [4] allows for the solution of the problem, but only if there is a known fundamental solution. A more
universal approach the Fourier BEM offers [1]. It implements, under certain assumptions, calculations without knowing the fundamental solution. The
equivalence of both methods is shown in [1]. Coefficients of the final system of linear equations are determined in the Fourier space. The paper presents the
implementation of the symbolic integration[2] in MATLAB [7] to determine the singular integrals in Fourier BEM.
Keywords: Boundary Element Method, Galerkin approach, Fourier approach, symbolical integration
 ( x), u ( x) 
Wstęp
Metoda elementów brzegowych (MEB) [4] jest
numeryczną metodą rozwiązywania równań całkowobrzegowych, w których poszukiwana funkcja znajduje się
pod znakiem całki obliczanej po brzegu pewnego
obszaru. Do obliczeń całek zwykle stosowane jest
całkowanie numeryczne. Podejście Fouriera prowadzi do
układu równań liniowych, w którym znane i nieznane
wartości brzegowe definiowane są za pomocą
odpowiednich całek [1]. Celem niniejszej pracy jest
zastosowanie symbolicznego całkowania [2] do
wyznaczenia współczynników układu równań MEB
Fouriera na przykładzie równania Poissona, z
wykorzystaniem zaimplementowanego w Matlabie
pakietu do obliczeń symbolicznych [7].
n
2
Pˆ   xˆ   xˆ k2 .
gdzie:
(7)
k
Fundamentalne rozwiązanie w przestrzeni Fouriera
sprowadza się do:
F
f ( x)   ( x) 
fˆ ( xˆ )  1 .
(8)
Zgodnie z (8) rozwiązanie:
2
F
(9)
U ( x)   ( x) 
- xˆ Uˆ ( xˆ )  1 ,
po transformacji do przestrzeni Fouriera sprowadza się
do wyznaczenia odwrotności P̂ :
1
Uˆ ( xˆ )  2 .
xˆ
(10)
Takie podejście może być zastosowane do wszystkich
równań
różniczkowych
liniowych
ze
stałymi
współczynnikami. Rozwiązanie fundamentalne dla takich
równań przestrzeni Fouriera jest zatem zawsze znane [1].
Ostatecznie MEB Fouriera jest przetransformowaną do
przestrzeni Fouriera metodą MEB Galernika [5] (z
zastosowaniem fundamentalnych twierdzeń teorii
dystrybucji [6]) i sprowadza się do rozwiązania układu
równań różniczkowych cząstkowych postaci [1,3]:
(11)
 Kuji u i  Fuj  H uji t i  Guji u i ,
jest zdefiniowana jako:
n
(1)
k 1
Podstawą metody MEB Fouriera są dwa twierdzenia.
Twierdzenie Parsevala określa zależność:
1
n
(2)
n ( x)u( x)dx  (2 ) n nˆ( xˆ)uˆ( xˆ)dxˆ, x, xˆ  R
R
R
Twierdzenie o splocie w przestrzeni Fouriera
przedstawia splot funkcji jako iloczyn transformat tych
funkcji w przestrzeni Fouriera:
F
ˆ( xˆ )uˆ ( xˆ ) (3)
  ( y)u( x  y)dy 
i
i
gdzie współczynniki
Fouriera wzorami:
1
Fu j 
(2 ) n
1
H uji 
(2 ) n
Rn
Dla uproszczenia zapisu wprowadzono następujące
oznaczenia:
Iloczyn skalarny: a, b   a( x)b( x)dx ,
Guji 
Rn
Splot:
(4)
F


ˆ(xˆ)uˆ(xˆ) .
(5)
Transformacja
układu
równań
różniczkowych
cząstkowych do przestrzeni Fouriera przekształca
operator różniczkowy P() w wyrażenie algebraiczne
2
F
Pˆ ( xˆ ) :
u( x)   f ( x) 
- xˆ uˆ ( xˆ )   fˆ ( xˆ ) , (6)
Teoretyczne podstawy MEB Fouriera przedstawiono
w pracy [1], a skrótowy ich opis w [3]. W niniejszym
artykule zostaną podane jedynie niezbędne definicje i
twierdzenia konieczne do przedstawienia procesu
obliczania całek osobliwych w przestrzeni Fouriera.
n-wymiarowa transformacja Fouriera:
F (u)  uˆ, u  L1 ( R n ), i   1
Rn
ˆ( xˆ ), uˆ ( xˆ ) ,
 ( x)  u( x)
1. Metoda elementów brzegowych Fouriera
uˆ ( xˆ )   u ( x)e i  x , xˆ  dx,  x, xˆ    x k xˆ k .
1
2 n
Rn
W powyższej notacji te dwa twierdzenia mają postać:
88
ˆt j ( xˆ ), fˆ ( xˆ )Uˆ ( xˆ ) ,
ˆt j ( xˆ ), ˆti ( xˆ )Uˆ ( xˆ ) ,
1
ˆt j ( xˆ ), ˆui ( xˆ ) AˆtiUˆ ( xˆ ) ,
(2 ) n
Kuji :
a  b   a( y)b( x  y)dy .
i
są zdefiniowane w przestrzeni
1
ˆt j (  xˆ ), pˆ ui ( xˆ ) .
(2 ) n
(12)
Warsztaty Doktoranckie 2012
2. Podstawy obliczeń symbolicznych w
Matlabie
Czyli np.:
1
H 11 
ˆt1 (  xˆ ),ˆt1 ( xˆ )Uˆ ( xˆ )
(2 ) 2
Symbolic Math ToolBox [7] w Matlabie
dostarcza narzędzi do wykonywania obliczeń na
wyrażeniach symbolicznych [2]. Pakiet wyposażony jest
w funkcje do symbolicznego wyznaczania granic,
rozwiązywania równań, różniczkowania i całkowania.
Symboliczne oprogramowanie definiuje nowy
typ zwany 'obiektem symbolicznym' (ang. symbolic
object). Jest to struktura danych, która zawiera symbol
przedstawiony w postaci łańcucha. Obiekty te
reprezentują zmienne symboliczne, całe wyrażenia i
macierze. Obliczenia symboliczne wykonywane są na
bazie pakietu Maple.

(18)
[2]
[3]
[4]
[5]
[6]
[7]
dr Edyta Łukasik
e-mail: [email protected]
Ukończyła studia matematyczne na UMCS w
Lublinie. Tytuł doktora uzyskała na Wydziale
Matematyki, Fizyki i Informatyki UMCS w
Lublinie w roku 2007. Tytuł rozprawy
doktorskiej: Metody iteracyjne dla nieliniowych
regularnie osobliwych układów równań. Od
1998 roku pracownik naukowy Politechniki
Lubelskiej. W latach 1998-2007 zatrudniona na
stanowisku asystenta, a od maja 2007 na
stanowisku adiunkta w Instytucie Informatyki
PL. Obszar zainteresowań naukowych to przede
wszystkim
języki
programowania
i
algorytmizacja, struktury danych, metody
numeryczne i metody optymalizacji.

ˆt2 


ixˆ / 2
i
1
(e
e 1 1  i
xˆ1 / 2
2


ixˆ / 2
ixˆ / 2
1 i
(e
e 1 e 1 1  i
ˆ
2 x1 / 2


 ixˆ
1
 ixˆ
 ixˆ
e
xˆ1
/2
1/2
 1)
xˆ1
 ixˆ
1/2
)
,
,
(19)
dr Beata Pańczyk
e-mail: [email protected]
Ukończyła studia matematyczne na UMCS w
Lublinie. W latach 1989-2011 pracownik
naukowy (asystent, adiunkt) w Instytucie
Informatyki Politechniki Lubelskiej. Tytuł
doktora uzyskała w roku 1996 na Wydziale
Elektrycznym PL. Temat rozprawy doktorskiej:
Konstrukcja obrazu rozkładu właściwości
fizycznych obiektu metodą Impedancyjnej
Tomografii Komputerowej. Od roku 2011 na
stanowisku starszego wykładowcy. Obszar
zainteresowań dydaktycznych i naukowych to
metody numeryczne i języki programowania.
(20)
 ixˆ
ixˆ / 2
i
1 ixˆ
(e 2  1)e 1
.
(21)
e 2 1 e 1  i
xˆ 2 / 2
2
xˆ 2
Przy dyskretyzacji brzegu kwadratu jednostkowego
ośmioma elementami, układ równań do rozwiązania jest
postaci:
ˆt3 
8
t
i
ˆt j (  xˆ ),ˆtiUˆ   ˆt j (  xˆ ), fˆUˆ , j  1,..., 8 .
Methods by Fourier Transform", Springer-Verlag Berlin Heidelberg
2002.
Łukasik E., Pańczyk B., Sikora J, Methods of Optimisation and Data
Analysis. Selected Issues, scientific editors: Kesra Nermend and
Tomasz Komorowski, chapter 8 : Matlab symbolic integration for
Galerkin BEM, str. 137-155, Szczecin 2010
Pańczyk B., Sikora J., "Teoretyczne podstawy metody elementów
brzegowych Fouriera", IAPGOS, zeszyt 1/2012
Sikora Jan, "Podstawy metody elementów brzegowych",
wydawnictwo książkowe Instytutu Elektrotechniki, Warszawa 2009
Sutradhar A., Paulino G.H., Gray L. J., "Symmetric Galerkin
Boundary Element Method", Springer-Verlag, Berlin Heidelberg
2008
Zagórski A., "Metody matematyczne fizyki", Oficyna Wydawnicza
Politechniki Warszawskiej, Warszawa 2007.
http://www.mathworks.com
______________________________________________
Funkcje testowe dla tego przypadku w przestrzeni
Fouriera mają postać [1]:
ˆt1 

(23)
[1] Duddeck Fabian M.E., "Generalization of Boundary Element
y
x

Literatura
i
Fu j   t j ( x)  f ( y )U ( x  y )d y dx .

ˆ
Metoda elementów brzegowych Fouriera jest o tyle
interesująca, że można ją zastosować do rozwiązywania
układów równań różniczkowych cząstkowych, dla
których
nie
jest
znana
postać
rozwiązania
fundamentalnego. Niestety implementacja Fourier BEM
jest znacznie trudniejsza niż klasycznej metody.
gdzie:
(17)

R2

 1)  i (e ix1 / 2  1)
dx1dx2
 xˆ1 xˆ1  xˆ12  xˆ 22
ixˆ1 / 2
4. Wnioski
Praktyczne obliczenia całek osobliwych zostaną
pokazane na przykładzie rozwiązania równania Poissona,
zdefiniowanego
na
dwuwymiarowym
obszarze
  [0,1]  [0,1] , z wewnętrznym, stacjonarnym źródłem
ciepła f. Temperatura na brzegu tego obszaru ma wartość
0. Przy tych warunkach, problem Dirichleta prowadzi do
równania Poissona postaci:
u( x)   f ( x), x  
(13)
u( x)  u  0, x  
.
Brzeg  został podzielony na 8 elementów.
Rozwiązaniem fundamentalnym jest tu funkcja:
1
(14)
U ( x )  U ( x1 , x2 ) 
ln x12  x22 ,
2
gdzie:
U ( x  y )  U ( x1 , y1 , x 2 , y 2 )
.
(15)
1

ln ( x1  y1 ) 2  ( x 2  y 2 ) 2
2
Przy warunku u=0 układ równań liniowych (wzór 11)
redukuje się do układu:
(16)
0  Fu j   H uji t i ,
x
(2 ) 2
i(e
Elementy leżące na głównej przekątnej macierzy układu,
są określone całkami osobliwymi, wyznaczanymi
symbolicznie w Matlabie. Proces obliczeń symbolicznych
zostanie dokładnie przedstawiony w pełnej wersji
artykułu.
Pozostałe
elementy
wyznaczane
są
numerycznie.
3. Całkowanie symboliczne na przykładzie
równania Poissona
H uji   t j  tiU ( x  y )dy dx ,
1
(22)
i
89
Warsztaty Doktoranckie 2012
ELECTRONIC AIDS FOR BLIND PEOPLE – OVERVIEW
Wojciech Gelmuda1 , Andrzej Kos1
1
AGH University of Science and Technology, the Faculty of Electrical Engineering, Automatics, Computer Science and Electronics
Abstract. For a very long time the advancement in technologies has had noble intentions to improve people’s safety and to make their lives easier. That statement
also applies to the visually impaired people. Since the common white cane does not provide the desired reliability and functionality and guide dogs are relatively
expensive to train and have their own limitations, engineers in many science centers have been working on some electronic aids and complex systems for blind
people. The following paper presents an overview of current status of electronic aids for blind people.
Keywords: blind people, electronic aids, navigation assistant device
Urządzenia elektroniczne wspomagające osoby niewidome – przegląd
Streszczenie. Od dłuższego czasu osiągnięcia nauki i techniki mają na celu polepszenie bezpieczeństwa ludzi oraz ułatwienie ich życia codziennego. Dotyczy to
również osób niewidomych i słabowidzących. Ponieważ zwykła biała laska dla osób niewidomych nie jest w stanie zapewnić odpowiedniej funkcjonalności i
bezpieczeństwa podczas poruszania się osób niewidomych, a psy przewodniki mają pewne ograniczenia, nie wspominając o kosztach szkolenia, w wielu
ośrodkach badawczych inżynierowie i naukowcy pracują nad elektronicznych urządzeniami i systemami wspomagającymi osoby niewidome. Praca przedstawia
przegląd nowoczesnych rozwiązań w tematyce urządzeń dla osób niewidomych.
Słowa kluczowe: ludzie niewidomi, urządzenia wspomagające, urządzenie do nawigacji
Addons to white canes should not compromise the
weight of white canes and restrict their movements.
Usually, in this kind of a solution a white stick can work
as a RFID reader [2], ultrasound obstacle detector [3] or
as a carrier for other sensors.
Since blind people are so much used to white canes, it
is problematic to create a device which would provide
such safety and high reliability to convince visually
impaired persons to lay off white sticks and switch to
electronic devices when getting around. Nevertheless,
there are many devices that can assist blind people in
order to improve their safety while walking. Engineers
are currently working on complex systems for blind
people navigations, which once perfected, could replace
the popular white canes.
Introduction
Apart from simple devices which, for instance, are
able to check and tell a color of some surfaces and fabrics
or to index and then recognize objects by means of RFID
tags, there are devices that help blind people safely move
around in known and unknown areas. These devices
could be divided into three main categories [1]:
• Electronic Travel Aids (ETAs) – these devices gather
and process some partial data from the surrounding
environment in order to provide a blind person with the
information sufficient for a safe passage,
• Electronic Orientation Aids (EOAs) – these devices
help a blind person find a direction of movement while
walking from one point to another,
• Position Locator Devices (PLDs) – these devices with
the help of the GPS-like, GSM and Wi-Fi technologies
make it possible to locate a blind user, for example, on a
digital map and to navigate to a final destination.
Although, many devices could be put into these
categories, some systems for blind people due to their
complexity fit into two or even all three of mentioned
descriptions. Therefore, in this chapter, another kind of
categorization is being presented.
3. Single and multi-sensor devices
Electronic devices for blind people vary in terms of
basic functionality. There are devices which serve only
one purpose, for instance, obstacle detectors [4] or GPS
based locator and navigations like ‘Trekker GPS system’
[5]. Such devices usually employ only one type of
sensors. This approach is cost effective and helps to
develop and produce low-price devices, which is very
important especially for visually impaired people in the
developing countries. However, it is hard to collect all the
relevant information about the blind person’s
surroundings with the help of only one type of sensors.
Therefore, by using more sensor types, the functionality
of the EA can be extended. This multi-sensor approach
compensates for the limitations of one data type.
Detecting obstacles only with an ultrasonic range finder
does not assure the high reliability due to the fact that
ultrasonic waves reflect poorly from some types of
surfaces and also returning wave amplitude is highly
dependent on the surface inclination [6]. On the other
hand, an infrared range finders are fragile against
transparent surfaces. Thus, for the obstacle detection it is
wise to use multi-sensor approach and use both the
infrared and the ultrasonic technique. This method, called
a sensor fusion, provides better reliability and safety for a
blind user.
1. Categorization of electronic aids for
blind people
Although, there are many ways to categorize
electronic aids (EAs) for the blind, it seems appropriate to
analyze them from a technical point of view, focusing
mainly on elements and methods that were used and also
research novel ideas implemented, rather than devices’
impact on the market, commercial success or price. The
overview of the devices that are being commonly used
among blind people and also advanced prototypes is
presented in this paper.
2. White cane substitutes and addons
Almost every blind person uses a white stick of some
kind. White sticks are available in different types,
endpoint shapes and sizes. They are also relatively lowpriced as for assistive aids, so even small visually
impaired kids are being taught how to use them. Blind
people are used to white sticks and feel more comfortable
and safe while getting around and traveling with them.
Therefore, some EAs uses white sticks as a carrier.
4. Autonomous decision and navigation
center based devices
Most of the developed EAs are based on autonomous
decision operation. Multiple sensors swipe the
environment to gain all the important data, for instance,
90
Warsztaty Doktoranckie 2012
visual image, blind person’s position and one’s
movement, distance from obstacles, etc. The data is
processed and used for navigation, human and object
detection and recognition [7]. These devices are usually
based on fast FPGA and MCU chips to handle real time
computations, image processing, objects recognition and
decision algorithms. In some cases they also have access
to large databases of image samples or POI. The main
advantages of these solutions are that the remote human
guidance is not necessary and a blind person is relatively
independent. There are also devices which employ all or
some of the mentioned sensors but the decision making
process and assistance are performed by some remote
human operators [8].
helpful, for instance, web browsing [12], banknotes,
coins and signage recognition, etc.
Blind people often recognize objects by touching
them. This helps them identify shapes or read Braille
signs. In [13] there is a dynamic, tactile map presented.
Mechanical matrix is able to display graphical shapes,
navigate by means of straight lines or arrows to indicate
direction or display pre-programed characters to indicate
a specific obstacle or place. Another type of signaling
method for blind people is a heat based matrix [14].
There are also simple methods to indicate specific
objects of interest or their distance from the user. The
common approach is the use of vibrating motors [1] and
modulate the signal impulses number and their length.
5. Self-orienting and localization based
devices
8. Conclusions
The presented EAs help to deal with general safety
for blind people. Although, all the mentioned devices and
systems try to compensate for the lack of vision of blind
people, more extensive research and further work has to
be made in order to achieve better functionality and a
satisfying safety level for blind people.
Various EAs use only a self-orienting technique in
navigation. This means that only the surrounding
environment is scanned. Global positions or any maps
and POI are irrelevant. Usually, these EAs are all kinds of
objects detectors and obstacle avoidance. Some devices
use only ultrasounds or an infrared beam to detect and
inform about obstacles, like in [9]. Other EAs employ
video cameras and image processing to recognize objects
of interest or even people’s faces [7].
The second group of EAs is based on cooperation
with external systems for the localization purposes. Some
solutions implement RFID tags into the environment to
help to navigate blind people and avoid or inform about
various objects [10]. Although, embedding RFID tags
into large size environment can be costly, it is a suitable
solution for indoors and campuses. In some cases, an
existing system network can be used, for instance, Wi-Fi
hotspots or GPS signal.
Literature
[1] Dakopoulos D., Bourbakis N.G.: Wearable Obstacle Avoidance
Electronic Travel Aids for Blind: A Survey. IEEE Transactions on
Systems, Man, and Cybernetics—Part C: Applications and Reviews
1/2010, pp. 25-35.
[2] Faria, J., Lopes, S., Fernandes, H., Martins, P., Barroso, J.:
Electronic White Cane for Blind People Navigation Assistance. IEEE
Conference Publications of the World Automation Congress (WAC)
2010.
[3] Kos A., Gelmuda W.: Ultrasonic White Stick for Detecting Holes for
Blind People. Elektronika : konstrukcje, technologie, zastosowania,
10/2010, pp. 141-143.
[4] Villanueva J., Farcy R.: Optical Device Indicating a Safe Free Path
to Blind People. IEEE Transactions on Instrumentation And
Measurement 1/2012, pp. 170-177.
[5] Pathy N.B., Noh N.M., Moslin S.I., Subari M.D.B.: Space
Technology for the Blind and Visually Impaired. . IEEE Conference
Publications of the Space Science and Communication 2011, pp.
206-210.
[6] Gelmuda W., Kos A.: Piezoelectric Ultrasonic Sensors Detection
Capabilities. Proceedings of Electrotechnical Institute 57/2010, pp.
133-141.
[7] Kumar A., Patra R., Manjunatha M., Mukhopadhyay J., Majumdar
A.K.: An Electronic Travel Aid for Navigation of Visually Impaired
Persons. IEEE Conference Publications of the Communication
Systems and Networks 2011, pp. 1-5.
[8] Vitek S., Klima M., Husnik L., Spirk D.: New Possibilities for Blind
People Navigation. IEEE Conference Publications of the
International Conference on Applied Electronics 2011, pp. 1-4.
[9] Calder D.J.: Assistive Technology Interfaces for the Blind. IEEE
Conference Publications of the 3rd IEEE International Conference on
Digital Ecosystems and Technologies 2009, pp. 318-323.
[10] Tang X., Chen Y., Zhu Z., Lu X.: A Visual Aid System for the Blind
Based on RFID and Fast Symbol Recognition. IEEE Conference
Publications of the 6th International Conference on Pervasive
Computing and Applications 2011, pp. 184-188.
[11] Kaminski L., Kowalik R., Lubniewski Z., Stepnowski A.: “VOICE
MAPS” — Portable, Dedicated GIS for Supporting the Street
Navigation and Self-dependent Movement of the Blind. IEEE
Conference Publications of the 2nd International Conference on
Information Technology 2010, pp. 153-156.
[12] Ghose R., Dasgupta T., Basu A.: Architecture of a Web Browser for
Visually Handicapped People. IEEE Conference Publications of the
Students' Technology Symposium 2010, pp. 325-329.
[13] Maingreaud F., Pissaloux E.E., Velazquez R., Gaunet F., Hafez M.,
Alexandre J.-M.: A Dynamic Tactile Map as a Tool for Space
Organization Perception: Application to the Design of an Electronic
Travel Aid for Visually Impaired and Blind People. IEEE Conference
Publications of the 27th Annual International Conference of the
Engineering in Medicine and Biology Society 2005, pp. 6912-6915.
[14] Boron K., Kos A.: Model of thermal touch screen for the blind.
Conference Publications of the 35th International Microelectronics
and Packaging IMAPS – IEEE CPMT Poland Conference 2011, pp.
219-224.
6. Autonomous and server based
computation
Generally, if the functionality of the EA is large,
there is lots of data from multiple sensors, the easy way
to save energy on mobile device is to send data to a
server and wait for the processed data or a navigation
decision. Other types of devices that utilize this method
are the ones that employ massive databases for navigation
or image recognition, like for instance, geographic
information [2], large amount of POI frequently updated
[11], etc.
The mentioned methods save energy and at the same
time maintain a wide spectrum of functionality, however,
sending large amount of data through Wi-Fi or cellular
networks creates delays. Unfortunately, the previously
mentioned methods are not the best solution for EAs
which should work as real-time systems and provide
reliable response in a deterministic, short period of time.
That is why some electronic systems for blind people do
all the computations by themselves. Usually, in these
solutions autonomous work compromises for a broad
functionality, yet in some EAs the real-time work is a
must. The quick alert about possible threats gives blind
users time to react and avoid tripping over or hitting
against some objects.
7. Signaling methods
The most common way to pass information on to the
blind users is by means of voice commands. There are
several domains where this type of signaling can be
91
Warsztaty Doktoranckie 2012
prof. dr hab. inż. Andrzej Kos
e-mail: [email protected]
Received PhD in 1983 at AGH in Cracow, Poland
in electronics, professor title since 2001. Since
1995 head of the Micro- and Nanoelectronics
Systems Team in Department of Electronics,
AGH. Author of over 190 articles, international
conference papers and patents, author of 3 books
including one printed in United Kingdom.
Scientific interests focus on thermal issues in
integrated circuits design and testing. Member of
the
Committee
of
Electronics
and
Telecommunication of the Polish Academy of
Sciences, many scientific committees. European
Commission and Polish Ministry of Science and
Higher Education expert.
mgr inż. Wojciech Gelmuda
e-mail: [email protected]
Received his MSc. diploma in electronics
engineering from the AGH University of Science
and Technology, Cracow, Poland in 2009. His
master thesis focused on developing a weather
station system for blind people. Currently he is a
PhD student in Department of Electronics at the
AGH. His research areas include low-power
systems and development of mobile safety
systems for blind people. He has published
several research and technical papers.
92
Warsztaty Doktoranckie 2012
METODA KLASYFIKACJI OBRAZÓW USG TARCZYCY
Z WYKORZYSTANIEM INDUKCJI DRZEW DECYZJI
Zbigniew Omiotek1, Andrzej Burda1, Waldemar Wójcik2
Wyższa Szkoła Zarządzania i Administracji w Zamościu, Wydział Zarządzania i Administracji2 Politechnika Lubelska, Wydział Elektrotechniki i Informatyki
1
Streszczenie. W artykule przedstawiono metodę klasyfikacji zdjęć USG tarczycy. Metoda ta pozwala zaklasyfikować analizowane przypadki do jednej z dwóch
kategorii: chory lub zdrowy. Pozwala także wyodrębnić grupę błędnie klasyfikowanych przypadków. Zdaniem autorów, grupa ta może zawierać cechy
charakterystyczne dla wczesnego stadium rozwoju choroby Hashimoto. Do budowy modelu klasyfikacji wykorzystano indukcję drzew decyzji. Wyniki testów
pokazały, iż zaproponowana metoda może stanowić punkt wyjścia do budowy systemu wspomagającego lekarza w procesie diagnozy.
Słowa kluczowe: tarczyca, choroba Hashimoto, przetwarzanie obrazów, klasyfikacja tekstur, drzewa decyzyjne
Method for classification of ultrasound thyroid images using the induction of decision trees
Abstract. The article presents a method for classification of ultrasound thyroid images. This method allows to classify the analyzed cases as sick and healthy. It
also allows to separate fairly large group of incorrectly classified cases. According to the authors, this group may include characteristics of the early stage of
Hashimoto's disease. The induction of decision trees has been used to build a classification model. Test results showed that the proposed method can provide a
starting point to build a support system in the process of medical diagnosis.
Keywords: thyroid, Hashimoto’s disease, image processing, texture classification, decision trees
1. Przetwarzanie i analiza obrazów
źródłowych
Wstęp
Jedną z częstszych chorób gruczołu taczycy jest
choroba Hashimoto. Jest ona związaną z zaburzeniami
układu odpornościowego i występuje u około 2%
populacji. Szacuje się, że kobiety chorują na nią ponad 10
razy częściej, niż mężczyźni i rozpoznaje się ją
przeważnie w okresie od 30-go do 50-go roku życia.
Choroba Hashimoto może przebiegać w postaci
ogniskowej oraz rozsianej, przy czym leczenie rozsianej
postaci choroby jest na ogół nieskuteczne. Mimo rozwoju
metod diagnozowania choroby Hashimoto, nadal dużym
problemem jest trafne rozpoznanie jej wczesnego
stadium. Wynika to z faktu, że zaburzenia czynności
tarczycy wykazują dużą zmienność objawów i często
charakteryzują się powolną dynamiką ich narastania.
Choroba
rozpoznawana
jest
zwykle
w zaawansowanej postaci, gdy dochodzi już do
niedoczynności tarczycy i wdrożenie odpowiedniego
leczenia jest bardzo trudne lub wręcz niemożliwe.
Dlatego też, niezwykle istotną kwestią jest zwiększenie
skuteczności istniejących metod diagnostycznych tak,
aby rozpoznanie choroby mogło być dokonane w jak
najwcześniejszym stadium.
Podstawową metodą diagnostyki tarczycy jest
obecnie ciągle badanie ultrasonograficzne. Dzięki
obrazom USG można ocenić wielkość tarczycy,
echogeniczność
i
niejednorodność
miąższu,
występowanie guzków, zwapnień i płynów (torbiele).
Charakterystyczny obraz ultrasonograficzny dla choroby
Hashimoto
to
obniżona
echogeniczność
i
niejednorodność miąższu. Na podstawie zdjęć USG
lekarz specjalista może stosunkowo łatwo rozpoznać
przypadki tarczycy zdrowej oraz dotkniętej chorobą w jej
zaawansowanym stadium. Jednak rozpoznanie tą metodą
początkowego stadium rozwoju choroby nie jest
zadaniem łatwym. Dlatego też wydaje się celowe
opracowanie komputerowej metody automatycznego
rozpoznawania i klasyfikacji zdjęć USG tarczycy.
Metoda ta wspomagałaby lekarza w procesie
diagnozy przypadków dotkniętych wczesnym stadium
rozwoju choroby. W niniejszej pracy zaproponowano
koncepcję takiej metody, która w procesie klasyfikacji
wykorzystuje indukcję drzew decyzji. Pozwala ona
zaklasyfikować analizowane przypadki do jednej z
dwóch kategorii: chory lub zdrowy.
Materiał do badań zawierał serie zdjęć USG tarczycy
należące do 66-ciu pacjentów. Wśród nich było 31 osób
zdrowych oraz 35 chorych, u których rozpoznano
chorobę Hashimoto. Dla każdej serii zdjęć wyodrębniono
od jednego do trzech regionów zainteresowania o
rozmiarach 200 x 150 pikseli, które obejmowały
centralne obszary lewego i prawego gruczołu tarczycy.
W efekcie otrzymano 54 próbki dla przypadków
rozpoznanych jako zdrowe oraz 85 dla chorych (w sumie
139 przypadków). Następnie wyodrębnione fragmenty
zdjęć poddano normalizacji obrazu z korekcją liniową w
programie Matlab.
Do
ekstrakcji
cech
dyskryminacyjnych
analizowanych obrazów wykorzystano program MaZda
opracowany w Instytucie Elektroniki Politechniki
Łódzkiej i udostępniony bezpłatnie do celów naukowych
w Internecie. Program MaZda (nazwa od „macierz
zdarzeń”) pozwala analizować szare obrazy tekturowe
i wyznaczać obszerny zbiór 283 deskryptorów cech. Ich
dokładny opis można znaleźć w literaturze, a także w
dokumentacji programu MaZda. Zbiór cech otrzymano
na podstawie: wektora histogramu obrazu (9 cech),
macierzy gradientu obrazu (5 cech), macierzy rozkładu
długości pasm (5 cech x 4 kierunki), macierzy przejść
tonalnych (11 cech x 4 kierunki x 5 odległości), modelu
autoregresji (5 cech), dyskretnej transformaty falkowej
(24 cechy).
2. Budowa i testowanie klasyfikatora
Opis eksperymentu.
Eksperyment przeprowadzono z wykorzystaniem
algorytmu C&RT. Do oceny jakości modelu, z uwagi na
ograniczoną liczbę przypadków w analizowanym zbiorze,
zastosowano
metodę
dziesięciokrotnej
walidacji
krzyżowej. Ze względu na wspomniany wstępny etap
badań, z zamysłem pominięto procedury eliminowania
nieistotnych, ze względu na cel klasyfikacji, atrybutów
opisowych, a uznano za zasadne ocenić ich ważność w
procesie parametryzacji drzewa decyzji. Przyjęto też
równe koszty błędnej klasyfikacji, miarę Gianiego jako
kryterium dobroci dopasowania i szacowane na
podstawie
liczebności
obu
kategorii,
prawdopodobieństwo ich występowania a priori.
Minimalną liczność przypadków w węźle określono na
13, a maksymalną liczbę węzłów na 1000. Jako regułę
93
Warsztaty Doktoranckie 2012
stopu wybrano przycięcie przy błędzie złej klasyfikacji.
Wyniki badań. W efekcie przycinania powstało 6
drzew decyzji, dla których koszty błędnej klasyfikacji:
Koszt resubst. (metodą resubstytucji) oraz Koszt SK
(metodą
dziesięciokrotnej
walidacji
krzyżowej)
przedstawiono na rys. 1. Macierz klasyfikacji
przypadków analizowanego zbioru przedstawiono w
tabeli 1. Z kolei, tabela 2. przedstawia ważność
atrybutów opisowych ze względu na przyjęty cel
klasyfikacji, przy zastosowaniu drzewa optymalnego.
Dyskusja wyników. Wybrany model optymalny –
drzewo decyzji C&RT, klasyfikuje przypadki pacjentów,
u których rozpoznano chorobę Hashimoto, z
dokładnością 94,44%, a błędnie przyporządkowuje do tej
kategorii 10,59% przypadków zdrowych. Dwukrotnie
mniejszy błąd klasyfikacji fałszywie negatywnej od
fałszywie pozytywnej jest bardzo korzystny z
medycznego punktu widzenia. Jeżeli do tego
uwzględnimy, że błąd klasyfikacji poniżej 20% został
osiągnięty
na
niezależnym
zbiorze
testowym
(wyznaczonym metodą dziesięciokrotnej walidacji
krzyżowej), to w odniesieniu do typowych standardów
uczenia maszynowego, wynik ten można uznać za
stwarzający możliwości wiarygodnego zastosowania
użytej metodyki w planowanym systemie doradczym
wspomagającym lekarza w diagnostyce tej choroby.
Tabela 2. Ważność atrybutów opisowych
Lp
Nazwa atrybutu
Opis atrybutu
Częstość
Udział [%]
Częstość
Udział [%]
chory
zdrowy
Przewidywane
zdrow
y
51
3
94,44
5,56
9
76
10,59
89,41
WavEnLH_s-6
WavEnHL_s-6
WavEnHH_s-5
WavEnLL_s-4
S(5,5)DifVarnc
S(5,-5)DifVarnc
WavEnLH_s-3
WavEnLL_s-1
WavEnLL_s-2
2
Ważność
mod. autoregr.
100
Energia wsp. falkowych
Energia wsp. falkowych
Energia wsp. falkowych
Energia wsp. falkowych
Wariancja różnicowa
Wariancja różnicowa
Energia wsp. falkowych
Energia wsp. falkowych
Energia wsp. falkowych
96
87
87
84
76
74
73
73
71
Zbigniew Omiotek
e-mail: [email protected]
Absolwent Wydziału Elektroniki WAT w
Warszawie. W latach 1995-2000 asystent w
Instytucie Podstaw Elektroniki WAT. Od 2000 r.
asystent w Katedrze Informatyki i Inżynierii
Wiedzy WSZiA w Zamościu, a od 2011 r.
doktorant na Wydziale Elektrotechniki i
Informatyki
Politechniki
Lubelskiej.
Zainteresowania naukowe skupiają się wokół
metod
analizy
i rozpoznawania
obrazów
medycznych.
Andrzej Burda
e-mail: [email protected]
Absolwent Wydziału Maszyn Górniczych i
Hutniczych AGH w Krakowie. Od 1999 r. asystent
w Katedrze Informatyki i Inżynierii Wiedzy
WSZiA w Zamościu, a od 2009 r. doktorant na
Wydziale
Elektrotechniki,
Automatyki,
Informatyki i Elektroniki AGH. Zainteresowania
naukowe skupiają się wokół metod klasyfikacji
obiektów.
Waldemar Wójcik
e-mail: [email protected]
Ukończył studia na Politechnice Wrocławskiej Wydział Elektroniki (1975), doktorat obronił na
Politechnice Lubelskiej (1985), a habilitację na
Politechnice Lwowskiej (2001). W 2009 otrzymał
tytuł Profesora nauk technicznych. W swoim
dorobku ma 14 monografii, ponad 100 prac
naukowych oraz 3 patenty. Jest współautorem
około 20 opracowań dla przemysłu dotyczących
światłowodowych sieci kontrolno-pomiarowych i
teleinformatycznych.
Tabela 1. Macierz klasyfikacji
chory
2.
3.
4.
5.
6.
7.
8.
9.
10.
Par.
Testy modelu klasyfikatora wykazały, że może on
być z powodzeniem stosowany jako element systemu
doradczego, wspomagającego lekarza w procesie
diagnozy. Istotna dla prowadzenia dalszych badań,
wydaje się najliczniejsza grupa przypadków błędnie
sklasyfikowanych w jednym z węzłów (nr 13) drzewa
decyzji. Może ona, zdaniem autorów, zawierać
informacje
interesujące
z punktu
widzenia
rozpoznawania wczesnego stadium rozwoju choroby
Hashimoto. Celem dalszych badań będzie potwierdzenie
tej tezy oraz porównanie wyników klasyfikacji
uzyskanych przy pomocy algorytmu C&RT z modelami
uzyskanymi innymi metodami uczenia maszynowego, a
w tym z zastosowaniem sieci przekonań Bayes’a,
sztucznych sieci neuronowych oraz innych algorytmów
generowania drzew decyzji.
Analiza parametrów drzewa nasuwa także
przypuszczenie, które poddane zostanie weryfikacji
w kolejnym etapie badań, że węzeł, który zawiera
stosunkowo dużą liczbę (7) błędnie zaklasyfikowanych
przypadków kategorii zdrowy, może zawierać bardzo
interesujące, z medycznego punktu widzenia, przypadki
występowania symptomów choroby we wczesnym jej
stadium. Na uwagę zasługuje również fakt, że spośród
283 deskryptorów cech, szczególnie istotne, ze względu
na cel klasyfikacji, okazały się te, uzyskane przy pomocy
dyskretnej transformaty falkowej (wśród 10-ciu
najlepszych deskryptorów znalazło się aż 7 z nich).
Obserwowane
Teta2
3. Podsumowanie
Rys. 1. Sekwencja kosztów błędnej klasyfikacji
Wielkość
1.
Łącznie
w
wierszu
54
100
85
100
94
Warsztaty Doktoranckie 2012
WIZUALIZACJA PARAMETRÓW ANTEN SYMULOWANYCH
PROGRAMEM NEC-2
Bartosz Chaber1, Jacek Starzyński1
1
Politechnika Warszawska, Wydział Elektryczny
Streszczenie. Artykuł prezentuje informacje dotyczące wizualizacji danych wyjściowych symulacji programem NEC-2. Autorzy opisują własne narzędzia służące
do generowania wizualizacji parametrów modelowanych anten takich jak charakterystyka promieniowania, impedancja falowa anteny, parametr .
Słowa kluczowe: anteny nec2 charakterystyka promieniowania impedancja falowa S11
Visualization of antenna's parameters simulated with NEC-2
Abstract. Article presents information about visualization of data output from NEC-2. Authors describes their own tools used for visualization of antenna's
parameters like radiation pattern, wave impedance, parameter.
Keywords: antennas nec2 radiation pattern wave impedance S11
Najprostszym
przykładem
jest
charakterystyka
promieniowania dipola. Dipol promieniuje mocniej w
kierunku dookoła swojej osi, natomiast prawie w ogóle
wzdłuż niej, dlatego jego charakterystyka ma kształt
torusa.
Wstęp
Zagadnienie wizualizacji parametrów anten jest
bardzo istotne z perspektywy osoby projektującej anteny,
dlatego oprogramowanie służące do ich modelowania
powinno udostępniać dane z symulacji w przejrzystej,
ułatwiającej analizę formie. Jednym z najbardziej
rozpowszechnionych programów do modelowania anten
jest NEC-2, który udostępnia jedynie interfejs tekstowy.
Niniejszy artykuł opisuje prace nad zestawem narzędzi
służącym do
wizualizacji
wyników symulacji
wygenerowanych przez program NEC-2.
1. Program NEC-2
Rys. 1. Charakterystyka promieniowania dipola półfalowego
(Xnecview)
NEC-2 to program napisany w latach 70 w języku
Fortran, którego format plików wejściowych przypomina
format kart perforowanych. W pliku wejściowym
zapisane są komendy sterujące programem, definiujące
geometrię modelu oraz konfigurujące parametry, które
mają zostać zapisane w pliku wynikowym symulacji [2].
Plik wynikowy jest plikiem tekstowym, który zawiera
wszystkie dane potrzebne do wizualizacji obliczonych
parametrów anteny.
Dzięki temu, że plik wynikowy jest czytelny przez
człowieka możliwe jest łatwe wyodrębnienie z niego
danych służących do wyznaczenia charakterystycznych
wartości modelowanej anteny. Otwarte źródło programu
przyczyniło się do powstania wielu aplikacji bazujących
na kodzie NEC-2. Wśród nich znajdują się implementacje
NEC-2 w językach C czy C++. Są to programy działające
w trybie graficznym, rozbudowane o komponenty
wizualizacyjne pozwalające na generowanie wykresów
oraz wyświetlanie trójwymiarowych powierzchni. Mimo
to, prezentowane przez te programy ilustracje
parametrów anteny często nie są wystarczająco
przejrzyste bądź dokładne. Dodatkowo, część z tych
programów generuje wyniki symulacji w locie, nie
pozwalając na ich zapisanie i późniejszą analizę. Te
przesłanki spowodowały podjęcie przez autorów prac nad
narzędziami do wizualizacji wyników programu NEC-2.
Na
rysunku 1
przedstawiono
wizualizację
charakterystyki z programu Xnecview. Rysunek 2
pokazuje natomiast wizualizację wykonaną za pomocą
autorskiego skryptu w języku Python.
Skrypt polega na wyodrębnieniu z pliku wynikowego
NEC-2 charakterystyki promieniowania i zapisania go
jako plik z trójwymiarową siatką powierzchniową (w
formacie Wavefront OBJ) który może zostać potem
zwizualizowany.
Program
NEC-2
zapisuje
charakterystykę promieniowania za pomocą wartości
wzmocnienia względem kątów . Przez wzmocnienie
należy rozumieć stosunek ilości mocy wypromieniowanej
w danym kierunku do mocy wypromieniowanej przez
idealną antenę izotropową.
Rys. 2.Charakterystyka promieniowania
wyodrębniona z pliku wynikowego NEC-2
dipola
półfalowego
Do celów prezentacji wzmocnienie jest dodatkowo
przeliczone za pomocą jednej z czterech formuł
skalujących [3].
W
prezentowanym
skrypcie
wykorzystywany jest styl Linear Power Scaling
definiujący skalowanie wzmocnienia wzorem:
2. Charakterystyka promieniowania
Podstawowym parametrem anteny, który pozwala
szybko ocenić jej przydatność jest charakterystyka
promieniowania. Często przedstawia się ją w postaci
dwóch dwuwymiarowych wykresów w układzie
biegunowym lub w postaci trójwymiarowej bryły, której
kształt informuje w którym kierunku antena promieniuje
najbardziej, a w którym najmniej.
log10
G
10
G scaled  e
gdzie: G – współczynnik wzmocnienia.
95
(1)
Warsztaty Doktoranckie 2012
osiągnie wartość impedancji falowej próżni, czyli 377, co
pozwala traktować pole 3 m od anteny jako pole dalekie.
`Podczas modelowania anteny operator powinien
móc szybko ocenić, w którym kierunku najsilniej
promieniuje zaprojektowana antena. W narzędziu
przedstawionym przez autorów możliwe jest to dzięki
wskazówkom wizualnym, polegających na zmianie
koloru wraz z odległością elementu charakterystyki od
obserwatora, co ułatwia wyobrażenie trójwymiarowej
charakterystyki. Dodatkowo naniesienie na obraz
struktury anteny pomaga odnieść jej charakterystykę
promieniowania do układu modelu.
4. Parametr
Parametr określa miarę dopasowania anteny do
źródła zasilania. Znając informacje o impedancji
wejściowej anteny oraz impedancji źródła zasilania
można go obliczyć stosując wzór 4.
S11 
Z  Z ref
(4)
gdzie: Z – impedancja anteny na zaciskach zasilania, Zref
– impedancja odniesienia źródła zasilania.
3. Natężenie pola elektrycznego i
magnetycznego
Podczas projektowania anten służących do testów
narażeniowych ważnym parametrem świadczącym o
przydatności
anteny
jest
charakter
pola
elektromagnetycznego, które jest generowane w strefie
bliskiej anteny [1]. Program NEC-2 pozwala obliczenie
wartości
bliskiego
pola
elektrycznego
bądź
magnetycznego anteny w pewnej siatce punktów,
zapisując wartości pola w postaci wektora o trzech
składowych zespolonych. Aby móc narysować wykres
impedancji falowej konieczne jest obliczenie długości
wspomnianego wektora za pomocą wzoru:
v  v x v *x  v y v *y  v z v *z
Z  Z ref
Rys. 4.Wykres w funkcji częstotliwości dla dipola półfalowego
Dane o impedancji wejściowej zapisane są w pliku
wynikowym symulacji, natomiast impedancję odniesienia
przyjmuje się zwykle jako 50 . Im niższa wartość
parametru tym lepsze dopasowanie, ponieważ parametr
ten określa jak dużo energii zostało odbite od wejścia
anteny. Z wykresu przedstawionego na rysunku 5 można
łatwo odczytać, że najlepsze dopasowanie antena posiada
około 142MHz.
(2)
gdzie:v* – wektor zespolony, sprzężony z v
Do celów prezentacyjnych został przygotowany
skrypt napisany w języku Python, który konfiguruje
symulację NEC w ten sposób, że oblicza on wartości pola
E i H w punktach leżących na półprostej biegnącej od osi
dipola krótkiego wzdłuż osi Y. Następnie, skrypt oblicza
za pomocą wzoru (2) długość każdego z wektorów pola i
zapisuje je wraz z wartością impedancji falowej pola
elektromagnetycznego, danej wzorem:
E
Z
(3)
H
gdzie: Z – impedancja falowa, E – natężenie pola
elektrycznego, H – natężenie pola magnetycznego.
5. Wnioski
Format pliku wyjściowego NEC-2 bardzo dobrze
nadaje się do analizy służącej wizualizacji parametrów
anten. Autorzy zaprezentowali możliwości wizualizacji
charakterystyki promieniowania anteny, impedancji
falowej oraz parametru wykorzystując do tego zestaw
skryptów w języku Python oraz aplikację do
renderowania obiektów zapisanych w formacie OBJ.
Wygenerowane wykresy oraz obiekty są przejrzyste i
łatwe do interpretacji, przez co stanowią pomoc w
procesie modelowania anten.
Literatura
[1] Starzyński J., Sroka J.: Optymalne projektowanie anteny generującej
pole
elektryczne
do
testów
narażeniowych.
Przegląd
elektrotechniczny 4a/2012, s. 114
[2] Richeson P.: NEC-2 Manual, Part III: User’s Guide, 1996.
[3] http://www.qsl.net/5b4az/pkg/nec2/xnec2c/doc/xnec2c.html#Radiati
onWindow
mgr inż. Bartosz Chaber
e-mail: [email protected]
Asystent w Instytucie Elektrotechniki i
Systemów
Informacyjno-Pomiarowych
Wydziału
Elektrycznego
Politechniki
Warszawskiej. W swojej pracy naukowej
zajmuje się budowaniem narzędzi do
wizualizacji i obliczeń naukowych oraz
modelowaniem anten. Ukończył studia
magisterskie na Politechnice Warszawskiej
w 2011 roku.
dr hab. inż. Jacek Starzyński
e-mail: [email protected]
Rys. 3. Impedancja falowa dipola krótkiego, obliczona w strefie bliskiej
przy częstotliwości 140MHz
Analizując wykres impedancji falowej w funkcji
odległości od anteny operator programu może łatwo
określić zarówno charakter pola w strefie bliskiej anteny
jak i jej zasięg. Przykładowy wykres wygenerowany dla
symulacji dipola krótkiego został zamieszony na
rysunku 4. Jak widać z jego przebiegu około 3 m od
anteny można spodziewać się tego, że impedancja falowa
96
Warsztaty Doktoranckie 2012
ŚRODOWISKO LABVIEW W SYMULACJI WIRTUALNEGO
MOSTKA WHEATSTONE`A
Mikołaj Płaczek1
Politechnika POZNAŃSKA, Wydział ELEKTRYCZNY
1
Streszczenie: W publikacji przedstawiono autorską aplikację symulacyjną utworzoną w środowisku LabVIEW. Aplikacja ma na celu pokazanie wpływu zarówno
właściwego, jak i niewłaściwego doboru parametrów elementów mostka takich jak: wartości rezystorów dekadowych , napięcia zasilania, czułość wskaźnika zera na proces
równoważenia układu. W algorytmie programu zostały zaimplementowane mechanizmy weryfikujące prawidłowy dobór elementów np. obliczanie wartości prądu w
gałęziach mostka oraz sygnalizujące błędy w doborze elementów.
Słowa kluczowe: LabVIEW, Mostek Wheatstrone`a, Symulacja, Wirtualny Przyrząd Pomiarowy
LabVIEW programming environment in virtual Wheatstone Bridge simulation
Abstract: The publication presents a unique application simulation created in LabVIEW, to study the recipient of the principle of operation of the Wheatstone
bridge. The application is to show the importance of proper and improper selection of the elements of the bridge (the decades, the supply voltage, the sensitivity
rate of zero) on the process of balancing the system. Is equipped with mechanisms to communicate the correct selection of components (calculation of the current
in the branches of the bridge) and indicating errors in the choice of items.
Keywords: LabVIEW programming environment, Wheatstone Bridge, Virtual measuring device
się 5% tolerancją przy wykorzystaniu generatora
pseudolosowego zaimplementowanego w aplikacji.
Przed inicjacją procesu badań symulacyjnych, operator
dysponuje zatem informacją o przybliżonej wartości
rezystancji mierzonej Rx, a celem jego badań jest
określenie dokładniejszej wartości wynikającej z
warunku równowagi mostka o znanej zależności:
Wstęp
Symulacja komputerowa rzeczywistych urządzeń
technicznych odgrywa w dzisiejszych znaczącą
rolę.Pozwala na zapoznanie się z działaniem
symulowanego urządzenia, bez obawy uszkodzenia
przyrządu, spowodowanego nieumiejętną obsługą. Ze
względu na takie walory użytkowe jak bogactwo
elementów i prostota tworzenia aplikacji, szczególną
popularność zdobyły sobie środowiska symulacyjne
LabVIEW firmy National Instruments oraz pakiet
Matlab-Simulink. Pakiet LabVIEW umożliwia tworzenie
bardzo rozbudowanych aplikacji służących do akwizycji,
przetwarzania
sygnałów
oraz
symulacji,
przy
wykorzystaniu prostych w użyciu komponentów i
możliwości dołączania bibliotek z innych języków
programowania (głównie biblioteki DLL, ang. Dynamic
Load Library, tworzone w języku C). Środowisko
umożliwia także w szerokim zakresie komunikację z
urządzeniami zewnętrznymi poprzez różnego rodzaju
interfejsy. Dla przykładu można podać interfejsy GPIB,
Bluetooth, czy też RS-232C.
Rx 
R2  R3
R4
(1)
Maksymalna wartość mocy rozpraszanej przez
rezystor stanowiący obiekt pomiaru, a także maksymalne
prądy rezystorów zastosowanych w mostku są zadane
programowo i stanowią ważne parametry, które powinny
być uwzględnione w procesie projektowania układu
mostka. Ten etap pracy projektanta musi być wykonany
przed rozpoczęciem procesu symulacji.
Należy zauważyć, że chociaż układ mostka i jego
właściwości opisane analitycznie są dobrze znane, to
jednak procedury projektowania parametrów układu
mostka są znacznie słabiej dostępne w literaturze i
często ze względu na ich duży stopień złożoności, nie
znajdują szerszego zastosowania.
Dla realizacji pomiaru rezystancji Rx metodą
symulacyjną
przyjęto
następującą
metodologię
projektowania mostka :
a) Przyjmując, że rezystor Rx ma orientacyjnie
znaną wartość, wyznacza się wymaganą
wartość rezystora dekadowego R2, tak aby
wartość błędu rozdzielczości δR2 spełniała
nierówność:
1. Budowa aplikacji oraz przykładowe
symulacje
Na rysunku 1 przedstawiono widok Panelu
Czołowego aplikacji symulującej mostek Wheatstone`a.
Jest to widok bezpośrednio po uruchomieniu aplikacji.
Konfiguracja wirtualnego mostka Wheatstone`a składa
się z tych samych elementów, co rzeczywisty układ, a
więc z czterech rezystorów oraz wskaźnika zera, czyli
galwanometru.
 R 2  0,0001%
b)
c)
Rys.1 Wirtualny Mostek Wheatstone`a – widok panelu czołowego
Symulowany rezystor badany Rx oznaczony jest
cztero-paskowym kodem barwnym, który umożliwia
odczytanie wartości rezystancji. Wartość rezystancji
dobierana jest losowo z szeregu E24, charakteryzującego
Przyjęta wartość rezystancji R2 spełniająca
nierówność
(2),
umożliwia
obliczenie
wymaganego stosunku R3 i R4. Dobór
konkretnych wartości R3 i R4 pozostawia się w
kompetencji użytkownika aplikacji.
Dobór napięcia zasilania przeprowadza się ze
względu na kryterium maksymalnych prądów
obciążenia
elementów
rezystancyjnych
znajdujących w poszczególnych gałęziach
mostka. W obliczeniach projektowych należy
wykorzystać następujące nierówności:
I1  I max Rx oraz
I 2  I max R3 oraz
97
I1  I max R2
I 2  I max R 4
(3)
(4)
Warsztaty Doktoranckie 2012
mostka, operator dokonuje zadaje przyrosty rezystancji
ΔR2 i odczytuje odpowiadające im wskazania Δα
wskaźnika zera przy stałej wartości napięcia zasilania U.
Uzyskana w ten sposób tablica wyników umożliwia
przedstawienie charakterystyki w formie graficznej
ilustrującej zależność czułości
SU mostka od
względnych zmian rezystancji ΔR2/R2
Na rysunku 4 pokazano okno aplikacji ilustrujące
wynik przykładowej symulacji wykorzystanej do badań
czułości napięciowej SU układu mostka.
Po wykonaniu czynności obliczeniowych i
wprowadzeniu
obliczonych parametrów mostka
(wartości rezystorów i napięcia zasilania) do schematu
mostka
wirtualnego, następuje etap weryfikacji
symulacyjnej uzyskanych efektów obliczeń. Badanie
symulacyjne powinno umożliwić doprowadzenie do
stanu równowagi układu mostka oraz określenie wyniku
pomiaru na podstawie zależności (1). Należy podkreślić,
że w algorytmie aplikacji zaimplementowane są
mechanizmy
weryfikujące
poprawność
doboru
parametrów elementów mostka ze względu na wartości
ich prądów dopuszczalnych. W przypadku błędnego
doboru, aplikacja zgłosi komunikat z informacją o
zastosowaniu niewłaściwej parametrów elementów
mostka, jednocześnie blokując dalsze przeprowadzenie
symulacji. Omawiany efekt przeciążenia rezystorów
mostka zaprezentowano wraz z komunikatem na
rysunku 2:
Rys. 3. Okno aplikacji ilustrujące wynik przykładowej symulacji
wykorzystanej do badań czułości napięciowej SU układu mostka
2. Wnioski
Rys.2 Efekt przeciążenia mostka i towarzyszący mu
ostrzegawczy
Zaprojektowana i opracowana aplikacja stanowi
przykład
możliwości
wykorzystania
środowiska
LabVIEW
jako
środowiska
symulacyjnego.
Zaimplementowany model mostka Wheatstone`a pozwala
na realizację badań symulacyjnych, zrozumienie zasady
działania mostka, doboru parametrów oraz wykonania
badań symulacyjnych, mających na celu poznanie jego
właściwości.
komunikat
Literatura
Aplikacja umożliwia wykonanie szeregu innych
badań symulacyjnych właściwości mostka, w tym
zwłaszcza badań mających na celu określenie zależności
czułości SU mostka od względnych zmian rezystancji
ΔR2/R2, zgodnie z zależnością :
SU 

R2
R2
[1] Chwaleba A., Poniński M., Siedlecki A.– Metrologia elektryczna,
wydanie 7, WNT, 2008.
[2] Odon A., Otomański P., Płaczek M., Aplikacja LabVIEW do
symulacji przetwornika cyfrowo - analogowego z siecią rezystorów o
wartościach wagowych, Proceedings of XIV Conference Computer
Applications in Electrical Engineering ZKwE’2009, Poznan, April
20-22, 2009, s. 377-378.
[3] Odon A., Otomański P., Płaczek M., LabView application to
simulation of digital to analog convertert based on binary weighted
resistors ladder, Poznan University of Technology Academic
Journals Electrical Engineering, Issue 61, Computer applications in
electrical engineering, 2010, pp. 139-145.
(5)
U  const.
Po ustawieniu początkowych wartości rezystancji
mostka, odpowiadających stanowi równowagi układu
98
Warsztaty Doktoranckie 2012
STEADY STATE SYMBOLIC COMPUTATION – IMPLEMENTATION
IN C++
Marcin Sowa
Silesian University of Technology, Faculty of Electrical Engineering
Abstract. The paper presents a specialized class for symbolic computation. The implementation of the class is done in C++ language. It supports steady state
problems that express quantities as Fourier series. The mathematical background is presented, which has been carefully put together, in order for the later
constructed code to fit the desired purpose. The implementation scheme of the specialized symbolic class is explained and an explicit figure is presented. The
implementation’s time and memory efficiency is ascertained by comparing calculations with those done by Mathematica.
Keywords: symbolic computation, steady state, C++ implementation
Obliczenia symboliczne w stanach ustalonych – implementacja w C++
Streszczenie. Artykuł przedstawia wyspecjalizowaną klasę do obliczeń symbolicznych. Implementację klasy wykonano w języku C++. Obsługuje ona operacje w
problemach ze stanami ustalonymi, gdzie wielkości wyrażone są poprzez szeregi Fouriera. Przedstawiono podstawę matematyczną, która została wyprowadzona
aby później skonstruowany kod dokładnie spełniał swoją rolę. Schemat implementacji specjalistycznej klasy do obliczeń symbolicznych jest wyjaśniony poprzez
ogólną ideę, którą przedstawiono wyraźnie na załączonym rysunku. Sprawdzono wydajność danej implementacji z perspektywy czasu wykonywania operacji oraz
zajmowanej pamięci przez wyrażenie symboliczne. Dokonano tego poprzez porównanie obliczeń w napisanym przez autora programie (z zaimplementowaną
klasą do specjalistycznych obliczeń symbolicznych) z wykonanymi w oprogramowaniu Mathematica.
Słowa kluczowe: obliczenia symboliczne, stany ustalone, implementacja w C++
expressions represent. First, an assumption is made that
there are separate symbolic expressions determining the
amplitudes and phases of the (1) series. Additionally one
can assume that each harmonic term can have separate
symbolic expressions exhibiting various dependencies
(each given by a separate index j) on the base expressions
(that when added together form the harmonic function):
hmax  M h

x(t )     Ah, j ah, j (c) cos(h0t   h, j  f h, j (α)) , (2)


h  0  j 1

hence there are vectors of base symbolic expressions of
amplitude:
(3)
c  c1 c2 ... cn ,
and phase:
(4)
α  1  2 ...  m .
In the current considerations, it is assumed that during the
calculations, the Fourier series with symbolic expressions
are only either added, subtracted or multiplied. With this
taken into account, (2) can be further determined in order
to take the more specific form:
 
 h0t   h, j    
hmax  M h 

 n p h , j ,i  
 cos m
  , (5)
x(t )      Ah, j   ci


h  0 j 1 
 i 1
    g h, j , k k   
 
 k 1

 
Introduction
Symbolic computation is a useful tool for obtaining
expressions that are subject to further analysis and
ascertainment of relationships between certain parameters
or variables. Among simulation tools for engineers, there
is software available, which deals with symbolic
computation. Among the most popular, one can
distinguish Mathematica [1] and Maple [2]. In the cases
of popular software designed for these purposes, it is
implemented in such a way that a wide variety of
operations is supported including transformations to
various forms. The main advantage of a specialized
symbolic implementation is that it can be useful for the
purposes of memory and time efficiency. A specialized
implementation [3] follows only the required rules of
operations performed on the symbolic expressions, which
decreases their duration. Furthermore, if the mathematical
background is properly constructed and so is the
implementation, the calculations shall always yield a
result in the desired form. This paper shows examples of
a specialized symbolic implementation used for steady
state problems. Furthermore, subject to chosen criteria,
the implementation is compared with a code written by
the author in Mathematica.
The implementation can be applied in most steady
state problems of various engineering branches (that
require mathematical modeling) including nonlinear
problems e.g. an electromagnetic field application was
shown by the author in his previous articles [4, 5].

where p  ℕ0, g  ℤ. The multiplication of Fourier
series components is made according to the simple
relation of multiplying cosines hence every obtained
symbolic expression is still of the form (5). It is
worthwhile to note the fact that for each term with a
specific index j, for a given harmonic h one can assure a
minimal amount of terms given by Mh. This can greatly
favor memory efficiency. It can be achieved by assuring
that for the harmonic h, the product:
1. Mathematical background
The presented scheme of symbolic calculations has
been created so that steady state problems with nonsinusoidal functions can be solved. The implementation
has been planned in such a way so that the variables can
be expressed by Fourier series:
n
ah, j (c)   ci
p h , j ,i
,
(6)
i 1
hmax
x(t )   Bh cos(h0t   h ).

and sum:
(1)
m
f h, j (α)   g h, j , k k ,
h 0
Assuming that s is a vector of base symbolic expressions,
in a general form, one can write Bh = Bh(s) and ξh = ξh(s).
However, in order to specify the description for specific
problems, one must take into account the operations that
will be performed on the given expressions. Furthermore,
one needs to point out what do the base symbolic
(7)
k 1
both do not repeat themselves. Finally, if assuming that c
and  are simply amplitudes and phases of certain
Fourier series, one can assume:
(8)
n  m.
99
Warsztaty Doktoranckie 2012
2. Specialized symbolic class
implementation
The simplest way of implementing the symbolic
structure that consists of type (5) components would be
similar to how an N-dimensional array would be
implemented. For big symbolic expressions, this would
N
however create objects of
 in
elements in an
n 1
i1i2…iN array. This means that it would not leave the
possibility of sparse elements hence a great amount of
wasted memory and prolonged calculation time would be
noticed.
A dynamic array approach would be a step forward;
however, preprocessed information would have to tell the
dimensions of the arrays used for symbolic
representation. This caused the concept to undergo a
scheme of versatile objects linking other objects of the
same type or an object with data finally giving values of
Ah,j and h,j.
On the top level, it is useful to separate the symbolic
expressions along their harmonics. This part does not
relate to the symbolic expressions directly hence a parent
object is used. This means that a harmonic balance
presentation is applied. In this case, it can be assumed
that each harmonic can be presented as a complex
number. Therefore (5) turns into the vector x where its
h-th element is:
Mh
m
 n



xh   Ah, j   ci ph , j ,i  exp  i( h, j   g h, j , k k ) .
k 1


j 1
 i 1

Fig. 1.
Sketch of the idea of symbolic computation objects
The durations used to perform these calculations are
placed in Table 1 while the amount of memory used to
store the symbolic expressions is presented in Table 2.
Because, as mentioned, Mathematica features many
functions that allow for transformations and
simplifications to be made on symbolic expressions, two
variants of the Mathematica script have been used.
(9)
Table 1. Time needed to perform the operations of the chosen symbolic
expressions
Time used for operation (s)
Obtained
program using
Mathematica
Mathematica
expression
the symb class
script (variant 1)
script (variant 2)
r1(t)
0.046
48.531
51.297
r2(t)
1.109
236.797
264.375
Table 2. Memory required to store the given symbolic expression
Memory used (KB)
Obtained
program using
Mathematica
Mathematica
expression
the symb class
script (variant 1)
script (variant 2)
r1(t)
144
64645
36228
r2(t)
2664
100790
24274
Further separation is performed according to the
respective parameters p and g as presented in Figure 1.
Auxiliary variables are used for localization and to
describe the sizes of the dynamic arrays e.g. the b array is
used so that unneeded memory assignment is not made.
3. Test problems
A comparison has been performed in order to check
the implementation’s correctness and efficiency with
reference to a commercial program that features symbolic
computation. The referential program chosen for this
comparison is Mathematica as it is an efficient
environment for the analysis of various mathematical
problems and features a wide variety of operations on
expressions in symbolic form.
The C++ implementation uses a harmonic balance
vector. The author assumes the same form in a
Mathematica code hence the harmonics are given as the
vector’s subsequent complex elements. Therefore, each
harmonic has its own symbolic expression dependent on
c and α.
Two different operations are performed, where the
symbolic expressions r1(t) and r2(t) are obtained:
4. Conclusions
A specialized symbolic computation implementation
has been presented. The implemented class written in
C++ supports calculations in steady state problems. The
implementation is shown in detail and with accordance
with a previously derived mathematical background. The
implementation has been tested and compared with
results obtained by a code written in Mathematica. The
results
prove
that
the specialized
symbolic
implementation can be useful in the meaning of faster
calculations and less memory used to store the symbolic
expressions.
References
[1] Mathematica, Wolfram, http://www.wolfram.com/mathematica/
[2] Maple, Maplesoft, http://www.maplesoft.com/products/maple/
[3] Sowa M., Spałek D.: Implementation of specialized symbolic
r1 (t )   A1c1 cos(0t  1  1 )  A2c2 cos(30t  2   2 ) ,
(10)
9
computation in Visual C++. 35th International Conference of
Electrotechnics and Circuit Theory IC-SPETO 2012. Gliwice-Ustroń
(2012).
[4] Sowa M., Spałek D.: Analytical solution for certain nonlinear
electromagnetic field problems, Computer Applications in Electrical
Engineering Issue 69, (2012).
[5] Sowa M., Spałek D.: Nonlinear boundary condition application:
numerical-symbolic scheme of formulation, 35th International
r2 (t )   A1c1 cos(0t  1  1 )  A2c2 cos(30t   2   2 )  
4
  A3c3 cos(0t  3   3 )  A4c4 cos(30t   4   4 ) 7 .
(11)
100
Warsztaty Doktoranckie 2012
mgr inż. Marcin Sowa
e-mail: [email protected]
Od 1 października 2008 r. jest doktorantem
w Instytucie Elektrotechniki i Informatyki
Wydziału
Elektrycznego
Politechniki
Śląskiej w Gliwicach. Jest autorem lub
współautorem 12 prac opublikowanych
m.in. w Przeglądzie Elektrotechnicznym,
gdzie omawiał na bieżąco wyniki badań
dotyczące
Wybranych
analitycznonumerycznych
metod
rozwiązywania
nieliniowych zagadnień brzegowych w teorii
pola elektromagnetycznego.
Conference of Electrotechnics and Circuit Theory IC-SPETO 2012.
Gliwice-Ustroń (2012).
[6] Sowa M., Spałek D.: Cylindrical structure with superconducting
layer in a uniform electromagnetic field – analytical solution.
Advanced Methods of the Theory of Electrical Engineering 2011,
Klatovy, Czech Republic (2011).
101
Warsztaty Doktoranckie 2012
ON CEREBROSPINAL FLUID SEGMENTATION FROM CT BRAIN
SCANS USING INTERACTIVE GRAPH CUTS
Tomasz Węgliński1, Anna Fabijańska2
1
Lodz University of Technology, The Faculty of Electrical, Electronic, Computer and Control Engineering, 2Lodz University of Technology,
The Faculty of Electrical, Electronic, Computer and Control Engineering
Abstract. Inaccuracy of the manual assessment of brain diseases forces medicine to look for a new solutions. Key factor in the diagnosis of many brain lesions is
an accumulation, volume and pressure of the cerebrospinal fluid (CSF) in ventricles and cavities of the brain. In this paper, the problem of segmentation of the
CSF is regarded. Specifically, the min-cut/max-flow algorithm is regarded and applied to several CT scans. The results reveals that this approach may provide a
basis for further quantitative analysis of brain lesions.
Keywords: graph cuts, segmentation, brain, cerebrospinal fluid, hydrocephalus.
Interaktywna segmentacja płynu mózgowo-rdzeniowego z obrazów tomograficznych mózgu z
wykorzystaniem technik grafowych
Streszczenie. Niedoskonałość manualnych metod diagnostycznych w ocenie zmian chorobowych w obszarze mózgu sprawia, że współczesna medycyna poszukuje
nowych rozwiązań. Jednym z kluczowych wskaźników postępu choroby jest nagromadzenie, objętość i ciśnienie płynu mózgowo-rdzeniowego (PMR). Artykuł
rozważa problem segmentacji PMR z obrazów tomograficznych. Prezentowane podejście bazuje na interaktywnym algorytmie segmentacji opartym na grafach,
którego skuteczność daje podstawy do późniejszej, wiarygodnej analizy ilościowej danego schorzenia.
Słowa kluczowe: graf, segmentacja, mózg, PMR, wodogłowie.
Graph based approaches to image segmentation are
group of methods which divide a set V of nodes into two
disjoint sets A and B representing important regions in
the image. The division is performed by removing edges
connecting to corresponding subgraphs. Generally, it
removes the edges between two sets A and B, thus
creates two separate subgraphs of graph G.
The algorithm regarded in this paper is based on the
min-cut/max-flow segmentation approach proposed by
Boykov and Jolly in [7]. It is one of the interactive graphcut methods, that requires human interaction.
The method considers an image as weighted
undirected graph G=(V,E), where the nodes p∈P
represent pixels , V=P∪{S,T} is a set of nodes and E is a
set of edges. Additionally, there are two special nodes: a
source (object) terminal S and a sink (background)
terminal T. Every pixel has up to four n-links, connecting
neighboring pixels, and two t-links: {p, S} and {p, T}
that connects these pixels with the terminals. Exemplary
graph of a 3x3 image is presented in Figure 1.
Introduction
Medical imaging plays the decisive role in the
diagnosis and clinical course of the patient. In today’s
medicine, the assessment of the brain lesions is always
accompanied with the visual comparison of a number of
images from radiological examinations. However, high
impact of the human factor causes such assessment very
tentative. Furthermore, current measurement methods for
the quantitative analysis of the lesions are too
cumbersome and too-time consuming for everyday
clinical routine. Therefore recently, medicine is looking
for a new solutions [1].
An important factor for the diagnosis of many brain
diseases is the accumulation, volume and pressure of the
cerebrospinal fluid (CSF). CSF is a colorless fluid
flowing inside the ventricles and cavities of the brain.
The appearance or abnormal accumulation of the CSF in
the ventricles and cavities of the brain may indicate
various brain diseases [2].
Complexity and large variations of anatomical
structures of human brain makes a segmentation of the
CSF a challenging task for medical image processing.
Although, there are many approaches to the CSF
segmentation [3-6], there is still no common solution to
this problem.
In this paper, a semi-automatic, interactive
segmentation algorithm based on min-cut/max-flow
approach is proposed. The method was applied to several
representative CT scans of hydrocephalic brains from
several datasets. The obtained results revealed that this
algorithm can be successfully applied to both high and
low contrast CT images and provide a basis for further
quantitative analysis of the hydrocephalus.
Rys. 1.
Przykładowy graf dla obrazu 3x3[7]
Weights assigned to edges define their capacities.
Specifically, weights B{pq} assigned to n-links represents
a boundary term by describing the similarity between
neighbouring pixels. Weights Rp(“obj”) and Rp(“bkg”)
assigned to t-links represent regional term and define the
individual penalties for assigning pixel p to object and
background respectively.
The idea behind the min-cut/max-flow segmentation
is that the maximum flow passing from the source to the
sink is equal to a minimum cost cut on the graph. Min-cut
is then defined by edges which gets saturated when maxflow is sent between source and sink. This cut determines
1. Interactive graph cuts
Graph G=(V,E) is an abstract data representation
consisting of a set V of ventricles (nodes) and a set of E
edges connecting the ventricles. Graph based approaches
in image processing consider an image as a weighted
graph, where pixels are considered as nodes vi∈V and
edges eij∈E represents the links between neighbouring
pixels vi and vj. The weight of an edge describe the
similarities (or disimilarities) between pixels, calculated
with regard to their features, e.g. intensities.
102
Warsztaty Doktoranckie 2012
the border between the object and background in the
image.
Tabela 1. Ilościowe porównanie efektywności segmentacji dla każdego
przypadku
Precision
Recall
Accuracy
F-score
Case 1
0.55
0.91
0.94
0.68
Case 2
0.60
0.93
0.99
0.73
Case 3
0.65
0.93
0.98
0.77
Case 4
0.64
0.85
0.95
0.73
Case 5
0.78
0.92
0.96
0.84
Average
0.64
0.91
0.96
0.75
2. Results and discussion
In this section, the results of applying the mincut/max-flow segmentation to several CT images of
hydrocephalic brains are presented and discussed. The
output binary images after segmentation were visually
and numerically compared to ground truth images built in
Corel Photo-Paint.
Figure 1 presents the segmentation results for several
randomly selected CT images. Specifically, the first
column presents the original scan of hydrocephalic brain.
Second column presents the input image with marked
pixels (seed points) belonging to object (red color) and
background area (blue color). Third column presents the
output binary image.
The obtained results were positively verified by the
specialists from the Department of Neurosurgery of
Polish Mother’s Memorial Hospital – Research Institute
in Lodz. Visual verification of the results confirms that
this approach is promising and can be successfully
applied in quantitative assessment of hydrocephalus and
other brain diseases.
Numerical evaluation of the results shows that the
precision ratio has the lowest value for each case. This
means that the min-cut/max-flow algorithm has a
tendency to over-segmentation. However, high value of
the recall ratio indicates that there is almost no data loss
(under-segmentation). High accuracy means that there
were only few misclassified pixels in relation to the total
number of pixels. Due to this fact, the average value of Fscore ratio at the level of 0.75 is regarded as satisfactory.
Literatura
[1] Zakrzewski K.: Wodogłowie i inne zaburzenia krążenia płynu
mózgowo-rdzeniowego u dzieci. Czelej, Lublin 2007.
[2] Seehusen D.A., Reeves M.M., Fomin D.A.: Cerebrospinal fluid
analysis. Am Fam Physician 68/2003, pp. 1103–1108.
[3] Kobashi S., Takae T., Hata Y., Kitamura Y.T., Yanagida T.,
[4]
[5]
[6]
[7]
Rys. 2.
Ishikawa O., Ishi-kawa M.: Automated segmentation of the
cerebrospinal fluid and the lateral ven-tricles from human brain MR
images, Annual Conference of the North American Fuzzy
Information Processing Society - NAFIPS 4/2001, pp. 1961-1966
Ruttimann U.E., Joyce E.M., Rio D., Eckardt M.J.: Fully automated
segmentation of cerebrospinal fluid in computed tomography,
Psychiatry Research: Neuroimaging 50/1993, pp. 101–119
Luo F., Evans J. W., Linney N.C., Schmidt M.H., Gregson P.H.:
Wavelet-based image registration and segmentation framework for
the quantitative evaluation of hydrocephalus, Journal of Biomedical
Imaging 2010/2010
Liu J., Huang S., Nowinski W.L.: Automatic segmentation of the
human brain ven-tricles from MR images by knowledge-based region
growing and trimming, Neuro-informatics 7/2009, pp. 131-146
Boykov Y., Jolly M.P.: Interactive Graph Cuts for Optimal
Boundary & Region Segmentation of Objects in N-D Images,
Proceedings of International Conference on Computer Vision
1/2001, pp. 105-112
Msc Tomasz Węgliński
e-mail: [email protected]
Tomasz Węgliński is a PhD student at
Computer Engineering Department of Lodz
University of Technology (Poland). He
received his MSc in Computer Science from
Lodz University of Technology in 2010. His
research interests focus on development of
image processing and analysis algorithms for
biomedical vision systems.
Przykładowe wyniki segmentacji metodą min-cut/max-flow
The accuracy of the segmentation for each case was
evaluated by means of selected quality measures.
Specifically, the precision, recall, accuracy and F-score
ratios were calculated. For a perfect segmentation, all of
these measures should be equal to 1.
It was decided that the main indicator of the
segmentation quality is value of F-score ratio. Table 1
presents the numerical comparison of segmentation
quality results for each case separately and the average
values for the considered ratios.
Phd Anna Fabijańska
e-mail: [email protected]
Anna Fabijańska is an Assistant Professor at
Computer Engineering Department of Lodz
University of Technology (Poland). She
received her Ph.D. in Computer Science from
Lodz University of Technology in 2007. Her
research interests focus on development of
image processing and analysis algorithms for
industrial and biomedical vision systems.
103
Warsztaty Doktoranckie 2012
ZASTOSOWANIE JEDNOWIĄZKOWEGO DYNAMICZNEGO
MIESZANIA JONOWEGO DO MODYFIKACJI STYKÓW APARATÓW
ELEKTRYCZNYCH
Mariusz Kiebasz
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki
Streszczenie. W artykule przedstawiono metodę jednowiązkowe dynamicznego mieszania jonowego jako jeden z nowoczesnych sposobów pozwalających na
poprawę parametrów elektrycznych i mechanicznych styków. Artykuł zawiera objaśnienie tej metody oraz opis dwóch stanowisk laboratoryjnych: jednego
służącego do modyfikacji styków aparatów elektrycznych wspomnianą wcześniej metodą oraz drugiego pozwalającego na badanie parametrów elektrycznych
aparatów niskiego napięcia w trakcie ich pracy łączeniowej.
Słowa kluczowe: styki elektryczne, powłoki ochronne, jednowiązkowe dynamiczne mieszanie jonowe.
The application of dynamic ion mixing method to modification electrical apparatus contacts
Abstract. The paper presents one-beam dynamic ion mixing method as one of the modern techniques to improve the electrical and mechanical parameters of the
electric contacts. The article contains an explanation of the method and the description of two test laboratory stand: one is used to modify the electric contacts
and the second allows to research low-voltage circuit breakers during their switching operation.
Keywords: electric contacts, protective coatings, one-beam dynamic ion mixing method.
energia atomów osadzanego pierwiastka, co powoduje
wnikanie ich w głąb modyfikowanego materiału.
Istotnym elementem tej metody jest ścięty stożek
wykonany z blachy materiału nanoszonego, którego
szersza część skierowana jest w stronę źródła jonów, a
węższa obejmuje modyfikowaną próbkę. Padające jony
powodują wybijanie atomów materiału stożka i osadzanie
ich na powierzchni modyfikowanego materiału.
Właściwości fizyko-chemiczne zmodyfikowanej tą
metodą warstwy wierzchniej materiału różnią się od
właściwości, które charakteryzowały ten materiał przed
poddaniem modyfikacji.
Warstwy te w zależności od naniesionego materiału
cechuje:
- wzrost mikrotwardości,
- zmniejszenie rezystancji przejścia,
- wzrost odporności na ścieranie,
- wzrost odporności na warunki środowiskowe.
Oprócz korzyści związanych z wyżej wymienionymi
właściwościami dużą zaletą tej metody są minimalne
straty materiału stożka w trakcie procesu nanoszenia, co
pozwala w tym procesie stosować drogie pierwiastki, jak
np. złoto, pallad, platynę, itp.
Artykuł zawiera również opis dwóch stanowisk
laboratoryjnych. Pierwsze z nich stanowi opracowany i
wykonany w Katedrze Urządzeń Elektrycznych i TWN
układ implantatora bez separatora magnetycznego
pozwalający prowadzić implantację jonami gazów
obojętnych takich jak: azot, argon, krypton, itp.,
pracujący w układzie z uziemioną komorą tarczową.
Układ ten zapewnia bezpośredni dostęp do komory oraz
możliwość obserwacji i kontroli parametrów implantacji
w trakcie jej trwania (np. chłodzenie próbki). Na
stanowisku tym można zrealizować implantację przy
pomocy jonów pochodzących bezpośrednio ze źródła jak
i jednowiązkowe dynamiczne mieszanie jonowe.
Drugie opisywane w artykule stanowisko badawcze jest
stanowiskiem umożliwiającym badanie łączników
niskiego napięcia w trakcie ich pracy łączeniowej.
Pozwala ona na pomiar spadku napięcia na zestyku
łącznika oraz temperatury nieruchomego styku
rozłącznego w czasie trwania cykli łączeniowych. Składa
się ono z kilku oddzielnych bloków, połączonych ze sobą
w odpowiedni sposób, pozwalających na regulację prądu
płynącego przez łącznik oraz regulację czasów załączenia
i wyłączenia łącznika. Umożliwia ono również rejestrację
przebiegów natężenia prądu, spadku napięcia oraz pomiar
Streszczenie artykułu
Problematyka podjęta w artykule ma charakter
interdyscyplinarny i obejmuje zagadnienia z zakresu
urządzeń elektrycznych, inżynierii materiałowej, technik
jonowych,
spektrofotometrii
i mikroanalizy
rentgenowskiej.
Jednym z ważniejszych zastosowań miedzi w
elektrotechnice jest produkcja styków do łączników
elektrycznych powszechnego użytku. Elementy te
zapewniają bowiem odpowiednią komutację, sterowanie i
zasilanie odbiorników, decydując bezpośrednio o ich
trwałości i niezawodności.
Podczas pracy łączeniowej na stykach każdego
aparatu elektrycznego zachodzi wiele niekorzystnych
zjawisk mających bezpośredni wpływ na trwałość
aparatów elektrycznych. Są to między innymi łuk
elektryczny, erozja łukowa, powstawanie warstwy
nalotowej, oddziaływanie środowiska, mechaniczne
ścieranie powierzchni oraz podwyższona temperatura.
Poprawę właściwości elektrycznych i mechanicznych
styków osiąga się poprzez nanoszenie pokryć
galwanicznych, stosowanie nakładek stykowych i
modyfikowanie powierzchni stykowych z zastosowaniem
technik jonowych.
Podstawowym
materiałem
stosowanym
do
wykonywania pokryć galwanicznych styków jest srebro.
Stosowane są również stopy srebra głównie w postaci
naprasowywanych
nakładek
stykowych.
Innym
materiałem do pokryć stykowych jest złoto, ale
w związku z wysokimi kosztami stosowane jest rzadko,
głównie do pokrywania styków w specjalistycznych
zastosowaniach. Pozostałe materiały takie jak nikiel,
molibden, wolfram, platyna, chrom i inne, stosowane są
głównie jako dodatki stopowe do srebra.
W chwili obecnej jedną z najnowszych metod
modyfikacji warstw wierzchnich miedzi stanowiącej
główny materiał do budowy styków jest jednowiązkowe
dynamiczne mieszanie jonowe, podstawy którego
opracowano w Katedrze Urządzeń Elektrycznych i
Techniki Wysokich Napięć Politechniki Lubelskiej.
Metoda ta polega na rozpyleniu w próżni, przy
pomocy wiązki jonów nanoszonego na styk materiału, a
następnie osadzeniu go na jego powierzchni. Zasadniczą
różnicą pomiędzy napylaniem próżniowym, a
wymienioną wyżej metodą jest wielokrotnie większa
104
Warsztaty Doktoranckie 2012
czasu trwania wyładowania łukowego podczas
rozwierania styków, co z kolei pozwala na określenie
średniej energii łuku elektrycznego na zestykach
badanego łącznika. Rejestracja wyników pomiarów
odbywa się w czasie rzeczywistym przy pomocy
komputera.
Celem praktycznym badań jest określenie szybkości i
sposobu degradacji powłok ochronnych naniesionych na
styki w procesie jednowiązkowego dynamicznego
mieszania jonowego w zależności od natężenia prądu
odłączalnego, grubości powłok i ich składu chemicznego.
W celu osiągnięcia postawionych celów przyjęto
następujący zakres pracy:
1) Badanie łącznika ze stykami fabrycznie posrebrzanymi
w celu otrzymania materiału porównawczego.
2) Naniesienie metodą jednowiązkowego dynamicznego
mieszania jonowego na styki łączników warstw ze złota,
chromu, molibdenu, niklu, srebra i wolframu.
3) Wykonanie analizy składu chemicznego warstw
nanoszonych tą metodą.
4) Badanie rezystancji przejścia zmodyfikowanych
styków.
5) Określenie wpływu rodzaju pokrycia na zmiany
średniej energii łuku elektrycznego w trakcie cyklicznej
pracy łączeniowej.
6) Określenie składu chemicznego powłok ochronnych i
powstających na nich warstw nalotowych.
Do analizy składu chemicznego i równomierności
naniesionych warstw wykorzystywane będą metody RBS,
SIMS oraz spektroskopia elektronów Auger’a. Badanie
składu chemicznego warstw wierzchnich styków tymi
metodami pozwoli na określenie koncentracji atomów
domieszki w materiale modyfikowanym zarówno pod
względem ilościowym, jak i rozkładu głębokościowego.
Parametry te wpływają bowiem bezpośrednio na
właściwości fizyczne i chemiczne naniesionych warstw.
Badania składu chemicznego i równomierności
naniesionych warstw będą przeprowadzane bezpośrednio
po naniesieniu warstwy ochronnej na styki łącznika w
procesie jednowiązkowego dynamicznego mieszania
jonowego, następnie zaś powtórnie po tym jak badany
łącznik wykona określoną przez normę liczbę cykli
łączeniowych
Ideą prowadzonych badań jest wybór składu warstw
ochronnych styków łączników powszechnego użytku i
parametrów procesu ich nanoszenia, które pozwolą na
obniżenie rezystancji przejścia, temperatury pracy i
energii łuku oraz podwyższą niezawodność i trwałość
styków.
Osiągnięcie tego zamierzenia pozwoliłoby w
przyszłości na wykorzystanie otrzymanych wyników
badań przez producentów łączników manewrowych, w
celu optymalizacji składu i grubości powłok ochronnych,
dopasowując tym samym ich parametry eksploatacyjne
do potrzeb zamawiających je odbiorców. Pozwoliłoby to
również na jednoczesne obniżenie kosztów produkcji
poprzez zmniejszenie zużycia metali szlachetnych i
energii.
Mgr inż. Mariusz Kiebasz
e-mail: [email protected]
Mariusz Kiebasz ukończył studia na
Wydziale Elektrotechniki i Informatyki
Politechniki Lubelskiej w 2010 roku.
Aktualnie jest doktorantem w Katedrze
Urządzeń Elektrycznych i Techniki
Wysokich
Napięć
w
Politechnice
Lubelskiej.
Tematyka jego badań dotyczy zagadnień
związanych
z poprawą
parametrów
elektrycznych styków modyfikowanych
technikami jonowymi w aspekcie ich
wykorzystania
we
współcześnie
stosowanych aparatach elektrycznych.
105
Warsztaty Doktoranckie 2012
ZASTOSOWANIE METOD POZIOMICOWYCH DO
PRZETWARZANIA OBRAZÓW MEDYCZNYCH
Marcin Maciejewski1 Wojciech Surtel1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, Katedra Elektroniki.
1
Streszczenie. Niniejsza praca obejmuje problem segmentacji obrazu w medycynie na przykladzie metod zbiorów poziomicowych Chan-Vese oraz Normowanej
wzgledem odległości. Zostaly one wybrane w celu porównania ich przydatnosci oraz wydajnosci w okreslonych przypadkach. Jako srodowisko do implementacji
wybrano jezyk MATLAB. Metody zostaly kolejno zaaplikowane do wybranych przypadków testowych obrazów z tomografii komputerowej, a nastepnie dokonano
porównania otrzymanych wyników.
Słowa kluczowe: Metody Poziomicowe, Chan Vese, Przetwarzanie obrazów
Level set methods in medical image processing
Abstract. In this paper two image processing methods for use in medical image processing based on the level set method, the Chan-Vese and the distance
regulated method are described. The theoretical basics are described and the methods are applied to a set of sample CT images using MATLAB algorithms. The
results are then compared.
Keywords: Level set metohds, Chan – Vese method, Distance Regulated method, image processing.
przez twórców funkcją celu. Metoda normalizowana
względem odległości korzysta z funkcjonału ze wzoru 1
Wstęp
Przedstawianie danych w postaci obrazowej zawsze
bylo obiektem szczególnego zainteresowania w
medycynie. Od najdawniejszych czasów stan wiedzy o
ciele ludzkim przedstawiano w formie rysunków, rycin, a
wraz z rozwojem nowoczesniejszych technologii – w
formie
zdjec,
obrazów
rentgenowskich,
ultrasonograficznych az do tomografii pojemnosciowych
i pozytronowych. Uzyskane w wyniku wielorakich badan
obrazy medyczne na co dzien sluza pomoca przy
diagnostyce we wszystkich galeziach medycyny. Z tego
powodu dane obrazowe sa jednymi z najobszerniejszych
zbiorów informacji w naukach biomedycznych.
Jednakze, specyficzny charakter danych obrazowych
przewaznie wymaga duzego nakladu pracy ludzkiej w
celu segmentacji, segregacji czy interpretacji. Z tego
powodu ważne jest budowanie narzędzi mogących
usprawnić pracę w tym zakresie.
1. Metody zbiorów poziomicowych
Rys. 1.
Metoda zbiorów poziomicowych jest ogólnie znana i
wykorzystywana do opisu złożonych kształtów w
przestrzeni kartezjańskiej. Po raz pierwszy została
zaproponowane przez Oshera i Stethiana [2][3]. Jej
zastosowanie umożliwia wykonywanie szybkich obliczeń
poprzez uniknięcie parametryzacji kształtów. Pozwala to
na stosowanie jej do segmentacji obrazów przy opisie
ewolucji konturu.
Zastosowanie metod zbiorów
poziomicowych nie jest ograniczone jedynie do
przetwarzania obrazów[4]. W ogólności, metoda znajduje
zastosowanie w wielu dziedzinach nauki. Zbiór
poziomicowy budowany jest na drodze kolejnych
iteracji[1]. Przy budowie zbioru dążymy do opisania
obszaru Ω z konturem Γ. Szybkość ν poruszania się
konturu w kolejnych krokach zależy od pozycji, kształtu,
czasu i innych czynników. Obliczeń możemy dokonać w
dziedzinie χ po dyskretyzacji. Staramy się zdefiniować
funkcję opisującą poruszający się kontur ϕ(χ,t), gdzie χ
jest pozycją w przestrzeni kartezjańskiej, a t jest czasem.
Ogólny schemat działana algorytmu można przedstawić
w formie schematu blokowego (rys. 1). Zakończenie
następuje w momencie spełnienia pewnej wartości
funkcji celu zależnej od algorytmu. Umożliwia to
dostosowanie metody do wielu aplikacji i modyfikacje.
Prezentowane dwie metody różnią się znacząco wybraną
Ilustracja metody zbiorów poziomicowych
Ε(ϕ)=μ∗R p (ϕ)+λ∗L g (ϕ)+α∗A g (ϕ)
(1)
gdzie E(ϕ) jest energią, Rp(ϕ) jest składnikiem
normalizacyjnym, Lg(ϕ) przyjmuje wartości minimalne w
okolocach konturu obiektu, Ag(ϕ) jest czynnikiem
wprowadzonym w celu przyspieszenia początkowych
kroków segmentacji.
W celu wyznaczenia wartości funkcji celu metoda ChanVese korzyszta ze wzoru 2.
E (ϕ)=μ(∫∣(∇ H (ϕ))∣dx ) +γ∗∫ ∇ H (ϕ)dx
p
Ω
Ω
+λ1∗∫ (∣(I −c 1)∣)2 ∇ H (ϕ)dx +λ 2∗∫(∣( I−c 2)∣)2 ∇ (1− H (ϕ))dx
Ω
(2)
Ω
gdzie:
E(ϕ) jest energią, pierwszy składnik oznacza ważoną
długość konturu, drugi oznaza obszar wewnątrz, trzeci i
czwarty odpowiednio opisują wariancję pikseli wewnątrz
i na zewnątrz konturu.
Podczas segmentacji prędkośc i przyspieszenie
konturu zmienia się zaleznie od jego pozycji. Wykres
tych dwóch wartości prezenruje rysunek 2
106
Warsztaty Doktoranckie 2012
zadowalającej segmentacji pomimo znacznej wartości
stosunku sygnał/szum.
4. Wnioski
Metoda
regulowana
odległością
zwróciła
zadowalające reuzltaty jedynie dla prostych obrazów bez
szumu, jednocześnie wymaga większych nakładów
obliczeniowych. Metoda Chan-Vese była w stanie
zwrócić wynik szybciej i zajmowała mniej zasobów.
Wszystkie maski uzyskane tą metodą były do
zaakceptowania, a ilość iteracji nie przekraczała 300.
Metoda jest niewrażliwa na szum gaussowski oraz szum
typu sól/pieprz. Metoda może być wykorzystywana dla
obrazó medycznych. Posiada potencjał jako metoda do
wstępnego odszumiania i może być wykorzystywana do
wykrywania krawędzi.
Rysunek 2. Prędkośći i przyspieszenie podczas segmentacji. Widoczne 3
obszary 1 do 2 – z dala od konturu, 2 do 3 w okolicy konturu oraz 3 do 4
zbliżanie do warunków końcowych
2. Dane i algorytmy
Jako dane wejściowe wykorzystano obrazy
pochodzące z tomografii komputerowej z Drugiego
Oddziału
Radiologii
w
Lublinie.
Wybrano
reprezentatywną grupę 16 obrazów przedstawiających
przekroje klatki piersiowej oraz dwa obrazy całego ciała.
Obrazy o rozmiarach 600x600 pixeli w formacie JPG
były dostarczone w skali szarości. Na obrazach
znajdowały się markery i opisy, przez co konieczna byla
obróbka wstępna w celu ich usunięcia. indeksy
odpowiednio
mniejsze.
Wykonano
segmentacje
obdwoma metodami dla obrazów orginalnych i sztucznie
zaszumionych. Dla wszystkich przypadków wykonano
oszacowanie czasu uzyskania oraz dokładności wyników.
Obliczenia wykonywane były w środowisku MATLAB.
Literatura
[1] Rymarczyk T., “Zastosowanie metody zbiorow poziomicowych w
tomografii impedancyjnej”, doctor's thesis, Warsaw 2010J.
[2] Maxwell C., A Treatise on Electricity and Magnetism, 3rd ed., vol. 2.
Oxford: Clarendon, 1892, pp.68–73.
[3] Osher S., Fedkiw R.: “Level Set Methods and Dynamic Implicit
Surfaces”. Springer, New York 2003.K. Elissa, “Title of paper if
known,” unpublished.
[4] Sethian J.A.: “Level Set Methods and Fast Marching Methods”.
Cambridge University Press 1999.
[5] Chunming Li, Chenyang Xu, Changfeng Gui, and Martin D. Fox
“Distance Regularized Level Set Evolution and Its Application to
Image Segmentation”
[6] Pham, Dzung L.; Xu, Chenyang; Prince, Jerry L. (2000). "Current
Methods in Medical Image Segmentation". Annual Review of
Biomedical Engineering 2: 315–337
[7] L.S.S.Reddy, Ramaswamy Reddy, CH.Madhu & C. Nagaraju, “A
novel image segmentation technique for detection of breast cancer”
International Journal of Information Technology and Knowledge
Management July-December 2010, Volume 2, No. 2, pp. 201-204
[8] “Tenn Francis Chen Medical Image Segmentation using Level Sets”
Technical Report #CS-2008-12
[9] M. Droskey, B. Meyerz, M. Rumpfy, K. Schallerz, “An adaptive
level set method for medical image segmentation”, Institut f• ur
Angewandte Mathematik, Klinik f• ur Neurochirurgie, Universit• at
Bonn
[10] American Cancer Society. “Cancer Facts & Figures 2010”. Atlanta:
American Cancer Society; 2010.
[11] Dimitrios H.Roukos M.D., and Niki J.Agnantis M.D. “Gastric
Cancer: Diagnosis, Staging, Prognosis”, Gastric Breast Cancer 2002;
1(1): 7-10
[12] Bojarczak P., Lesiak P.: SVM based classification method of
railway’s defects. Pomiary Automatyka Kontrola 12/2007, s. 15-17.
[13] Hagel R., Zakrzewski J.: Miernictwo dynamiczne. WNT, Warszawa
1984.
[14] www.galileosworld.com
3. Wyniki
Metoda segmentacji wykorzystująca obliczenia
wzgledem odległości pozwoliła na uzyskanie dobrzych
wynikłów jedynie dla obrazów o niskiej złożoności. Dla
obrazów zaszumionych i skomplikowanych znacznie
lepsze rezultaty uzyskano wykorzystujące metodę ChanVese. Jednocześnie, ta druga metoda pozwoliła na
znacznie szybsze uzyskanie wyników. Rysunek 3
prezentuje
przykładową
segmentacje
obrazu
zaszumionego za pomocą obydwu metod.
Mgr inż. Marcin Maciejewski
e-mail: [email protected]
Doktorant na wydziale Elektrotechniki i
Informatyki Politechniki Lubelskiej. Zajmuje się
przetwarzaniem
danych
w
medycynie,
urządzeniami do telemedycyny, przetwarzaniem
obrazu i systemami mikroprocesorowymi. Autor i
współautor prac z dziedziny bioinformatyki,
symulacji komputerowej w biochemii oraz
przetwarzania obrazów.
Rysunek 3. Segmentacja obrazu z nałożonym szumem typu “sól/pieprz”.
W górnym rzędzie, orginalny obraz. W środkowym rzędzie, wyniki
otrzymane metodą normowaną względem odległości. W dolnym rzędzie
metoda Chan-Vese dla obrazów wektorowych. Kolumny 1, 2, 3
odpowiadają wartościom SNR kolejno 0.2, 0.5 i 1.0.
Jak widać z powyzszego rysunku, metoda Chan-Vese
dla obrazów wektorowych pozwala na uzyskanie
107
Warsztaty Doktoranckie 2012
TOMOGRAF POJEMNOŚCIOWY DO ZASTOSOWAŃ
PRZEMYSŁOWYCH II
Piotr Zaprawa1
1
Instytut Elektrotechniki, Oddział w Gdańsku
Streszczenie. W artykule przedstawiono wyniki pracy, których celem było opracowanie układu tomografu pojemnościowego dedykowanego do zastosowań
przemysłowych. Został on zbudowany na bazie metalowego przewodu rurowego z podłączonym układem kontrolno-pomiarowym zdolnym do samodzielnej pracy
na obiekcie. Na potrzeby prezentowanego urządzenia zostały zaprojektowane i zbudowane dedykowane układy pomiarowe. W pracy wykazano, że mogą one
posłużyć do opracowania nowego, w pełni funkcjonalnego układu, który może znaleźć zastosowanie w przemyśle.
Słowa kluczowe: DSP, przetwarzanie sygnałów, tomografia
Capacitance tomography application for industrial use
Abstract. In this paper a results of work directed to make industrial version of capacitance tomography application was presented. It was build on a metal
pipeline with control and measurement unit connected in. This CT application was prepared for independent work, without necessity to connect any external
personal computer. For prepared application a dedicated measurement modules was build. This modules can be used for preparing other applications based on
CT.
Keywords: DSP, digital signal processing, tomography
zainstalowany był program odpowiedzialny za
rekonstrukcję obrazu.
Czteroelektrodowy tomograf pojemnościowy był
pierwszym układem, który został zbudowany na
podstawie dedykowanych modułów pomiarowych.
Zostały one zaprojektowane z myślą o stworzeniu
konstrukcji
będącej
podstawą
do
tworzenia
tomograficznych układów pomiarowych o znacznym
stopniu skalowalności. Ich konstrukcja w dużej mierze
była pochodną doświadczeń zebranych z budowy układu
dwuelektrodowego.
Do podstawowych zalet układu należała możliwość
łączenia dowolnej ilości układów ze sobą, duża szybkość
realizacji pomiarów oraz bardzo niski poziom zakłóceń.
Natomiast do wad należy zaliczyć między innymi
znaczny rozmiar pojedynczego układu pomiarowego,
który dedykowany został do montażu na przewodach
rurowych wykonanych z pleksi. Wyniki rekonstrukcji
obrazu [6] zawartości przewodu rurowego otrzymane
przy pomocy tego układu zostały przedstawione na rys. 1.
Wstęp
Znaczny postęp technologiczny w dziedzinie technik
pomiarowych stymuluje stały rozwój scalonych układów
pomiarowych. Na ich podstawie konstruowany jest
szereg laboratoryjnych lub dedykowanych układów
pomiarowych.
Ze względu na swoją uniwersalność, laboratoryjne
układy pomiarowe nie nadają się do zastosowań
przemysłowych. Ich główną wadą jest między innymi
konieczność współpracy z komputerem osobistym, który
współpracuje z oprogramowaniem odpowiedzialnym za
rekonstrukcję obrazu. Jest ona realizowana na podstawie
danych pochodzących z układów pomiarowych
sprzęgniętych z elektrodami osadzonymi na przewodzie
rurowym wykonanym (najczęściej) z tworzyw
sztucznych [1]. Natomiast dedykowane, przemysłowe
układy pomiarowe są drogie i przeznaczone tylko do
wybranych zastosowań.
Aby możliwe było sprawne opracowanie nowego
układu pomiarowego bazującego na tomograficznych
technikach pomiarowych, który mógłby znaleźć
zastosowanie w przemyśle, należało przygotować
elastyczne
zaplecze
sprzętowo-programowe.
W
odpowiedzi na te wymogi opracowano nowy typ układu
pomiarowego, na bazie której możliwe jest wykonanie
docelowego układu przeznaczonego dla przemysłu. W
niniejszej pracy przedstawiono wyniki pracy na
przykładzie
aplikacji
do
badania
przepływów
dwufazowych przeznaczonego do montażu na
metalowym przewodzie rurowym.
Rys. 1. Przykładowe wyniki rekonstrukcji obrazu w tomografie
pojemnościowym osadzonym na przewodzie rurowym wykonanym z pleksi
W następnych latach zbudowany został pierwszy
układ tomografu pojemnościowego, którego konstrukcja
została oparta na metalowym przewodzie rurowym.
Został on wykonany w oparciu o moduły pomiarowe
zaprojektowane
do
wcześniejszych
konstrukcji
wykonanych z pleksi. Dopiero ta wersja układu była na
tyle zaawansowana, że możliwe stało się uniezależnienie
jej od komputera osobistego (rys. 2).
W opracowaniu przedstawionym na rys. 2 po raz
pierwszy zastosowano rozwiązanie prezentacji wyników
rekonstrukcji obrazu w postaci matrycy diód LED.
Dodatkowo zapewniono możliwość współpracy i
komunikacji z zewnętrznymi (zdalnymi i mobilnymi)
urządzeniami i układami za pośrednictwem przewodowej
i bezprzewodowej sieci ETHERNET.
1. Modele i prototypy
Od 2005 roku w Instytucie Elektrotechniki w
Gdańsku prowadzone są badania zmierzające do
opracowania
przemysłowej
wersji
tomografu
pojemnościowego. W minionym okresie opracowany
został model układu dwuelektrodowego a następnie
układu
czteroelektrodowego
przeznaczonego
do
pomiarów przepływów dwufazowych. Każdy z nich był
w pełni działającym układem [2,3,4,5], przewidzianym
do pracy na przewodzie rurowym wykonanym z pleksi.
Współpracowały one z komputerem osobistym na którym
108
Warsztaty Doktoranckie 2012
umożliwia dodatkową konfigurację oraz podgląd bardziej
zaawansowanych funkcji z rekonstrukcją obrazu
włącznie.
Wewnątrz układu, na mikroprocesorowym module z
procesorem ARM-9, zainstalowany został system Linux
typu embedded. Współpracuje on z modułami
pomiarowymi i udostępnia szereg zaawansowanych
funkcji, do których zaliczyć można aktualizację
oprogramowania w procesorach sygnałowych bez
konieczności ingerencji w układ.
Rys. 2. Pierwsza wersja tomografu pojemnościowego zainstalowanego na
metalowym przewodzie rurowym
3. Wnioski
Przedstawiony
w
pracy
układ
tomografu
pojemnościowego, który został opracowany na podstawie
dedykowanych
modułów
pomiarowych,
stanowi
potwierdzenie możliwości realizacji tego typu urządzeń
na podstawie przyjętej koncepcji. Podczas realizacji
eksperymentów z wykorzystaniem opracowanych
modułów pomiarowych potwierdzono możliwość
wykorzystania tych układów także w innych
rozwiązaniach. Istnieje realna szansa na wykorzystanie
opracowanego układu w elektrociepłowniach, miejskich
instalacjach ciepłowniczych oraz wodociągowych.
Obecnie trwają próby eksperymentalne mające
potwierdzić możliwość wykorzystania opracowanego
rozwiązania także w lotnictwie cywilnym. W najbliższym
czasie przedstawione zostaną opracowane wyniki
eksperymentów jakie zostały przeprowadzone przy
pomocy zbudowanych układów na bazie metalowego
przewodu rurowego.
2. Układ docelowy
Na podstawie układów zbudowanych w okresie
wcześniejszym oraz szeregu zebranych doświadczeń,
zaprojektowano oraz wykonano docelową wersję układu
tomografu
pojemnościowego
do
zastosowań
przemysłowych [7,8,9,10]. W nowym układzie
wykorzystano nową wersję modułu pomiarowego, która
została w znaczny sposób przeprojektowana. Dzięki temu
zabiegowi sama tylko wielkość obwodu drukowanego
zmniejszyła się o około 50%. Usunięto także
nieprzydatne interfejsy komunikacyjne, w miejsce
których wprowadzono nowe, bardziej przydatne
rozwiązania. W znaczący sposób przeprojektowano także
zasilanie układu oraz zmodyfikowano analogowy tor
pomiarowy. W wyniku podjętych starań opracowany
został układ przedstawiony na rys. 3.
Literatura
[1] Brzeski P., Mirkowski J., Olszewski T., Pląsowski A., Smolik W.,
Szabatin R., Multichannel capacitance tomograph for dynamic
process imaging. Opto-Electronics Review, 11(3), 175-180, 2003
[2] Zaprawa P.: Tomograf pojemnościowy do pomiaru medium w
rurociągach. Nowa Elektrotechnika 1/2006, s. 15-17.
[3] Zaprawa P.: Tomograf pojemnościowy do zastosowań
przemysłowych. Prace Instytutu Elektrotechniki, zeszyt 236, 2008
[4] Zaprawa P.: Nowa konstrukcja tomografu pojemnościowego do
kontroli przepływów dwufazowych. VII Ogólnopolska Konferencja
Naukowo-Techniczna PES-7 „Postępy w Elektrotechnice
Stosowanej”, Kościelisko 2009.
[5] Zaprawa P.: Nowa konstrukcja tomografu pojemnościowego do
zastosowań przemysłowych. Miesięcznik Elektronika nr 2/2010
[6] Isaksen Ø., A review of reconstruction techniques for capacitance
tomography. Meas. Sci. Technol., 1996
[7] Yang W. Q., Scott A. L., Beck M. S., High frequency and high
resolution capacitance measuring circuit for process tomography.
IEE, 1994
[8] Yang W. Q., York T. A., Capacitance tomography sensor without
CMOS switches. ELECTRONICS LETTERS vol. 33 no. 14, 1997
[9] W. Q. Yang, T. A. York, New AC-based capacitance tomography
system. IEE, 1999
[10] Hahnel H., Yang W. Q., York T. A., An AC-base capacitance
measuring circuit for tomography systems and its silicon chip design.
IEE, 1995
Rys. 3. Nowa wersja modułu pomiarowego przeznaczona do montażu na
metalowym przewodzie rurowym
W skład nowej wersji układu tomografu
pojemnościowego (rys. 4) wchodzi szereg modułów
pomiarowych (których rzeczywista ilość zależy od
konfiguracji) oraz dwa mikroprocesorowe moduły z
procesorami o architekturze odpowiednio ARM-9 oraz
ARM-7. W przygotowanym rozwiązaniu układ zasilany
jest z akumulatora i jest całkowicie niezależny.
Rys. 4. Docelowa wersja tomografu pojemnościowego przeznaczona do
montażu na metalowym przewodzie rurowym
mgr inż. Piotr Zaprawa
e-mail: [email protected]
ur. w 1975 r. ukończył Wydział
Elektrotechniki
i
Automatyki
Politechniki Gdańskiej o specjalności
Napęd Elektryczny i Energoelektronika.
Od 1999 roku pracuje w Oddziale
Instytutu Elektrotechniki w Gdańsku na
stanowisku asystenta w Pracowni
Napędów i Sterowania. Tomografią
zajmuje się od 2005 roku. Jego prace
zostały nagrodzone m. in. brązowym
medalem na wystawie w Genewie.
Ze względu na swoje przemysłowe przeznaczenie, układ
został zamknięty w metalowej obudowie. Umieszczona
na obudowie matryca LED pozwala na skuteczną pracę
układu w szerokim zakresie temperatur a jednocześnie
jest odporna na działanie czynników zewnętrznych.
Dostęp do zaawansowanych funkcji układu został
zapewniony dzięki przewodowej lub bezprzewodowej
możliwości podłączenia urządzeń zewnętrznych za
pośrednictwem sieci ETHERNET. Dedykowany,
graficzny program komputerowy po połączeniu z
oprogramowaniem
tomografu
pojemnościowego,
109
Warsztaty Doktoranckie 2012
WPŁYW TEMPERATURY POŻARU NA WARTOŚĆ NAPIĘCIA
ZASILAJĄCEGO URZĄDZENIA ELEKTRYCZNE ORAZ
SKUTECZNOŚĆ OCHRONY PRZECIWPORAŻENIOWEJ URZĄDZEŃ,
KTÓRE MUSZĄ FUNKCJONOWAĆ W CZASIE POŻARU
Julian Wiatr
Instytut Elektrotechniki w Warszawie
Streszczenie. Bezpieczeństwo pożarowe jest jednym z najważniejszych wymagań stawianych współczesnym budynkom. Wiąże się z nim szereg wymagań
technicznych, które należy spełnić na etapie projektowania. Ponieważ najważniejszym elementem działań ratowniczych jest ewakuacja ludzi z budynku objętego
pożarem, stawia się określone wymagania dla konstrukcji budynku oraz instalowanych w nim urządzeń elektrycznych i instalacji zasilającej te urządzenia.
Wśród instalacji elektrycznych stanowiących wyposażenie budynku wstępują obwody zasilające urządzenia elektryczne, które muszą funkcjonować w czasie
pożaru. Przewody tych instalacji narażone są na działanie wysokiej temperatury, przez co muszą one zapewnić ciągłość dostaw energii elektrycznej przez czas
niezbędny dla funkcjonowania zasilanych urządzeń. Towarzysząca pożarowi temperatura powoduje zmniejszenie przewodności elektrycznej przewodów, co
skutkuje pogorszeniem jakości dostarczanej energii elektrycznej objawiającej się nadmiernym spadkiem napięcia oraz pogorszeniem warunków ochrony
przeciwporażeniowej tych urządzeń.
FIRE TEMPERATURE EFFECT ON VALUE OF INPUT VOLTAGE POWERING
ELECTRICAL EQUIPMENT AND THE EFFECTIVENESS OF SAFETY PROTECTION OF
EQUIPMENT REQUIRED
Electrotechnical Institute in Warsaw
Summary. Fire safety is one of the most important requirements for modern buildings. It is associated with a number of technical requirements to be met at the
design stage. Because the most important part of rescue operations is to evacuate people from the building under the fire, the specific requirements emerges for
the construction of the building and for the design of the electrical devices and their power supply installations. Among the electrical equipments installed in the
building there are circuits supplying the electrical devices, which must function at the time of the fire. Cables of these installations are exposed to high
temperature, but must ensure the continuity of the power supply by the time necessary for the operation of the supplied equipment. The accompanying fire
temperature decreases the electrical conductivity of the cables, resulting in the deterioration of the quality of supplied electrical energy represented by the
excessive voltage drop and in the deterioration of protection f these devices
Tabela 2: Względna liczba pożarów spowodowanych wadami
instalacji elektrycznych lub wadami urządzeń grzejnych, nieprawidłową
eksploatacją instalacji lub urządzeń grzejnych oraz elektryczność
statyczną na tle ogólnej liczby pożarów w latach 2000 – 2010 [23]
1. Statystyki pożarów
Statystyki pożarów powstających w Polsce,
prowadzone przez Komendę Główną Państwowej Straży
Pożarnej, wykazują że liczba pożarów jest bardzo
wysoka. Przyczynami pożarów jest zła wentylacja,
nieostrożność użytkowników, zaniedbania w zakresie
bezpieczeństwa eksploatacji urządzeń technicznych itp.
Duża liczba pożarów powstających na terenie Polski jest
spowodowana
niesprawnymi
urządzeniami
elektrycznymi lub niesprawną instalacją elektryczną.
Jedną z przyczyn tych pożarów jest niepoprawnie
zaprojektowana lub niepoprawnie wykonana instalacja
elektryczna w budynkach.
W tabeli 1 zostały przedstawione dane statystyczne
pożarów jakie wstąpiły w Polsce w latach 2000-2010,
których przyczyną były urządzenia lub instalacje
elektryczne.
W tabeli 3 zostały przedstawione dane statystyczne
względnego udziału pożarów spowodowanych przez
instalacje elektryczne lub przez przyłączane do nich
urządzania elektryczne.
Tabela 3: Względna liczba pożarów spowodowanych wadami instalacji
elektrycznych lub wadami urządzeń grzejnych, nieprawidłową
eksploatacją instalacji lub urządzeń grzejnych oraz elektryczność
statyczną na tle ogólnej liczby pożarów budynków w latach 2000 – 2010
[23]
Tabela 1: Pożary spowodowane wadami instalacji elektrycznych lub
wadami urządzeń grzejnych, nieprawidłową eksploatacją instalacji lub
urządzeń grzejnych oraz elektryczność statyczną w latach 2000 – 2010
[23]
Przestawiona w tabeli 2 statystyka może
wprowadzać w błąd gdyż wykazuje ona względną liczbę
pożarów spowodowanych przez instalację lub urządzenia
elektryczne lub elektryczność statyczną na tle wszystkich
pożarów. Statystyka ta uwzględnia wszystkie pożary, w
tym lasów, upraw rolnych, pojazdów samochodowych
itp. Nie wszędzie jednak występują instalacje
W tabeli 2 zostały przedstawione dane obrazujące
względy udział pożarów spowodowanych przez instalacje
elektryczne lub przyłączane do nich urządzenia
elektryczne w latach 2000 – 2010.
110
Warsztaty Doktoranckie 2012
elektryczne, przez co odniesienie względnego udziału
instalacji lub przyłączanych do niej urządzeń do
globalnej liczby wszystkich pożarów jest podejściem
niewłaściwym.
Bardziej wiarygodna jest statystyka przedstawiona w
tabeli 3, gdzie z ogólnej liczby pożarów wyłączono
pożary lasów, upraw rolnych, pożary pojazdów oraz inne
pożary nie związane z budynkami. Uzyskany wskaźnik
wykazuje, że instalacje elektryczne lub przyłączone do
nich urządzenia elektryczne mają znaczny udział w
ogólnej liczbie pożarów powstających w budynkach.
Pożar w pomieszczeniu obejmuje ogół zjawisk
związanych z tworzeniem się i rozprzestrzenianiem
strefy spalania czyli płomieni, powstawaniem gazowych
produktów rozkładu termicznego – dymu, oraz wymianą
ciepła i masy w pomieszczeniu i w jego bezpośrednim
sąsiedztwie.
Wieloletnie badania pożarów w pełnej skali oraz
obserwacje pożarów rzeczywistych w budynkach
pozwoliły na uogólnienie ich opisu poprzez podanie
zależności
zmian
średniej
temperatury gazów
spalinowych w czasie, wyróżniając trzy główne fazy
przebiegu tego zjawiska, które przedstawia rysunek 2.
2. Opis środowiska pożarowego
2.1.
Fazy rozwoju pożaru
Na rysunku 2, zilustrowane zostały fazy pożaru w
odniesieniu do przebiegu temperatury pożaru w
pomieszczeniu w funkcji czasu. Poszczególne fazy
można opisać w następujący sposób:
Faza I – zwana inaczej wzrostem lub rozwojem pożaru
albo też fazą przed rozgorzeniem. Charakteryzuje się
stosunkowo niską średnią temperaturą , a szybkość
rozkładu termicznego i spalania zależy od eksponowanej
na źródło ciepła powierzchni materiałów palnych.
Powstające podczas tego stadium strumienie ciepła nie
przekraczają zazwyczaj 50 kW/m2. Pożar jest
„kontrolowany przez paliwo” .
Faza II – pożar w pełni rozwinięty zwany również fazą
po rozgorzeniu, podczas której temperatura osiąga swą
maksymalna wartość (800-1000 0 C) a wszystkie
materiały palne ulegają spalaniu. W trakcie trwania tej
fazy płomienie wypełniają całe pomieszczenie, pożar
staje się „kontrolowany przez wentylację”, tzn., że jego
dynamika zależy w głównej mierze od dostępu powietrza.
Faza III – jest to okres wygasania (stygnięcia).
Przejście pożaru w III fazę najczęściej następuje po
wyczerpaniu się materiału palnego i co się z tym wiąże
zmniejszeniem temperatury i pozostałych parametrów
pożaru. Przyjmuje się, iż początek tego stadium określa
spadek temperatury do 80% wartości maksymalnej.
Do zainicjowania pożaru konieczne są trzy czynniki:
materiał palny, utleniacz oraz źródło ciepła o dostatecznie
dużej energii. Materiały palne są to substancje, które
ogrzane ciepłem dostarczonym z zewnątrz lub powstałym
w wyniku reakcji chemicznej lub biologicznej zaczynają
wydzielać gazy w ilości wystarczającej do ich trwałego
zapalenia się. Tlen z kolei jest jednym z
najaktywniejszych pierwiastków chemicznych, który
wchodzi w reakcję z wieloma pierwiastkami i związkami
chemicznymi. Jeżeli proces ten odbywa się gwałtownie,
wówczas towarzyszą mu efekty świetlne oraz wysoka
temperatura. Zjawisko to nazywamy spalaniem.
Rozróżniamy dwa rodzaje palenia się: palenie się z
powstaniem płomieni i tlenie/żarzenie się (bez płomieni).
Na rysunku 1 przedstawiono tzw. trójkąt pożarowy
obrazujący warunki niezbędne do powstania pożaru.
Rys. 1. Warunki niezbędne do powstania pożaru, tzw. trójkąt pożarowy
W opisie pożarów należy wyróżnić dwa podstawowe
określenia:
 Spalanie – proces fizykochemiczny, w którym
w wyniku zachodzącej z dostatecznie dużą
szybkością reakcji chemicznej między paliwem a
utleniaczem, którym najczęściej jest tlen (reakcji
utleniania), wydziela się duża ilość energii; spalanie
zapoczątkowuje
zapłon,
samozapłon
lub
samozapalenie. Spalanie materiału palnego może
odbywać się również bezpłomieniowo. W takim
przypadku występuje tlenie się materiału oraz
żarzenie. Tlenie się lub żarzenie materiału jest
wynikiem niedostatecznej ilości utleniacza
niezbędnego do powstania procesu spalania
materiału palnego.
 Pożar - niekontrolowany w czasie i przestrzeni
proces spalania materiałów zachodzący poza
miejscem do tego celu przeznaczonym.
 Środowisko pożaru - przestrzeń budynku ze strefą
spalania oraz bezpośrednie sąsiedztwo.
Rozwój pożaru w budynku jest uzależniony w
szczególności od źródła inicjacji pożaru, składu i
ilości materiałów, powierzchni, orientacji i geometrii
pomieszczenia oraz lokalizacji i wielkości otworów
wentylacyjnych.
Rys. 2: Krzywa rozwoju pożaru w pomieszczeniu – średnia temperatura
pożaru w funkcji czasu.
2.2.
Rozgorzenie
Oprócz opisanych faz pożaru, na rysunku 2
widoczne jest zdarzenie nazwane rozgorzeniem (ang.
flashover). Jest to moment przejścia pożaru ze spalania
powierzchniowego do spalania w całej objętości
materiałów palnych w pomieszczeniu. Czas trwania
rozgorzenia jest stosunkowo krótki w porównaniu z
czasem trwania poszczególnych faz pożaru, dlatego też
jest ono uznawane za „zdarzenie”, a nie odrębną fazę.
W praktyce rozgorzenie polega na spalaniu się
produktów rozkładu termicznego i spalania (dymu). W
czasie pożaru w zależności od geometrii przegród
budowlanych oraz sposobu wentylacji mogą wystąpić
następujące typy rozgorzenia:
111
Warsztaty Doktoranckie 2012
powracające
(pomieszczenie
jest
mocno
zadymione, gazy opadają na podłogę, ogień
przygasa, do wybuchu brakuje tlenu, otwarcie
drzwi lub okna powoduje wydostawanie się dymu
na zewnątrz oraz gwałtowny napływ powietrza do
pomieszczenia objętego pożarem; wydostające się
na zewnątrz gazy posiadające wysoką temperaturę
wskutek mieszania się z powietrzem ulegają
zapłonowi; ogień spalającej się na zewnątrz
mieszanki wraca do pomieszczenia wciągany
strumieniem napływającego świeżego powietrza),
- opóźnione (występuje w pomieszczeniu, w którym
gazy pożarowe wypełniają całe pomieszczenie
mocno zubożone w tlen gdzie spalanie
płomieniowe ustało (występuje tlenie się
materiałów palnych na podłodze); gwałtowny
dopływ powietrza z zewnątrz wskutek otwarcia
drzwi lub okna powoduje szybkie wzbogacenie
gorących gazów pożarowych w tlen co skutkuje ich
wybuchem; mieszanie gazów pożarowych z
powietrzem może trwać nawet kilka minut przez co
ten rodzaj rozgorzenia nazywany jest opóźnionym),
- ubogiej mieszanki (do pomieszczenia objętego
pożarem zapewniony jest dostateczny dopływ
powietrza; z biegiem czasu stężenie gazów
palnych przekracza dolną granicę wybuchowości
co skutkuje wybuchem mieszaniny gazów palnych
z powietrzem- jest to lekki rodzaj rozgorzenia,
który stanowi wstęp do rozgorzenia pełnego)
- przemieszczające się (gazy pożarowe uchodzące
np. w warstwie nad sufitem podwieszanym
dostają się do innego pomieszczenia bogatego w
tlen gdzie występuje czynnik energetyczny
umożliwiający
zapłon
gazów;
wskutek
podciśnienia
powstającego
w
płonącym
pomieszczeniu ogień po zapłonie gazów palnych
wraca do pomieszczenia objętego pożarem tą
samą drogą co uchodzące z niego gazy do
sąsiedniego pomieszczenia)
- wstecznego ciągu płomieni (występuje w
pomieszczeniu o ubogim stężeniu tlenu, gdzie
powstaje spalanie bezpłomieniowe zwane również
tleniem; brak tlenu powoduje zanik palenia,
obniżenie
temperatury
oraz
powstanie
podciśnienia; gwałtowny napływ powietrza
wskutek otwarcia drzwi lub okna powoduje
szybką reakcję tlących się materiałów palnych,
które przechodzą do spalania płomieniowego i
wybuch mieszaniny gazów palnych z powietrzem)
- bogate (gwałtowne zmieszanie się dymu ubogiego
w tlen z napływającym świeżym powietrzem
powstaje w pomieszczeniach gdzie występują tzw.
pożary pełzające; po pojawieniu się ognia wskutek
braku dopływu powietrza przyrastająca objętość
gazów pożarowych wytwarza nadciśnienie;
otwarcie okna lub drzwi powoduje gwałtowny
napływ powierza i wybuch mieszaniny gazów
palnych z powietrzem).
Obraz rozwoju pożaru w pomieszczeniu spowodowany
źródłem o niewielkiej mocy, rzędu 5W (niedopałek
papierosa rzucony na fotel) przedstawia rysunek 3. Na
rysunku tym
symbolicznie oznaczono wzrost
wydzielanego ciepła podczas spalania w I i II fazie
rozwoju pożaru.
Z chwilą zaistnienia zjawiska rozgorzenia
temperatura pożaru osiąga wartość rzędu (800 – 1000)°
C, a pożar przechodzi w stan quasi-stacjonarny, który
charakteryzuje się stosunkowo małymi zmianami jego
parametrów w czasie. W tym czasie następuje częściowe
oddawanie ciepła do otoczenia poza pomieszczenie
objęte pożarem. Stan ten sygnalizują płomienie
wydostające się przez drzwi oraz okna. W tej fazie
dynamika rozwoju pożaru zależy od dopływu tlenu, którą
warunkują w głównej mierze przekroje otworów
wentylacyjnych.
-
Rys.3: Ogólny obraz I i II fazy pożaru w pomieszczeni [13]
3. Krzywe symulujące przebieg pożaru
Prowadzone na szeroka skalę badania zjawisk
pożarowych oraz rozwoju pożaru pozwoliły na
opracowanie uogólnionych krzywych pożarowych
temperatura – czas, przedstawiających spodziewany
przyrost temperatury funkcji czasu tj. T = f(t):
krzywa normowa
krzywa węglowodorowa
krzywa zewnętrzna
krzywe parametryczne
krzywe tunelowe.
Krzywe te zostały przedstawione w normie EN
1363-2:1999 Fire resistance test. Part 2. Alternative
and additional procedures, której wymagania stanowią
podstawę prowadzenia badań ogniowych.
Spośród wyszczególnionych krzywych pożarowych
temperatura – czas najbardziej szczególne miejsce
zajmuje krzywa normowa, zwana również krzywa
celulozową, która opisuje uogólniony przebieg pożaru w
budynkach oraz krzywe tunelowe opisujące uogólniony
przebieg pożarów tunelach komunikacyjnych.
3.1.
Krzywa normowa (celulozowa)
Krzywa ta obrazuje pożary celulozowe, które
występują w budynkach. Jest ona powszechnie stosowana
w badaniach ogniowych budynków.
Krzywą tą opisuje następujące równanie:
T  345 lg( 8t  1)  20
gdzie: T – temperatura [ 0 C ] , t – czas [min],
natomiast jej przebieg przedstawia rysunek 4.
112
(1)
Warsztaty Doktoranckie 2012
gdzie:
Q
– gęstość obciążenia ogniowego [MJ/m2], n –
liczba materiałów palnych zgromadzonych w budynku,
pomieszczeniu lub strefie pożarowej, F – powierzchnia
rzutu poziomego budynku, pomieszczenia lub strefy
pożarowej [m2],
Gi
– masa poszczególnych materiałów
palnych zgromadzonych w budynku, pomieszczeniu lub
strefie
pożarowej
[kg],
Qci –
ciepło
spalania
poszczególnych materiałów palnych zgromadzonych w
budynku, pomieszczeniu lub strefie pożarowej [MJ/kg].
Krzywe te wykreślane są na podstawie obliczeń
prowadzonych
w
odniesieniu
do
określonego
pomieszczenia i w praktyce nie znajdują zastosowania.
Mają one charakter teoretyczny, choć stanowią
uszczegółowiony przebieg krzywej normowej, dokładnie
odzwierciedlając spodziewany przebieg pożaru.
Przykładowe przebiegi krzywych parametrycznych
przedstawione na rysunku 6 dowodzą słuszność
przyjęcia krzywej celulozowej przy prowadzeniu badań
ogniowych ze względu na to, że opisuje ona warunki
ekstremalne.
Opis matematyczny krzywych parametrycznych jest
stosunkowo prosty lecz prowadzi do bardzo
pracochłonnych obliczeń, przez co został pominięty.
Rys. 4:Krzywa narastania temperatury obrazująca pożary celulozowe[10]
3.2.
Krzywa tunelowa
Szczególną grupę pożarów stanowią pożary w
tunelach komunikacyjnych, które jako budowle odróżnia:
długość, która jest niewspółmiernie wielka w
porównaniu z pozostałymi wymiarami tunelu,
wentylacja pożarowa zależna od długości
tunelu,
znikome odprowadzanie ciepła na zewnątrz.
Wskutek znikomego odprowadzania ciepła na zewnątrz
temperatury pożarowe osiągają najwyższe wartości ze
wszystkich pożarów w obiektach budowlanych.
Pożary te są symulowane przez krzywe tunelowe:
niemiecką RABT
holenderską Rijkswaterstaat.
Przebiegi obydwu krzywych przedstawia rysunek 5 .
Rys. 5: Krzywe tunelowe „temperatura – czas” [17]
1-niemiecka RABT; 2- holenderska Rijkswaterstaat.
Cechą charakterystyczną pożarów w tunelach
komunikacyjnych
jest występowanie zjawiska
kominowego, które powoduje że temperatura pożaru
uzyskuje wciągu 5 minut wartość około 12000C.
Rys. 6: Przykładowe krzywe parametryczne, których przebieg jest
uzależniony od gęstości obciążenia ogniowego „Q” oraz wskaźnika
3.3.
Krzywe parametryczne
Dość ciekawą grupę stanowią krzywe pożarowe
„temperatura-czas” zwane krzywymi parametrycznymi,
których przebieg jest uzależniony do wskaźnika otworów
oraz od gęstości obciążenia ogniowego Q, która jest
jednym z podstawowych parametrów określających
zagrożenie pożarowe.
Określa ona średnią spodziewaną ilość ciepła w [MJ]
wydzielanego podczas spalania materiałów palnych
zgromadzonych w pomieszczeniu, strefie pożarowej lub
składowisku materiałów stałych w odniesieniu do 1 m2
powierzchni i wyraża się w [MJ/m2].
Gęstość obciążenia ogniowego oblicza się zgodnie z
wymaganiami normy PN-B-02852:2001 Ochrona
pożarowa budynków. Obliczanie gęstości obciążenia
ogniowego oraz wyznaczanie względnego czasu trwania
pożaru [15], z wykorzystaniem następującego wzoru:
n
Q 
 (Q
i 1
ci
 Gi )
otworów „O” [17]:
O  A  h / At , h   Ai  hi
A
i
gdzie: O – wskaźnik otworów (górny rysunek 0 = 0,06 m1/2; dolny rysunek
0 = 0,08 m1/2 , Ai – pole powierzchni i-tego otworu (okna i drzwi), w [m2]
hi – wysokość i-tego otworu, w [m2] At – pole powierzchni wszystkich
przegród brutto wraz z otworami (powierzchnia ścian, okien podłóg oraz
sufitów) , w [m2]
4. Temperatura pożaru a przewodność
elektryczna
W
budynkach
są
instalowane
urządzenia
przeciwpożarowe, do wykrywania zagrożeń pożarowych
oraz urządzenia wspomagające akcję ratowniczą.
Szczególną grupę odbiorników stanowią urządzenia
elektryczne, których funkcjonowanie w czasie pożaru jest
niezbędne dla skutecznego przeprowadzenia ewakuacji
ludzi uwięzionych w płonącym budynku.
Do urządzeń tych należy zaliczyć:
dźwigi dla ekip ratowniczych,
(2)
F
113
Warsztaty Doktoranckie 2012
pompy pożarowe,
oświetlenie awaryjne,
Dźwiękowy System Ostrzegania,
wentylację pożarową.
Przewody zasilające te urządzenia w czasie pożaru muszą
zagwarantować dostawę energii elektrycznej o
wymaganych parametrach oraz skuteczną ochronę
przeciwporażeniową przez czas określony w scenariuszu
zdarzeń pożarowych.
Wraz z rozwojem pożaru rośnie temperatura
otoczenia, której działaniu poddane są przewody
zasilające urządzenia wspomagające prowadzenie akcji
ratowniczej.
Przewody
te
wykonywane
są
materiałów
zapewniających odporność na działanie ognia przez
określony czas, odpowiednio 30, 60 lub 90 minut.
Pomimo tego, że izolacja opóźnia przenikanie ciepła
do przewodnika, w krótkim czasie następuje zrównanie
się temperatury przewodu z temperaturą gazów
pożarowych.
Przewody ułożone w tynku nagrzewają się również
bardzo szybko z uwagi na kumulacje ciepła przez
pojemność cieplną przegród budowlanych. Badania
ogniowe prowadzone w Zakładzie Badań Ogniowych
Instytutu Techniki Budowlanej w Warszawie wykluczają
możliwość układania w tynku przewodów zasilających
urządzenia ppoż., które muszą funkcjonować w czasie
pożaru. Kumulacja ciepła jest tak duża, że osłona
tynkiem nie gwarantuje zachowania ciągłości dostaw
energii elektrycznej przez wymagany czas.
Na rysunku 7 przedstawiono przykładowy przebieg
nagrzewania izolacji oraz żyły przewodu miedzianego.
L- stała Lorentza ( L  2,44 10 8 W    K 2 ),
T- temperatura przewodnika [K].
Prawo Wiedemanna – Franza nie jest spełnione dla
wszystkich metali, co potwierdza badania prowadzone w
Wielkiej Brytanii na początku XXI wieku. Badania te
jednak wykazały, że prawo te znajduje zastosowanie dla
metali powszechnie stosowanych do budowy kabli i
przewodów elektrycznych.
Zatem zmiana rezystywności jednostkowej przewodu
na jednostkę temperatury może zostać zapisana
następującym równaniem:
[W /( m  K )] ,
d
 
dT
(4)
gdzie: T – temperatura bezwzględna, w [K],  rezystancja jednostkowa przewodu [   mm / m] , 
- temperaturowy współczynnik rezystancji odniesiony do
temperatury 200 C (dla metali stosowanych na przewody
można przyjmować  = 0,004 K-1).
Rozwiązanie
równania
(4)
prowadzi
do
następującego wzoru:
2
  C  e T
Przyjmując jako
(5)
 20 dla temperatury początkowej 200 C
(293,16 K), po przekształceniach przekształceniach
otrzymuje się stałą całkowania:
C   20 
1
e
293,16
(6)
Wzór na rezystancję przewodu w temperaturze wyższej
od 200 C (293,16 K), przyjmie następującą postać:
   20 
1
 e T   20  e (T 293,16)   20  e T
e 293,16
(7)
Prowadzenie obliczeń bezpośrednio z wykorzystaniem
wzoru (7) prowadzi do błędnych wyników w zakresie
wyższych temperatur ponieważ wzór ten nie uwzględnia
różnych czynników termodynamicznych takich jak
nasycenie cieplne przewodu, wymiana ciepła z
otoczeniem, zmienność temperaturowego współczynnika
rezystancji itp. Ma on znaczenie teoretyczne.
Dobre wyniki daje postać przybliżona wzoru (7), którą
otrzymuje się po rozwinięciu go w szereg:
Rys. 7: Przebieg czasowy nagrzewania się izolacji oraz żyły miedzianej
przewodu czterożyłowego[18]
   20  (1    T 
Wraz ze wzrostem temperatury przewodu wzrastają
amplitudy drgań atomów w węźle sieci krystalicznej,
która zwiększa prawdopodobieństwo zderzeń z
elektronami. Skutkuje to zmniejszeniem ruchliwości
elektronów,
a
tym
samym
zmniejszeniem
konduktywności metalu.
Zgodnie z prawem Wiedemanna – Franza –
Lorentza (1853 rok – doświadczalne stwierdzenie przez
Wiedemanna i Franza; 1873 – potwierdzone przez
Lorentza)
stosunek przewodnictwa cieplnego i
przewodnictwa elektrycznego w dowolnym metalu jest
wprost proporcjonalny do temperatury. Wraz ze
wzrostem temperatury powstaje wzrost przewodnictwa
cieplnego i spadek przewodnictwa elektrycznego.

 L T

2
2
 T 2  .......)
(8)
W zakresie temperatur nie wyższych od 2000 C
zmienność rezystancji przewodu wystarczy opisać za
pomocą pierwszych dwóch wyrazów wzoru (8)
zastępując rezystywność rezystancją przewodu:
R  R20  (1    T )
(9)
Jest to funkcja liniowa, która bezpośrednio wynika z
niezmienności
temperaturowego
współczynnika
rezystancji w zakresie temperatur od – 500 C do + 2000 C.
W zakresie temperatur wyższych od 200 0 C, które
występują w czasie pożaru, wzór (8) nie może zostać
uproszczony do pierwszych dwóch składników ze
względu na to, że przebieg zmienności rezystancji
przestaje być liniowy. Dla temperatur większych od
200o C, zmianie ulega temperaturowy współczynnik
rezystancji, przez co wzrost rezystancji przewodu nie
może zostać opisany zależnością liniową. Dla celów
praktycznych wartość rezystancji przewodu w
(3)
gdzie:  - konduktywność przewodnika [ m /(  mm2 ) ], 
- współczynnik przewodności cieplnej przewodnika
114
Warsztaty Doktoranckie 2012
temperaturach większych od 2000 C można wyznaczyć z
następującego wzoru:
(10)
R  R20  (1    T   2  T 2 )
gdzie:  - drugi współczynnik temperaturowy rezystancji
(dla metali stosowanych na przewody  = 10-6 K-2)
że Państwowa Straż Pożarna nie prowadzi w tym zakresie
żadnych statystyk.
W tym miejscu należy zwrócić uwagę na
nieprzydatność przewodów i kabli aluminiowych do
zasilania
urządzeń
przeciwpożarowych,
których
funkcjonowanie jest konieczne w czasie pożaru ze
względu na ich stosunkowo niską temperaturę topnienia
wynoszącą około 660o C. Miedź natomiast posiada
temperaturę topnienia wynoszącą 1083o C, której
przekroczenie skutkuje przechodzeniem w stan ciekły z
jednoczesnym skokowym wzrostem rezystancji.
Problem narasta w instalacjach wykonywanych w
tunelach komunikacyjnych, gdzie temperatura otoczenie
w czasie pożaru w krótkim czasie uzyskuje wartość
1200o. W tak wysokiej temperaturze stopieniu ulega
również miedź a zastosowanie izolacji ogniochronnej nie
zapewni ciągłości dostaw energii do zasianych urządzeń
przez zachodzi konieczność stosowania dodatkowych
środków
ochronnych
np.
atestowanych
przeciwpożarowych kanałów kablowych.
Korzystanie w praktyce ze wzoru (9) lub (10) w
zależności od przedziału rozpatrywanych temperatur daje
zadowalające wyniki choć jest znacznym uproszczeniem.
W praktyce dostatecznie dobre rezultaty dają
obliczenia
wykonywane
za
pomocą
wzoru
wykładniczego, który uwzględnia nieliniowe zmiany
współczynnika  przy temperaturach wyższych od 2000
K [18]:
T
(11)
RTk  R20  ( k )1,16
293,16
gdzie:
RTk - rezystancja przewodu w temperaturze Tk, w
[];
Tk – temperatura końcowa, w której oblicza się
rezystancje przewodu
RTk ,
w [K];
R20 -
rezystancja
5. Wpływ temperatury pożarowej na jakość
dostarczanej energii elektrycznej
(napięcia zasilającego) oraz ochronę
przeciwporażeniową
0
przewodu w temperaturze 20 C, w [].
Na rysunku 8 przedstawiono zmienność rezystancji
funkcji temperatury [R= f(T)], obliczonej z
wykorzystaniem wzorów (9), (10) oraz (11).
Zgodnie z wymaganiami normy PN-EN 50160 [24],
napięcie zasilające może ulegać odchyleniom od wartości
nominalnej o wartość U n  10%.
Takie zmiany napięcia w normalnych warunkach
pracy urządzeń elektrycznych są dla nich niegroźne.
Problemy mogą się pojawić podczas rozruchu silników
gdzie prądy rozruchowe są znacznie większe niż prądy
znamionowe. Powoduje to powstanie większych spadków
napięcia niż w czasie pracy ustalonej. Obniżone o 10% w
stosunku do wartości znamionowej napięcie powoduje,
że w czasie rozruchu silnika na jego zaciskach może
pojawić się napięcie o wartościach niższych niż
dopuszczalne (tabela 4).
Wskutek
wzrostu
rezystancji
przewodu
spowodowanego działaniem temperatury pożarowej, co
powoduje dalszy wzrost spadku napięć z jednoczesnym
wzrostem impedancji pętli zwarcia. Skutkuje to
zmniejszeniem wydajności
pomp pożarowych,
wentylatorów oddymiających wskutek zmniejszenia się
momentu silnika napędowego oraz pogorszeniem
warunków pracy innych urządzeń elektrycznych, których
funkcjonowanie jest konieczne w czasie akcji gaśniczoratowniczej.
Moment silnika elektrycznego w zależności od
wartości napięcia zasilającego wyraża się następującą
zależnością:
Rys. 8: Zależność rezystancji przewodu funkcji temperatury wyznaczona z
wykorzystaniem wzorów (9), (10) oraz (11) [18]
Przedstawione na rysunku 8 charakterystyki R = f(T)
wykazują, że obliczenia prowadzone z wykorzystaniem
wzorów (10) oraz (11) dają porównywalne wyniki, z
których można korzystać w praktyce.
Analiza rysunku 8 pozwala wyciągnąć wniosek, że
przewód elektryczny pod działaniem temperatury
pożarowej może zwiększyć swoją rezystancję nawet
pięciokrotnie, co negatywnie wpływa na jakość
dostarczanej energii elektrycznej zasilającej urządzenia
elektryczne, które muszą funkcjonować w czasie pożaru
oraz może wyeliminować ochronę przeciwporażeniową
realizowaną przez samoczynne wyłączenie zasilania.
Ponieważ normy przedmiotowe oraz przepisy
techniczno-prawne dotyczące doboru przewodów nie
wymagają uwzględniania zjawiska wysokiej temperatury
pożarowej, w praktyce odnotowywane są przypadki
niepoprawnej
pracy
urządzeń
elektrycznych
wspomagających akcję ratowniczą lub całkowitego
pozbawienia ich swojej funkcji.
Wszelkie dochodzenia popożarowe prowadzone są
pod kątem przyczyn powstania pożaru oraz sprawdzenia
poprawności zaprojektowania i wykonania instalacji
elektrycznej zgodnie z obowiązującymi normami i
przepisami techniczno-prawnymi. Sytuacja ta powoduje,
M  Mn (
U 2
)
Un
(12)
gdzie:
M – rzeczywisty moment silnika elektrycznego [Nm],
Mn – moment znamionowy silnika elektrycznego [Nm],
Un – napięcie znamionowe silnika elektrycznego [V],
U – rzeczywiste napięcie występujące na zaciskach
silnika elektrycznego [V].
Spadek napięcia na zaciskach silnika zaledwie o 10%
powoduje zmniejszenie momentu o 19 %.
Podczas rozruchu silnik pobiera prąd znacznie
większy niż w czasie pracy ustalonej. Dopuszczalny
115
Warsztaty Doktoranckie 2012
spadek napięcia w obwodach zasilających pompy
pożarowe oraz silniki wentylacji pożarowej w czasie
rozruchu wynosi 10 % . Natomiast w czasie pracy
ustalonej spadek napięcia w tych obwodach liczony do
złącza budynku do zasilanego urządzenia nie może
przekraczać 4 % [21]. Ponieważ rozruch sprawnego
silnika przebiega stosunkowo szybko, a dopuszczalny
spadek napięcia w czasie rozruchu jest znacznie większy
od dopuszczalnego spadku napięcia w stanie pracy
ustalonej, decydujący wpływ na poprawną pracę silników
urządzeń wspomagających akcję gaśniczo-ratowniczą ma
dopuszczalny spadek napięcia dla stanu pracy ustalonej.
Zmienność momentu silnika indukcyjnego zwartego w
funkcji napięcia zasilającego przedstawia rysunek 9.
Rys.10: Względna wartość strumienia świetlnego lampy żarowej i
wyładowczej jako funkcja zmian wartości napięcia zasilającego [16]
Poprawnie
dobrane
przewody,
zgodnie
z
wymaganiami norm i przepisów wskutek zrostu
rezystancji powodowanej wysoka temperaturą (w czasie
pożaru w budynku wzrost rezystancji jest niemal 5-cio
krotny) będą dostarczały energie elektryczną do
zasilanych urządzeń przy zaniżonym napięciu.
Spowoduje to zmniejszenie momentów silników,
osłabienie natężenia oświetlenia ewakuacyjnego oraz
silne zniekształcenia komunikatów przekazywanych
podczas akcji gaśniczo-ratowniczej przez Dźwiękowy
System Ostrzegania. Przy spadku napięcia powyżej 15%
zostanie zakłócona normalne funkcjonowanie styczników
oraz przekaźników pracujących w układach automatyki
polegająca na nie kontrolowanych rozłączeniach
obwodów.
Wymagany przekrój przewodów zasilających
urządzenia ppoż., które muszą funkcjonować w czasie
pożaru ze względu na dopuszczalny spadek napięcia
należy
zatem
wyznaczyć
z
uwzględnieniem
spodziewanego wzrostu rezystancji powodowanej
działaniem wysokiej temperatury towarzyszącej pożarowi
z wykorzystaniem następujących wzorów:
Rys. 9:. Charakterystyki momentu obrotowego silnika indukcyjnego klatkowego
dla różnych wartości napięcia zasilającego [19]
Dopuszczalne spadki napięcia dla silników będących w
stanie rozruchu przedstawia tabela 4.
Tabela 4: Dopuszczalne spadki napicia dla rozruchów silników [22]
Zmieniające się w dopuszczalnych granicach napięcie
( U n  10% ) zasilające źródła światła powoduje, że
zmiany strumienia świetlnego wyniosą odpowiednio 70%
i 140% strumienia znamionowego. Ponadto w przypadku
długotrwale utrzymującej się wartości napięcia większej
o 10% w stosunku do wartości nominalnej powoduj
skrócenie czasu eksploatacji żarówki o 25%.
-
TK 1,16
)
293,16
S
kp
U dop%  U n
 (
 X  tg )
3 100  I B  cos 
l (
Znacznie mniejszy wpływ na wartość strumienia
świetlnego posiadają lampy wyładowcze. Zmiany
wartości strumienia świetlnego w zależności od zmian
napięcia zasilającego można wyrazić następującą
zależnością:
gdzie:
n -
-

U
 ( )
n U n
dla obwodów trójfazowych:
gdzie:
(14)
U dop% - dopuszczalny spadek napięcia [%], l -
długość trasy przewodowej [m], Un – napięcie
znamionowe [V], X - reaktancja przewodu (linii)
zasilającej [  ], I B - spodziewany prąd obciążenia [A],
konduktywność
przewodu
zasilającego
-
(13)
rzeczywista wartość strumienia świetlnego,
[m/(mm2)],
kp-
stosunek
długości
przewodu
narażonej na działanie temperatury do długości całej
trasy przewodowej.
znamionowa wartość strumienia świetlnego, U –
rzeczywista wartość napięcia zasilającego, Un –
nominalna
wartość
napięcia
zasilającego,
współczynnik przyjmowany dla lamp żarowych jako (3,1
– 3,7) oraz dla lamp wyładowczych jako 1,8.
- dla obwodów jednofazowych
TK 1,16
)
293,16
S
kp
U dop%  U nf
 (
 X  tg n )
200  I B  cos  n
l (
Zmiany względnej wartości strumienia świetlnego lampy
żarowej i wyładowczej w funkcji zmian napięcia
zasilającego zostały przedstawione na rysunku 10.
116
(15)
Warsztaty Doktoranckie 2012
przewodu zasilającego urządzenie ppoż., narażony na
działanie wysokiej temperatury [], X – reaktancja
przewodu zasilającego [], Ik1 – spodziewany prąd
zwarcia jednofazowego z ziemią [A], Ia – prąd
wyłączający w czasie nie dłuższym od określonego w
normie PN-HD 60364-4-41:2009 [7], U0 – napięcie
pomiędzy przewodem fazowym a uziemionym
przewodem PE (PEN) [V].
Dobrane przewody należy następnie sprawdzić z
warunku samoczynnego wyłączenia. Należy przy tym
pamiętać, że do zabezpieczania obwodów zasilających
urządzenia ppoż., które muszą funkcjonować w czasie
pożaru
nie
można
stosować
wyłączników
różnicowoprądowych oraz jakichkolwiek zabezpieczeń
przeciążeniowych. Dopuszczalne jest stosowanie jedynie
zabezpieczeń zwarciowych, które podczas zwarć
doziemnych spowodują samoczynne wyłączenie zasilania
w czasie nie dłuższym o wymaganego przez normę PNHD 60364-4-41:2009 Instalacje elektryczne niskiego
napięcia. Część 4-41. Ochrona dla zapewnienia
bezpieczeństwa.
Ochrona
przed
porażeniem
elektrycznym [7]. W zależności od napięcia zasilającego
oraz typu układu zasilającego czasy te zostały podane w
tabeli 5.
Uwaga
Dobierane przewody muszą również spełniać warunek
długotrwałej obciążalności prądowej i przeciążalności
oraz
wytrzymałości
zwarciowej.
Dobierane
zabezpieczenia do obwodów zasilających urządzenia
ppoż., które muszą funkcjonować w czasie pożaru muszą
spełniać warunek selektywności w stosunku do
zabezpieczeń je poprzedzających.
Tabela 5: Dopuszczalne czasy trwania zwarć instalacjach nn zgodnie z
PN-HD 60364-4-41.
6. Wnioski
1. Do zasilania urządzeń elektrycznych, które muszą
funkcjonować w czasie pożaru należy stosować
wyłącznie atestowane zespoły kablowe (kable lub
przewody wraz z ich konstrukcjami nośnymi przed
dopuszczeniem do stosowania muszą przejść wspólne
badania ogniowe). Zgodnie z wymaganiami niemieckiej
normy DIN 4102-12 Zachowanie się materiałów i
elementów budowlanych pod wpływem ognia.
Podtrzymywanie funkcji urządzeń w czasie pożaru.
Wymagania i badania [2], dopuszcza się do stosowania
atestowane zespoły posiadające cechę E30; E60 lub E90.
Zapewnia to ciągłość dostaw energii elektrycznej przez
czas odpowiednio 30; 60 lub 90 minut w zależności od
wymaganego czasu pracy zasilanych urządzeń.
Najbardziej ostre wymagania w odniesieniu do czasu
wyłączenia norma ta określa dla układu zasilania TT.
Czasy te są o połowę krótsze od największych
dopuszczalnych czasów określonych dla układów
zasilania TN (TN-S; TN-C-S; TN-C).
Z
tego
względu
jedynym
skutecznym
zabezpieczeniem od porażeń realizowanym przez
samoczynne wyłączenie w układzie zasilania TT jest
wyłącznik różnicowoprądowy, który nie nadaje się do
zabezpieczania
urządzeń
ppoż.,
które
muszą
funkcjonować w czasie pożaru. Sytuacja ta powoduje, że
układ zasilania TT nie nadaje się do zasilania urządzeń
elektrycznych, które muszą funkcjonować w czasie
pożaru.
Podobnie układ zasilania IT, mimo jego szeregu
zalet, nie nadaje się do zasilania urządzeń ppoż., które
muszą funkcjonować w czasie pożaru. Układ ten przy
pojedynczym zwarciu nie stwarza zagrożeń ale wymaga
stosowania Układu Kontroli Stanu Izolacji dla
zasygnalizowania powstałego zwarcia w celu jego
natychmiastowego usunięcia przez obsługę. Natomiast
drugie zwarcie w zależności od sposobu uziemienia
ochronnego zasilanych odbiorników przekształca go
odpowiednio w układ TT lub TN. Biorąc pod uwagę
warunki ekstremalne jakie postają w czasie pożaru i
związane z tym problemy eksploatacyjne należy
stwierdzić, że układ ten również nie nadaje się do
zasilania odbiorników energii elektrycznej, które muszą
funkcjonować w czasie pożaru.
W myśl wymagań normy[7] do zasilania urządzeń
ppoż., które muszą funkcjonować w czasie pożaru nadaje
się jedynie układ zasilania TN (TN-C; TN-C-S; TN-S),
gdzie warunek samoczynnego wyłączenia należy
sprawdzić z wykorzystaniem następującego wzoru:
(16)
U0
I k1 
 Ia
T
{2  [ R  R ppoż .  (  )1,16 ]}2  (2  X ) 2
293,16
gdzie: R- rezystancja linii zasilającej nie narażona na
działanie wysokiej temperatury [], Rppoż. – odcinek
2. Dobierane przewody muszą zapewnić dostawę energii
elektrycznej o wymaganych parametrach przez
wymagany
czas
pracy
zasilanych
urządzeń
wspomagających ewakuację oraz zapewnić skuteczną
ochronę przeciwporażeniową, przez co podczas ich
doboru
należy
uwzględnić
wzrost
rezystancji
przewodnika w skutek działania wysokiej temperatury.
czego nie wymagają obowiązujące normy przedmiotowe
oraz przepisy techniczno-prawne.
3. Przykrycie przewodów warstwą tynku nie chroni przed
wzrostem rezystancji przewodów w skutek działania
wysokiej temperatury (ściana wraz z tynkiem akumuluje
ciepło powodując dodatkowe oddziaływanie termiczne na
przewody).
4. W przypadku prowadzenia kabli lub przewodów w
atestowanych kanałach kablowych, które gwarantują
termiczną izolację od pomieszczeń objętych pożarem
przez wymagany czas, przewody i kable zasilające
urządzenia ppoż., które muszą funkcjonować w czasie
pożaru należy dobierać bez konieczności uwzględniania
wzrostu rezystancji powodowaną wysoką temperaturą.
5. Do zabezpieczania obwodów zasilających urządzenia
ppoż., które muszą funkcjonować w czasie pożaru należy
stosować zabezpieczenia nadprądowe bez zabezpieczeń
przeciążeniowych
oraz
różnicowoprądowych
(postępująca degradacja izolacji kabla lub przewodu
powodowana działaniem wysokiej temperatury będzie
powodowała wzrost doziemnych prądów upływowych,
które w konsekwencji spowodują niekontrolowane
wyłączenie zasilania, pozbawiając urządzenia swojej
funkcji).
117
Warsztaty Doktoranckie 2012
Prądy znamionowe lub nastawcze tych zabezpieczeń
należy zwiększyć o jeden lub dwa stopnie w stosunku do
wartości wynikającej ze zwykłych zasad ich doboru z
zachowaniem
wymaganej
odporności
cieplnej
zabezpieczanych przewodów przy zwarciach.
[13] Konecki M.: Wpływ szybkości wydzielania ciepła i emisji dymu na
rozwój pożaru w układzie pomieszczeń, Warszawa 2007.
[14] Wiatr J., Orzechowski M.: Dobór przewodów i kabli w instalacjach
niskiego napięcia. Zagadnienia wybrane, DW Medium 2011 –
wydanie II.
[15] PN-B-02852:2001 Ochrona pożarowa budynków. Obliczanie
gęstości obciążenia ogniowego oraz wyznaczanie względnego czasu
trwania pożaru.
[16] Strzałka-Gołuszka K., Strzałka J.: Jakość energii elektrycznej –
parametry jakościowe, skutki złej jakości i sposoby poprawy cz. 1,
INPE nr 129-130 czerwiec-lipiec 2010.
[17] M. Abramowicz; R. G. Adamski: Bezpieczeństwo pożarowe
budynków cz. I SGSP 2002
[18] www.leonardo-energy.org (december 15,2004 – Page 5 of 9)
[19] Niestępski S., Parol M., Pasternakiewicz J., Wiśniewski T.:
Instalacje elektryczne. Budowa, projektowanie i eksploatacja,
OWPW 2011.
[20] Ochrona
przeciwpożarowa
w
instalacjach
elektrycznych
(zagadnienia wybrane), materiały konferencyjne konferencji
jubileuszu 10-lecia elektro.info Warszawa 18.10.2011
[21] EN IEC 60364-5-525 Electrical installations in buildings. Selection
and erection of equipment. Voltage drop in consumers installations.
[22] Strojny
J.,
Strzałka
J.:
Projektowanie
urządzeń
elektroenergetycznych, UWND AGH 2008 – wydanie VII.
[23] statystyki pożarów prowadzone przez KG PSP: www.kgpsp.gov.pl.
[24] PN-EN 50160: 2008 Parametry jakościowe napięcia w publicznych
sieciach rozdzielczych.
6. Pomimo szeregu działań prowadzonych na rzecz
bezpieczeństwa
przeciwpożarowego,
instalacje
elektryczne oraz przyłączane do nich urządzenia
elektryczne są przyczyną znacznej liczby pożarów
powstających w budynkach. Wskaźnik ten jest bardzo
niepokojący.
Literatura
[1] Wiatr J., Orzechowski M.: Poradnik projektanta elektryka, DW
Medium 2010 wydanie IV.
[2] DIN 4102-12: Zachowanie się materiałów i elementów budowlanych
pod wpływem ognia. Podtrzymywanie funkcji urządzeń w czasie
pożaru. Wymagania i badania.
[3] PN-EN 50200:2006: Metoda badania palności cienkich przewodów i
kabli bez ochrony specjalnej stosowanych w obwodach
zabezpieczających.
[4] Materiały udostępnione przez firmę NIEDAX KLEINHUIS
POLSKA Sp. z o.o.
[5] PN-B-02851-1:1997: Ochrona przeciwpożarowa budynków. Badania
odporności ogniowej elementów budynku. Wymagania ogólne i
klasyfikacja.
[6] Rozporządzenie Ministra Infrastruktury z dnia 12.04.2002r. w
sprawie warunków technicznych jakim powinny odpowiadać
budynki
i
ich
usytuowanie
(Dz. U. 75 poz. 690. z późniejszymi zmianami).
[7] PN-HD 60364-4-41: 2009: Instalacje elektryczne niskiego napięcia.
Część 4 –41. Instalacje dla zapewnienia bezpieczeństwa. Ochrona
przed porażeniem elektrycznym.
[8] J Wiatr., Boczkowski A., Orzechowski M.: Ochrona
przeciwporażeniowa oraz dobór przewodów i ich zabezpieczeń w
instalacjach niskiego napięcia, DW MEDIUM 2010
[9] Wiatr J., Skiepko E.: Dobór przewodów do zasilania urządzeń ppoż.,
które muszą funkcjonować w czasie pożaru, elektro.info 10/2010 –
cz. I, elektro.info 11/2010 – cz.II.
[10] E. Skiepko: Instalacje przeciwpożarowe, DW MEDIUM 2010 –
wydanie II.
[11] EN 1363-2:1999: Fire resistance test. Part 2. Alternative and
additional procedures.
[12] Konecki M., Król B., Wróblewski D.: Nowoczesne metody działań
ratowniczo-gaśniczych, Warszawa 2003.
mgr inż. Julian Wiatr
e-mail: [email protected]
Emerytowany oficer WP, doktorant Instytutu
Elektrotechniki w Warszawie. Ukończył
Wydział Elektroniki WAT oraz Wydział
Elektryczny Politechniki Warszawskiej. Jest
zatrudniony na stanowisku naczelnego
inżyniera w WBSPBiL w Warszawie.
Jednocześnie zajmuje stanowisko redaktora
naczelnego miesięcznika elektro.info, z
którym jest związany od początku jego
istnienia. Opublikował ponad 200 artykułów
z zakresu zasilania obiektów budowlanych
oraz ochrony przeciwpożarowej. Jest autorem
lub współautorem 11 książek z tego zakresu.
118
Warsztaty Doktoranckie 2012
SYMULACJA WYBRANYCH UKŁADÓW BEZPRZEWODOWEGO
PRZESYŁU ENERGII ELEKTRYCZNEJ
Michał Filipiak
Politechnika Poznańska, Wydział Elektryczny,
Streszczenie: W artykule przedstawiono podstawowe układy umożliwiające przesyłanie energii elektrycznej bezprzewodowo przy użyciu zjawiska indukcji
elektromagnetycznej, Na wstępie przedstawiono sposób zasilania urządzeń elektronicznych oraz przykład stosowaniu podkładek indukcyjnych. Przedstawiono początki
powstania oraz inicjatora tej technologii. W symulacjach użyto źródło napięciowe o zmiennej częstotliwości. W ten sposób zrezygnowano ze skomplikowanych układów
przekształtnikowych. Przedstawiono zalety stosowania układów rezonansowych od strony zasilania w tego typu układach.
Słowa kluczowe: bezprzewodowe zasilanie, indukcja elektromagnetyczna, rezonans w układzie szeregowym.
Simulation of selected systems wireless transmission of electricity
Abstract: The article presents the basic systems which transmit electricity wirelessly using electromagnetic induction phenomena, the first shows how to power electronic
devices and an example of using inductive pads. The paper presents the beginnings of creation, and originator of this technology. The simulations used the source voltage of
variable frequency. In this way, resigned from complex systems converters. Presents the advantages of using resonant circuits from the power supply in such systems.
Keywords: wireless power, electromagnetic induction, resonance in parallel mode.
Natomiast jeśli podłączymy odbiornik to popłynie w nim
prąd o zwrocie zgodnym z regułą Lenza.
Wstęp
Popularność nowoczesnych urządzeń elektrycznych
codziennego użytku takich jak: telefony komórkowe,
odtwarzacze muzyczne, przenośne konsole gier są
nieodzowne w naszym życiu. Coraz większe
zapotrzebowanie na tego typu urządzenia wiąże się z
potrzebą gromadzenia dużej ilości energii elektrycznej w
bateriach. Coraz większe pojemności dzisiejszych baterii
są jeszcze zbyt małe. Większość urządzeń działa na
jednym ładowaniu przez kilkadziesiąt godzin. Staje się to
uciążliwe gdyż musimy praktycznie codziennie pamiętać
o ładowaniu naszego urządzenia. Natomiast w nagłych
przypadkach możemy skorzystać z podręcznych
ładowarek czy zakupić drugą baterię co generuje
niepotrzebne dodatkowe koszty eksploatacji. Ciekawym
rozwiązaniem staje się możliwość wykorzystania
zasilania bezprzewodowego do ładowania urządzeń
mobilnych, a wraz z postępem technologicznym stanie
się również możliwe ciągłe ich zasilanie. Ta technologia
staje się coraz bardziej dostępna. Standaryzacja urządzeń
elektrycznych pod względem jednolitych parametrów
napięciowych pozwala na wykorzystanie jednego typu
ładowarek. W konsekwencji jest możliwe wykorzystanie
jednej ładowarki indukcyjnej na której umieszcza się
kilka urządzeń rezygnując z posiadania kilkunastu
osobnych ładowarek przewodowych, a zarazem w ten
sposób oszczędzamy nie tylko pieniądze ale również
środowisko. Pierwszym pomysłodawcom tej technologii
był Nicola Tesla.[5]
Symulacje obwodów zostały wykonane w programie
PSpice 9.1 w wersji studenckiej. Dane elementów
elektronicznych zostały tak dobrane, aby pokazać wady i
zalety stosowanych modeli przesyłu energii elektrycznej
za pomocą indukcji elektromagnetycznej.
2.1.
Układ RL
Schemat przedstawia transformator powietrzny
obciążony rezystancją R2=10Ω i zasilany napięciem
UAC=10V,
indukcyjność
uzwojenia
pierwotnego
L1=62uH oraz wtórnego L2=62uH.
Rys. 1 Schemat obwodu transformatora powietrznego.
W pierwszej kolejności zostały wykonane symulacje
wpływu częstotliwości napięcia wejściowego na napięcie
na odbiorniku R2 dla sprzężenia k=0.5.
Zasada działania
U[V]
1.
2. Symulacje układów przesyłu energii
elektrycznej
10
Dzisiejsze konstrukcje zasilania bezprzewodowego
wykorzystywane są między innymi do ładowania baterii,
zasilania myszek indukcyjnych oraz w innych
urządzeniach małej mocy. Zbudowane są one z dwóch
cewek
wchodzących
w
skład
transformatora
powietrznego. Cewka pierwotna umieszczona jest
zazwyczaj w podkładce wielości dłoni. Natomiast druga
cewka, czyli uzwojenie wtórne transformatora
powietrznego umieszczona, jest w urządzeniu
odbiorczym. Nadajnik zasilany jest zmiennym w czasie
napięciem o częstotliwości od kilkudziesięciu do kilku
mega herzów. Płynący zmienny prąd w uzwojeniu
pierwotnym powoduje powstanie zmiennego strumienia
magnetycznego, który indukuje napięcie w odbiorniku
zgodnie z prawem indukcji elektromagnetycznej.
f[Hz]
0
0
50000 -I(R2) 100000
Rys.2 Charakterystyka częstotliwości w funkcji napięcia na odbiornik i
nadajniku.
Rys.2 przedstawia przebiegi napięć i prądów w funkcji
częstotliwości dla transformatora powietrznego. W
zakresie częstotliwości od 0 do około 10KHz następuje
wzrost napięcia na uzwojeniu pierwotnym (9,5V) i
wtórnym (4,5V). Następnie napięcie wejściowe ustala się
do wartości równej napięciu źródłowemu natomiast
napięcie na wyjściu maleje. Maksymalna wartość
119
Warsztaty Doktoranckie 2012
napięcia na odbiorniku jest niższa od połowy napięcia
zasilającego ze względu na współczynnik sprzężenia
cewek.
Zbadano wpływ częstotliwości na napięcie uzwojenia
pierwotnego i wtórnego przy różnych współczynnikach
sprzężenia k. Jeżeli współczynnik sprzężenia cewek jest
równe k=1 to napięcia na uzwojeniu pierwotnym i
wtórnym jest równe, niezależnie od częstotliwości. W
momencie, gdy współczynnik dąży do zera to napięcie na
odbiorniku maleje. Dzieje się tak, gdyż indukcja
wzajemna cewek malej wraz z zwiększaniem odległości
między nimi.
od strony zasalającej miało na celu wykazanie celowości
dalszych badań w kierunku układów rezonansowych.
Bardzo duże znaczenie w badanych układach ma
współczynnik sprzężenia cewki pierwotnej i wtórnej. W
wynikach symulacji zauważono wyraźna zmianę napięcia
na odbiorniku gdy zastosujemy różne układy zasilające.
W układzie RL napięcie maleje wraz maleniem
współczynnika sprzężenia magnetycznego do zera.
Natomiast w układzie RLC sprzężenie dodatkowo
wpływa na rezonans w układzie. Zmiana sprzężenia k
powoduje
zmianę
indukcyjności
wzajemnej
i
wyprowadza układ z rezonansu. Niezależnie od wartości
sprzężenia napięcie na rezystancji R2 zawsze było
wyższe od układu z punktu 4.1. W układzie RLC już przy
sprzężeniu k=0,5 napięcie było równe lub nieco wyższe
od napięcia zasilającego. Uzyskanie sprzężenia k>0,6 w
układzie transformatora powietrznego jest praktycznie
niemożliwe ze względy na dużą indukcyjność
rozproszenia.
Układ z zastosowanym rezonansem
szeregowy od strony zasilającej.
Kolejny schemat przedstawia identyczny obwód jak
w punkcie 4.1 lecz z dołączono kondensator C1=24,1nF
wprowadzającym rezonans w obwodzie pierwotnym.
Częstotliwość pracy przyjęto z norm ISO 18000
stosowaną dla urządzeń opartych na technologii RFID
(ang.
Radio-frequency
identification).
Wartość
kondensatora dla częstotliwości rezonansowej 150KHz
dobrano ze wzoru na pulsację rezonansową.
2.2.
4. Wnioski
Układy rezonansowe są najbardziej efektywnymi
układami (bezprzewodowego) przesyłania energii
elektrycznej. Odpowiednio dobrane parametry układu
RLC pozwolą działać ze znacznie większą sprawnością
niż układy RL. Istnieje wiele niebezpieczeństw przy
stosowaniu układów rezonansowych między innymi
możliwe jest wystąpienie przepięć w obwodzie. Skutkiem
takiego stanu jest uszkodzenie sprzętu elektronicznego
Brak odpowiednio zaprojektowanego układu może
wywołać uszkodzenie przy zmianie odległości miedzy
cewkami. Zaletami układów RLC są wyższa amplituda
napięcia i prądu na uzwojeniu wtórnym a zatem większy
zasięg. Podstawą kolejnych badań nad układami
bezprzewodowego
zasilania
stosujące
układy
rezonansowe będzie analiza analityczna układu.
150
U[V]
Rys.3 Schemat obwodu transformatora powietrznego z obwodem
rezonansowym.
100
Literatura
[1] Bolkowski S.: Teoria Obwodów Elektrycznych, WNT, Warszawa
2003.
[2] Moradewicz A., Miśkiewicz R.: Systemy bezstykowego zasilania
komputerów
przenośnych
PRACE
INSTYTUTU
ELEKTROTECHNIKI, zeszyt 236, 2008 str 51,
[3] Kuen-Cheng Wang, Che-Wei Hsu Tung- Jung Chan Tsung-Shih
Chien Tsair-Rong Chen Study of Applying Contactless Power
Transmission System to Battery Charge PEDS2009 str. 257
[4] Du Guiping, Li Xiongtao, Sheng Songtao Modeling and Simulation
of Contactless Power Transmission System by Inductance Coupling
ISIEA 2009 str. 123
[5] Weronika D. Władca piorunów Elektro Trendy 01/2012(2) s120-123
50
0
100000
f[Hz]
140000
V(R2)
180000
V(TX1)
Rys. 4 Charakterystyka częstotliwości na napięcie po stronie pierwotnej i
wtórnej transformatora powietrznego dla k=0,5 (U(TX1)=129V,
U(R2)=14,4V, IR1=2,9A, IR2=1,43A dla K=0,5)
Zbadano również wpływ zmian sprzężenia cewek na
obwód rezonansowy. Z symulacji wynika, że zmiana
sprzężenia cewek powoduje przesunięcie częstotliwości
w której występuje rezonans. Następstwem są zmiany
wartości napięć w obwodzie odbiornika, które mogą
wywołać
awarię
lub
uszkodzenie
sprzętu
elektronicznego.
mgr inż. Michał Filipiak
e-mail: [email protected]
W październiku 2010 roku podjął pracę jako
asystent
na
Wydziale
Elektrycznym
Politechniki Poznańskiej,
rozpoczynając
jednocześnie studia doktoranckie Nowoczesna
Inżynieria Elektryczna i Informacyjna.
Głównym tematem zainteresowań asystenta
jest
bezprzewodowy
przesył
energii
elektrycznej. W ostatnim roku uczestniczył w
kilku
konferencjach
krajowych
i
zagranicznych między innymi ZKwE.
3. Podsumowanie
Wykonane symulacje w programie PSpise
przedstawiające układy przesyłu energii elektrycznej za
pomocą
indukcji
elektromagnetycznej
dobrze
odzwierciedlają rozkłady napięć i prądów w obwodach.
Porównanie układu RL z układem rezonansowym RLC
120
Warsztaty Doktoranckie 2012
TEMPERATURE MEASURING DEVICE BASED ON THIN FILM
THERMORESISTORS
Oleksandra Hotra1 , Oksana Boyko2
Politechnika Lubelska, Wydział Elektrotechniki I Informatyki , 2Narodowy Uniwersytet Medyczny we Lwowie, Katedra Informatyki Medycznej
1
Abstract. Bridge resistive transducers based on thin film thermoresistors were investigated. The temperature dependencies of errors of resistance exhibited by
the two-layer structure are obtained. The microprocessor temperature device is elaborated on base of shifted two-layer resistive structures.
Keywords: temperature measurement, thin film thermoresistors
Przyrząd DO pomiaru temperatury z wykorzystaniem cienkowarstwowych rezystorów
zależnych od temperatury
Streszczenie. Przeprowadzono badania mostkowych rezystancyjnych przetworników zawierających rezystory cienkowarstwowe. Otrzymano zależności
temperaturowe opisujące błędy rezystancji spowodowane dwuwarstwową strukturą rezystorów. Opracowano mikroprocesorowy przyrząd do pomiaru
temperatury wykorzystujący dwuwarstwowe struktury rezystancyjne.
Słowa kluczowe: pomiar temperatury, rezystory cienkowarstwowe
(in the case of the equivalent resistance R3, R21 should be
replaced with R31, and R22 – with R32). In this case, the
value of the resistance of the resistor with positive TCR
should be less than the value of the resistance of the
resistor with negative TCR, that is R21n < R22n. The
nominal values of resistance of the resistors R21 i R22
would be equal, respectively:
k
(1)
R2 n ,
R21n  kR2 n , R22n 
k 1
where k is the quotient of the nominal values of the
resistance of the resistor with positive TCR and the
equivalent value of resistance of the resistor R2, and R2n is
the nominal equivalent value of the equivalent resistance
of the resistor R2.
The temperature dependence of equivalent values of
resistance of the resistors R2 and R3 is described by the
following expression:
kR 1   2 t 2
(2)
R2  R3  2 n
k  k  2t
In the result of investigation of errors of equivalent
resistance of the resistors R2 and R3 it was established
that the maximum value of relative error  over the
temperature range -10…150С does not exceed 0,05 for
k=1,4 and 0,003
Introduction
Virtually all the phenomena that around the man are
directly or indirectly connected with temperature and its
measurement. Different measuring transducers are
applied for temperature measurement and control.
Among them, thermoresistive transducers belong to the
most common devices [1]. The main disadvantage of the
mass-produced thermoresistive primary transducers such
as copper and platinum RTD is the long time of output
signal setting, and a transition period of the resistance
value setting under temperature influence [2]. These
factors limit the application of metal RTD’s for
temperature measurement in the heat fluxes, rapid heat
processes and high-precision fine temperature regulation
systems. For reducing the time of output signal setting of
primary thermoresistive, it is reasonable to use the film
thermoresistors in the designed construction [3, 4].
The investigation and improvement of the primary
resistive transducers based on film thermoresistors is an
up-to-date task of termometry.

1. Investigation of the bridge resistive
transducers based on film thermoresistors
Different construction and technology methods of
thermoresistive bridge transducers design are used. We
investigated the measuring bridge (Fig.1) in which the
temperature-dependent resistors with opposite sign of
temperature coefficient of resistance (TCR) are applied
[5].
2. Design of microprocessor temperature
measuring device
The primary transducers based on two-layer film
structures can be used for design of temperature
measuring devices in non-aggressive media, for control
of temperature regimes in active thermostats, for
compensation of the thermoelectric transducer coldjunction temperature influence, and temperature
compensation of the value of electromotive force in
standard cells.
A temperature measuring device with temperature
primary transducer based on the film resistors of twolayer shifted structure have been designed (Fig.2).
The primary transducer PT is connected to the
secondary transducer ST by a four-wire connection
marked RL1, RL2, RL3 і RL4.
The secondary transducer consists of a separated
galvanically controlled voltage stabilizer CVS, an
amplifier of the PT output signal (SA), a microprocessor
MP, an indicator device ID, and a power supply unit
PSU.
R1
R2
R1
R21
R1
R22
Uf
Uout
R21
R2
R22
R3
R31
R32
R4
R4
R3
R31

R32
R4
Fig. 1. Film thermoresistive transducers: а) principal schematic, b)
arrangement details
The resistors R1, R21, and R31 are made in the lower
layer of the resistive structure on dielectric substrate with
positive TCR. The resistors R22, R32, R4 are made in the
shifted upper resistive layer with negative TCR.
It is possible to reduce the error of equivalent
resistance R2 and R3 if different nominal values of the
resistance of the resistors R21n, R22n at 0С are matched
121
Warsztaty Doktoranckie 2012
change of resistance of connection wires up to 2 Оhm the
additive error up to 1% appears.
In order to reduce the influence of the measuring
current of the primary transducer on the accuracy of the
measurement, the resistive bridge circuit is supplied by
the signal from microprocessor only when measurements
are performed. At absence of supply voltage on bridge
circuit the shift voltage of zero level of SA and analogueto-digital converter of the microprocessor МP are
measured.
PT
RL1
RL2
R3
R4
The use of thin film technology for the design of
thermoresistors with different TCR allows creating the
temperature primary transducers with good technical
characteristics. The main advantage of film
thermoresistors is a short time of output signal setting and
a high sensitivity. The presented bridge circuit based on a
shifted two-layer resistive structure exhibits the
nonlinearity error of the output signal less than 0,1%.
The usage of a four-wire connection PT to ST, and an
additive resistor allows reducing the influence of the
resistance of the connection wires on measurement
results. Experimental investigations of the resistive
bridge circuits were performed for different resistive
alloys. Different values of TCR were obtained by
adjusting the percentage content of materials of some
resistive elements, and the total measurement error not
exceed 0,15%.
The conducted experimental investigations confirmed
the theoretical considerations of the application of the
two-layer shifted structure film resistors for the design of
the temperature primary transducers.
ST
Rd
ID
CVS
R1
R2
4. Conclusions
N
RL3
RL4
SA
MP
...
PSU
Fig.2. The scheme of temperature measuring device
Accordingly to the control signal from the MP, the
stabilizer CVS sets gives the voltage Uf through resistor
Rd which is put to the supply terminals of the resistive
circuit PT. The output voltage of this circuit is defined as:
U f R m  R3
R4 
 (3)
Uo 


Rd  Rm  R2  R3 R1  R4 
R  R4 R2  R3 
where Rm  1
is the total resistance of
R1  R4  R2  R3
the bridge circuit.
From the expression (3) it can be seen that the output
voltage of the bridge circuit depends on the value of the
supply voltage Uf and the resistance of additive resistor
Rd. By adjusting the supply voltage or the resistance of
additive resistor, one can obtain the desired value of the
output voltage of bridge circuit for different film
resistors.
The scale nonlinearity error of the output voltage
does not exceed 0,1% within the range from -10 to
+150C at the maximum value of output voltage 15mV,
k=1.4 and =0,002.
The output voltage of the bridge circuit is set on input
of the amplifier SA. In consequence, the output voltage
of the amplifier is set on the converting input of an
analogue-to-digital converter of the microprocessor МP.
After processing of the input data, the MP passes the
result on the indicator device in the form of a numerical
code which equals numerically to the measuring
temperature.
References
[1] Hotra О.Z.: Microelectronic elements and devices for thermometry,
Liga-Press, Lviv, 2001.
[2] Kim J., Shin Y., Yoon Y.: A Study on the Fabrication of an RTD
(Resistance Temperature Detector) by Using Pt Thin Film, Korean J.
Chem. Eng., 2001, 18(1), 61-66.
[3] Matviiv V., Kochan V., Pirus R.: Temperature measuring device,
Patent USSA №1652831, 1991.
[4] Julian W. Post, A. Bhattacharyya, M. Imran : Experimental results
and a user-friendly model of heat transfer from a thin film resistance
temperature detector Applied Thermal Engineering, 2009, 29(1),
116-130.
[5] Boyko O., Hotra Z., Hotra O., Lopatynskyj I.: Temperature
measuring device, Patent UA № 34039, 2001.
Dr hab. inż. Oleksandra Hotra
e-mail: [email protected]
In 1989 she graduated in electronic engineering
from Lviv Polytechnical National University,
Faculty of Semiconductor Electronics. In 1996
she received Ph.D. degree from Institute of
Physics of Ukrainian Academy of Sciences in
Kiev. She habilitated in thermal measurement
from Lviv Polytechnical National University in
2002. Her fields of interests are sensors of
physical quantities based on integrated optics
and electronics, liquid crystals and liquid crystal
devices. She is working in Lublin University of
Technology, Faculty of Electrical Engineering
and Computer Science, Institute of Electronics
and Computer Technologies.
3. Investigation of the influence of the
resistance of connection wires on
measurement accuracy
The resistances of the connection wires RL3, RL4 are
connected to the high-resistance input of the operation
amplifier, and in consequence do not influence the
accuracy of output voltage formation. The resistances of
the wires RL1, RL2 are connected in series with the
additive resistor Rd, and influence the accuracy of output
voltage formation, either.
At an increase in the value of the resistance of
additive resistor Rd, the influence of the resistance of
connection wires on the measurement accuracy
decreases. A considerable increase of the resistance of the
additive resistor Rd influences on the total error of the
bridge circuit. The smallest value of the transformation
error is obtained at Rd =100 Оhm. In this case, at the
Dr. inż. Oksana Boyko
e-mail: [email protected]
She graduated from the Faculty of Applied
Mathematics, Lviv Polytechnic State University
in 1998, and she got her Ph.D. from Lviv
Polytechnic National University in speciality
Devices and Methods of measurement of
electrical and magnetic quantities in 2004. Her
scientific interests include precision calibrators
of voltage, current and resistance, and
mathematical modeling. At present, she is
assistant professor of the Chair of Medical
Informatics, Lviv National Medical University.
122
Warsztaty Doktoranckie 2012
WEIGHTED LEAST-SQUARES POLYNOMIAL APPROXIMATION
EMPLOYED TO RH SENSORS’ CALIBRATION POINTS
Jacek Majewski1 , Oksana Boyko2
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki, 2Lwowski Państwowy Uniwerytet Medyczny, Katedra Informatyki Medycznej
1
Abstract. Weighted least-squares method was applied to polynomial approximating of the transfer functions of RH sensors. The formulae for typical cases are
derived and discussed The results were compared to the calibration equations obtained by the ordinary least-squares method, and the conclusions are drown.
Keywords: RH sensors’ calibration, weighted least-squares approximation
Zastosowanie aproksymacji wielomianowej ważoną metodą najmniejszych kwadratów
do punktów kalibracyjnych sensorów wilgotności względnej
Streszczenie. Ważoną metodę najmniejszych kwadratów zastosowano do wielomianowej aproksymacji funkcji przejścia dla sensorów wilgotności względnej.
Wyprowadzono i przedyskutowano zależności odpowiadające typowym przypadkom aproksymacji. Wyniki porównano z równaniami kalibracyjnymi otrzymanymi
zwykłą metodą najmniejszych kwadratów i podano wnioski.
Słowa kluczowe: kalibracja sensorów wilgotności względnej, aproksymacja ważoną metodą najmniejszych kwadratów
and the slope coefficient B:
Introduction
B
The manufacturers of relative humidity (RH) sensors
very rarely explain the methods employed to determining
the calibration equations of the RH sensors supplied to
customers. Generally, the resulting equation is only
presented in the data sheets, sometimes accompanied
with a tabulated set of calibration points without
providing details about the calibration procedure (e.g.
[3]).
However, if the user checks the equation formula by
the widespread [2] ordinary least-squares (OLS) method
and calculates the transfer function himself, using the set
of calibration points given by the manufacturer, small
discrepancies between the datasheet formula and the
results obtained by the OLS method can be noticed.
Although small, those discrepancies can hardly be
explained simply by the rounding of the equation
coefficients. Rather, it looks like if a method of
approximation other than the OLS is used.
One of basic assumptions made in the OLS method
states that all the calibration points are obtained with
equal variances. In case of RH sensors, the calibration at
both low and high relative humidities is considerably less
accurate than at medium values within the RH
measurement range. That implies that the weighted leastsquares (WLS) method seems more adequate for RH
sensors’ calibration points, at least from the theoretical
point of view. It looks worth searching if the WLS
method can provide results more coherent with the
equations presented by the sensors’ manufacturers.
2
2
2
(2)
.
Aw 
 wx  wy   wx wxy
 w wx   wx 
(3)
Bw 
 w wxy   xw wy
 w wx   wx 
(4)
2
2
2
and
2
2
.
If the wi weights are distributed symmetrically about
the middle value of x and all the values of xi can be
shifted so that the sum of xi ‘s as well as the sum of the
products wi xi are equal to zero, the formulae (3) and (4)
are considerably simplified:
 wy
(5)
w 
w
and
w 
 wxy
 wx
2
.
(6)
The value αw is different from Aw, and must be
corrected, whereas βw in the case of linear weighted
approximation is equal to Bw.
In practice, to RH sensors the polynomial
approximation is applied. As a rule, the polynomial of
third degree: y= A+Bx+Cx2+Dx3, is applied for sensors
supplied with higher numbers (n>10) of calibration
points. The cubic approximation offers better gain in
approximation error than the quadratic one, and the
increase in computating power required for calculations
is less troublesome.
If all the calibration points are obtained with equal
variances σ and the OLS method is valid, a set of four
equations is obtained:
Suppose that a set of n calibration points xi , yi is
tabulated for i= 1, ..., n. If all the calibration points are
obtained with equal variances σ, the formulae of theOLS
method are valid; incase of linear approximation, the
equations for the coefficients of the approximation line
y=A+Bx are as follows (as all the summation operation
are from i=1 to n, the subscript and superscript indeces in
the summation symbols are omitted fo the sake of
simplicity). The interception point A with the y axis:
 x  y   x xy
n x   x 
n x 2   x 
If the calibration points are obtained with different
variances σi, σ1≠σ2≠...≠ σn, the formulae of the WLS
method are valid; and weigted sums are substituted into
the formulae (1) and (2), where each weight wi is equal:
wi = (1/ σi)2. Then the formulae for Aw and Bw are
expressed as [1]:
1. Theoretical background
A
n xy   x y
(1)
2
123
Warsztaty Doktoranckie 2012
nA  B  x  C  x 2  D x 3   y

2
3
4
 A x  B  x  C  x  D x   xy

2
3
4
5
2
 A x  B  x  C  x  D x   x y

3
4
5
6
3
 A x  B  x  C  x  D x   x y
The differencies between the coefficients were rather
low, with higher approximation errors obtained by the
WLS method. The values of RH at which the highest
relative approximation errors were obtained coincided for
the Ordinary LS and Weighted LS methods.
(7)
3. Conclusions
In general case, the formulae for the coefficients A, B,
C i D are rather complicated. Again, if the xi values are
distributed symmetrically about the middle value of x and
all the values of xi can be shifted so that the sum of xi ‘s is
equal to zero, much simpler formulae can be derived. In
the case of RH sensors, when the weights must be
considered, the codition to be met for simplified
resolving of the equation set, composed by the WLS
method, is imposed that the sum of the products wi xi is
equal to zero. The full set of four equations for WLS
method is expressed as:
For determining the polynomial approximations of
transfer functions of relative humidity (RH) sensors, the
employing of the weighted least-square (WLS) method
seems more reliable than the ordinary (OLS)method from
the theoretical point of view., despite of some practical
drawbacks. However, the computations for WLS are
more complicated, and that may restrict the spread of that
approach to the cases of highly strict approximation
procedures. Another restricting factor is the unaccurate
assesment of the weights if based only on limited data.
 Aw  w  Bw  wx  C w  wx 2  Dw  wx 3   wy

2
3
4
 Aw  wx  Bw  wx  C w  wx  Dw  wx   wxy

2
3
4
5
2
 Aw  wx  Bw  wx  C w  wx  Dw  wx   wx y

3
4
5
6
3
 Aw  wx  Bw  wx  C w  wx  Dw  wx   wx y
References
[1] Taylor J. P.: An Introduction to Error Analysis. Second ed. (revised),
in Polish, PWN, Warszawa 1999.
[2] Fraden J.: Handbook of Modern Sensors, Springer-Verlag New York
Inc., 2010.
(8)
[3] www.meas-spec.com
If all terms containing summations of the products of
odd powers of xi multiplied by wi are cancelled, the set
(8) is largely simplified:
 w  w   w  wx 2   wy

2
4
 w  wx   w  wx   wxy

2
4
2
 w  wx   w  wx   wx y

4
6
3
 w  wx   w  wx   wx y
Dr eng. Jacek Majewski was born in
Wroclaw, Poland, in 1961. He received the
M.S. degree firstly in mechanical engineering,
and secondly in electrical engineering, in 1983
and 1989, respectively, and Ph.D. degree in
electrical engineering in 1999, from the Lublin
University of Technology. His special fields are
sensors, digital measuring instruments and
fundamentals of metrology. He is working in
Lublin University of Technology, Faculty of
Electrical Engineering and Computer Science,
Chair of Automation and Metrology.
. e-mail: [email protected]
(9)
The set of four equations (9) is equivalent to two sets
of two equations: one combined of the first and third
equations from (9), and the second set combined of the
second and fourth equation.
Oksana Boyko Ph.D.,was born in Lviv,
Ukraine, 1975. She graduated from the Faculty
of Applied Mathematics, Lviv Polytechnic
State University in 1998, and she got her Ph.D.
from Lviv Polytechnic National University in
speciality
Devices
and
Methods
of
measurement of electric al and magnetic
quantities in 2004. Her scientific interests
include precision calibrators of voltage, current
and resistance, and mathematical modeling. She
is the author over 60 scientific works and
inventions. At present, she is assistant professor
of the Chair of Medical Informatics, Lviv
National Medical University.
e-mail:[email protected]
2. Calculation results
The calculation algorithms applied in both OLS and
WLS methods are highly sensitive to inaccuracies or
slight data modifications. Even simplified, the formulas
for the coefficients αw, βw, γw, and δw are still complicated
for computing, and must be transformed.to the true
coefficients Aw, Bw., and Cw.(Dw.is equal to δw).
For a few RH sensors [3] of different numbers of
calibration points the computations of transfer functions,
both by the OLS and the WLS methods, were performed.
124
Warsztaty Doktoranckie 2012
ANALIZA ROZWIĄZAŃ ZWIĄZANYCH Z JĘZYKAMI
MODELOWANIA DLA URZĄDZEŃ MOBILNYCH POD KĄTEM
INTERAKCJI UŻYTKOWNIKA Z APLIKACJĄ
Kamil Żyła1
1
Politechnika Lubelska, Wydział Elektrotechniki i Informatyki
Streszczenie. Inżynieria sterowana modelami jest obecnie dynamicznie rozwijającą się dziedziną inżynierii oprogramowania, której głównym zadaniem jest
zwiększenie abstrakcji oraz uproszczenie procesu wytwarzania oprogramowania. Dynamika jej zmian zaczyna dorównywać popularności urządzeń mobilnych.
Celem artykułu jest zidentyfikowanie i podsumowanie osiągnięć inżynierii sterowanej modelami w dziedzinie modelowania aplikacji dla urządzeń mobilnych z
punktu widzenia interakcji użytkownika z aplikacją oraz ocena ich przydatności, a także zaproponowanie innowacyjnej graficznej notacji osadzonej w
istniejących realiach.
Słowa kluczowe: inżynieria sterowana modelami, technologie mobilne, języki modelowania aplikacji mobilnych
Analysis of modeling languages dedicated for mobile devices from the user interaction
point of view
Abstract. Nowadays Model-Driven Engineering (MDE) is dynamically evolving domain of software engineering. Its main goal is to improve abstraction level
and simplify the process of software development. In parallel the role of mobile platforms and need for dedicated applications increased significantly. The main
goal of this paper is to identify and summarize achievements of MDE in the field of modeling mobile applications, analyze their usefulness and propose
innovative graphical notation fulfilling the technology gap.
Keywords: Model-Driven Engineering, mobile technologies, DSLs for modeling mobile applications
Sformalizowany opis metody tworzenia modeli
będący „modelem modelu” jest nazywany metamodelem
i jest zbiorem konceptów (elementów, procesów itp.)
związanych z określoną dziedziną. Jeśli model jest
abstrakcją świata rzeczywistego, to metamodel jest
abstrakcją opisującą właściwości takiego modelu oraz
określającą podstawowe jego elementy. [5]
Kod wynikowy aplikacji jest generowany na
podstawie odpowiednich modeli – w przypadku
złożonych systemów informatycznych kod wynikowy
może być wypadkową wielu modeli różnego typu.
W związku z tym ważne jest utrzymanie spójności
modeli z kodem. W tym celu zmiany powinny być
wprowadzane w modelu, a nie kodzie aplikacji,
a następnie propagowane przez generator. [2]
Wstęp
Inżynieria sterowana modelami (MDE) jest aktualnie
jedną z dynamicznie rozwijających się dziedzin inżynierii
oprogramowania. Badaniami nad nią zajmują się
znaczące centra badawcze takie, jak m.in.: Politecnico
di Milano, Ecole des Mines de Nantes, Technical
University of Vienna. Również firmy w branży
wytwarzania oprogramowania spostrzegły potencjał
dziedziny, a wśród nich m.in. IBM. [2]
Jednocześnie wzrasta znaczenie urządzeń mobilnych
– już od 2009 roku telefon komórkowy jest najczęściej
kupowanym urządzeniem elektronicznym na świecie [3].
W dodatku warto zauważyć, że coraz większą część
rynku obejmują tzw. smartfony (w 2010 roku stanowiły
3/4 sprzedanych telefonów) i tablety [1]. Ciągła
ekspansja tego rynku sprzyja rozwojowi platform
programistycznych oraz zapotrzebowaniu na szybkie
metody wytwarzania oprogramowania.
Siła obydwu trendów sprawia, że warto zastanowić
się nad rozwiązaniami MDE stosowanymi w procesie
wytwarzania aplikacji na urządzenia mobilne.
2. Istniejące rozwiązania MDE w
kontekście modelowania aplikacji
mobilnych
App Inventor jest narzędziem modelowania aplikacji
mobilnych na platformę Android opracowanym przez
firmę Google. Obecnie opieka nad nim została
przekazana Massachusetts Institute of Technology.
Modelowanie aplikacji przebiega dwuetapowo –
opracowanie interfejsu aplikacji mobilnej, a następnie
reprezentacja
akcji
związanych
z
elementami
interfejsu. [6]
WebML (ang. Web Modeling Language) jest
narzędziem modelowania aplikacji internetowych
zarządzających dużymi ilościami danych opracowanym
i rozwijanym przede wszystkim przez Politecnico
di Milano oraz Web Models.
Na proces powstawania aplikacji składają się
specyfikacja
wymagań
funkcjonalnych
i
niefunkcjonalnych, opracowanie modelu danych oraz
opracowanie modelu hipertekstu. Każdy z etapów
korzysta z charakterystycznych dla siebie rozwiązań. [2]
IFML (ang. Interaction Flow Modeling Language)
jest językiem dziedzinowym, będącym w trakcie procesu
standaryzacji OMG, służącym do uogólnionego opisu
interakcji użytkownika z aplikacją. Na potrzeby języka
wydzielono dwa główne obszary aplikacji – logikę
biznesową i widok użytkownika. IFML obejmuje swoim
1. Podstawowe pojęcia MDE
Obecnie w ramach inżynierii sterowanej modelami
wyróżnia się dwa główne podejścia do procesu
wytwarzania oprogramowania: MDA (ang. ModelDriven Architecture) – sformalizowane podejście
zaproponowane przez OMG (ang. Object Management
Group) oraz MDSD (ang. Model-Driven Software
Development) – mniej sformalizowane podejście
ukierunkowane na szybką implementację. [2]
Niezależnie
od
podejścia
oprogramowanie
reprezentuje się przy pomocy modeli zbudowanych
z wykorzystaniem graficznych bądź tekstowych języków
modelowania. Wspomniane języki są zazwyczaj
dostosowane do dziedziny aplikacji i są wtedy nazywane
językami dziedzinowymi (ang. DSLs – Domain Specific
Languages). Model zdefiniowany przy pomocy języka
dziedzinowego nazywa się modelem dziedzinowym (ang.
DSM – Domain Specific Model). [2]
125
Warsztaty Doktoranckie 2012
zakresem: interakcję pomiędzy komponentami widoku
użytkownika, interakcję pomiędzy użytkownikiem
a komponentami widoku użytkownika, rozmieszczenie
komponentów widoku użytkownika i ich powiązania
z obiektami biznesowymi. [4]
Przedstawione
rozwiązania
posiadają
wady
w dziedzinie modelowania aplikacji z punktu widzenia
ich interakcji z użytkownikiem. AppInventor jest
dedykowany platformie mobilnej, ale poza tym stanowi
niewielką
abstrakcję
dla
instrukcji
języka
programowania. WebML z kolei służy do modelowania
aplikacji internetowych, więc nie pokrywa zagadnień
typowych dla aplikacji mobilnych.
Niemniej najbliżej mu do idei modelowania interakcji
z użytkownikiem, a wynikowe aplikacje internetowe
mogą zostać dostosowane do platform mobilnych
poprzez odpowiednie szablony. IFML jest zaś
projektowany pod kątem modelowania interakcji z
użytkownikiem i wyrasta z tradycji wielu istniejących
rozwiązań, ale poprzez swoją ogólność nie uwzględnia
potrzeb urządzeń mobilnych. Rozwiązania tekstowe
wymagają z kolei dużej dyscypliny i mogą być trudne do
opanowania.
lokalizacyjne,
usługi
multimedialne,
usługi
społecznościowe, graficzny interfejs użytkownika,
przetwarzanie treści, sensory urządzenia, usługi
komunikacyjne (np. bluetooth i wi-fi), itp.
Edytor umożliwiający projektowanie aplikacji
z wykorzystaniem przedstawionej notacji jest tworzony
jako rozszerzenie środowiska Eclipse zbudowane
w oparciu o EMF (ang. Eclipse Modelig Framework)
i GMF (ang. Graphical Modeling Framework), będące
składowymi EMP (ang. Eclipse Modeling Project).
Podsumowanie
Na podstawie analizy istniejących rozwiązań MDE
pod kątem modelowania aplikacji dla urządzeń
mobilnych stwierdza się, że szczególnie obiecujący jest
język AML stworzony przez Kamila Żyła. W ramach
prowadzonych przez niego badań zdefiniowano założenia
języka oraz
jego edytora. Aktualnie trwają
zaawansowane prace nad metamodelem języka AML,
ostatecznym kształtem edytora oraz zapewnieniem
zgodności ze standardami obowiązującymi w inżynierii
sterowanej modelami.
W przeciwieństwie do AML przedstawione
rozwiązania nie są w pełni dostosowane do potrzeb rynku
urządzeń mobilnych. Część z nich jest trudna w odbiorze
dla projektanta lub wymaga długiej nauki, część jest
jedynie graficzną abstrakcją języka programowania, więc
nie spełnia wymogu projektowania z punktu widzenia
interakcji z użytkownikiem, kolejne zaś spełniają to
wymaganie, ale nie są dedykowane dla urządzeń
mobilnych.
3. Założenia Aergia Modeling Language
Dostępne rozwiązania MDE są niewystarczające dla
potrzeb
modelowania
aplikacji
mobilnych
z uwzględnieniem interakcji użytkownika z aplikacją.
W związku z tym jest potrzebna łatwa do nauczenia
notacja graficzna wykorzystująca specyficzne możliwości
urządzeń przenośnych, której elementy (komponenty)
połączone siecią zależności pozwolą odzwierciedlić istotę
aplikacji (zbudować model aplikacji) nawet ludziom
z ograniczoną wiedzą programistyczną i znajomością
UML (ang. Unified Modeling Language).
Powyższe wymagania spełnia graficzny język DSL
(notacja) o roboczej nazwie Aergia Modeling Language
(AML), nad którym pracuje Kamil Żyła (autor
niniejszego artykułu). Jego podstawowe składowe to:
Literatura
[1] Hatalska N. (2012): Penetracja smartfonów w Polsce – dane za
2011,
http://hatalska.com/2012/02/13/penetracja-smartfonow-wpolsce-dane-za-2011/ (stan na 12.04.2012 r.)
[2] Kęsik J., Żyła K.: Współczesne Technologie Informatyczne –
Technologie MDE w projektowaniu aplikacji internetowych,
Wydawnictwo Politechniki Lubelskiej, Lublin 2011
[3] Konecki T. (2011): Rzeczywistość rozszerzona - lepsza wersja
świata,
http://nt.interia.pl/news/rzeczywistosc-rozszerzona-lepszawersja-swiata,1651714 (stan na 12.04.2012 r.)
[4] Object Management Group: Interaction Flow Modeling Language
(IFML) RFP, OMG Document: ad/11-12-06
[5] Stahl T., Völter M.: Model-Driven Software Development:
Technology, Engineering, Management. Wiley, 2006.
[6] Żyła K.: Wykorzystanie mechanizmów lokalizacji urządzenia
mobilnego w oparciu o Google App Inventor. Logistyka 3/2012,
Instytut Logistyki i Magazynowania, Poznań, 2012.
1. Komponenty reprezentujące aktywności, które mogą
zostać wykonane przez aplikację mobilną, np.
odczytanie pozycji GPS, zapisanie do bazy danych,
wyświetlenie treści w określony sposób.
2. Połączenia (linki) łączące poszczególne komponenty
i wykorzystywane do przekazywania wartości lub
tworzenia łańcuchów operacji.
3. Łańcuchy operacji będące zespołami komponentów
symbolizujących pewne akcje, których kolejność
wykonania jest określona przez połączenia.
4. Kontenery umożliwiające grupowanie elementów
notacji.
mgr inż. Kamil Żyła
[email protected]
Asystent w Instytucie Informatyki Politechniki
Lubelskiej. Zajmuje się inżynierią sterowaną
modelami, technologiami mobilnymi oraz
bazami danych. Uczestnik i współautor projektu
„MDE Expertise - Exchanging knowledge,
techniques and experiences around Model
Driven Engineering education”
W związku ze specyfiką urządzeń mobilnych,
komponenty notacji uwzględniają m.in. następujące
obszary: operacje na mobilnych bazach danych, usługi
126
Warsztaty Doktoranckie 2012
WPŁYW NASYCENIA OBWODU MAGNETYCZNEGO NA PARAMETRY
MODELU OBWODOWEGO MASZYNY SYNCHRONICZNEJ Z
MAGNESAMI TRWAŁYMI
Rafał Piotuch1
1
Zachodniopomorski Uniwersytet Technologiczny, Wydział ELEKTRYCZNY
Streszczenie. W artykule przedstawiono metodę wyznaczania indukcyjności własnych faz oraz indukcyjności w osi d i q oraz wpływ wartości prądu stojana na parametry
modelu obwodowego. Przedstawione wyniki badań symulacyjnych, opartych na metodzie MES, pozwoliły wyznaczać niezbędne
parametry dla modelu obwodowego analizowanej maszyny, które stanowią istotne dane wejściowe dla dalszej analizy pracy maszyn z magnesami trwałymi.
Słowa kluczowe: maszyna synchroniczna, indukcyjność w osi d i q, analiza polowa
Influence of a magnetic core saturation on circuit model parameters of a machine excited with
permanent magnets
Abstract. In the paper a method of self-inductances and d,q axis inductances determination is presented including influence of magnetic core saturation on its values.
Presented simulation results, based on FE method, can be used for proper determination of parameters values of circuit machine model. It is going to be a basis for further
analysis of PM synchronous machine work.
Keywords: synchronous machine, d and q axis inductance, field analysis
Wstęp
Maszyny synchroniczne wzbudzane magnesami trwałymi
oferują coraz lepsze właściwości, a wysoki stosunek momentu
do masy oraz niski moment bezwładności wirnika czyni je
idealnym rozwiązaniem w aplikacjach wymagających
wysokiej dynamiki. Poprawne wyznaczenie parametrów
modelu obwodowego jest podstawą syntezy regulatorów.
Wielu autorów, projektując regulatory bazuje na modelu o
parametrach stacjonarnych. Istotnym zagadnieniem, coraz
częściej podejmowanym w literaturze zagranicznej[6,7,9], jest
wpływ nasycenia obwodu magnetycznego silnika na wartości
parametrów modelu obwodowego.
W streszczeniu przedstawiono wybrane wyniki badań
symulacyjnych wykonanych przy użyciu programu Maxwell
2D firmy Ansys dotyczących wyznaczania indukcyjności
własnych faz.
indukcja magnetyczna [mT]
1000
1. Maszyna synchroniczna
Modelowana maszyna synchroniczna
trwałymi ma następujące wymiary:
Długość części czynnej: 35 mm
Grubość magnesu: 4 mm
Kąt magnesu: 72o.
Ilość żłobków: 36
Ilość faz: 3
Liczba par biegunów: 2
Średnica wirnika: 40 mm
Średnica stojana: 81.5 mm
z
Przekrój poprzeczny maszyny z magnesami
Rys. 1.
magnesami
800
600
400
200
0
0
20
40
60
kąt bieguna [stopnie]
80
100
Rys. 2.
Wartość indukcji magnetycznej w szczelinie powietrznej wzdłuż kąta
bieguna
Modelem matematycznym, który jest powszechnie
stosowany w opisie działania maszyny synchronicznej z
magnesami jest model zapisany z wykorzystaniem teorii
wektorów przestrzennych. Przemawia za tym fakt, że tak
zapisany model ma wiele zalet takich jak zwięzły zapis,
prostota, możliwość łatwego przekształcania, intuicyjna
reprezentacja.
W szczególności zapis ten jest bardzo przydatny w analizie
wektorowych algorytmów sterowania maszynami prądu
przemiennego. Zazwyczaj sterowanie takie realizowane jest w
układzie wirującym synchronicznie z wektorem strumienia od
magnesów trwałych (układ d, q) - układ zorientowany polowo.
Przekrój poprzeczny modelowanej maszyny pokazano na
rys. 1.
Wybranymi magnesami są magnesy NdFe (o indukcji
remanencji 1.23T i natężeniu koercji -890kA/m)
127
Warsztaty Doktoranckie 2012
34
Indukcyjność [mH]
32
30
28
26
24
22
0
Rys. 4.
Rys. 3.
Wektorowy wykres maszyny w układzie związanym z wirnikiem
U sd  Rs I sd 
U sq  Rs I sq 
d  sd
 pb m  sq
dt
d  sq
dt
 pb m  sd
 sd  Ld I sd   PM
 sq  Lq I sq
0.4
0.3
0.2
Czas [s]
0.1
0
Indukcyjność własna fazy w funkcji kąta obrotu wału i prądu
4. Wnioski
Wykorzystanie
zaawansowanych
narzędzi
programistycznych takich jak program Maxwell 2D oraz
nowoczesnej techniki komputerowej pozwala na wyznaczenie
indukcyjności własnych faz w funkcji prądu oraz kąta
położenia wirnika. Poprawne wyznaczenie tych indukcyjności
oraz indukcyjności w osi d oraz q ma wpływ na jakość
regulacji tych układów, których algorytmy regulacji opierają
się o równania obwodowe modelu matematycznego maszyny
synchronicznej.
Wraz ze wzrostem prądu indukcyjność maleje, ale jest ona
również zależna od kąta obrotu wału. Wyniki te można
wykorzystać w układach regulacji prądu silników
synchronicznych z magnesami trwałymi.(1.5.2c)
(1)
(2)
(3)
(4)
2. Wyznaczanie indukcyjności własnych
uzwojeń fazowych
Literatura
Indukcyjności własne faz A, B, C mogą zostać
wyznaczone dla różnych wartości prądu stojana oraz różnych
położeń wirnika.
Wyniki przedstawione na rysunkach 3 oraz 4 przedstawiają
wartości indukcyjności zdefiniowane jako stosunek strumienia
skojarzonego z daną fazą (pochodzącego od prądu w tej fazie)
do wartości prądu, który ten strumień wywołuje:
LsA   sA / I sA
10
20
Amplituda prądów [A]
[1] Gieras J., Wing M.: Permanent Magnet Motor Technology Design and
Applications, University of Cape Town Rondebosch, South Africa, 1997.
[2] Putek P., Paplicki P., Slodička M., Pałka R.: Minimization of cogging
[3]
[4]
(5)
[5]
3. Wyniki badań symulacyjnych
[6]
Wstępne wyniki badań pokazują, że wpływ użłobkowania
stojana na wartość indukcję „wzdłuż magnesu” jest
zauważalny. Indukcyjności własne faz zależą w znacznym
stopniu od nasycenia obwodu magnetycznego (dla
przedstawionego silnika zmienność prądu od 0-20A
powodowała zmianę maksymalnej wartości indukcyjności
własnej fazy od 34-22mH.
Można ogólnie stwierdzić, że dla struktur z rdzeniem, im
większy prąd tym mniejsza indukcyjność własna fazy – tzn.
ten sam wzrost prądu powoduje coraz mniejszy wzrost
strumienia skojarzonego z uzwojeniem.
[7]
[8]
[9]
torque in permanent magnet machines using the topological gradient and
adjoint sensitivity in multi-objective design, Proc. of ISEM 2011, Napoli,
Italy
Tunia H., Kaźmierkowski M. Podstawy automatyki napędu elektrycznego,
ISBN: 83-01-04557-4, PWN, Warszawa, 1983.
Jagieła M., Grabiec T.: Coupling electromagnetic (FE) models to
multidomain simulator to analyse electrical drives and complex control
systems, University of Cape Town Rondebosch, South Africa, 1997.
Dal Y. Ohm, Dynamic Model of PM Synchronous Motors, Drivetech, Inc.
Blacksburg, Virginia, 2000
Rahman M., Zhou P.,: Analysis of Brushless Pemanent Magnet
Synchronous Motors, IEEE, Transactions on industrial Electronics, VOL. 43
NO. 2 1996
Rahman M., Zhou P.: Determination of saturated parameters of pm motors
using loading magnetic fields, IEEE, Transactions on Magnetics, VOL. 27
NO. 1991
Le-Hut H., Slimani K., Viarouge P.: Analysis and implementation of a realtime predictive current controller for permanent-magnet synchronous servo
driver, IEEE 1991
Im J., Inductance calculation metod od synchronous reluctance motor
including iron loss and cross magnetic saturation, IEEE, Transactions on
Magentics, 2009
Mgr inż. Rafał Piotuch
e-mail: [email protected]
Pan mgr inż. Rafał Piotuch jest doktorantem w
Katedrze
Elektroenergetyki i Napędów
Elektrycznych
Zachodniopomorskiego
Uniwersytetu Technologicznego w Szczecinie.
Pod opieką prof. Ryszarda Pałki realizuje
badania na temat regulatorów prądu dla
silników synchronicznych z magnesami
trwałymi.
128
Warsztaty Doktoranckie 2012
PORÓWNANIE WYBRANYCH METOD OKREŚLENIA OBSZARU
PŁOMIENIA W WIZYJNYM SYSTEMIE DIAGNOSTYCZNYM
Andrzej Kotyra, Daniel Sawicki
Politechnika Lubelska, Instytut Elektroniki i Technik Informacyjnych
Streszczenie. W pracy przedstawiono porównanie metod wykrywania krawędzi dla obrazów spalania pyłu węglowego. Porównano metodę gradientowe z metodą zbiorów
poziomicowych oraz metodą opartą o model konturu aktywnego Chan-Vese. Wyniki badań pokazują, że metoda korzystająca z modelu Chan-Vese dobrze odwzorowała brzeg
obszaru.
Słowa kluczowe: wykrywanie brzegu obszaru, płomień, spalanie, kontur aktywny.
Abstract. This paper presents comparison edge detection method of combustion pulverized coal. Compared method are: gradient edge detection operator, level set method and
Chan-Vese active contour method. Experimental results show that edges extracted with method based on Chan-Vese active contour model gives good result. (Using active contour
flame area vision monitoring system).
Keywords: edge detection, flame, combustion, active contour.
działających oddzielnie w kierunku wierszy i w kierunku
kolumn. Wartości pierwszej pochodnej dla maski pionowej
wyznaczane są zgodnie z równaniem:
Wstęp
Wykorzystanie płomienia jako źródła informacji o procesie
spalania jest jednym ze sposobów diagnozowania tego procesu
[1]. Dzięki analizie obrazu płomienia można uzyskać
informację o stanie procesu praktycznie bez żadnych opóźnień.
Jest to szczególnie istotne w przypadku spalania paliw
charakteryzujących się dużą zmiennością właściwości fizykochemicznych. Do tej grupy należą m.in. mieszaniny biomasy i
węgla, których spalanie jest najbardziej rozpowszechnionym w
Polsce sposobem wykorzystania paliw odnawialnych [2].
Płomień towarzyszy egzotermicznym reakcjom utleniania.
Obecność płomienia związana jest więc z miejscem w
przestrzeni, gdzie taki rodzaj reakcji występuje. Trudno jest
jednak w takim przypadku wskazać granicę oddzielającą
przestrzeń, w której spalanie występuje, ponieważ stężenia
reagentów nie zmieniają się w sposób skokowy. Głównym
źródłem promieniowania w płomieniu pyłowym jest obłok
rozgrzanych do wysokiej temperatury cząstek stałych (pyłu
węglowego, sadzy, popiołu itp.). Ponieważ koncentracja
świecących cząstek nie zmienia się skokowo, nie można
wyróżnić krawędzi płomienia, jak np. w przypadku ciała stałego.
Występujące w płomieniu zjawiska pochłaniania i rozpraszania
promieniowania wprowadzają dodatkowe niejednoznaczności w
określeniu granicy płomienia.
Z tego względu istotnym jest zbadanie różnych algorytmów
pozwalających na wykrycie krawędzi płomienia, pod kątem ich
wykorzystania w układzie diagnostyki procesu spalania [3]. W
tym celu porównano metody Canny’ego [3], zbiorów
poziomicowych [4] oraz aktywnego konturu [5,6] dla obrazów
zarejestrowanych w czasie testów spalania mieszanin pyłu
węglowego i biomasy w warunkach laboratoryjnych przy
różnych wydatkach powietrza i paliwa. Pod uwagę brano
zmienność uzyskiwanych wartości pola powierzchni płomienia
wyznaczonego w czasie trwania wspomnianych testów.
 x2
G ( x )'    2
 

x2
  2
  e 2


(1)
gdzie: s – odchylenie standardowe, x – pozycja piksela w masce
w kierunku wierszy.
Analogicznie według wzoru (5) wyznaczane są wartości dla
maski poziomej. W wyniku konwolucji obrazu z każdą z masek,
otrzymujemy składowe gradientu w dwóch prostopadłych do
siebie kierunkach. Wartości odpowiedzi i kierunek krawędzi
obliczane są zgodnie z wzorami (2) oraz (3):
Gmag  ( S x ) 2  ( SY ) 2
(2)
(3)
Gdir  arctan SY / S x
gdzie: Sx – maska pozioma, wyznacza wartość gradientu w
kierunku wierszy, Sy – maska pionowa, wyznacza wartość
gradientu w kierunku kolumn.
Kolejnym etapem jest proces polegający na „tłumieniu”
lokalnych
wartości
nie-maksymalnych
(non-maximum
suppresion). Pikselem krawędzi będzie ten, dla którego wartość
odpowiedzi krawędzi będzie większa od wartości pikseli
sąsiednich, leżących w tym samym kierunku. Końcowy etap to
procedura binaryzacji z histerezą z wykorzystaniem dwóch
wartości progowych, wysokiego progu Th oraz niskiego Tl.
2. Metoda zbiorów poziomicowych
Metoda zbiorów poziomicowych jest to technika
numeryczna, za pomocą której można śledzić figury
poszukiwanego obiektu oraz optymalizować ich kształt.
Podstawową zaletą metody jest możliwość wykonywania
obliczeń numerycznych związanych z krzywymi lub
płaszczyznami w układzie kartezjańskim bez konieczności
ich
parametryzowania [4,7].
Idea metody zbiorów
poziomicowych sprowadza się do analizy i wyznaczania ruchu
granicy hiperpowierzchni Γ obszaru Ω w polu prędkości υ(u, v,
w). Prędkość może zależeć od położenia, czasu, geometrii Γ oraz
warunków zewnętrznych. Zdefiniowana jest funkcja (x,t)
nazwaną zbiorem funkcji poziomic. Granica Γ określona jest
jako zbiór gdzie funkcja (x,t)=0, x=(x1, x2,…,xn)n. Funkcja
(x,t) przyjmuje następujące wartości:
1. Metoda Canny’ego
Algorytm Canny’ego jest jednym z niewielu filtrów
wykrywania krawędzi zaprojektowanym w oparciu o czysto
analityczne podejście do konstrukcji filtrów tego typu. W
zależności od wartości i układu współczynników w maskach
filtrujących, wykrywają linie mające określony kierunek, na
przykład pionowe, poziome lub ukośne [3].
Pierwszym etapem działania algorytmu jest redukcja
szumów filtrem Gaussa, a następnie wyznaczenie pierwszej
pochodnej obrazu, jako pochodnej tej funkcji. Oba działania
wykonywane są z wykorzystaniem masek jednowymiarowych
129
Warsztaty Doktoranckie 2012
( x , t )  0 dla x   1
( x , t )  0 dla x   2
( x , t )  0 dla x     ( t )
c) zbiory poziomicowe
d) Chan-Vese
Rys.1. Wynik wykrywania krawędzi dla przykładowego obrazu
(4)
5. Podsumowanie
Z przedstawionych obrazów testowych można wyciągnąć
następujące wnioski. Używając różnych metod osiągnięto
bardzo rozbieżne wyniki.
Metoda wykorzystująca algorytm Chan-Vese dokładnie
wykrywa brzeg obszaru i podobnie jak w metodzie zbiorów
poziomicowych jest on ciągły. Gradientowa metoda wykrywania
krawędzi z operatorem Canny wykrywa kontur, który jest nie
ciągły i nie pozwoli na określnie dodatkowych parametrów
płomienia.
Dalsze prace skoncentrowane będą na badaniu parametrów
geometrycznych wykrytego obrazu płomienia do diagnostyki
procesu spalania..
gdzie Ω1 Ω2 Ω = .
Podstawowe równanie zbiorów poziomicowych [24]:
 (x(t ), t )
 F   (x(t ), t )  0
t
(5)
3. Model konturu aktywnego Chan-Vese
Algorytm Chan-Vese do segmentacji obrazu wykorzystuje
uproszczony model Mumford-Shah i funkcję zbiorów
poziomicowych [8]. Algorytm ten nie wymaga stosowania wielu
obszarów startowych w celu wykrycia bardziej złożonych
kształtów obiektów. Niech  obszarem obrazu I(x,y), który
można podzielić na wewnętrzny i zewnętrzny obszar
ograniczony konturem  o intensywności odpowiednio c1 i c2.
Funkcja celu konturu aktywnego została zdefiniowana
następująco:
Literatura
[1] Wójcik W., Kotyra A., Golec T., Gromaszek K.: Vision based monitoring of
coal flames, Przegląd Elektrotechniczny, 3 (2008) 241-243.
[2] Golec T.: Współspalanie biomasy w kotłach energetycznych, Energetyka i
Ekologia, 7 (2004), 437-444.
[3] Canny, J.: A Computational Approach To Edge Detection, IEEE Trans.
Pattern Analysis and Machine Intelligence, 8 (1986) 679-714.
[4] Filipowicz S., Sikora J., Polakowski K., Rymarczyk T.: Zastosowanie metody
zbiorów poziomicowych oraz metody granicy podobszarów w impedancyjnej
tomografii komputerowej, Przegląd Elektrotechniczny, 4 (2009).
[5] Chan T., Sandberg Y. L.: Active contours without edges for Vector-valued
Image, Journal of Visual Communication and Image Representation 11
(2000), 130-141.
[6] Chan T., Vese L.: Active contours without edges, IEEE Transaction on Image
Processing, 10 (2001), 266-277.
[7] Osher S., Fedkiw R.: Level Set Method and Dynamic Implict Surfaces,
Springer, New York, 2003.
[8] Xingxing S, Fuzhen H.: Flame detection based on C-V active contour model,
International Conference on Artificial Intelligence and Computational
Intelligence 2009.
F (  , c1 , c 2 )    L(  )   S 0 (  ) 
1
 | I  c1 |
2
inside(  )
dxdy   2
 | I  c2 |
2
dxdy (11)
outside(  )
gdzie L() jest długością , S0() jest wewnętrznym obszarem ,
µ, ѵ ≥0, λ1, λ2 >0 są współczynnikami odpowiednich wyrażeń
funkcji celu.
4. Wyniki
Dokonano segmentacji obrazu metodą gradientową Canny,
metodą zbiorów poziomicowych oraz
metodą konturu
aktywnego i porównano wyniki. W modelu konturu aktywnego
użyto następujących parametrów: λ1=λ2=1, ε=1. Przedstawiono
wyniki wybranych obrazów płomienia zarejestrowanych w
wyniku współspalania pyłu węglowego i słomy. Obraz
obejmował strefę w pobliżu wylotu palnika pod kątem ok. 45
do osi palnika.
Dr hab. inż. Andrzej Kotyra
e-mail: [email protected]
ukończył studia na Wydziale Elektrycznym
Politechniki Lubelskiej w 1991r.. Od 1992 r.
pracuje w Instytucie Elektroniki i Technik
Informacyjnych Politechniki Lubelskiej. W
2002 r. uzyskał tytuł doktora nauk
technicznych a w 2011r. tytuł doktora
habilitowanego. Od 2012 jest kierownikiem
Zakładu Diagnostyki i Analizy Pomiarów.
Mgr inż. Daniel Sawicki
e-mail: [email protected]
a) o braz oryginalny
ukończył studia o kierunku elektrotechnika na
Wydziale
Elektrotechniki i Informatyki
Politechniki Lubelskiej w 2006r. Obecnie jest
zatrudniony jako asystent w Instytucie
Elektroniki
i
Technik
Informacyjnych
Politechniki Lubelskiej
b) canny
130
Warsztaty Doktoranckie 2012
4 KANAŁOWY MODUŁ LED DO SYSTEMU WSPOMAGAJĄCEGO
ROZWÓJ ROŚLIN
Tomasz Cegielski1,2
1
Instytut Elektrotechniki, Studia Doktoranckie, 2NIVISS Sp. z o.o. Sp. k., Gdynia
Streszczenie. W artykule przedstawiono moduł oświetleniowy z 24 diodami elektroluminescencyjnymi sterowanymi w 4 niezależnych kanałach. Przeznaczony
on jest do pracy w systemach wspomagających rozwój roślin. Jego modułowa konstrukcja oraz elastyczność w doborze elementów umożliwia dopasowanie
go do wymagań wielu gatunków i odmian roślin w różnych fazach rozwoju. Moduły mogą pracować w rozbudowanych systemach jak również samodzielnie
po uprzednim zaprogramowaniu. Jako przykład zastosowania zaprezentowano projekt modernizacji fitotronu do badań fizjologii roślin.
Słowa kluczowe: LED, naświetlanie roślin, fotosynteza, fotomorfogeneza, system oświetleniowy, DMX512
4 Channel LED Module for Use in Grow Lighting System
Abstract. 24 LEDs module with 4 independent controlled channels is presented. It can be used in plant grow lighting system. Its modular design and
flexibility in the choice of components allows module to be adjusted to the requirements of many species and varieties of plants in various stages of growth.
The modules can operate in complex systems and after preprogramming independently as well. As an example, plant growth room modernization project is
presented.
Keywords: LED, plant lighting, photosynthesis, photomorphogenesis, lighting control system, DMX512
Wstęp
2. Budowa modułu
Intensywna i całoroczna hodowla roślin w krajach o
klimacie umiarkowanym lub chłodnym wymaga doświetlania
roślin. Swiatło – jego ilość i rodzaj decyduje nie tylko o
odżywianiu roślin w procesie fotosyntezy ale decyduje też o
fotomorfogenezie czyli inicjowaniu lub hamowaniu niektórych
procesów fizjologicznych [1].
Odpowiedni dobór światła może nie tylko umożliwić lub
przyśpieszyć wzrost rośliny ale ją również odpowiednio
uformować – poprawić jakość, wymusić dogodny czas
kwitnienia, plonowania czy ułatwić późniejszy transport.
Półprzewodnikowe źródła światła umożliwiają uzyskanie
odpowiedniego rozkładu widmowego i natężenia światła
potrzebnego do właściwego doświetlania roślin. Ponadto
charakteryzują się wysoką efektywnością, długą żywotnością i
brakiem szkodliwych substancji [2].
Prezentowany moduł (rysunek 1) składa się: z płytki
drukowanej na podłożu z rdzeniem aluminiowym (MCPCB –
Metal Core Printed Circuit Board)), soczewki z uszczelką,
radiatora, przetwornic DC/DC z wyjściem stałoprądowym, 4
kanałowego kontrolera DMX512 oraz zasilacza AC/DC.
Na płytce MCPCB znajdują się 4 łańcuchy po 6 LEDów.
Intensywność świecenia każdego z łańcuchów ustawiają
przetwornice sterowane sygnałem PWM generowanym przez
kontroler. Kontroler może być sterowany za pomocą protokołu
DMX512 [3] lub realizować wgrany uprzednio program.
1. Wymagania dla oświetlenia wspomagającego
rozwój roślin
Na wzrost i plonowanie roślin ma wpływ wiele czynników:
jak temperatura, wilgotność, stężenie CO2 czy rodzaj podłoża.
Ale to światło jest najważniejszym czynnikiem i oddziałuje na
szereg procesów fizjologicznych. Substancje które funkcjonują
jako fotoreceptory to barwniki roślinne, ich budowa umożliwia
przekazanie roślinie energii światła (barwniki fotosyntetyczne,
np.: chlorofil, karetonoidy) lub informacji o świetle (barwniki
fotomorfogeniczne, np.: fitochrom, kryptochrom, fototropiny).
W przeciwieństwie do krzywej czułości ludzkiego oka
podstawowe barwniki posiadają maksima absorbcji nie dla
barwy zielonej ale dla niebieskiej lub czerwonej. Z tego też
powodu pomiar luksomierzem jest nieodpowiedni do określenia
natężenia oświetlenia lamp do doświetlania roślin. Do tego
właściwe jest określenie powierzchniowej gęstości strumienia w
zakresie PAR (Photosyntetic Active Radiation - promieniowanie
fotosyntetycznie czynne), uwzględnia się w ten sposób w
pomiarach w większym stopniu zakresy widma absorbowane
przez rośliny.
Oświetlenie wspomagające rozwój roślin powinno więc
emitować światło o długościach fali zbliżonych do tych dla
których występują maksima absorbcji barwników. Dla chlorofili
są to 439nm, 453nm, 642nm i 662nm, dla fitochromu 660nm i
735nm.
Rośliny reagują też na fotoperiodyzm Do właściwego
rozwoju potrzebują odpowiednich
przerw pomiędzy
naświetleniami.
Rys. 1.
Fotografia kompletnego modelu modułu.
Zastosowana soczewka LL24CR-AU75135l [4] kieruje
światło w sposób odpowiedni dla lamp ulicznej, umożliwia to
zwartą konstrukcję lampy zbudowanej na podstawie
przedstawionego modułu. Jest również uniwersalna: można ją
zastosować jednocześnie z LEDami różnych rodzin i
producentów, łatwiej dzięki temu będzie uzyskać pożądaną
charakterystykę widmową.
3. Funkcjonalność systemu opartego na
prezentowanym module
Wykonany model zawiera łańcuchy LEDów o następujących
dominujących długościach fali: 452,5±2,5nm, 472,5±2,5nm,
625,5±2,5nm oraz diodę białą o temperaturze barwowej 2800K.
Barwne to LEDy z serii XP-E a biała to XP-E High-Efficiency
White [5].
Za pomocą spektrometru Ocean Optics USB2000 wykonano
pomiary widma dla włączonego całego modułu oraz
pojedynczych kanałów wysterowanych na 100%. Dla
porównania zmierzono też widmo przykładowej lampy z
131
Warsztaty Doktoranckie 2012
świetlówkami fluorescencyjnymi
przedstawione na rysunku 2.
liniowymi.
Wyniki
są
Rys. 4.
Izolinie wyliczone dla oświetlenia lampami fluorescencyjnymi.
Rys. 5.
Izolinie wyliczone dla oświetlenia modułami LED.
Rys. 2.
Pomierzone widmo każdego z kanałów modułu oddzielnie i wszystkich
razem oraz lampy fluorescencyjnej.
Dzięki możliwemu wysterowaniu każdego z kanałów w
zakresie 1-100% możliwe jest uzyskanie wielu pośrednich
charakterystyk widmowych i tym samym ustawienie światła
korzystnego dla doświetlanego gatunku i fazy rozwoju.
4. Przykładowe zastosowanie
Przeanalizowano możliwość modernizacji jednego z
fitotronów znajdujących się w Laboratorium PPNT w Gdyni.
Widok ustawienia regału w pomieszczeniu jest przedstawiony
na rysunku 3. Na przeciwległej ścianie jest ustawiony taki sam
regał Obecnie każda z podwójnych półek jest oświetlona 4
świetlówkami typu TLD840 58W. Wyliczone w programie
DIALux natężenie oświetlenia na płaszczyźnie na której
ustawiane są próbki jest widoczne na rysunku 4.
5. Wnioski
Przedstawiony moduł LED umożliwia stworzenie wydajnego
i elastycznego systemu doświetlania lub naświetlania roślin.
Zastosowanie go może umożliwić wpływanie nie tylko na
fotosyntezę ale również na fotomorfogenezę.
Dodatkowo dzięki zastosowaniu półprzewodnikowych źródeł
światła charakteryzuje się dłuższą żywotnością i mniejszym
poborem mocy niż stosowane powszechnie systemy oparte na
lampach wyładowczych
Literatura
[1] Jan Kopcewicz, Stanisław Lewak .: Fizjologia roślin. PWN, Warszawa 2002.
[2] E. Fred Schubert :. Light-Emitting Diodes, Second Edition, Cambridge Univ.
Press, New York, 2006.
[3] ANSI E1.11 Entertainment Technology - USITT DMX512-A, Asynchronous
Rys. 2.
Serial Digital Data Transmission Standard for Controlling Lighting
Equipment and Accessories, www.esta.org
[4] www.ledlink-optics.com
[5] http://www.cree.com/led-components-and-modules/products
[6] http://www.dial.de/DIAL/en/home.html
Widok fitotronu z oświetloną analizowaną płaszczyzną.
____________________________________________________
Wymieniając każdą podwójną oprawę świetlówkową na
jeden
moduł
LED
można
uzyskać
porównywalną
równomierność natężenia oświetlenia. Wyliczenia (rysunek 5)
zostały wykonane dla założenia takiego samego strumienia
świetlnego modułu LED jak oprawy świetlówkowej. W
rzeczywistości, zgodnie z informacjami przedstawionymi w
rozdziale
1,
porównywalne
będzie
promieniowanie
fotosyntetycznie czynne. Pobór mocy spadnie ponad
dwukrotnie. Każda z oświetlanych półek uzyska możliwość
niezależnego ustawienia parametrów oświetlenia.
mgr inż., Tomasz Cegielski
e-mail: [email protected]
Absolwent Wydziału Elektroniki i Technik
Informacyjnych Politechniki Warszawskiej (1998).
Do 2006 asystent w PIT gdzie przedmiotem jego
pracy były mikrofalowe podzespoły urządzeń
rozpoznania radiolokacyjnego. Następnie kierownik
Laboratorium
Innowacyjno-wdrożeniowego
w
TeleMobile Electronics. Od 2009 główny
konstruktor NIVISS – firmy dostarczającej
rozwiązania oparte na LED. Członek IEEE od 2008.
Autor lub współautor kilkunastu publikacji i 2
patentów
132
Warsztaty Doktoranckie 2012
WPŁYW WARUNKU BRZEGOWEGO DIRICHLETA NA SZYBKOŚĆ
I STABILNOŚĆ ROZWIĄZAŃ, PODCZAS MODELOWANIA PRĄDÓW
WIROWYCH ELEKTRYCZNYM POTENCJAŁEM SKALARNYM
Przemysław Płonecki Jacek Starzyński Stanisław Wincenciak
Politechnika Warszawska, Wydział Elektryczny, Instytut Elektrotechniki Teoretycznej i Systemów Informacyjno-Pomiarowych
Streszczenie. Polem zastosowań prezentowanych wyników są problemy bioelektromagnetyzmu. Matematyczny opis prądów wirowych, przy
wolnozmiennych wymuszeniach elektromagnetycznych pochodzących od płynącego w cewce prądu elektrycznego, został sformułowany w
oparciu o skalarny potencjał elektryczny. W artykule zostanie przedstawione oddziaływanie zadawania zerowego warunku brzegowego
Dirichleta na jakość i szybkość otrzymywania wyników. Szereg testów numerycznych wykazał, iŜ nie zawsze jest on wskazany.
Słowa kluczowe: Warunki brzegowe, skalarny potencjał elektryczny, prądy wirowe, MES
IMPACT OF DIRICHLET BOUNDARY CONDITION TO CALCULATION RATE AND
STABILITY DURING EDDY CURRENT MODELLING USING ELECTRIC SCALAR
POTENTIAL
Abstract. Field of presented results is bioelectromagnetic problems. Mathematical description of eddy-currents excited by external, low
timevarying magnetic fields was formulated on the basis of the electric scalar potential. This article shows effect of applies Dirichlet
boundary condition to calculation rate and stability. Lots of numerical tests show that it is not always advisable.
Keywords: Boundary Condition, Electric Scalar Potential, Eddy Current, Fem
Poszukiwana wartość prądów wirowych wyraża się
wzorem:
Wstęp
Modelowanie prądów wirowych w organizmach
żywych wiąże się z wieloma trudnościami [4].
Największym
wyzwaniem
jest
uwzględnienie
odwzorowania struktury, co powoduje, że dyskretyzacja
obszaru musi być wyjątkowo gęsta [2,3]. Do
matematycznego opisu prądów wirowych autorzy

posłużyli się parą potencjałów i A [1]. Model
numeryczny i wyniki symulacji komputerowych został
przeprowadzone posługując się Metodą Elementów
Skończonych (MES). Na szybkość rozwiązania układu
równań liniowych miał również wpływ warunek
brzegowy Dirichleta.
Prezentacja uwzględnienia
Dirichleta
pozwalającego
rozwiązanie równania (1)
niniejszego artykułu.
warunku brzegowego
efektywnie
otrzymać
jest głównym celem
2. Pole wymuszenia
Zewnętrze zmienne w czasie pole magnetyczne jest
źródłem prądów wirowych. W obszarze jednorodnym
magnetycznie
(   0  const ),
rozkład
pola
magnetycznego pochodzącego od cewki możemy
określić
używając
półanalitycznego
całkowania
korzystając z prawa Biota-Savarta:
1. Matematyczny opis prądów wirowych
Bezpośrednia implementacja numeryczna równań
Maxwella wiąże się z trudnościami i zwiększeniem czasu
niezbędnego do otrzymania wyników symulacji
komputerowej. Dla problemów bioelektromagnetyzmu
uwzględnianie wszystkich zjawisk z dziedziny
elektromagnetyzmu nie jest konieczne. Równanie
różniczkowe cząstkowe opisujące rozkład prądów
wirowych w środowiskach słaboprzewodzących zostało
wyprowadzone z prawa Faraday’a przyjmując postać:
3. Warunki brzegowe
Ponieważ prąd elektryczny nie przepływa przez
 
zewnętrzną powierzchnię badanego obszaru ( J  n  0 ),
możliwe jest określenie na niej fizycznie uzasadnionego
warunku brzegowego Neumanna o postaci:
Pierwszy składnik prawej strony równania (1) może być
interpretowany jako pseudoźródło pola na granicach
niejednorodności materiałowej. Wyznaczenie ,
którego wartość zmierza do nieskończoności zostało
szczegółowo opisana w pracy [6]. Drugi składnik prawej
strony równania (1) teoretycznie powinien być równy 0,
ale w wypadku numerycznego wyznaczania rozkładu

wektora A uwzględnia błędy numeryczne wyznaczania

rozkładu wartości A objawiające się niezerową

wartością wyrażenia  A w elemencie skończonym.

gdzie n wektor prostopadły do powierzchni zewnętrznej
obszaru przewodzącego.

Niejednoznaczność definicji potencjałów , A

można usunąć przez zastosowanie kalibracji A i
określenie potencjałów odniesienia w postaci warunku
brzegowego Dirichleta. Ten warunek zmniejsza zbiór
133
Warsztaty Doktoranckie 2012
dopuszczalnych rozwiązań i powinien mieć wpływ na
czas niezbędny od rozwiązania układu równań liniowych.
Tabela 1. Porównanie liczby iteracji niezbędnych do otrzymania wyników
z zadaną dokładnością z i bez uwzględnienia zerowego warunku
brzegowego Dirichleta.
4. Zadania testowe i posumowanie
Przedstawiony
model
numeryczny
został
zaimplementowany w języku programowania C++ z
wykorzystaniem
bibliotek
wspomagających
rozwiązywanie równań różniczkowych cząstkowych
Diffpack [5]. Umożliwia również zadanie zerowego
warunku brzegowego Dirichleta. Jego uwzględnienie nie
jest konieczne do osiągnięcia stabilności otrzymania
poprawnego rozwiązania układu równań liniowych. Do

zagadnień testowych wykorzystano rzeczywiste pole A
o niejednorodnej amplitudzie sinusoidalnej, pochodzące
od cewki.
Teoretycznie
pominięcie
drugiego
składnika
równania (1) nie powinno nieść ze sobą żadnych

konsekwencji, gdyż wykorzystane potencjały (i A ) nie
mogą nic wnosić do opisu polowego, a służą jedynie
efektywniejszemu
otrzymywaniu
poszukiwanych
rzeczywistych wartości fizycznych. Natomiast badania
wykazały, już na poziomie pojedynczego elementu, iż nie
zachodzi wtedy równość:
W przypadku zadania dobrze sformułowanego
uwzględniającego błędy numerycznego wyznaczania A r

 A w elemencie skończonym uwzględniania zerowego
warunku brzegowego Dirichleta jest zbędne, ponieważ
niepotrzebnie zwiększa czas konieczny do otrzymania
rozwiązania
układu
równań
liniowych.
W
rozpatrywanym zagadnieniu prądów wirowych wartość
potencjału w węźle nie niesie ze sobą informacji o
fizyce zagadnienia, lecz dopiero wartość . W
związku, z czym skorzystanie z zerowego warunku
brzegowego Dirichleta skutkuje tym, iż poszukiwane
rozwiązanie musi zostać przesunięte we wszystkich
węzłach siatki aby wyrażeniedało ten sam wynik.
Wyniki badań przeprowadzono zarówno na prostych
bryłach geometrycznych jak i skomplikowanych
modelach ciała człowieka (patrz Rys 1). Liczby iteracji
niezbędnych do otrzymania wyników symulacji z zadaną
dokładnością przedstawia (Tabela 1).
Literatura
[1] Maria A. Stuchly and Trevor W. Dawson: Human Organ and Tissue
[2]
[3]
[4]
Rys. 1. Rozkład amplitudy modułu wektora gęstości prądów wirowych w
modelu szyi.
[5]
[6]
Induced Currents by 60 Hz Electric And Magnetic Fields,
Proceedings - 19th International Conference - IEEE/EMBS, vol. 6,
pp. 2464-2467, 30 Oct.-2 Nov. 1997
Erion Gjonaj, Michael Bartsch, Markus Clemens, Sooren Schupp,
and Thomas Weiland: High-Resolution Human Anatomy Models for
Advanced Electromagnetic Field Computations, IEEE Transactions
on Magnetics, vol. 38, no. 2, March 2002
O. C. Zienkiewicz: The Finite Element Method, McGraw Hill,
Meidenhead, 1977
N. Siauve, R. Scorretti, N. Burais, L. Nicolas, A. Nicolas:
Electromagnetic fields and human body: a new challange for the
electromagnetic field computation, COMPEL, Vol. 22 No. 3, 2003
Hans Peter Langtangen: Computational Partial Differential
Equations. Numerical Methods and Diffpack Programming, Springer
Verlog, Berlin- New York, 1999
P. Płonecki, B Sawicki: „Modelowanie prądów wirowych w
środowiskach słaboprzewodzących przy wykorzystaniu skalarnego
potencjału elektrycznego”, Prace Instytutu Elektrotechniki, str. 129 –
142, nr 236/2008
Mgr inż. Przemysław Płonecki
e-mail: [email protected]
Przemysław Płonecki urodził się w 1980 roku. Tytuł magistra inżyniera
uzyskał w 2004 roku na Wydziale Elektrycznym Politechniki
Warszawskiej. Obszarem zainteresowań naukowych są zagadnienia
związane z teorią pola elektromagnetycznego i metodami
numerycznymi. Obecnie przygotowuje rozprawę doktorską dotyczącą
modelowania prądów wirowych w środowiskach słaboprzewodzących
na tym wydziale.
134
Warsztaty Doktoranckie 2012
VIBRATING BRACELET INTERFACE FOR BLIND PEOPLE
Wojciech Gelmuda1 , Andrzej Kos1
1
AGH University of Science and Technology, the Faculty of Electrical Engineering, Automatics, Computer Science and Electronics
Abstract. There are many electronic aids for blind people in both prototype and market state. Most of them use prerecorded voice commands or speech
synthesizers and a headset as a user-device interface. In order not to jam acoustic signals from environment, in this paper the authors present a vibrating
bracelet as a multipoint communication interface for a mobile safety system for blind people (MOBIAN). By using several vibrating motors and a vibrating
signal modulation, more data, commands and alerts a blind user is able to recognize.
Keywords: blind people, vibrating bracelet, MOBIAN, navigation assistant device
Wibrująca bransoleta jako interfejs dla ludzi niewidomych
Streszczenie. Istnieje wiele urządzeń w postaci zarówno prototypów jak i gotowych produktów, wspomagających osoby niewidome. Większość z nich używa
syntezatora mowy albo nagranych komend głosowych oraz słuchawek, jako interfejsu użytkownik-urządzenie. Aby nie zagłuszać sygnałów dźwiękowych
dochodzących z otoczenia, autorzy stworzyli wibrującą bransoletę, jako wielopunktowy interfejs komunikacyjny dla mobilnego systemu bezpieczeństwa dla osób
niewidomych (MOBIAN). Poprzez użycie kilku wibratorów oraz modulację sygnału wibracji, osoba niewidoma jest w stanie zinterpretować więcej danych,
komend i ostrzeżeń.
Słowa kluczowe: ludzie niewidomi, wibrująca bransoleta, MOBIAN, urządzenie do nawigacji
conducted to assure that the wrist is a good place to feel
vibration stimulants [3].
The bracelet prototype includes six vibrating motors,
evenly distributed on a wrist. The motors are connected
to a driver. Since the whole device should be light
weighted, its power supply is a Li-Pol mobile phone
battery. To assure a low-glitch level in the driver, the
separate DC/DC converters for a microcontroller and for
motor transistors were used. A 5V battery charger chip
was also implemented. By programming an onboard lowpower microcontroller, a different signaling algorithm
can be accomplished. The communication with the
vibrating bracelet is done via UART interface.
Introduction
Electronic devices have blended into people’s lives
for good. They are present in almost every branch of
industry worldwide. The constant technological progress
makes everyday life easier for people and also comes in
handy for impaired people. Scientists and engineers
develop electronic aids for handicapped people. All over
the world there are many visually impaired people,
especially in the developing countries. A common
problem for them is their safety outside their houses,
particularly in the unknown areas. Therefore, nowadays
many navigation assistant devices are being worked on
and some of them are already available on the market [1].
Some of those aids use acoustic signals or speech
synthesizers and a headset to communicate with a blind
user. Consultations with visually impaired people have
shown that, although this approach is suitable for familiar
and indoor environments, it is not the best solution for
outdoors and unpredictable areas to jam raw, acoustic
information from surroundings.
Some aids for blind people employ tactile interface
for communication. Usually, stimulant points are on
fingertips, palms or bellies [1], [2]. Nevertheless, most of
these interfaces either occupy a palm or carry too little
data, for instance, distance and direction from obstacle.
2. Vibrating signal schemes
In order to pass a lot of information on to a blind user
some schemes have to be implemented to drive vibration
motors on the bracelet. To inform a visually impaired
person about a detected obstacle and its distance, an
impulse modulation is used. In a certain period of time a
single motor is being turned on and off again. This
switching frequency is related to the distance and for the
user it is felt like a vibration strength. Since there are six
motors, a multipoint vibration is suitable either to inform
about an obstacle direction (therefore, a bracelet can
inform about multiple objects at the same time) or the
height on which the obstacle occurs. Another way to
inform about obstacles is to send a single, detectable,
strong, short vibrating impulses with a various frequency.
By changing this frequency a user can also be informed
about the distance. Variation of this signaling scheme can
be used to warn a blind person about specific, yet
frequently recurrent scenario objects, like for instance,
stairs going up and down or curbs. This variation utilizes
a constant period of time, for example 1 or 2 seconds, and
in this time a countable, short impulses are being send.
Their number determines a pre-learned object name
(stairs, curbs, etc.). In early stages of teaching a blind
person how to use the vibrating bracelet, the mentioned
pre-learned object vibration can be implemented on in all
six motors simultaneously in order not to confuse the user
and help to differentiate between pre-learned object
vibration and the distance from obstacle vibration.
Besides informing the visually impaired people about
obstacles, distances and pre-learned scenario objects, the
bracelet is also capable of sending commands and
indicators to the users by means of a multipoint vibration.
By creating a vibrating pattern, its direction, duration and
location, the bracelet can send commands to turn left,
1. Bracelet interface overview
The electronic aids for blind people should interfere
with users’ movements and perception possibilities as
little as they can. Therefore, the authors are presenting a
multipoint vibrating bracelet interface for various
applications. The bracelet is carried on a wrist, thus is
does not restrain movements or occupy a palm. A
bracelet scheme is presented in Fig. 1.
Fig. 1.
Multipoint vibrating bracelet scheme
Most people, not only the blind ones, are used to
having a watch of some kind on their wrists, so this is a
natural place for the bracelet. Some experiments were
135
Warsztaty Doktoranckie 2012
right, to inform about transferring navigation data,
calculating route and even to inform about an incoming
call, a received SMS or an e-mail when connected to an
external device. Thanks to the commonly used UART
interface for communication with the driver, the bracelet
can be used not only with navigation assistant devices,
but also with mobile phones (via a BlueTooth SPP
protocol) or computers (via a UART/USB converter).
Some vibrating schemes are presented in Fig. 2.
be guided by the vibrating points located on a wrist in
order to avoid and deal with dangerous obstacles or
specific, detected objects. Although, the bracelet was
developed for a blind people navigation assistant
(MOBIAN project), it is also suitable for the use in other
applications, like for instance, mobile phones, computers,
etc.
When a blind person gets comfortable with the
vibrating bracelet, system developers can easily use more
bracelets for one user and put them on the other wrist or
even on the forearm, if there is a need for enhancing
indications scheme.
There are no objections to narrow down the possible
usage of the vibrating bracelet for blind people
applications. It can be successfully used for some
consumer applications, for instance, GPS devices,
devices for runners, etc.
Future development of the bracelet will involve the
driver minimization as well as overall current
consumption reduction to assure longer autonomy time.
All the important guides and comments from the blind
people testers will be included in the new version of the
bracelet.
Fig. 2.
Vibration schemes for coding detected obstacle distance (top)
and pre-learned objects: curb and stairs (bottom)
Acknowledgements
This project is supported by The National Centre for
Research and Development under: NR13-0065-10.
3. Tests and results
Tests have shown that the six vibrating points
available in the bracelet seem to be optimal to determine
vibration location and to recognize vibration patterns.
However, in case of people with thick wrists or people
who have tested the bracelet for a while, additional
vibrating points can be added to enhance the vibrating
patterns set – one driver is capable of controlling up to 10
motors.
Every new user needs time to learn indication
patterns and what each vibration motor function means.
The recommended experience level is that the user is able
to recognize all indications in real-time without breaking
one’s concentration.
Tests have shown that both vibration strength,
minimum impulse time and time between them can be
slightly different for each person to be able to
differentiate all vibration schemes. Therefore, vibration
signal strength, patterns, distance alerts can all be
customized to assure a higher user-friendly level and also
to reduce learning time. Scheme learning takes some days
and it is more efficient when a user learns first by
themselves to locate a single vibration or multi source
ones and then simple and more advanced vibration
patterns. In the end, when one is used to the mentioned
schemes, one should learn how to quickly differentiate
them and count short impulses. Once a user feels
comfortable with bracelet signals and quickly realizes the
differences between all schemes, it is time to start realtime tests in the real environment.
After a learning period, the users are able to respond
fast to alerts about obstacles and their directions.
Indications about detected specific objects like stairs or
curbs are also recognized, as well as other scheme
commands.
Literature
[1] Dakopoulos D., Bourbakis N.G.: Wearable Obstacle Avoidance
Electronic Travel Aids for Blind: A Survey. IEEE Transactions on
Systems, Man, and Cybernetics—Part C: Applications and Reviews
1/2010, pp. 25-35.
[2] Villanueva J., Farcy R.: Optical Device Indicating a Safe Free Path
to Blind People. IEEE Transactions on Instrumentation and
Measurement 1/2012, pp. 170-177.
[3] Bogusz E., Mrozik G., Skrodzka E.: Investigation of Vibratory
Perception Thresholds in Blind and Visually Handicapped People in
Chosen Areas of the Palm and the Wrist. XVIII Conference on
Acoustic and Biomedical Engineering, Krakow 2011, pp. 181.
mgr inż. Wojciech Gelmuda
e-mail: [email protected]
Received his MSc. diploma in electronics engineering
from the AGH University of Science and Technology,
Krakow, Poland in 2009. His master thesis focused on
developing a weather station system for blind people.
Currently he is a PhD student in Department of
Electronics at the AGH University of Science and
Technology. His research areas include low-power
systems and development of mobile safety systems for
blind people. He has published several research and
technical papers.
prof. dr hab. inż. Andrzej Kos
e-mail: [email protected]
Received PhD in 1983 at AGH University of Science
and Technology in Cracow, Poland in electronics,
professor title since 2001. Since 1995 head of the
Micro- and Nanoelectronics Systems Team in
Department of Electronics, AGH University of
Science and Technology. Author of over 190 articles,
international conference papers and patents, author of
3 books including one printed in United Kingdom.
Scientific interests focus on thermal issues in
integrated circuits design and testing. Member of the
Committee of Electronics and Telecommunication of
the Polish Academy of Sciences, many scientific
committees. European Commission and Polish
Ministry of Science and Higher Education expert.
4. Conclusions
The driver and the bracelet are operational. Tests
have shown that after the learning period, the users can
136
Warsztaty Doktoranckie 2012
WPŁYW IMPLEMENTACJI MODELU PRZEJŚCIA I MODELU
POMIAROWEGO NA DZIAŁANIE FILTRU CZĄSTECZKOWEGO
Piotr Kozierski
Politechnika Poznańska, Wydział Elektryczny
Streszczenie. W artykule przedstawiono wpływ różnych realizacji modelu przejścia oraz modelu pomiarowego na działanie filtru cząsteczkowego.
Zaproponowano przy tym kilka metod aproksymacji tych warunkowych funkcji gęstości prawdopodobieństwa.
Słowa kluczowe: filtr cząsteczkowy, obserwator stanu, model przejścia, model pomiarowy
Effect of implementation system model and measurement model for particle filter working
Abstract. The results of different implementations of system model and measurement model for particle filter are presented in the paper. Several approximation
methods for those conditional probability density functions are proposed.
Keywords: particle filter, state observer, system model, measurement model
p y k | Yk 1  (ang. evidence). W powyższym zapisie
przyjmuje się, że
(3)
Yk  y1 , y 2 ,..., y k .
Głównym celem algorytmu jest estymacja zmiennej
stanu
(4)
x̂ k  Ex k Yk   x k px k Yk dx k
Wstęp
Model przejścia (ang. System model) oraz model
pomiarowy (ang. Measurement model) w zadaniu filtru
cząsteczkowego są przyjmowane za odgórnie znane [1, 3,
4]. Jednak różne sposoby ich określenia oraz
implementacji mogą powodować rozbieżności w
uzyskiwanych wynikach.
W pierwszym rozdziale została opisana zasada
działania filtru cząsteczkowego. Drugi rozdział został
poświęcony modelom przejścia i pomiarowemu oraz
możliwości ich analitycznego przedstawienia. W trzecim
rozdziale zaproponowano sposób aproksymacji obu
modeli oraz przedstawiono problemy z tym związane.
Czwarty rozdział został poświęcony rozwiązaniu tych
problemów oraz konkretnym sposobom implementacji
algorytmu. W piątym rozdziale porównano poszczególne
odmiany zaproponowanych w artykule metod i
algorytmów.

co przy przedstawieniu fgp aposteriori za pomocą zbioru
próbek można przedstawić w postaci sumy
xˆ k  Ex k Yk    x ki q ki .
N
(5)
i 1
Jak już zostało stwierdzone we wstępie, model
przejścia px k | x k 1  oraz model pomiarowy p y k | x k 
są odgórnie przyjmowane za znane, co jest związane ze
znajomością funkcji i ich argumentów w (1).
Algorytm Bootstrap filter został zaproponowany w
[3], a w [5] można znaleźć jego obszerny opis. Wielu
autorów uważa go za pierwszy przykład filtru
cząsteczkowego,
choć
tak
naprawdę
pomysł
przedstawienia fgp w postaci zbioru cząsteczek powstał
już w latach czterdziestych XX wieku [4].
Działanie algorytmu można zapisać następująco:
Algorytm 1 (Bootstrap filter)
5) Inicjalizacja algorytmu; k  1 , wylosowanie N
próbek z początkowego (znanego) rozkładu px1 
6) Przepuszczenie wszystkich próbek przez model
przejścia
czyli
wylosowanie
px k | x k 1  ,

i
cząsteczek x k z fgp zależnego od wartości
1. Filtr cząsteczkowy
Zadaniem filtru cząsteczkowego jest (podobnie jak
filtru Kalmana) estymacja stanu na podstawie obserwacji
wyjścia obiektu (dla uproszczenia zapisu w rozważaniach
zostanie pominięty wpływ sygnału wejściowego u k ).
Do rozwiązania tego problemu przyjmuje się, że
znany jest model obiektu
x k  f k x k 1 , v k 1 
(1)
y k  hk  x k , n k 
gdzie x k to wartość zmiennej stanu w k-tej chwili
zmiennej stanu w chwili poprzedniej
7) Obliczenie wagi każdej z cząsteczek zgodnie ze
wzorem:
(6)
p y k x ki
q ki  N
 p y k x ki
 p y k x ki
y k to wartość obserwacji, v to szum
wewnętrzny (ang. process noise), zaś n to szum
pomiarowy (ang. measurement noise). Funkcje f k oraz
czasowej,



g k są opisane nieliniowymi, zmiennymi w czasie
równaniami [4].
Filtr
cząsteczkowy
jest
alternatywną,
nieparametryczną implementacją filtru Bayesa [5]
p y k x k  px k Yk 1 
(2)
px k Yk  
p y k Yk 1 
w której głównym pomysłem jest przedstawienie
warunkowej funkcji gęstości prawdopodobieństwa (fgp)
aposteriori px k Yk  (ang. posterior) za pomocą pewnej



j 1
8) Normalizacja wag:
q ki 
(7)
q ki
N
q
j 1
j
k
9) Powtórne próbkowanie (ang. resampling); na
podstawie zbioru cząsteczek x ki i ich wag q ki
losuje się N nowych cząsteczek, przy czym
prawdopodobieństwo, że ta nowa cząsteczka będzie
miała dokładnie wartość x ki wynosi q ki :
(skończonej) liczby próbek, z których każda ma
określoną wagę [2, 3]. Pozostałe elementy równania (2)
to wiarygodność p y k | x k  (ang. likelihood), fgp apriori
px k | Yk 1  (ang. prior) oraz funkcja normująca


Pr x kj  x ki  q ki
(8)
dla dowolnego j
10) Obliczenie wartości oczekiwanej zmiennej stanu
wg wzoru (5) i powrót do kroku 2
137
Warsztaty Doktoranckie 2012
prawdziwego kształtu, co zostało przedstawione na
Rys. 1.
Przedstawiony algorytm jest jednym z najprostszych,
jednak posiada pewne wady, między innymi poprzez
wykonanie kroku 5 dokładnie w taki sposób, jaki jest
opisany (istnieje możliwość wylosowania 2 lub więcej
identycznych próbek), jest pewne, że po pewnym czasie
wszystkie cząsteczki będą miały dokładnie taką samą
wartość. Aby tego uniknąć w implementacji przyjęto, że
powtórne próbkowanie będzie przeprowadzane z
odcinkowo ciągłej fgp o kształcie zbliżonym do tego
otrzymanego na podstawie cząsteczek x ki i ich wag q ki
(przybliżenie pomiędzy wartościami za pomocą funkcji
liniowej), nie jest to jednak przedmiot dalszych
rozważań.
Rys. 1.
Jak można zaobserwować, dopiero przy aproksymacji
danej pdf za pomocą tysiąca i więcej próbek rozkład
przybliżony będzie przypominać ten rzeczywisty.
Oba modele, które będą aproksymowane zostaną tutaj
rozpatrzone jako dwuwymiarowe funkcje, natomiast
później będzie należało brać pod uwagę tylko ich
przekrój wzdłuż jednej z osi.
Okazuje się jednak, że takie podejście nie jest do
końca dobre. Dla przykładu rozpatrzmy prosty model
obiektu
x k  x k 1  1  v k 1
(12)
2. Modele przejścia i pomiarowy
Standardowym sposobem implementacji modelu
przejścia jest zapisanie w kodzie jego funkcji. Załóżmy,
że model (1) obiektu jest przedstawiony za pomocą
równań stanu
x k  x k 1  v k 1
(9)
y k  xk  nk
gdzie v ~ U 0,2 oraz n ~ N 0,1 . Po przeprowadzeniu
symulacji o długości 104 kroków otrzymano model
pomiarowy przedstawiony na Rys. 2.
y k  xk  nk
oraz, że szum wewnętrzny ma rozkład równomierny
v ~ U 0,2 , natomiast szum pomiarowy ma rozkład
normalny n ~ N 0,1 . Jeśli w poprzedniej chwili
czasowej wartość zmiennej stanu wynosiła  1 , to w
przypadku przepuszczania jej przez model przejścia
px k | x k 1  będzie należało po prostu wylosować
wartość nowej próbki z przedziału  1,1 o rozkładzie
równomiernym.
Także w przypadku bardziej skomplikowanych
modeli niż (9) można ograniczyć się do wylosowania
próbki szumu ze znanego rozkładu, podstawić do wzoru i
wykonać obliczenia.
W
przypadku
modelu
pomiarowego
wykorzystywanego w kroku 3 algorytmu jest już trochę
trudniej zaimplementować sam wzór. W przypadku
Modelu (9) nie jest to wprawdzie zbyt kłopotliwe,
ponieważ można przekształcić drugie równanie do
postaci:
(10)
y k  x k  nk
Rys. 2.
Graficzne przedstawienie modelu pomiarowego dla obiektu
(12), dla 10000 kroków symulacji.
Jak widać, taka reprezentacja modelu pomiarowego
jest kompletnie nieprzydatna ze względu na bardzo dużą
niedokładność – poza niewielką liczbą danych, większość
wartości tej fgp jest równa zero.
4. Podsumowanie
W pełnej wersji artykułu zostanie zaproponowany
takie zapisanie informacji o modelach pomiarowym i
przejścia, aby ominąć przedstawiony powyżej problem.
Zostaną także zaproponowane dwie konkretne
implementacje. Zamieszczone zostaną również wyniki
symulacyjne porównujące poszczególne metody i
algorytmy.
i na tej podstawie wykonać obliczenia na obserwacji
modelu y k oraz na wartości konkretnej cząsteczki x ki .
Po wykonaniu obliczeń należy poszukać wartości
rozkładu funkcji szumu dla argumentu równego lewej
stronie równania
(11)
q ki  S y k  x ki
gdzie S to funkcja gęstości prawdopodobieństwa szumu.
Co jednak zrobić, jeśli nie da się analitycznie
wyznaczyć równania na wartość wagi, ma się do
czynienia z obiektem rzeczywistym z możliwością
odczytania wartości zmiennej stanu oraz wyjścia, ale bez
kompletnej informacji o modelu obiektu (np. tzw. biała
skrzynka – ang. white box) lub też chce się napisać
uniwersalny algorytm, niezależny od modelu?

Wpływ wzrostu liczby próbek N na jakość odwzorowania fgp

Literatura
[1] Arulampalam S., Maskell S., Gordon N., Clapp T.: A tutorial on
[2]
[3]
[4]
Particle Filters for On-line Non-linear/Non-Gaussian Bayesian
Tracking. IEEE Proceedings on Signal Processing, Vol. 50, No. 2,
2002, s. 174-188.
Candy J.V.: Bayesian signal processing. WILEY, New Jersey 2009,
s. 237-298.
Gordon N.J., Salmond N.J., Smith A.F.M.: Novel approach to
nonlinear/non-Gaussian Bayesian state estimation. IEE ProceedingsF, Vol. 140, No. 2, 1993, s. 107-113.
Simon D.: Optimal State Estimation. WILEY-INTERSCIENCE,
New Jersey 2006, s. 461-484.
Thrun S., Burgard W., Fox D.: Probabilistic robotics. MIT Press,
Cambridge, MA, 2005, s. 67-90.
3. Aproksymacja obu modeli poprzez
doświadczenie symulacyjne
[5]
W każdym z tych przypadków lepszym
rozwiązaniem będzie aproksymacja obu modeli poprzez
symulację – należy zebrać zestaw pomiarów zmiennej
stanu oraz wyjścia obiektu i na tej podstawie oszacować
warunkową fgp. Wraz ze wzrostem liczby pomiarów, na
podstawie mocnego prawa wielkich liczb (mpwl),
szacowana postać fgp będzie zbliżać się do jej
Piotr Kozierski
e-mail: [email protected]
Student studiów stacjonarnych III st. na Politechnice
Poznańskiej od 2010 roku. Obszar zainteresowań
naukowych
obejmuje
identyfikację
obiektów
nieliniowych oraz filtry cząsteczkowe.
138
Warsztaty Doktoranckie 2012
139

Podobne dokumenty