Zapisz jako PDF

Transkrypt

Zapisz jako PDF
Spis treści
1 Metody nieparametryczne
1.1 Transformacja Fouriera
1.2 Bliżej życia
1.3 Splot
2 Transformacja Z
3 Filtry
4 Metody parametryczne
5 Analiza danych wielokanałowych
5.1 Koherencje
5.2 Związki przyczynowe
Metody nieparametryczne
Transformacja Fouriera
Analiza wzrokowa sygnałów, jakkolwiek wciąż stosowana, szczególnie w praktyce klinicznej, nie
wykorzystuje współczesnych możliwości analizy danych. Ponieważ duża część danych
biomedycznych jest dzisiaj zbierana w sposób cyfrowy, możemy takie dane analizować przy użyciu
komputerów. Obszerny dział wiedzy zwany analizą sygnałów dostarcza metod matematycznych
służących do precyzyjnej i zaawansowanej oceny informacji, jaka zawarta jest w badanych zapisach.
Warto podkreślić, że jakkolwiek wiele metod matematycznych analizy sygnałów było opracowanych
już dość dawno, dopiero rozpowszechnienie się komputerów w laboratoriach umożliwiło ich
praktyczne zastosowanie.
Analizując wzrokowo fragmenty zapisów EEG (i oczywiście także innego typu dane) możemy
wyróżnić w nich struktury różnej postaci i kształtu. Szczególnie istotne są tzw. rytmy czyli składowe
o postaci fal o pewnej określonej częstości. Ich kształty mogą być bardzo zróżnicowane w zależności
od ilości takich składowych obserwowanych w sygnale, ich częstości i amplitud. Analiza wzrokowa
wyróżnia w EEG kilka takich charakterystycznych rytmów; wiadomo też, że ich rola fizjologiczna jest
inna. Dobrze więc byłoby móc umieć oddzielić poszczególne rytmy z sygnału i badać ich zachowanie
dokładniej. Innymi słowy chcielibyśmy mieć funkcję zależną od częstości mówiącą o zawartości
poszczególnych rytmów w sygnale. Funkcję taką nazywamy gęstością widmową mocy lub w skrócie
widmem sygnału. Zagadnieniami wyznaczania takiej funkcji i opisem własności sygnału w zależności
od częstości zajmuje się analiza widmowa.
Sygnały, które zbieramy w eksperymencie i których zapisy analizujemy wzrokowo są to wartości
badanej przez nas wielkości w kolejnych chwilach czasu. Mówimy, że są to wartości rejestrowane
(lub funkcje operujące) w dziedzinie czasu.
Do dalszych rozważań dobrze będzie zauważyć następujący fakt Wyobraźmy sobie, że mamy
zmierzony nieskończony sygnał (czyli funkcję w dziedzinie czasu) — X(t), t = 0, ..., +∞. Jak sprawdzić
czy nasz sygnał zawiera składową o częstości ω? Składowa taka ma postać funkcji sinusoidalnej, tak
jak na przykład h(t) = sin(ωt).
Aby zbadać czy nasz sygnał zawiera poszukiwaną składową możemy policzyć iloczyn skalarny
naszego sygnału z sygnałem sinusoidalnym. Iloczyn taki możemy uważać za ocenę korelacji tych
dwóch sygnałów.
Możemy z takich iloczynów utworzyć następujące relacje
Relacje te nazywają się transformacjami sinus i kosinus Fouriera. Jak widać w rezultacie dostajemy
dla naszego oryginalnego sygnału (funkcji X(t)) funkcje G(ω) lub F(ω) zwane transformatami sinus i
cosinus Fouriera funkcji X(t). Transformaty są już funkcjami zależnymi od parametru ω czyli
częstości. Mówimy, że są one wyrażone w dziedzinie częstości. Tak więc funkcji w dziedzinie czasu
można przyporządkować jednoznacznie pewną inną funkcję operującą w dziedzinie częstości. Relacje
te można również odwrócić i dla funkcji z dziedziny częstości uzyskać transformatę odwrotną
produkującą funkcję w dziedzinie czasu (z dokładnością do pewnych współczynników po prawej
stronie równań).
Jak można zauważyć, transformaty sinusowa czy kosinusowa nie są jeszcze dla nas poszukiwaną
odpowiedzią na pytanie o zawartość składowych o określonej częstości w danym sygnale. Jeśli
poszukiwana składowa nie pokrywa się akurat ani z funkcją sinus ani cosinus, ale występuje w
oryginalnym sygnale z inną fazą, możemy źle ocenić jej wkład. Dlatego też bardziej ogólnym
podejściem będzie policzenie tzw. całki Fouriera dającą w wyniku transformatę Fouriera:
Ponieważ e−iωt = cos(ωt)−i sin(ωt), wyrażenie powyższe zawiera splot z kombinacją funkcji sinus i
kosinus. W tym przypadku transformata Fouriera C(ω) jest funkcją o wartościach zespolonych (gdyż
funkcja podcałkowa zawiera człon zespolony eiωt), posiadających pewien moduł i fazę. Jest ona naszą
poszukiwaną funkcją gęstości widmowej mocy. Moduł wartości tej funkcji mówi o „ilości”
poszczególnych częstości w widmie sygnału czyli mocy względnej danej składowej. Faza funkcji C
mówi o fazie względnej danej składowej.
Mamy też odwrotną transformatę Fouriera:
Funkcja X i jej transformata opisują ten sam sygnał w różny sposób. Przykłady transformat Fouriera
dla wybranych funkcji
X(t)
1
C(f )
δ(f )
δ(t) 1
eiat
δ(f–a/(2π))
Poszukiwane przez nas widmo sygnału, czyli zawartość w sygnale składowych o różnych
częstościach najlepiej opisuje tzw. funkcja gęstości widmowej mocy określona poniższym wzorem:
Bliżej życia
Zauważmy, że całka Fouriera jest określona dla sygnałów nieskończonych: całkowanie przebiega w
granicach od –∞ do +∞. Rejestrowane dane neurobiologiczne, które chcemy badać, są oczywiście
skończone. Musimy więc rozszerzyć naszą teorię do badania sygnałów o skończonej długości. Pewną
klasą sygnałów, które łatwo można w ten sposób analizować, są sygnały periodyczne. Ponieważ
wartości takich sygnałów powtarzają się okresowo w czasie, zakładamy, że nasz sygnał poza czasem
obserwacji możemy traktować jak nieskończony sygnał okresowy, przedłużając periodycznie
posiadany sygnał poza okno obserwacji. Niestety, w przypadku danych neurobiologicznych dane
praktycznie nigdy nie mają charakteru periodycznego, co więcej, są one przeważnie stochastyczne,
czyli zawierają komponentę losową, sprawiającą, że ich wartości w czasie nie powtarzają się. Widmo
takiego sygnału będzie więc zaburzone. Metoda transformacji Fouriera jest najczęściej
wykorzystywaną metodą estymacji widma różnorodnych sygnałów. Jest tak być może dlatego, że
istnieje FFT (Fast Fourier Transform, szybka transformata Fouriera) — efektywny algorytm
komputerowy obliczania wartości tej transformaty (dla dyskretnych danych i w szczególnych
przypadkach, co jednak w wielu sytuacjach okazuje się być wystarczające).
Splot
dla dwóch funkcji f(x) i g(x) możemy wprowadzić operację splotu tych funkcji
Podobną operację możemy wprowadzić nie tylko dla funkcji ciągłych, ale także dla ciągów liczb an i
bn
Operacja splotu jest niezwykle ważna w dziedzinie analizy sygnałów, gdyż zachodzi następujące
twierdzenie o transformacie splotu
Oznacza to, że splot dwóch sygnałów w dziedzinie czasu transformuje się na iloczyn transformat tych
sygnałów w dziedzinie częstości. Będziemy z tego faktu korzystać w dalszej części tego rozdziału.
Transformacja Z
Transformację Z możemy traktować jako analog transformacji Fouriera dla funkcji dyskretnych
(znanych tylko w określonych, równo oddalonych chwilach czasu). Przekształca ona sygnał
wejściowy X = {..., x−1, x, x1, x2, ...} na transformatę Z tego sygnału, operującą w tzw. dziedzinie Z,
będącej dyskretnym analogiem dziedziny częstości.
Wyróżniamy dwustronną transformację Z:
oraz jednostronną transformację Z:
Jeśli w tekście nie będziemy precyzować rodzaju stosowanej transformacji Z, będziemy mieć na myśli
wersję jednostronną. W dodtaku, ponieważ operujemy ciągami współczynników o skończonej
długości, górny zakres naszego sumowania będzie się kończył nie w nieskończoności, ale razem z
ostatnim wyrazem ciągu.
Podstawiając z = eiωΔt możemy wyrazić nasze transformaty od częstości ω, tak jak rozumieliśmy ją w
przypadku transformacji Fouriera.
Filtry
Filtry cyfrowe są to funkcje, które aplikujemy do sygnału aby zmienić jego widmo. W dziedzinie
częstości działanie filtru możemy przedstawić następującym równaniem
Działamy tutaj filtrem cyfrowym na sygnał X (tzw. wejście systemu), w wyniku tej operacji
otrzymujemy (na tzw. wyjściu) przefiltrowany sygnał Y. Funkcję H nazywamy macierzą przejścia
filtru.
Jeśli za funkcję X(f ) wybierzemy funkcję stałą o wartości 1, otrzymamy na wyjściu sygnał, którego
względne moce poszczególnych składowych w częstości będą dokładnie takie jak wartości macierzy
przejścia. Stosując transformację odwrotną (Fouriera lub Z) do wyrażenia H(f )·X(f ) otrzymamy w
wyniku splot transformat odwrotnych h(t) i x(t). Dla funkcji X(f ) stałej, jej transformata odwrotna
x(t) to funkcja delta Diraca δ(t). Transformatę odwrotną h(t) macierzy przejścia filtru nazywamy
funkcją odpowiedzi impulsowej tego filtru. Opisuje ona zachowanie się filtru w przypadku pojawienia
się na wejściu pojedynczego impulsu (delty Diraca).
Przekształcając równanie (Equation 12) możemy napisać
Czyli funkcja H będzie mieć w ogólności postać ilorazu pewnych funkcji. Spośród wielu możliwych
filtrów interesować nas będą filtry liniowe działające na sygnały próbkowane w czasie, czyli na
dyskretne ciągi wartości. W ogólnym przypadku macierz przejścia takiego filtru ma postać (w
dziedzinie Z — sygnały dyskretne):
Licznik i mianownik wyrażenia na H(z) zawierają pewne wielomiany od zmiennej z–1. Często
określamy filtr przez podanie współczynników tych wielomianów: b, b1,... bN, a, a1, ..., aM.
Funkcja odpowiedzi impulsowej h(t) takiego filtru ma postać ciągu liczb. Jeśli A(z) ≡ 1, to funkcja
h(t) przedstawia skończony ciąg współczynników, a filtr taki nazywany filtrem o skończonej
odpowiedzi impulsowej (ang. FIR, finite impulse response). W pozostałych przypadkach h(t) jest
nieskończonym ciągiem, a filtr nazywamy filtrem o nieskończonej odpowiedzi impulsowej (ang. IIR,
infinite impulse response).
Często określa się tzw. rząd filtru. Jest to większa z liczb (M, N).
Filtry stosujemy głównie w celu usunięcia z sygnału pewnych zakresów częstości. Filtry
dolnoprzepustowe mają za zadanie usuwać z sygnału wszystkie częstości powyżej pewnej częstości
granicznej. Filtry górnoprzepustowe mają usuwać wszystkie częstości mniejsze niż częstość
graniczna. Filtry pasmowe pozostawiają w sygnale (lub usuwają z sygnału) tylko określony zakres
częstości, od dolnej częstości granicznej do górnej.
Istnieje bardzo rozbudowana teoria projektowania filtrów w zależności od konkretnych potrzeb.
Efektywność tłumienia niepożądanych częstości, zachowanie się filtru w okolicy częstości
granicznych i wpływ filtru na pozostawione w sygnale składowe są to parametry, które trzeba
dobierać indywidualnie do rozwiązywanego problemu.
Metody parametryczne
Przedstawiona powyżej idea uzyskania widma sygnału metodą transformaty Fouriera nie jest jedyną
możliwością w tym zakresie. W ogólności metody estymacji (oszacowania) widma danego sygnału
możemy podzielić na dwie kategorie: nieparametryczne i parametryczne. Metody nieparametryczne
bazują na wyznaczaniu widma bezpośrednio z wartości sygnału. Taką właśnie metodą jest
transformacja Fouriera. Metody parametryczne polegają na założeniu pewnego modelu generacji
posiadanych danych. Model powinien posiadać parametry, które dopasowujemy tak, aby badany
sygnał jak najlepiej dawał się opisać wybranym modelem. Po dopasowaniu parametrów modelu
dalsze wnioskowanie odbywa się już nie na badanym sygnale, ale na własnościach modelu.
W przypadku analizy EEG szeroko stosowany jest model autoregresyjny (AR). Zakłada on, że wartość
sygnału w dowolnej chwili czasu t można wyznaczyć z pewnej liczby poprzednich wartości oraz z
pewnej składowej czysto losowej E:
Model taki w większości wypadków bardzo dobrze opisuje sygnały EEG. Wynika to z jego własności i
własności samego sygnału EEG. Otóż teoretyczne widmo takiego modelu ma postać pewnej liczby
składowych o określonym zakresie częstości na tle szumowym co dobrze odpowiada „rytmom”
zawartym w prawdziwym sygnale.
Procedura wyznaczania widma polega na dopasowaniu współczynników modelu A1,... Ap tak, aby
wariancja składowej szumowej była najmniejsza. Do tego celu służą specjalnie opracowane
algorytmy, które można znaleźć w literaturze (na przykład metoda Yule’a-Walkera).
Gdy przyjrzymy się równaniu opisującemu model AR, po przekształceniu do poniższej postaci:
zauważamy, że jest to tak naprawdę splot współczynników modelu i wartości sygnału.
Stosując transformację Z obu stron równania (Equation 16) przechodzimy z równaniem do dziedziny
Z:
Dostrzegamy w tym równaniu działanie filtru o macierzy przejścia H = A−1 na sygnał szumowy E.
Tak więc model AR możemy przedstawić jako filtr liniowy o macierzy przejścia
Widmo mocy otrzymujemy więc zgodnie ze znaną już relacją (wzór Equation 6):
Analiza danych wielokanałowych
Mówiliśmy do tej pory o sygnałach w postaci pewnego zbioru wartości X(t). Jeśli dokonujemy
pomiaru jednej wartości w poszczególnych chwilach czasu, nasze wartości X(t) są to po prostu liczby.
Możemy jednak obserwować i rejestrować wartości jednocześnie z wielu źródeł sygnału. Dzieje się
tak w przypadku zapisu EEG z wielu elektrod. W tej sytuacji wartości X(t) są (dla każdej chwili czasu
t) wektorami o długości odpowiadającej liczbie obserwowanych źródeł, np. k: X(t) = (X1(t), X2(t), ...,
Xk(t)), t = (t1, t2, ..., tn).
Oczywiście możemy prowadzić analizę każdego z rejestrowanych sygnałów osobno. Musimy jednak
zdawać sobie sprawę z faktu, że wielokanałowy zestaw danych zawiera jeszcze dodatkową
informację o współzależności sygnałów między sobą. Analizując sygnały osobno, informację tę
całkowicie pomijamy. Aby ją wydobyć, musimy użyć specjalnych funkcji, zaprojektowanych do
badania związków między sygnałami.
Większość wzorów z poprzednich rozdziałów ny. analizy widmowej może być w łatwy sposób
rozszerzona na przypadek danych wielokanałowych poprzez traktowanie wartości badanego sygnału
X(t) jako wielkości wektorowej (wzory z rozdziału o analizie parametrycznej od razu są napisane przy
tym założeniu). Widmo mocy wielokanałowego zestawu danych jest w takim wypadku macierzą o
wymiarze k×k. Na przekątnej tej macierzy znajdują się widma własne (autowidma) każdego z
sygnałów osobno, a poza przekątną mamy widma wzajemne (krosswidma), mówiące o stopniu
zależności sygnałów między sobą w dziedzinie częstości.
Koherencje
Widma wzajemne mówią nam o tym, na ile składowe o określonych częstościach przebiegają
„wspólnie” dla dwóch sygnałów. Moduł widma wzajemnego mówi na o wspólnej amplitudzie danej
składowej, a faza o ich spójnym wzajemnym przesunięciu w fazie w danej częstości. Wadą tej
wielkości jest jej zależność od mocy całkowitej sygnału. Wprowadza się więc znormalizowaną miarę
współzależności sygnałów w dziedzinie częstości nazywaną koherencją (zwyczajną):
Miara ta zbudowana jest z odpowiednich elementów macierzy widmowej. Element macierzy K jest
odpowiadającym mu elementem macierzy S podzielonym przez odpowiednie widma własne. W taki
sposób moduł koherencji przyjmuje wartości z przedziału [0, 1]. Wartość 0 oznacza brak związku, a
wartość 1 identyczność badanych sygnałów (dla danej częstości).
Koherencja jest miarą szeroko stosowaną w analizie najróżnorodniejszych sygnałów. Jest łatwa w
użyciu i daje natychmiast wgląd w sytuację: czy dane dwa sygnały mają ze sobą coś wspólnego?
Warto zauważyć, że aby koherencja miała wysoką wartość nie wystarczy, aby dwa sygnały zawierały
składową o takiej samej częstości. Składowe te w obu sygnałach muszą być ze sobą związane, na
przykład posiadać niezmienne (słabo zmienne) przesunięcie fazowe. Dlatego też czasami mówi się,
że koherencja opisuje liniowy związek faz sygnałów.
Związki przyczynowe
Istnienie związku między sygnałami może oznaczać, że jeden z nich jest źródłem informacji dla
drugiego. Czy możemy określić kierunek wzajemnego wpływu sygnałów? Możemy na przykład
zbadać fazę koherencji — kierunek przesunięcia fazowego powinien wskazywać, który sygnał był
wcześniejszy niż drugi. W praktyce jednak metoda taka działa tylko dla bardzo prostych sygnałów.
Dla danych biologicznych, o charakterze stochastycznym, jest ona praktycznie bezużyteczna. Z
drugiej strony, zagadnienie to jest trudne, dlatego w literaturze istnieje wiele propozycji funkcji
opisujących związki przyczynowe między sygnałami, działających lepiej lub gorzej w różnych
sytuacjach.
Jednym z możliwych podejść jest oparcie definicji funkcji opisującej związki przyczynowe o macierz
przejścia modelu autoregresyjnego. Jeśli przyjrzymy się równaniu (Equation 17), zauważymy, że nasz
sygnał X w dziedzinie częstości otrzymujemy z transformaty sygnału szumowego E (którego widmo
nie zależy od częstości), na który działa macierz przejścia H. Tak więc całość zależności między
sygnałami z całego zestawu, również te kierunkowe, zawarte są w tej macierzy. Na tej idei bazuje
defincja skierowanej funkcji przejścia (ang. directed transfer function, DTF). Jej nienormalizowana
wersja (NDTF) jest zdefiniowana na podstawie odpowiednich elenetów macierzy przejścia H;
transmisja z kanału j do i opisana jest jako:
Wartość 0 oznacza brak transmisji z kanału j do i w częstości f. Funkcja powyższa może przyjmować
dowolnie wartości. Możemy wprowadzić normalizację tej wartości w taki sposób, że będziemy
opisywać stosunek transmisji z kanału j do kanału i do sumy transmisji do kanału i ze wszystkich
kanałów. Taka postać funkcji DTF była zaproponowana w pracy []:
W tym przypadku wartość 0 funkcji oznacza brak transmisji. Maksymalną wartością jest zaś 1
oznaczające, że do kanału i informacja dopływa wyłącznie z kanału j.

Podobne dokumenty