as_3.
Transkrypt
as_3.
1 Rozdział 3 Metody korelacyjne analizy sygnałów 3.1. Podstawy analizy korelacyjnej W rozdziale pierwszym zdefiniowana została wielkość zwana kowariancją znormalizowaną (1.23), którą nazwaliśmy współczynnikiem korelacji. Dla wyjaśnienia sensu fizycznego tej wielkości rozważmy populację par wartości dwóch zmiennych losowych x i y. Załóżmy, że każda z par wartości x i y jest reprezentowana przez punkt na wykresie (rys. 3.1). a) b) Y Y X X Rys. 3.1. Ilustracja korelacji między dwoma zmiennymi losowymi x i y. Na rysunku 3.1a wartości x i y w każdej z par nie są związane wyraźną zależnością funkcyjną, podczas gdy na rys. 3.1b zauważyć można, że dużym wartościom x odpowiadają duże wartości y a małym wartościom x małe wartości y. Możemy powiedzieć, że zmienne z rys. 3.1b są skorelowane a zmienne z rys. 3.1a są nieskorelowane. Dla rozkładu punktów z rys. 3b można dokonać liniowej aproksymacji związku między zmiennymi losowymi x i y, czyli znaleźć tzw. linię regresji. Jednym ze sposobów wyznaczenia tej linii jest metoda najmniejszej sumy kwadratów odchyleń rzeczywistych wartości y od ich wartości przybliżonych linią prostą. Dla uproszczenia załóżmy, że początek układu współrzędnych znajduje się w „środku ciężkości” rozkładu punktów, wówczas wartości oczekiwane zmiennych: 2 a) b) y y x x Rys. 3.2. Obliczanie linii regresji dla skorelowanych danych: a) linii regresji zmiennej y względem x, b) linii regresji zmiennej x względem y. E [x ] = E [ y ] = 0 a linia regresji przechodzi przez początek układu współrzędnych i jest opisana równaniem: y=m·x gdzie m jest współczynnikiem regresji, równym tangensowi kąta pochylenia względem osi x. Odchyłkę współrzędnej y dowolnego z punktów od jej przybliżonej wartości mx (rys. 3.2a) można wyrazić: ∆ = y − mx (3.1) a średnia wartość kwadratów odchyleń będzie wówczas: [ ] [ ] [ ] [ ] E ∆2 = E ( y − mx )2 = E y 2 + m 2 E x 2 − 2 m E [xy ] Jej minimalna wartość wystąpi wtedy, gdy pochodna liczona po m będzie równa zero: [ ] 0 = 2m E x 2 − 2 E [xy ] stąd współczynnik regresji: m= E [xy ] [ ] E x2 (3.2) Wstawiając tę optymalną wartość do równ. (3.1) otrzymujemy równanie: y= E [xy ] [ ]⋅ x E x2 (3.3) 3 Wykorzystując założenie, że wartości średnie (oczekiwane) zmiennych x i y równają się zero, zgodnie z równ. (1.14) możemy zapisać: [ ] σ x2 = E x2 [ ] σ y2 = E y2 i i wówczas równ. (3.3) można wyrazić w postaci: E [xy ] x = σ y σ x σ y σ x y (3.4) które jest równaniem linii regresji zmiennej zależnej y od zmiennej niezależnej x. Stosując podobny tok rozumowania dla odchyłek wartości zmiennej x od jej liniowo przybliżonych wartości (rys. 3.2b) otrzymamy analogiczne równanie linii regresji zmiennej x względem y: E [xy ] y = σ x σ x σ y σ y x (3.5) W przypadku, gdy wartości średnie zmiennych x i y nie są równe zero, wówczas odpowiadające im równania linii regresji mają postać: y − m01 E [( x − m10 ) ( y − m01 )] x − m10 = σx σy σ x (3.6) x − m10 E [( x − m10 ) ( y − m01 )] y − m01 = σx σy σ y (3.7) σy σx gdzie m10 i m01 są wartościami średnimi zmiennych x i y. Wyrażenie umieszczone w tych równaniach w nawiasach nazywane jest współczynnikiem korelacji lub kowariancją znormalizowaną: E [( x − m10 ) ( y − m01 )] R xy = σx σy Wstawiając do równ. (3.6) symbol współczynnika korelacji otrzymamy: y − m01 σy = R xy x − m10 σx (3.8) 4 a stąd równanie linii regresji zmiennej y względem x w postaci kierunkowej: y − m01 = R xy σy ( x − m10 ) σx w którym wyrażenie: Rxy σy y − m01 =m= σx x − m10 (3.9) jest współczynnikiem kierunkowym (regresji) tego równania. Równanie (3.9) wyraża ścisły związek między współczynnikami: korelacji i regresji, przy czym ważna jest tutaj interpretacja obu współczynników. Korelacja Rxy jest miarą wzajemnej współzależności między zmiennymi x i y lub y i x (Rxy =Ryx), natomiast współczynnik regresji określa wielkość zmiany zmiennej zależnej ( w tym przypadku y), która może być przewidywana jeśli dokona się jednostkowej zmiany współrzędnej niezależnej (w tym przypadku x). Na rys. 3.3a pokazano rozkład punktów o współrzędnych x i y, między którymi zachodzi ścisła zależność taka, że poszczególnym wartościom x odpowiadają takie same wartości y. Współczynnik kierunkowy linii regresji wynosi w tym przypadku m = 1. Ponieważ odchylenia standardowe dla obu ( zmiennych są jednakowe σ x = σ y ) to współczynnik korelacji jak wynika z równ. (3.9): Rxy = m σx σy (3.10) również jest równy 1. Na rys. 3.3b,c pokazano inne liniowe zależności między zmiennymi x i y dla dwóch różnych kątów pochylenia tych linii. Na rys. 3.2b współczynnik regresji, równy tangensowi kąta pochylenia linii regresji wynosi m = 0.5. Ponieważ przy takim rozkładzie punktów odchylenie standardowe σ y jest dwukrotnie mniejsze od σ x , to współczynnik korelacji zgodnie z równ. (3.10) Rxy = 0.5 · 2 = 1. 5 a) 5 b) y 5 4 4 3 3 2 2 45 1 -5 -4 -3 -2 -1 1 2 10 1 x 3 4 5 -5 -4 -3 -2 1 -1 -2 -2 -3 -3 -4 -4 -5 -5 σ x = 2,976 σ y = 1,488 m=1 R xy = 1 y x 30 -1 -1 σ x = σ y= 2,976 c) y 2 3 4 5 m = 0,5 R xy = 1 d) 9 8 7 5 6 5 4 4 3 3 2 2 60 1 -5 -4 -3 -2 -1 -1 1 2 4 5 135 1 x 3 y x -5 -4 -3 -2 -1 1 2 3 4 5 -1 -2 -2 -3 -4 -3 -5 -4 -6 -5 -7 -8 -9 -10 σ x = 2,976 σ y = 5,953 m=2 R xy = 1 σ x = σ y= 2,976 m = -1 R xy = -1 Rys. 3.3. Zależność między współczynnikami korelacji i regresji dla kilku idealnie skorelowanych współrzędnych x, y punktów. Podobna zależność występuje na rys. 3.3c gdzie wzrostowi współczynnika regresji spowodowanemu wzrostem kąta pochylenia linii regresji towarzyszy jednoczesny spadek wartości stosunku σx spowodowany wzrostem σ σy y i również w tym przypadku współczynnik korelacji Rxy = 1. W przypadku, gdy zależność między zmiennymi x i y jest dalej liniowa oraz odpowiadające bieżącym wartościom zmiennej x wartości y mają przeciwne znaki, wówczas kąt pochylenia tej linii jest większy od 90o i współczynnik regresji jest ujemny (m < 0) a współczynnik korelacji jest wtedy równy Rxy = -1. 6 Na podstawie tej ilustracji można stwierdzić, że jeżeli zmienne losowe są idealnie skorelowane, tzn. że zależność między zmiennymi x i y jest ściśle liniowa to współczynnik korelacji może przyjmować wartości 1 lub –1. W celu lepszego zilustrowania dodatkowych własności współczynnika korelacji w przypadku liniowych zależności między x i y posłużymy się rys. 3.4. a) 6 b) y 5 4 4 3 3 2 2 1 -6 -5 -4 -3 -2 -1 c) -1 1 2 3 4 5 6 -6 -5 -3 -2 -1 -1 -2 -3 -3 -4 -4 -5 -5 -6 -6 (x - m10) 1 2 3 4 5 6 (y - m01)/ σy 5 3 2 1 -5 -4 -2 6 (y - m 01) 1 x 4 -6 6 5 -4 -3 -2 -1 -1 -2 -3 -4 (x - m10)/ σx 1 2 3 4 5 6 E[x] = m10= -1,113 E[y] = m01= 0,393 σx = 2,976 σy = 1,488 R xy = 1 m = 0,5 -5 -6 Rys. 3.4. Ilustracja współczynnika korelacji Rxy jako współczynnika regresji dla danych w zmodyfikowanym układzie współrzędnych. W układzie współrzędnych x,y (rys.3.4a) przedstawiono dowolnie zorientowany liniowy rozkład punktów o niezerowych wartościach średnich współrzędnych x i y. Modyfikacja zmiennych x i y polegająca na odjęciu ich wartości średnich spowodowała przesunięcie rozkładu punktów w ten sposób, że linia przez nie wyznaczona (linia regresji) przechodzi przez środek układu (x-m10), (y-m01) bez zmiany kąta jej pochylenia, co pokazano na rys. 3.4b. Kolejna modyfikacja polegająca na redukcji odchyłek współrzędnych od wartości średnich przez ich odchylenia standardowe powoduje normalizację rozkładu, który w układzie współrzędnych ( x − m10 ) / σ x , ( y − m01 ) / σ y (rys. 7 3.4c) jest linią pochyloną pod kątem 45o. Współczynnik kierunkowy tej linii na mocy równ. (3.9) wynosi: y − m01 R xy = σy y − m01 σ x = =1 x − m10 σ y x − m10 σx i jest współczynnikiem korelacji liniowego rozkładu punktów z rys 3.4a. a) 10 b) y 8 6 6 4 4 2 -10 -8 -6 -4 σx = 2,976 σy = 3,221 10 8 -2 45 2 4 6 2 x 8 10 x 45 -10 -8 -6 -4 -2 2 -2 -2 -4 -4 -6 -6 -8 -8 -10 -10 R xy = 0,928 m=1 y σx = 2,976 σy = 4,246 4 6 8 10 R xy = 0,709 m=1 Rys. 3.5. Ilustracja wpływu wartości odchyleń punktów od linii regresji na wartość współczynnika korelacji Rxy . W dalszej kolejności rozpatrzmy przypadek, gdy zmienne x i y opisują punkty, których rozkład nie jest liniowy lecz wykazują one losowy rozrzut względem ich linii regresji ze współczynnikiem regresji równym 1, co zilustrowano na rys. 3.5. Rysunek ten skonstruowano w ten sposób, że przy zachowaniu tych samych wartości zmiennej x co na rys. 3.3a, do zmiennych y dodano losowo wygenerowany szum z zerową wartością średnią dla dwóch przykładowych amplitud szumu, przy czym amplituda na rys. 3.5b jest 2.5krotnie większa niż pokazana na rys. 3.5a. Jak wynika z danych zaznaczonych na rys. 3.5a losowy rozrzut rzędnych punktów zwiększa ich odchylenie standardowe w stosunku do wartości z rys. 3.3a przy jednoczesnym zachowaniu identycznej wartości odchylenia standardowego współrzędnych x. Ponieważ współczynnik regresji również zachowuje swoją wartość (m = 1), to zgodnie z równ. (3.10) wzrost σ y powoduje spadek wartości współczynnika korelacji Rxy. 8 Jak wynika z danych pokazanych rys. 3.5b, wzrost amplitudy odchyleń współrzędnej y powoduje przyrost wartości σ y który jest przyczyną dalszego spadku wartości Rxy. Zwiększając w dalszym ciągu amplitudę rozrzutu rzędnych punktów moglibyśmy otrzymać rozkład słabo skorelowanych punktów zbliżony do tego z rys. 3.1a, dla którego współczynnik korelacji byłby bliski zeru. Odmienna interpretacja sensu fizycznego współczynnika korelacji wykorzystywana jest w statystycznej analizie danych. Jeżeli założymy, że dysponujemy zbiorem par danych opisujących współrzędne punktów pokazanych na rys. 3.5a wówczas zgodnie z konwencją stosowaną w statystyce, linię regresji – nazywaną tutaj prostą korelacji – zapisać będzie można równaniem: yˆ = a + bx gdzie ŷ (3.11) jest liniową aproksymacją otrzymaną metodą najmniejszych kwadratów. Łatwo można wykazać, że równanie prostej korelacji spełniają również wartości średnie współrzędnych x y: i y = a + bx oraz, że wartości a i b odpowiadające prostej o najmniejszej sumie kwadratów odchyleń y od ŷ wyrażają się równaniami (patrz [1]): a = y − bx (3.12) oraz b= ∑ (x − x) ( y − y) ∑ (x − x) (3.13) 2 Sumę kwadratów odchyleń współrzędnych y wszystkich punktów od ich wartości oszacowanych ŷ wyrazić można, wykorzystując równ. (3.11) jako: ∑ ( y − yˆ ) = ∑ ( y − a − bx) 2 2 Wykorzystując dalej zależności (3.12) i (3.13) otrzymujemy w następstwie: 9 ∑ ( y − a − bx) = ∑[( y − y) − b ( x − x )] = = ∑ [( y − y ) − 2b ( x − x )( y − y ) + b ( x − x ) ] = = ∑ ( y − y ) − b ∑ (x − x ) 2 2 2 2 2 2 2 Podstawiając, na podstawie równania (3.13): ∑ (x − x ) = ∑ (x − x ) ( y − y ) 2 b⋅ otrzymujemy ostatecznie: ∑ ( y − yˆ ) = ∑ ( y − y ) − b ∑ (x − x ) = ∑ ( y − y ) − b ∑ (x − x ) ( y − y ) Z równania (3.14) wynika, że człony b ∑ ( x − x ) 2 2 2 2 = (3.14) 2 2 2 lub b ∑ (x − x ) ( y − y ) przedstawiają część sumy kwadratów odchyleń pierwotnych danych wyjaśnioną przez korelację liniową, przy czym ∑ ( y − ŷ ) 2 jest pozostałością jeszcze nie wyjaśnioną i przypisywaną zazwyczaj błędowi. Sumę kwadratów odchyleń ∑ (c − c ) wyjaśnioną przez korelację można oznaczyć przez 2 i wyrazić następującymi wzorami: ∑ (c − c ) 2 = b2 ∑ ( x − x ) = b∑ ( x − x ) ( y − y ) 2 Stosunek sumy kwadratów wyjaśnionej przez korelację do sumy kwadratów pierwotnych danych jest miarą dobroci korelacji a pierwiastek kwadratowy tego stosunku jest współczynnikiem korelacji Rxy: (c − c ) ( y − yˆ ) ∑ ∑ = 1− = R = ( ) ( ) − − y y y y ∑ ∑ b ∑ (x − x ) ∑ ( y − y ) − ∑ ( y − yˆ ) = = ∑(y − y) ∑(y − y) xy 2 2 2 2 2 2 2 2 2 2 2 (3.15) 10 Jeżeli zatem między współrzędnymi x i y istnieje korelacja całkowita, czyli nie ma resztkowego odchylenia y od ŷ , tzn. ∑ ( y − yˆ ) 2 = 0 , wtedy Rxy = 1. Gdy między danymi nie ma żadnej korelacji i liniowa zależność nie znosi żadnej z sum kwadratów odchyleń, wówczas Rxy = 0. Rozpatrywane dotychczas przykłady dotyczyły korelacji „statycznych” w których dane pomiarowe nie były funkcją czasu. Pojęcie korelacji możemy również wykorzystać w analizie sygnałów zmiennych w czasie, które są przedmiotem naszego zainteresowania. Rozważmy dla przykładu dwa sygnały sinusoidalne o stałej amplitudzie i częstotliwości lecz przesunięte w fazie o ϕ x( t ) = xo sin ωt (3.16) y( t ) = yo sin( ωt + ϕ ) Załóżmy, że obydwa te przebiegi próbkujemy w dowolnej chwili to i obliczamy wartość średnią iloczynu x(to)y(to), która dana będzie zależnością: E [ x( to ) y( to )] = +∞ ∫ xo yo sin ωto sin( ωto + ϕ ) p( to )dto (3.17) −∞ Ze względu na okresowość analizowanych funkcji wystarczy uwzględnić zmianę to w zakresie od 0 do 2π/ω, a odpowiadająca temu zakresowi to funkcja gęstości prawdopodobieństwa przedstawiona jest na rys. 3.6. p ( to ) ω 0 ω to Rys. 3.6. Rozkład funkcji gęstości prawdopodobieństwa dla losowo wybranego czasu próbkowania t0 . 11 Uwzględniając powyższą obserwację w (3.17) otrzymujemy ω E [ x( to ) y( to )] = xo yo 2π 2π 2π ω ∫ sin ωto sin( ωto + ϕ )dto = 0 ω ω 2 = xo y o ∫ {sin ωto cos ϕ + sin ωto cos ωto sin ϕ }dto = 2π 0 = (3.18) 1 xo yo cos ϕ 2 wówczas współczynnik korelacji wynosi Rxy = ponieważ: σ x = xo E[xy] = cos ϕ σ xσ y 2 i σ y = yo (3.19) 2. R xy 1 ϕ -1 Rys. 3.7. Rozkład współczynnika korelacji między dwoma przebiegami sinusoidalnymi w funkcji przesunięcia fazowego ϕ . Z rysunku 3.7 wynika, że dwie fale sinusoidalne są idealnie skorelowane gdy przesunięcie fazowe wynosi 0 lub 180° a nieskorelowane gdy przesunięcie fazowe wynosi 90° lub 270°. W pozostałych przypadkach wartości przesunięcia fazowego zależność między amplitudami dwóch fal sinusoidalnych jest nieliniowa i wtedy 0 < Rxy < 1. 3.2. Funkcja kros - korelacji* * W literaturze zwana również funkcją korelacji wzajemnej lub interkorelacji 12 Funkcje kros – korelacji dwóch losowych funkcji czasu x(t) i y(t) są zdefiniowane jako i Rxy ( τ ) = E [ x( t ) y( t + τ )] R yx ( τ ) = E [ y( t ) x( t + τ )] (3.20) Funkcja kros - korelacji opisuje zależność jednego przebiegu od drugiego. Zakładając, że procesy x(t) i y(t) są stacjonarne możemy napisać i Rxy ( τ ) = E [ x( t − τ ) y( t )] = R yx ( −τ ) R yx ( τ ) = E [ y( t − τ ) x( t )] = Rxy ( −τ ) (3.21) Ogólnie Rxy(τ) nie jest równe Ryx(τ), co znaczy, że funkcja kros – korelacji nie jest parzysta względem τ. Funkcję kros – korelacji można wyrazić korzystając z pojęcia współczynnika korelacji (kowariancji znormalizowanej) Rxy i Ryx: i Rxy (τ ) = σ x σ y Rxy + m1x m1y R yx (τ ) = σ y σ x R yx + m1y m1x (3.22) a ponieważ wartości współczynnika korelacji zmieniają się w zakresie od –1 do +1, można określić wartości graniczne funkcji kros – korelacji, które wynoszą: ± σ x σ y + m1x m1y (3.23) Dla większości sygnałów losowych można spodziewać się zaniku korelacji kiedy dystans korelacyjny jest duży, co można wyrazić: Rxy(τ → ∞) → m1x m1y R yx(τ → ∞) → m1y m1x (3.24) Właściwości te zobrazowane są na rys. 3.8, który prezentuje typowy przebieg funkcji kros – korelacji. W tym przypadku zauważyć można, że dwa sygnały losowe x(t) i y(t) są najbardziej skorelowane gdy τ = τo. Dla przykładu rozważmy dwa losowe przebiegi x(t) i y(t), które zawierają zbiór realizacji procesu będących sinusoidami o stałej amplitudzie i częstotliwości danymi zależnością: x( t ) = xo sin( ωt + Θ ) (3.25) 13 Rxy (τ) 0 σxσy + m1x m 1y m1x m 1y τ0 τ Rys. 3.8. Ilustracja właściwości funkcji kros - korelacji Rxy(τ) dwóch stacjonarnych przebiegów x(t) i y(t) . gdzie θ jest stałym przesunięciem fazowym. Jeżeli θ byłoby stałe dla wszystkich realizacji procesu x(t), nie możemy powiedzieć, że x(t) jest procesem losowym, jeżeli jednak założymy, że θ jest losowo zmienne dla każdej realizacji, wówczas x(t) będziemy mogli uważać za proces losowy. Załóżmy zatem, że wszystkie przesunięcia fazowe (ze względu na okresowość poszczególnych realizacji) zmieniają się w zakresie od 0 do 2π co pozwala zapisać: 1 2π p( Θ ) = 0 dla 0 ≤ Θ ≤ 2π (3.26) Przebieg y(t) dany jest zależnością: y( t ) = yo sin( ωt + Θ − Φ ) (3.27) gdzie Φ jest innym stałym przesunięciem fazowym (stałym dla wszystkich realizacji procesu). Funkcja kros – korelacji procesów x(t) i y(t) może być obliczona jako średnia grupowa: Rxy ( τ ) = E [ x( t ) y( t + τ )] = = E [ xo yo sin( ωt + Θ ) sin( ωt + ωτ + Θ − Φ )] = = 2π ∫ xo yo sin( ωt + Θ ) sin( ωt + ωτ + Θ − Φ ) 0 1 dΘ 2π (3.28) 14 podstawiając do równania (3.28) zależność: sin( ωt + ωτ + Θ − Φ ) = = sin( ωt + Θ ) cos( ωτ − Φ ) + cos( ωt + Θ ) sin( ωτ − Φ ) (3.29) otrzymujemy: Rxy ( τ ) = 1 xo yo cos( ωτ − Φ ) 2 (3.30) co graficznie zostało zobrazowane na rysunku 3.9. Rxy(τ ) σx σy 0 (Φ/ω) τ −σx σy Rys. 3.9. Funkcja kros - korelacji dwóch przebiegów sinusoidalnych x(t) i opóźnionego o kąt Φ przebiegu y(t) . Funkcję kros – korelacji Ryx(τ) wyznacza się postępując dokładnie w ten sam sposób, czyli zaczynając od znalezienia średniej grupowej: R yx ( τ ) = E [ y( t ) x( t + τ )] = E [ xo yo sin( ωt + Θ − Φ ) sin( ωt + ωτ + Θ )] (3.31) otrzymujemy podobny wynik końcowy: R yx ( τ ) = 1 xo yo cos( ωτ + Φ ) 2 (3.32) 3.3. Funkcja autokorelacji W przypadku gdy do wyznaczenia funkcji kros-korelacji użyjemy tego samego przebiegu czasowego np. x(t), otrzymamy wówczas tzw. funkcję autokorelacji Rxx(τ), która jest szczególnym przypadkiem funkcji kros-korelacji. Funkcja autokorelacji procesu losowego x(t) jest zdefiniowana jako wartość 15 średnia iloczynu x(t)x(t+τ). Przebieg jest próbkowany w chwili t i następnie w chwili t+τ (rys. 3.10), wartość średnia iloczynu obliczana jest jako średnia grupowa. x4 ( t ) x3 ( t ) x2 ( t ) x1 ( t ) t+τ t ∆τ Rys. 3.10. Ilustracja do obliczania funkcji autokorelacji sygnału x(t) . Zakładając, że proces jest stacjonarny wówczas wartość E[x(t)x(t+τ)] nie będzie zależeć od t i będzie tylko funkcją τ E[ x(t ) x(t + τ )] = f (τ ) = Rxx (τ ) (3.33) gdzie Rxx(τ) jest funkcją autokorelacji sygnału x(t). Dla procesu stacjonarnego E[x(t)] = E[x(t + τ)] = m, σx(t) = σx(t +τ) = σx, a współczynnik korelacji dla takiego procesu na podstawie (1.23) dany jest zależnością Rxx = = = E[{x(t) − m x }{x(t + τ) − m x }] σ x2 = E[x(t)x(t + τ)] − m x E[x(t + τ)] − m x E[x(t)] + m x2 2 − E[x(t) x(t + τ) − m1x σ x2 σ x2 2 m1x 2 + m1x = 2 Rxx (τ ) − m1x σ x2 = (3.34) 16 stąd Rxx(τ) = σ2Rxx + m1x2 i ponieważ graniczne wartości Rxx to ±1, stąd − σ x2 + m1x2 ≤ Rxx(ττ ≤ + σ x2 + m1x2 (3.35) Wartości funkcji autokorelacji nie mogą być nigdy większe od wartości średniokwadratowej E[x2] = σx2 + m1x2 i nie mogą być mniejsze od -σx2 + m1x2. Kiedy dystans korelacyjny τ = 0 wówczas Rxx (τ = 0) = E[ x(t ) 2 ] = E[ x 2 ] (3.36) co oznacza, że funkcja autokorelacji jest równa wartości średniokwadratowej procesu. Dla dużych wartości dystansu korelacyjnego (τ → ∞), proces losowy będzie nieskorelowany, ponieważ z definicji nie może istnieć związek między x(t) a x(t + τ) dla τ → ∞ co oznacza, że współczynnik korelacji takiego procesu przybiera wartość Rxx → 0. W tym przypadku ze związku (3.34) wynika: Rxx(τ → ∞) → m1x2 (3.37) Ponieważ dla procesu stacjonarnego Rxx(τ) nie zależy od t a tylko od τ (dystansu korelacyjnego), stąd wynika Rxx (τ ) = E[ x(t ) x(t + τ )] = E[ x(t ) x(t − τ )] = Rxx (−τ ) (3.38) czyli funkcja autokorelacji jest parzysta względem τ, a własności (3.34) ÷ (3.38) zilustrowane są typowym przebiegiem funkcji autokorelacji na rys. 3.11. Rxx (τ) 0 2 E[x2] = σx2 + m 1x τ 2 m 1x σ 2 - m 1x2 Rys. 3.11. Ilustracja właściwości funkcji autokorelacji Rxx(τ) stacjonarnego losowego sygnału x(t) . 17 Dla przykładu obliczmy funkcję autokorelacji dla ergodycznego procesu losowego x(t), którym jest fala prostokątna o stałej amplitudzie i okresie, ale losowo zmiennej fazie. a) x(t) T/2 b) T/2 a p ( to) 1 t 0 -a 0 τ to Rys. 3.12. a) Fala prostokątna spróbkowana w dwóch chwilach czasu różniących się o τ , b) funkcja gęstości prawdopodobieństwa. Istnieją dwa sposoby wykonania takich obliczeń. Pierwszym z nich jest (zgodnie z definicją) obliczenie średniej grupowej iloczynu E[x(t) x(t + τ)] dla sygnału próbkowanego w chwili t i następnie t + τ. Użycie tego sposobu wymagałoby wykonanie obliczeń dla dużej liczby realizacji procesu. Dlatego stosuje się drugi sposób zakładający, że przebieg x(t) jest przebiegiem ergodycznym, a więc średnia wzdłuż próbki jest równoważna średniej grupowej, bo każda z realizacji jest reprezentatywna dla pozostałych. W tym przypadku zakładamy, że p(to) jest zmienną losową o rozkładzie płaskim (rys. 3.12b). Wówczas ∞ Rxx (τ ) = E[ x(t o ) x(t o + τ )] = ∫ x(t ) x(t o o + τ ) p(t o )dt o (3.39) −∞ Ponieważ x(t) jest przebiegiem okresowym, powinniśmy rozważać tylko pojedynczy okres. Uwzględniając to otrzymujemy T 1 Rxx (τ ) = x(t o ) x(t o + τ ) dt o T ∫ (3.40) 0 Ponieważ x(t) jest funkcją nieciągłą, stąd całkowanie należy prowadzić etapami. Najpierw rozważmy przypadek kiedy 0 ≤ τ ≤ T/2. Całka a równania (3.40) wynosi 18 1 Rxx (τ ) = T T −τ 2 ∫ 0 T 2 1 1 a dt o + − a 2 dt o + TT T ∫ 2 2 τ = a2 1 − 4 T T −τ ∫ T −τ dla 0 ≤ τ ≤ 1 a dt o + T 2 2 T ∫ − a 2 dt o = T −τ T 2 (3.41) Następnie, dla T/2 ≤ τ ≤ T, otrzymujemy 1 Rxx (τ ) = T T T −τ ∫ 0 1 − a dt o + T 2 τ = a2 − 3 + 4 T 2 ∫ 1 a dt o + T 2 T −τ dla a2 3T −τ 2 ∫ T 2 T 1 − a dt o + a 2 dt o = T 3T 2 ∫ 2 −τ T ≤ τ ≤T 2 (3.42) R xx (τ) T/2 -T/2 T τ -a2 Rys. 3.13. Funkcja autokorelacji fali prostokątnej. Jeżeli przedstawimy graficznie wyniki obliczeń funkcji autokorelacji fali prostokątnej otrzymamy falę trójkątną zaprezentowaną na rysunku 3.13. 3.4. Zastosowanie funkcji korelacyjnych Jednym z najbardziej powszechnych zastosowań funkcji autokorelacji jest detekcja składowych harmonicznych występujących w silnie zaszumionych sygnałach. Analiza przebiegu funkcji autokorelacji pozwala na wyznaczenie okresu, a co za tym idzie częstotliwości oraz oszacowanie wartości amplitudy składowej harmonicznej ukrytej w zaszumionym sygnale. Na rysunku 3.14a 19 przedstawiony jest przykładowy przebieg czasowy sygnału będącego superpozycją szumu losowego i fali sinusoidalnej. a) 4 2.878581 2 x i 0 2 2.980581 4 0 1 50 100 150 200 250 i N 4 b) 1 1 0.5 r xx τ 0 0.366018 0.5 0 0 50 100 150 τ 200 250 256 Rys. 3.14. a) Przykładowy sygnał z zaszumioną składową harmoniczną oraz b) jego funkcja autokorelacji. Na podstawie analizy przebiegu czasowego niemożliwe jest określenie charakteru sygnału (rozpoznanie występującej w nim składowej harmonicznej). Jest to wykonalne po zastosowaniu analizy opartej o badanie funkcji gęstości prawdopodobieństwa (patrz rozdział 2), za pomocą której stwierdzić można występowanie w sygnale składowej okresowej. W przypadku analizy sygnału opartej o badanie funkcji gęstości prawdopodobieństwa nie można jednak określić częstotliwości składowej okresowej co możliwe jest natomiast poprzez zastosowanie analizy funkcji autokorelacji tego sygnału przedstawionej na rys. 3.14b. 20 Kolejnym zastosowaniem funkcji autokorelacji może być również wyznaczanie charakterystycznych skal czasowych badanego sygnału. Znormalizowana funkcja autokorelacji może być wyrażona związkiem rxx (τ ) = Rxx (τ ) x(t ) ⋅ x(t + τ ) = Rxx (0) x 2 (t ) (3.43) Funkcja ta jest parzystą funkcją dystansu korelacyjnego, rozwijając ją w szereg Taylora w otoczeniu punktu τ = 0 otrzymujemy: 1 2 ∂ 2 rxx (τ ) 1 4 ∂ 4 rxx (τ ) +K rxx (τ ) = 1 + τ + τ 2! ∂τ 2 τ =0 4! ∂τ 4 τ =0 (3.44) pochodne nieparzyste szeregu są wyeliminowane dzięki parzystości funkcji rx(τ). Uwzględniając tylko dwa pierwsze wyrazy szeregu, dla bardzo małych wartości τ funkcja rx(τ) aproksymowana może być związkiem: τ2 rxx (τ ) = 1 − 2 τx (3.45) w którym τx oznacza mikroskalę czasową sygnału. Skala ta charakteryzuje najkrócej trwające (najszybsze) zmiany zachodzące w sygnale. Wielkością odpowiadającą za najwolniejsze zmiany zachodzące w sygnale jest natomiast makroskala definiowana jako ∞ ∫ Tx = Rxx (τ )dτ (3.46) 0 i charakteryzująca przeciętny czas trwania najwolniejszych zmian. Na rysunku 3.15a przedstawione są przebiegi czasowe dwóch sygnałów stochastycznych wraz z odpowiadającymi funkcjami gęstości prawdopodobieństwa. Przedstawione na rysunku rozkłady prawdopodobieństwa nie wykazują żadnych różnic pomiędzy sygnałami, ponieważ w nawiązaniu do rozdziału drugiego, pamiętamy, że metody statystyczne pozwalają jedynie na analizę sygnałów w dziedzinie amplitudy. Sporządzenie przebiegu funkcji autokorelacji, za pomocą 21 x 1(t) p(x 1 ) t x 2(t) p(x 2 ) t a) Rx( τ ) δ 2 ∆f 2 1 ∆τ 1 ∆τ2 τ b) Rys. 3.15. a) Przykładowe przebiegi czasowe sygnałów stochastycznych oraz ich rozkłady funkcji gęstości prawdopodobieństwa, b) przebiegi funkcji autokorelacji z wyznaczonymi wartościami mikroskal czasowych. której wyznaczyć można mikroskale tych sygnałów pozwala na określenie różnic między nimi. Z rysunku 3.15b widać, że mikroskala czasowa pierwszego sygnału jest mniejsza aniżeli mikroskala sygnału drugiego tak więc pierwszy sygnał charakteryzuje się większą liczbą fluktuacji wartości przypadających na jednostkę czasu niż to ma miejsce w przypadku sygnału drugiego. Rozważmy jeszcze jeden przykład, w którym zobrazowana zostanie rola funkcji korelacji wzajemnej (kros - korelacji). Rozważmy pomieszczenie (schemat przedstawiono na rysunku 3.16), które jest wentylowane w układzie z 22 całkowitą recyrkulacją tzn. całość powietrza nawiewanego jest przez ten sam wentylator wyciągana. l1 x(t) x(t) t t l2 Rys. 3.16. Pomiar rozprzestrzeniania się hałasu w układzie wentylacyjnym. W przypadku gdy w pomieszczeniu wentylowanym panuje zbyt duży hałas, typowym zagadnieniem wchodzącym w zakres aeroakustyki przepływów wentylacyjnych jest zmniejszenie poziomu głośności w tym pomieszczeniu. Ponieważ szum wywoływany przez wentylator dociera do pomieszczenia dwoma drogami tj. kanałem ssącym i kanałem nawiewnym w pierwszej kolejności należy określić, którą z dróg propagowany jest hałas o większym natężeniu. Dokonanie takiej analizy ma wymierny aspekt ekonomiczny bo w wielu wypadkach możliwe jest zainstalowanie jednego tylko tłumika (w kanale, którym propagowany jest hałas o większym natężeniu). Na rysunku 3.17 przedstawiono przebieg funkcji kros – korelacji sygnałów x(t) i y(t) zmierzonych za pomocą dwóch mikrofonów zainstalowanych odpowiednio w wentylatorowni i pomieszczeniu wentylowanym (rys. 3.16). Do identyfikacji pików konieczna jest znajomość długości dróg transmisji, które w tym przypadku można przyjąć jako równe długości kanałów wentylacyjnych. W naszym przykładzie (rys. 3.17) zauważyć można, że większy pik pochodzi od sygnału docierającego do pomieszczenia dłuższą drogą, czyli kanałem o długości l2, którym powietrze jest tłoczone do wentylowanego pomieszczenia. 23 R xy( τ) τ1 τ2 τ Rys. 3.17. Przebieg funkcji kros – korelacji sygnałów zmierzonych w układzie wentylacyjnym z rys. 3.16. 3.5. Metody wyznaczania funkcji korelacji Metody wyznaczania funkcji auto- i kros - korelacji podzielić można na dwie grupy, są to oczywiście metody analogowe i cyfrowe. Metody analogowe ze względu na szybki rozwój maszyn liczących nie są już powszechnie stosowane, ale dla zasady należy o nich wspomnieć. Podstawowa metoda wyznaczania funkcji korelacji przy pomocy technik analogowych polega na wprowadzeniu opóźnienia czasowego τ do jednego z sygnałów poddawanych analizie. Następnie wyznaczana jest wartość średnia iloczynu sygnału pierwszego i drugiego z dodanym opóźnieniem. Schemat urządzenia realizującego powyższą ideę przedstawiono na rysunku 3.18. Godnym uwagi jest fakt, iż w metodzie tej otrzymywana na wyjściu wartość jest wartością średnią iloczynu x(t) i y(t-τ), która dla sygnałów stacjonarnych jest identyczna z wartością iloczynu x(t) i y(t+τ). Duży problem w tej metodzie stanowi realizacja opóźnienia czasowego zmiennego w zakresie długości zapisu. Istnieje kilka metod realizacji opóźnienia, ale jest to zagadnienie zbyt szczegółowe i zostanie pominięte, zainteresowani czytelnicy szczegóły mogą znaleźć w [Beauchamp]. 24 Sterowanie ∫ x( t ) y( t − τ x( t ) y( t − τ ) ) Uśrednianie Mnożenie R xy ( τ ) x( t ) Całkowanie y( t ) 1 R xy ( τ ) = T Opóźnienie T ∫ x ( t ) y ( t − τ )dt 0 Rys. 3.18. Schemat blokowy urządzenia analogowego do wyznaczania funkcji korelacji. Dyskretną postać funkcji korelacji możemy zapisać zależnością: 1 Rxy ( τ ) = N −τ N −τ ∑ xi ⋅ yi +τ , gdzie τ = 1 , 2 , ... , m (3.47) i =1 gdzie m jest całkowitą liczbą opóźnień. Zależność (3.47) stanowi postać estymatora nieobciążonego funkcji korelacji. Przy dużej liczbie próbek w porównaniu z długością dystansu korelacyjnego z niewielką stratą dokładności funkcję korelacji wyrazić możemy za pomocą estymatora obciążonego: 1 Rxy ( τ ) = N N −τ ∑ xi ⋅ yi +τ (3.48) i =1 Wpływ członu 1/(N - τ) na jakość estymacji jest silny kiedy długość dystansu korelacyjnego zbliża się do długości zapisu. Należy wtedy korzystać z zależności (3.47).