as_3.

Transkrypt

as_3.
1
Rozdział 3
Metody korelacyjne analizy sygnałów
3.1. Podstawy analizy korelacyjnej
W
rozdziale
pierwszym
zdefiniowana
została
wielkość
zwana
kowariancją znormalizowaną (1.23), którą nazwaliśmy współczynnikiem
korelacji. Dla wyjaśnienia sensu fizycznego tej wielkości rozważmy populację
par wartości dwóch zmiennych losowych x i y.
Załóżmy, że każda z par
wartości x i y jest reprezentowana przez punkt na wykresie (rys. 3.1).
a)
b)
Y
Y
X
X
Rys. 3.1. Ilustracja korelacji między dwoma zmiennymi losowymi x i y.
Na rysunku 3.1a wartości x i y w każdej z par nie są związane wyraźną
zależnością funkcyjną, podczas gdy na rys. 3.1b zauważyć można, że dużym
wartościom x odpowiadają duże wartości y a małym wartościom x małe wartości
y. Możemy powiedzieć, że zmienne z rys. 3.1b są skorelowane a zmienne z rys.
3.1a są nieskorelowane. Dla rozkładu punktów z rys. 3b można dokonać
liniowej aproksymacji związku między zmiennymi losowymi x i y, czyli znaleźć
tzw. linię regresji. Jednym ze sposobów wyznaczenia tej linii jest metoda
najmniejszej sumy kwadratów odchyleń rzeczywistych wartości y od ich
wartości przybliżonych linią prostą. Dla uproszczenia załóżmy, że początek
układu współrzędnych znajduje się w „środku ciężkości” rozkładu punktów,
wówczas wartości oczekiwane zmiennych:
2
a)
b)
y
y
x
x
Rys. 3.2. Obliczanie linii regresji dla skorelowanych danych: a) linii regresji zmiennej y
względem x, b) linii regresji zmiennej x względem y.
E [x ] = E [ y ] = 0
a linia regresji przechodzi przez początek układu współrzędnych i jest opisana
równaniem:
y=m·x
gdzie m jest współczynnikiem regresji, równym tangensowi kąta pochylenia
względem osi x. Odchyłkę współrzędnej y dowolnego z punktów od jej
przybliżonej wartości mx (rys. 3.2a) można wyrazić:
∆ = y − mx
(3.1)
a średnia wartość kwadratów odchyleń będzie wówczas:
[ ] [
] [ ]
[ ]
E ∆2 = E ( y − mx )2 = E y 2 + m 2 E x 2 − 2 m E [xy ]
Jej minimalna wartość wystąpi wtedy, gdy pochodna liczona po m będzie równa
zero:
[ ]
0 = 2m E x 2 − 2 E [xy ]
stąd współczynnik regresji:
m=
E [xy ]
[ ]
E x2
(3.2)
Wstawiając tę optymalną wartość do równ. (3.1) otrzymujemy równanie:
y=
E [xy ]
[ ]⋅ x
E x2
(3.3)
3
Wykorzystując założenie, że wartości średnie (oczekiwane) zmiennych x i y
równają się zero, zgodnie z równ. (1.14) możemy zapisać:
[ ]
σ x2 = E x2
[ ]
σ y2 = E y2
i
i wówczas równ. (3.3) można wyrazić w postaci:
 E [xy ]  x
=

σ y σ x σ y  σ x
y
(3.4)
które jest równaniem linii regresji zmiennej zależnej y od zmiennej niezależnej
x.
Stosując podobny tok rozumowania dla odchyłek wartości zmiennej x od jej
liniowo przybliżonych wartości (rys. 3.2b) otrzymamy analogiczne równanie
linii regresji zmiennej x względem y:
 E [xy ]  y
=

σ x σ x σ y  σ y
x
(3.5)
W przypadku, gdy wartości średnie zmiennych x i y nie są równe zero, wówczas
odpowiadające im równania linii regresji mają postać:
y − m01
 E [( x − m10 ) ( y − m01 )] x − m10
=

σx σy

 σ x
(3.6)
x − m10
 E [( x − m10 ) ( y − m01 )] y − m01
=

σx σy

 σ y
(3.7)
σy
σx
gdzie m10 i m01 są wartościami średnimi zmiennych x i y.
Wyrażenie umieszczone w tych równaniach w nawiasach nazywane jest
współczynnikiem korelacji lub kowariancją znormalizowaną:
 E [( x − m10 ) ( y − m01 )]
R xy = 

σx σy


Wstawiając do równ. (3.6) symbol współczynnika korelacji otrzymamy:
y − m01
σy
= R xy
x − m10
σx
(3.8)
4
a stąd równanie linii regresji zmiennej y względem x w postaci kierunkowej:
y − m01 = R xy
σy
( x − m10 )
σx
w którym wyrażenie:
Rxy
σy
y − m01
=m=
σx
x − m10
(3.9)
jest współczynnikiem kierunkowym (regresji) tego równania.
Równanie (3.9) wyraża ścisły związek między współczynnikami: korelacji i
regresji, przy czym ważna jest tutaj interpretacja obu współczynników.
Korelacja Rxy jest miarą wzajemnej współzależności między zmiennymi x i y lub
y i x (Rxy =Ryx), natomiast współczynnik regresji określa wielkość zmiany
zmiennej zależnej ( w tym przypadku y), która może być przewidywana jeśli
dokona się jednostkowej zmiany współrzędnej niezależnej (w tym przypadku x).
Na rys. 3.3a pokazano rozkład punktów o współrzędnych x i y, między
którymi zachodzi ścisła zależność taka, że poszczególnym wartościom x
odpowiadają takie same wartości y. Współczynnik kierunkowy linii regresji
wynosi w tym przypadku m = 1. Ponieważ odchylenia standardowe dla obu
(
zmiennych są jednakowe σ x = σ y
)
to współczynnik korelacji jak wynika z
równ. (3.9):
Rxy = m
σx
σy
(3.10)
również jest równy 1.
Na rys. 3.3b,c pokazano inne liniowe zależności między zmiennymi x i y dla
dwóch różnych kątów pochylenia tych linii. Na rys. 3.2b współczynnik regresji,
równy tangensowi kąta pochylenia linii regresji wynosi m = 0.5. Ponieważ przy
takim rozkładzie punktów odchylenie standardowe σ y jest dwukrotnie mniejsze
od σ x , to współczynnik korelacji zgodnie z równ. (3.10) Rxy = 0.5 · 2 = 1.
5
a)
5
b)
y
5
4
4
3
3
2
2
45
1
-5
-4
-3
-2
-1
1
2
10
1
x
3
4
5
-5
-4
-3
-2
1
-1
-2
-2
-3
-3
-4
-4
-5
-5
σ x = 2,976
σ y = 1,488
m=1
R xy = 1
y
x
30
-1
-1
σ x = σ y= 2,976
c)
y
2
3
4
5
m = 0,5
R xy = 1
d)
9
8
7
5
6
5
4
4
3
3
2
2
60
1
-5
-4
-3
-2
-1
-1
1
2
4
5
135
1
x
3
y
x
-5
-4
-3
-2
-1
1
2
3
4
5
-1
-2
-2
-3
-4
-3
-5
-4
-6
-5
-7
-8
-9
-10
σ x = 2,976
σ y = 5,953
m=2
R xy = 1
σ x = σ y= 2,976
m = -1
R xy = -1
Rys. 3.3. Zależność między współczynnikami korelacji i regresji dla kilku idealnie
skorelowanych współrzędnych x, y punktów.
Podobna zależność występuje na rys. 3.3c gdzie wzrostowi współczynnika
regresji spowodowanemu wzrostem kąta pochylenia linii regresji towarzyszy
jednoczesny spadek wartości stosunku
σx
spowodowany wzrostem σ
σy
y
i
również w tym przypadku współczynnik korelacji Rxy = 1.
W przypadku, gdy zależność między zmiennymi x i y jest dalej liniowa oraz
odpowiadające bieżącym wartościom zmiennej x wartości y mają przeciwne
znaki, wówczas kąt pochylenia tej linii jest większy od 90o i współczynnik
regresji jest ujemny (m < 0) a współczynnik korelacji jest wtedy równy Rxy = -1.
6
Na podstawie tej ilustracji można stwierdzić, że jeżeli zmienne losowe są
idealnie skorelowane, tzn. że zależność między zmiennymi x i y jest ściśle
liniowa to współczynnik korelacji może przyjmować wartości 1 lub –1.
W celu lepszego zilustrowania dodatkowych własności współczynnika korelacji
w przypadku liniowych zależności między x i y posłużymy się rys. 3.4.
a)
6
b)
y
5
4
4
3
3
2
2
1
-6
-5
-4
-3
-2
-1
c)
-1
1
2
3
4
5
6
-6
-5
-3
-2
-1
-1
-2
-3
-3
-4
-4
-5
-5
-6
-6
(x - m10)
1
2
3
4
5
6
(y - m01)/ σy
5
3
2
1
-5
-4
-2
6
(y - m 01)
1
x
4
-6
6
5
-4
-3
-2
-1
-1
-2
-3
-4
(x - m10)/ σx
1
2
3
4
5
6
E[x] = m10= -1,113
E[y] = m01= 0,393
σx = 2,976
σy = 1,488
R xy = 1
m = 0,5
-5
-6
Rys. 3.4. Ilustracja współczynnika korelacji Rxy jako współczynnika regresji dla danych w
zmodyfikowanym układzie współrzędnych.
W układzie współrzędnych x,y (rys.3.4a) przedstawiono dowolnie zorientowany
liniowy rozkład punktów o niezerowych wartościach średnich współrzędnych x i
y. Modyfikacja zmiennych x i y polegająca na odjęciu ich wartości średnich
spowodowała przesunięcie rozkładu punktów w ten sposób, że linia przez nie
wyznaczona (linia regresji) przechodzi przez środek układu (x-m10), (y-m01) bez
zmiany kąta jej pochylenia, co pokazano na rys. 3.4b.
Kolejna modyfikacja polegająca na redukcji odchyłek współrzędnych od
wartości średnich przez ich odchylenia standardowe powoduje normalizację
rozkładu, który w układzie współrzędnych ( x − m10 ) / σ x , ( y − m01 ) / σ y (rys.
7
3.4c) jest linią pochyloną pod kątem 45o. Współczynnik kierunkowy tej linii na
mocy równ. (3.9) wynosi:
y − m01
R xy =
σy
y − m01 σ x
=
=1
x − m10 σ y x − m10
σx
i jest współczynnikiem korelacji liniowego rozkładu punktów z rys 3.4a.
a)
10
b)
y
8
6
6
4
4
2
-10
-8
-6
-4
σx = 2,976
σy = 3,221
10
8
-2
45
2
4
6
2
x
8
10
x
45
-10
-8
-6
-4
-2
2
-2
-2
-4
-4
-6
-6
-8
-8
-10
-10
R xy = 0,928
m=1
y
σx = 2,976
σy = 4,246
4
6
8
10
R xy = 0,709
m=1
Rys. 3.5. Ilustracja wpływu wartości odchyleń punktów od linii regresji na wartość
współczynnika korelacji Rxy .
W dalszej kolejności rozpatrzmy przypadek, gdy zmienne x i y opisują
punkty, których rozkład nie jest liniowy lecz wykazują one losowy rozrzut
względem ich linii regresji ze współczynnikiem regresji równym 1, co
zilustrowano na rys. 3.5. Rysunek ten skonstruowano w ten sposób, że przy
zachowaniu tych samych wartości zmiennej x co na rys. 3.3a, do zmiennych y
dodano losowo wygenerowany szum z zerową wartością średnią dla dwóch
przykładowych amplitud szumu, przy czym amplituda na rys. 3.5b jest 2.5krotnie większa niż pokazana na rys. 3.5a. Jak wynika z danych zaznaczonych
na rys. 3.5a losowy rozrzut rzędnych punktów zwiększa ich odchylenie
standardowe w stosunku do wartości z rys. 3.3a przy jednoczesnym zachowaniu
identycznej wartości odchylenia standardowego współrzędnych x. Ponieważ
współczynnik regresji również zachowuje swoją wartość (m = 1), to zgodnie z
równ. (3.10) wzrost σ y powoduje spadek wartości współczynnika korelacji Rxy.
8
Jak wynika z danych pokazanych rys. 3.5b, wzrost amplitudy odchyleń
współrzędnej y powoduje przyrost wartości σ y który jest przyczyną dalszego
spadku wartości Rxy. Zwiększając w dalszym ciągu amplitudę rozrzutu rzędnych
punktów moglibyśmy otrzymać rozkład słabo skorelowanych punktów zbliżony
do tego z rys. 3.1a, dla którego współczynnik korelacji byłby bliski zeru.
Odmienna interpretacja sensu fizycznego współczynnika korelacji
wykorzystywana jest w statystycznej analizie danych. Jeżeli założymy, że
dysponujemy
zbiorem
par
danych
opisujących
współrzędne
punktów
pokazanych na rys. 3.5a wówczas zgodnie z konwencją stosowaną w statystyce,
linię regresji – nazywaną tutaj prostą korelacji – zapisać będzie można
równaniem:
yˆ = a + bx
gdzie
ŷ
(3.11)
jest liniową aproksymacją otrzymaną metodą najmniejszych
kwadratów. Łatwo można wykazać, że równanie prostej korelacji spełniają
również wartości średnie współrzędnych x
y:
i
y = a + bx
oraz, że wartości a i b odpowiadające prostej o najmniejszej sumie kwadratów
odchyleń y od ŷ wyrażają się równaniami (patrz [1]):
a = y − bx
(3.12)
oraz
b=
∑ (x − x) ( y − y)
∑ (x − x)
(3.13)
2
Sumę kwadratów odchyleń współrzędnych y wszystkich punktów od ich
wartości oszacowanych ŷ wyrazić można, wykorzystując równ. (3.11) jako:
∑ ( y − yˆ ) = ∑ ( y − a − bx)
2
2
Wykorzystując dalej zależności (3.12) i (3.13) otrzymujemy w następstwie:
9
∑ ( y − a − bx) = ∑[( y − y) − b ( x − x )] =
= ∑ [( y − y ) − 2b ( x − x )( y − y ) + b ( x − x ) ] =
= ∑ ( y − y ) − b ∑ (x − x )
2
2
2
2
2
2
2
Podstawiając, na podstawie równania (3.13):
∑ (x − x ) = ∑ (x − x ) ( y − y )
2
b⋅
otrzymujemy ostatecznie:
∑ ( y − yˆ ) = ∑ ( y − y ) − b ∑ (x − x )
= ∑ ( y − y ) − b ∑ (x − x ) ( y − y )
Z równania (3.14) wynika, że człony b ∑ ( x − x )
2
2
2
2
=
(3.14)
2
2
2
lub b
∑ (x − x ) ( y − y )
przedstawiają część sumy kwadratów odchyleń pierwotnych danych wyjaśnioną
przez korelację liniową, przy czym
∑ ( y − ŷ )
2
jest pozostałością jeszcze nie
wyjaśnioną i przypisywaną zazwyczaj błędowi. Sumę kwadratów odchyleń
∑ (c − c )
wyjaśnioną przez korelację można oznaczyć przez
2
i wyrazić
następującymi wzorami:
∑ (c − c )
2
= b2
∑ ( x − x ) = b∑ ( x − x ) ( y − y )
2
Stosunek sumy kwadratów wyjaśnionej przez korelację do sumy kwadratów
pierwotnych danych jest miarą dobroci korelacji a pierwiastek kwadratowy tego
stosunku jest współczynnikiem korelacji Rxy:
(c − c )
( y − yˆ )
∑
∑
= 1−
=
R =
(
)
(
)
−
−
y
y
y
y
∑
∑
b ∑ (x − x )
∑ ( y − y ) − ∑ ( y − yˆ )
=
=
∑(y − y)
∑(y − y)
xy
2
2
2
2
2
2
2
2
2
2
2
(3.15)
10
Jeżeli zatem między współrzędnymi x i y istnieje korelacja całkowita, czyli nie
ma resztkowego odchylenia y od ŷ , tzn.
∑ ( y − yˆ )
2
= 0 , wtedy Rxy = 1. Gdy
między danymi nie ma żadnej korelacji i liniowa zależność nie znosi żadnej z
sum kwadratów odchyleń, wówczas Rxy = 0.
Rozpatrywane dotychczas przykłady dotyczyły korelacji „statycznych” w
których dane pomiarowe nie były funkcją czasu. Pojęcie korelacji możemy
również wykorzystać w analizie sygnałów zmiennych w czasie, które są
przedmiotem naszego zainteresowania.
Rozważmy dla przykładu dwa sygnały sinusoidalne o stałej amplitudzie i
częstotliwości lecz przesunięte w fazie o ϕ
x( t ) = xo sin ωt
(3.16)
y( t ) = yo sin( ωt + ϕ )
Załóżmy, że obydwa te przebiegi próbkujemy w dowolnej chwili to i obliczamy
wartość średnią iloczynu x(to)y(to), która dana będzie zależnością:
E [ x( to ) y( to )] =
+∞
∫ xo yo sin ωto sin( ωto + ϕ ) p( to )dto
(3.17)
−∞
Ze względu na okresowość analizowanych funkcji wystarczy uwzględnić
zmianę to w zakresie od 0 do 2π/ω, a odpowiadająca temu zakresowi to funkcja
gęstości prawdopodobieństwa przedstawiona jest na rys. 3.6.
p ( to )
ω
0
ω
to
Rys. 3.6. Rozkład funkcji gęstości prawdopodobieństwa dla losowo wybranego czasu
próbkowania t0 .
11
Uwzględniając powyższą obserwację w (3.17) otrzymujemy
ω 
E [ x( to ) y( to )] = xo yo 

 2π 
2π
2π
ω
∫ sin ωto sin( ωto + ϕ )dto =
0
ω
ω 
2
= xo y o 
 ∫ {sin ωto cos ϕ + sin ωto cos ωto sin ϕ }dto =
 2π  0
=
(3.18)
1
xo yo cos ϕ
2
wówczas współczynnik korelacji wynosi
Rxy =
ponieważ: σ x = xo
E[xy]
= cos ϕ
σ xσ y
2 i σ y = yo
(3.19)
2.
R xy
1
ϕ
-1
Rys. 3.7. Rozkład współczynnika korelacji między dwoma przebiegami sinusoidalnymi w
funkcji przesunięcia fazowego ϕ .
Z rysunku 3.7 wynika, że dwie fale sinusoidalne są idealnie skorelowane gdy
przesunięcie fazowe wynosi 0 lub 180° a nieskorelowane gdy przesunięcie
fazowe wynosi 90° lub 270°. W pozostałych przypadkach wartości przesunięcia
fazowego zależność między amplitudami dwóch fal sinusoidalnych jest
nieliniowa i wtedy 0 < Rxy < 1.
3.2. Funkcja kros - korelacji*
*
W literaturze zwana również funkcją korelacji wzajemnej lub interkorelacji
12
Funkcje kros – korelacji dwóch losowych funkcji czasu x(t) i y(t) są
zdefiniowane jako
i
Rxy ( τ ) = E [ x( t ) y( t + τ )]
R yx ( τ ) = E [ y( t ) x( t + τ )]
(3.20)
Funkcja kros - korelacji opisuje zależność jednego przebiegu od drugiego.
Zakładając, że procesy x(t) i y(t) są stacjonarne możemy napisać
i
Rxy ( τ ) = E [ x( t − τ ) y( t )] = R yx ( −τ )
R yx ( τ ) = E [ y( t − τ ) x( t )] = Rxy ( −τ )
(3.21)
Ogólnie Rxy(τ) nie jest równe Ryx(τ), co znaczy, że funkcja kros – korelacji nie
jest parzysta względem τ. Funkcję kros – korelacji można wyrazić korzystając z
pojęcia współczynnika korelacji (kowariancji znormalizowanej) Rxy i Ryx:
i
Rxy (τ ) = σ x σ y Rxy + m1x m1y
R yx (τ ) = σ y σ x R yx + m1y m1x
(3.22)
a ponieważ wartości współczynnika korelacji zmieniają się w zakresie od –1 do
+1, można określić wartości graniczne funkcji kros – korelacji, które wynoszą:
± σ x σ y + m1x m1y
(3.23)
Dla większości sygnałów losowych można spodziewać się zaniku korelacji
kiedy dystans korelacyjny jest duży, co można wyrazić:
Rxy(τ → ∞) → m1x m1y
R yx(τ → ∞) → m1y m1x
(3.24)
Właściwości te zobrazowane są na rys. 3.8, który prezentuje typowy przebieg
funkcji kros – korelacji. W tym przypadku zauważyć można, że dwa sygnały
losowe x(t) i y(t) są najbardziej skorelowane gdy τ = τo.
Dla przykładu rozważmy dwa losowe przebiegi x(t) i y(t), które zawierają zbiór
realizacji procesu będących sinusoidami o stałej amplitudzie i częstotliwości
danymi zależnością:
x( t ) = xo sin( ωt + Θ )
(3.25)
13
Rxy (τ)
0
σxσy + m1x m 1y
m1x m 1y
τ0
τ
Rys. 3.8. Ilustracja właściwości funkcji kros - korelacji Rxy(τ) dwóch stacjonarnych
przebiegów x(t) i y(t) .
gdzie θ jest stałym przesunięciem fazowym. Jeżeli θ
byłoby stałe dla
wszystkich realizacji procesu x(t), nie możemy powiedzieć, że x(t) jest procesem
losowym, jeżeli jednak założymy, że θ
jest losowo
zmienne dla każdej
realizacji, wówczas x(t) będziemy mogli uważać za proces losowy. Załóżmy
zatem, że wszystkie przesunięcia fazowe (ze względu na okresowość
poszczególnych realizacji) zmieniają się w zakresie od 0 do 2π co pozwala
zapisać:
 1 2π
p( Θ ) = 
0
dla 0 ≤ Θ ≤ 2π
(3.26)
Przebieg y(t) dany jest zależnością:
y( t ) = yo sin( ωt + Θ − Φ )
(3.27)
gdzie Φ jest innym stałym przesunięciem fazowym (stałym dla wszystkich
realizacji procesu).
Funkcja kros – korelacji procesów x(t) i y(t) może być obliczona jako średnia
grupowa:
Rxy ( τ ) = E [ x( t ) y( t + τ )] =
= E [ xo yo sin( ωt + Θ ) sin( ωt + ωτ + Θ − Φ )] =
=
2π
∫ xo yo sin( ωt + Θ ) sin( ωt + ωτ + Θ − Φ )
0
1
dΘ
2π
(3.28)
14
podstawiając do równania (3.28) zależność:
sin( ωt + ωτ + Θ − Φ ) =
= sin( ωt + Θ ) cos( ωτ − Φ ) + cos( ωt + Θ ) sin( ωτ − Φ )
(3.29)
otrzymujemy:
Rxy ( τ ) =
1
xo yo cos( ωτ − Φ )
2
(3.30)
co graficznie zostało zobrazowane na rysunku 3.9.
Rxy(τ )
σx σy
0
(Φ/ω)
τ
−σx σy
Rys. 3.9. Funkcja kros - korelacji dwóch przebiegów sinusoidalnych x(t) i opóźnionego o kąt
Φ przebiegu y(t) .
Funkcję kros – korelacji Ryx(τ) wyznacza się postępując dokładnie w ten sam
sposób, czyli zaczynając od znalezienia średniej grupowej:
R yx ( τ ) = E [ y( t ) x( t + τ )] = E [ xo yo sin( ωt + Θ − Φ ) sin( ωt + ωτ + Θ )] (3.31)
otrzymujemy podobny wynik końcowy:
R yx ( τ ) =
1
xo yo cos( ωτ + Φ )
2
(3.32)
3.3. Funkcja autokorelacji
W przypadku gdy do wyznaczenia funkcji kros-korelacji użyjemy tego
samego przebiegu czasowego np. x(t), otrzymamy wówczas tzw. funkcję
autokorelacji Rxx(τ), która jest szczególnym przypadkiem funkcji kros-korelacji.
Funkcja autokorelacji procesu losowego x(t) jest zdefiniowana jako wartość
15
średnia iloczynu x(t)x(t+τ). Przebieg jest próbkowany w chwili t i następnie w
chwili t+τ (rys. 3.10), wartość średnia iloczynu obliczana jest jako średnia
grupowa.
x4 ( t )
x3 ( t )
x2 ( t )
x1 ( t )
t+τ
t
∆τ
Rys. 3.10. Ilustracja do obliczania funkcji autokorelacji sygnału x(t) .
Zakładając, że proces jest stacjonarny wówczas wartość E[x(t)x(t+τ)] nie będzie
zależeć od t i będzie tylko funkcją τ
E[ x(t ) x(t + τ )] = f (τ ) = Rxx (τ )
(3.33)
gdzie Rxx(τ) jest funkcją autokorelacji sygnału x(t).
Dla procesu stacjonarnego E[x(t)] = E[x(t + τ)] = m, σx(t) = σx(t +τ) = σx, a
współczynnik korelacji dla takiego procesu na podstawie (1.23) dany jest
zależnością
Rxx =
=
=
E[{x(t) − m x }{x(t + τ) − m x }]
σ x2
=
E[x(t)x(t + τ)] − m x E[x(t + τ)] − m x E[x(t)] + m x2
2
−
E[x(t) x(t + τ) − m1x
σ x2
σ x2
2
m1x
2
+ m1x
=
2
Rxx (τ ) − m1x
σ x2
=
(3.34)
16
stąd Rxx(τ) = σ2Rxx + m1x2 i ponieważ graniczne wartości Rxx to ±1, stąd
− σ x2 + m1x2 ≤ Rxx(ττ ≤ + σ x2 + m1x2
(3.35)
Wartości funkcji autokorelacji nie mogą być nigdy większe od wartości
średniokwadratowej E[x2] = σx2 + m1x2 i nie mogą być mniejsze od -σx2 + m1x2.
Kiedy dystans korelacyjny τ = 0 wówczas
Rxx (τ = 0) = E[ x(t ) 2 ] = E[ x 2 ]
(3.36)
co oznacza, że funkcja autokorelacji jest równa wartości średniokwadratowej
procesu.
Dla dużych wartości dystansu korelacyjnego (τ → ∞), proces losowy będzie
nieskorelowany, ponieważ z definicji nie może istnieć związek między x(t) a
x(t + τ) dla τ → ∞ co oznacza, że współczynnik korelacji takiego procesu
przybiera wartość Rxx → 0. W tym przypadku ze związku (3.34) wynika:
Rxx(τ → ∞) → m1x2
(3.37)
Ponieważ dla procesu stacjonarnego Rxx(τ) nie zależy od t a tylko od τ (dystansu
korelacyjnego), stąd wynika
Rxx (τ ) = E[ x(t ) x(t + τ )] = E[ x(t ) x(t − τ )] = Rxx (−τ )
(3.38)
czyli funkcja autokorelacji jest parzysta względem τ, a własności (3.34) ÷ (3.38)
zilustrowane są typowym przebiegiem funkcji autokorelacji na rys. 3.11.
Rxx (τ)
0
2
E[x2] = σx2 + m 1x
τ
2
m 1x
σ 2 - m 1x2
Rys. 3.11. Ilustracja właściwości funkcji autokorelacji Rxx(τ) stacjonarnego losowego sygnału
x(t) .
17
Dla przykładu obliczmy funkcję autokorelacji dla ergodycznego procesu
losowego x(t), którym jest fala prostokątna o stałej amplitudzie i okresie, ale
losowo zmiennej fazie.
a)
x(t)
T/2
b)
T/2
a
p ( to)
1
t
0
-a
0
τ
to
Rys. 3.12. a) Fala prostokątna spróbkowana w dwóch chwilach czasu różniących się o τ , b)
funkcja gęstości prawdopodobieństwa.
Istnieją dwa sposoby wykonania takich obliczeń. Pierwszym z nich jest (zgodnie
z definicją) obliczenie średniej grupowej iloczynu E[x(t) x(t + τ)] dla sygnału
próbkowanego w chwili t i następnie t + τ. Użycie tego sposobu wymagałoby
wykonanie obliczeń dla dużej liczby realizacji procesu. Dlatego stosuje się drugi
sposób zakładający, że przebieg x(t) jest przebiegiem ergodycznym, a więc
średnia wzdłuż próbki jest równoważna średniej grupowej, bo każda z realizacji
jest reprezentatywna dla pozostałych. W tym przypadku zakładamy, że p(to) jest
zmienną losową o rozkładzie płaskim (rys. 3.12b). Wówczas
∞
Rxx (τ ) = E[ x(t o ) x(t o + τ )] =
∫ x(t ) x(t
o
o
+ τ ) p(t o )dt o
(3.39)
−∞
Ponieważ x(t) jest przebiegiem okresowym, powinniśmy rozważać tylko
pojedynczy okres. Uwzględniając to otrzymujemy
T
1
Rxx (τ ) = x(t o ) x(t o + τ ) dt o
T
∫
(3.40)
0
Ponieważ x(t) jest funkcją nieciągłą, stąd całkowanie należy prowadzić etapami.
Najpierw rozważmy przypadek kiedy 0 ≤ τ ≤ T/2. Całka a równania (3.40)
wynosi
18
1
Rxx (τ ) =
T
T −τ
2
∫
0
T
2
1
1
a dt o +
− a 2 dt o +
TT
T
∫
2
2
τ

= a2 1 − 4 
T

T −τ
∫
T
−τ
dla 0 ≤ τ ≤
1
a dt o +
T
2
2
T
∫
− a 2 dt o =
T −τ
T
2
(3.41)
Następnie, dla T/2 ≤ τ ≤ T, otrzymujemy
1
Rxx (τ ) =
T
T
T −τ
∫
0
1
− a dt o +
T
2
τ

= a2  − 3 + 4 
T

2
∫
1
a dt o +
T
2
T −τ
dla
a2
3T −τ
2
∫
T
2
T
1
− a dt o +
a 2 dt o =
T 3T
2
∫
2
−τ
T
≤ τ ≤T
2
(3.42)
R xx (τ)
T/2
-T/2
T
τ
-a2
Rys. 3.13. Funkcja autokorelacji fali prostokątnej.
Jeżeli przedstawimy graficznie wyniki obliczeń funkcji autokorelacji fali
prostokątnej otrzymamy falę trójkątną zaprezentowaną na rysunku 3.13.
3.4. Zastosowanie funkcji korelacyjnych
Jednym z najbardziej powszechnych zastosowań funkcji autokorelacji jest
detekcja składowych harmonicznych występujących w silnie zaszumionych
sygnałach. Analiza przebiegu funkcji autokorelacji pozwala na wyznaczenie
okresu, a co za tym idzie częstotliwości oraz oszacowanie wartości amplitudy
składowej harmonicznej ukrytej w zaszumionym sygnale. Na rysunku 3.14a
19
przedstawiony
jest
przykładowy
przebieg
czasowy
sygnału
będącego
superpozycją szumu losowego i fali sinusoidalnej.
a)
4
2.878581
2
x
i
0
2
2.980581
4
0
1
50
100
150
200
250
i
N
4
b)
1
1
0.5
r xx
τ
0
0.366018 0.5
0
0
50
100
150
τ
200
250
256
Rys. 3.14. a) Przykładowy sygnał z zaszumioną składową harmoniczną oraz b) jego funkcja
autokorelacji.
Na podstawie analizy przebiegu czasowego niemożliwe jest określenie
charakteru sygnału (rozpoznanie występującej w nim składowej harmonicznej).
Jest to wykonalne po zastosowaniu analizy opartej o badanie funkcji gęstości
prawdopodobieństwa (patrz rozdział 2), za pomocą której stwierdzić można
występowanie w sygnale składowej okresowej. W przypadku analizy sygnału
opartej o badanie funkcji gęstości prawdopodobieństwa nie można jednak
określić częstotliwości składowej okresowej co możliwe jest natomiast poprzez
zastosowanie analizy funkcji autokorelacji tego sygnału przedstawionej na rys.
3.14b.
20
Kolejnym zastosowaniem funkcji autokorelacji może być również
wyznaczanie
charakterystycznych
skal
czasowych
badanego
sygnału.
Znormalizowana funkcja autokorelacji może być wyrażona związkiem
rxx (τ ) =
Rxx (τ ) x(t ) ⋅ x(t + τ )
=
Rxx (0)
x 2 (t )
(3.43)
Funkcja ta jest parzystą funkcją dystansu korelacyjnego, rozwijając ją w szereg
Taylora w otoczeniu punktu τ = 0 otrzymujemy:
1 2  ∂ 2 rxx (τ ) 
1 4  ∂ 4 rxx (τ ) 
+K
rxx (τ ) = 1 + τ 
+ τ
2!  ∂τ 2 τ =0 4!  ∂τ 4 τ =0
(3.44)
pochodne nieparzyste szeregu są wyeliminowane dzięki parzystości funkcji
rx(τ). Uwzględniając tylko dwa pierwsze wyrazy szeregu, dla bardzo małych
wartości τ funkcja rx(τ) aproksymowana może być związkiem:
τ2
rxx (τ ) = 1 − 2
τx
(3.45)
w którym τx oznacza mikroskalę czasową sygnału. Skala ta charakteryzuje
najkrócej trwające (najszybsze) zmiany zachodzące w sygnale. Wielkością
odpowiadającą za najwolniejsze zmiany zachodzące w sygnale jest natomiast
makroskala definiowana jako
∞
∫
Tx = Rxx (τ )dτ
(3.46)
0
i charakteryzująca przeciętny czas trwania najwolniejszych zmian. Na rysunku
3.15a przedstawione są przebiegi czasowe dwóch sygnałów stochastycznych
wraz
z
odpowiadającymi
funkcjami
gęstości
prawdopodobieństwa.
Przedstawione na rysunku rozkłady prawdopodobieństwa nie wykazują żadnych
różnic pomiędzy sygnałami, ponieważ w nawiązaniu do rozdziału drugiego,
pamiętamy, że metody statystyczne pozwalają jedynie na analizę sygnałów w
dziedzinie amplitudy. Sporządzenie przebiegu funkcji autokorelacji, za pomocą
21
x 1(t)
p(x 1 )
t
x 2(t)
p(x 2 )
t
a)
Rx( τ )
δ
2
∆f
2
1
∆τ 1
∆τ2
τ
b)
Rys. 3.15. a) Przykładowe przebiegi czasowe sygnałów stochastycznych oraz ich rozkłady
funkcji gęstości prawdopodobieństwa, b) przebiegi funkcji autokorelacji z
wyznaczonymi wartościami mikroskal czasowych.
której wyznaczyć można mikroskale tych sygnałów pozwala na określenie
różnic między nimi. Z rysunku 3.15b widać, że mikroskala czasowa pierwszego
sygnału jest mniejsza aniżeli mikroskala sygnału drugiego tak więc pierwszy
sygnał charakteryzuje się większą liczbą fluktuacji wartości przypadających na
jednostkę czasu niż to ma miejsce w przypadku sygnału drugiego.
Rozważmy jeszcze jeden przykład, w którym zobrazowana zostanie rola
funkcji korelacji wzajemnej (kros - korelacji). Rozważmy pomieszczenie
(schemat przedstawiono na rysunku 3.16), które jest wentylowane w układzie z
22
całkowitą recyrkulacją tzn. całość powietrza nawiewanego jest przez ten sam
wentylator wyciągana.
l1
x(t)
x(t)
t
t
l2
Rys. 3.16. Pomiar rozprzestrzeniania się hałasu w układzie wentylacyjnym.
W przypadku gdy w pomieszczeniu wentylowanym panuje zbyt duży hałas,
typowym zagadnieniem wchodzącym w zakres aeroakustyki przepływów
wentylacyjnych jest zmniejszenie poziomu głośności w tym pomieszczeniu.
Ponieważ szum wywoływany przez wentylator dociera do pomieszczenia
dwoma drogami tj. kanałem ssącym i kanałem nawiewnym w pierwszej
kolejności należy określić, którą z dróg propagowany jest hałas o większym
natężeniu. Dokonanie takiej analizy ma wymierny aspekt ekonomiczny bo w
wielu wypadkach możliwe jest zainstalowanie jednego tylko tłumika (w kanale,
którym propagowany jest hałas o większym natężeniu).
Na rysunku 3.17 przedstawiono przebieg funkcji kros – korelacji sygnałów x(t) i
y(t) zmierzonych za pomocą dwóch mikrofonów zainstalowanych odpowiednio
w wentylatorowni i pomieszczeniu wentylowanym (rys. 3.16). Do identyfikacji
pików konieczna jest znajomość długości dróg transmisji, które w tym
przypadku można przyjąć jako równe długości kanałów wentylacyjnych. W
naszym przykładzie (rys. 3.17) zauważyć można, że większy pik pochodzi od
sygnału docierającego do pomieszczenia dłuższą drogą, czyli kanałem o
długości l2, którym powietrze jest tłoczone do wentylowanego pomieszczenia.
23
R xy( τ)
τ1
τ2
τ
Rys. 3.17. Przebieg funkcji kros – korelacji sygnałów zmierzonych w układzie
wentylacyjnym z rys. 3.16.
3.5. Metody wyznaczania funkcji korelacji
Metody wyznaczania funkcji auto- i kros - korelacji podzielić można na
dwie grupy, są to oczywiście metody analogowe i cyfrowe. Metody analogowe
ze względu na szybki rozwój maszyn liczących nie są już powszechnie
stosowane, ale dla zasady należy o nich wspomnieć.
Podstawowa metoda wyznaczania funkcji korelacji przy pomocy technik
analogowych polega na wprowadzeniu opóźnienia czasowego τ do jednego z
sygnałów poddawanych analizie. Następnie wyznaczana jest wartość średnia
iloczynu sygnału pierwszego i drugiego z dodanym opóźnieniem. Schemat
urządzenia realizującego powyższą ideę przedstawiono na rysunku 3.18.
Godnym uwagi jest fakt, iż w metodzie tej otrzymywana na wyjściu wartość jest
wartością średnią iloczynu x(t) i y(t-τ), która dla sygnałów stacjonarnych jest
identyczna z wartością iloczynu x(t) i y(t+τ). Duży problem w tej metodzie
stanowi realizacja opóźnienia czasowego zmiennego w zakresie długości zapisu.
Istnieje kilka metod realizacji opóźnienia, ale jest to zagadnienie zbyt
szczegółowe i zostanie pominięte, zainteresowani czytelnicy szczegóły mogą
znaleźć w [Beauchamp].
24
Sterowanie
∫ x( t ) y( t − τ
x( t ) y( t − τ )
)
Uśrednianie
Mnożenie
R xy ( τ )
x( t )
Całkowanie
y( t )
1
R xy ( τ ) =
T
Opóźnienie
T
∫ x ( t ) y ( t − τ )dt
0
Rys. 3.18. Schemat blokowy urządzenia analogowego do wyznaczania funkcji korelacji.
Dyskretną postać funkcji korelacji możemy zapisać zależnością:
1
Rxy ( τ ) =
N −τ
N −τ
∑ xi ⋅ yi +τ ,
gdzie τ = 1 , 2 , ... , m
(3.47)
i =1
gdzie m jest całkowitą liczbą opóźnień. Zależność (3.47) stanowi postać
estymatora nieobciążonego funkcji korelacji. Przy dużej liczbie próbek w
porównaniu z długością dystansu korelacyjnego z niewielką stratą dokładności
funkcję korelacji wyrazić możemy za pomocą estymatora obciążonego:
1
Rxy ( τ ) =
N
N −τ
∑ xi ⋅ yi +τ
(3.48)
i =1
Wpływ członu 1/(N - τ) na jakość estymacji jest silny kiedy długość dystansu
korelacyjnego zbliża się do długości zapisu. Należy wtedy korzystać z
zależności (3.47).

Podobne dokumenty