Wykład II. Stacjonarne szeregi czasowe.

Transkrypt

Wykład II. Stacjonarne szeregi czasowe.
Wyk÷
ad II.
Stacjonarne szeregi czasowe.
W wiekszości
¾
przypadków poszukiwanie modelu, który dok÷
adnie by opisywa÷
zachowanie sk÷
adnika losowego "t , polega na analizie pewnej klasy losowych ciagów
¾
czasowych – klasy stacjonarnych szeregów czasowych. Bardzo specjalna¾ klase¾ procesów stochastycznych, nazywamy procesami stacjonarnymi. Opiera sie¾ ona na
z·a÷
oz·eniu, z·e proces znajduje sie¾ w szczególnym stanie równowagi statystycznej.
Stacjonarność szeregu czasowego wymaga aby wartości średnie oraz odchylenia od
wartości średnich by÷
y sta÷
e.
De…nicja.
Szereg xt nazywamy ściśle stacjonarnym (stacjonarnym w w¾
ez·szym sensie) jez·eli
÷
aczny
¾
rozk÷
ad prawdopodobieństwa zwiazany
¾
z m obserwacjami xt1 ; xt2 ; :::; xtm jest
identyczny z m obserwacjami xt1 + ; xt2 + ; :::; xtm + dla dowolnych m; t1 ; t2 ; :::; tm ;
Innymi s÷
owy szereg xt nazywamy ściśle stacjonarnym jez·eli jego w÷
asności nie
ulegaja¾ zmianie przy zmianie poczatku
¾
skali czasowej.
1
1.1
W÷
asności korelacyjne szeregu czasowego
Wartość średnia i wariancja szeregu stacjonarnego.
W szczególności dla m = 1 z za÷
oz·enia stacjonarności szeregu czasowego wynika z·e
rozk÷
ad zmiennej losowej xt nie zalez·y od czasu t, zatem równiez· od t nie zalez·a¾
jego podstawowe charakterystyki (wartość średnia i wariancja sa¾ sta÷
e). Szereg
czasowy ma sta÷
a¾ wartość średnia¾
(1)
Ext =
oraz sta÷
a¾ wariancje¾
D2 xt = E (xt
)2 =
2
(2)
Jednocześnie wartość
określa poziom dooko÷
a którego oscyluje szereg czasowy
xt , natomiast wielkość
określa rozrzut szeregu czasowego dooko÷
a poziomu .
Poniewaz· rozk÷
ad zmiennych losowych xt jest jednakowy dla wszystkich t, zatem
jego podstawowe charakterystyki moga¾ być oszacowane (wyestymowane) na podstawie wielkości obserwacji xt1 ; xt2 ; :::; xtN : wartość średnia
N
1 X
xt
^=
N t=1
(3)
wariancja
^2 =
N
1 X
[xt
N t=1
^ ]2
(4)
2
Stacjonarne szeregi czasowe. Wyk÷ad II.
De…nicja.
Szereg xt dla którego Ex2t < 1 dla 0
(stacjonarnym w szerszym sensie) jez·eli
N nazywamy s÷
abo stacjonarnym
t
Ext = const
cov (xt ; xt+ ) = cov (x0 ; x ) 8 ; 0
N
1
Zatem oczywiste jest, z·e proces ściśle stacjonarny o skończonym drugim momencie
jest procesem s÷
abo stacjonarnym. Stwierdzenie odwrotne nie jest na ogó÷prawdziwe.
Wyjatek
¾
stanowi proces Gaussa, poniewaz· jest on ca÷
kowicie scharakteryzowany
przez momenty pierwszego i drugiego rzedu.
¾
Dlatego proces Gaussa s÷
abo stacjonarny
jest zarazem stacionarny ściśle.
1.2
Funkcja autokowariancji
( )
Z za÷
oz·enia stacjonarności szeregu czasowego xt dla m = 2 wynika, z·e ÷
aczny
¾
rozk÷
ad
dla dwóch dowolnych (xt ; xt+ ) zalez·y tylko od wielkości przesuniecia
¾ w czasie
i nie zalez·y od momentu czasowego t. Taka¾ kowariancje¾ nazywamy autokowariancja,
¾ poniewaz· określa kowariancje¾ dla tego samego szeregu czasowego xt , oraz
wyznaczamy jako
( ) = cov (xt ; xt+ ) = E [xt
] [xt+
]
(5)
Równiez· z za÷
oz·enia stacjonarności szeregu czasowego dla funkcji ( ) o wartościach
rzeczywistych wynika
( )= ( )
Zatem w praktyce wystarcza zaznaczyć funkcje¾ ( ) dla dodatnich argumentów.
Wielkość funkcji autokowariancji ( ) w zalez·ności od wielkości moz·e być oszacowana (wyestymowana) na podstawie wielkości obserwacji xt1 ; xt2 ; :::; xtN :
^( ) =
dla
N
X
1
N
[xt
^ ] [xt+
^]
(6)
t=1
= 0; 1; :::; N 1
Oczywiście dla = 0 mamy
(0) =
2
]2
= E [xt
oraz estymator
N
1 X
^ (0) = ^ =
[xt
N t=1
^ ]2
2
W÷
asności funkcji
1.
(0) =
2
2.
( )=
(
3. j ( )j
( ):
= const
) (funkcja parzysta) [ ( ) =
(0)
(
) w przypadku zespolonym]
3
E. Koz÷
owski
1.3
Funkcja autokorelacji r ( )
Jedna z g÷
ównych róz·nic pomiedzy
¾
szeregiem czasowym a ciagiem
¾
próbek losowych
polega na tym, z·e elementy szeregu czasowego nie sa¾ niezalez·ne. Wielkość tej
zalez·ności jest mierzona za pomoca¾ wspó÷
czynników korelacji. Zatem stopień zalez·ności pomiedzy
¾
elementami szeregu czasowego odleg÷
ymi o wielkość (dla elementów (xt ; xt+ )) określamy jako
E [xt
r( ) =
] [xt+
]
2
E [xt
] E [xt+
]
1
2
2
( )
(0)
=
(7)
poniewaz· dla szeregów stacjonarnych spe÷
nione jest
]2 = E [xt+
E [xt
]2 =
(0)
Wspó÷
czynnik r ( ) mierzy korelacje¾ pomiedzy
¾
elementami tego samego szeregu dlatego nazywamy go wspó÷
czynnikiem autokorelacji. Wykres funkcji r ( ) od nazywamy korelogramem oraz dla dowolnego mamy 1
r( )
1. Dodatkowo z
za÷
oz·enia stacjonarności szeregu czasowego dla funkcji r ( ) o wartościach rzeczywistych wynika
r( ) = r( )
Równiez· widzimy z·e w praktyce wystarcza zaznaczyć funkcje¾ r ( ) dla dodatnich
argumentów.
Jako estymator funkcji autokorelacji moz·emy przyjać
¾
1
N
r^ ( ) =
NP
[xt
^ ] [xt+
t=1
1
N
N
P
^]
=
[xt
^]
2
^( )
^ (0)
(8)
t=1
dla = 0; 1; :::; N 1 gdzie wielkość ^ oznacza średnia¾ szeregu czaowego.
W÷
asności funkcji r ( ) :
1. r (0) = 1
2. r ( ) = r (
) (funkcja parzysta) [r ( ) = r (
3.
1
1
r( )
) w przypadku zespolonym]
Uwaga.
Jest rzecza¾oczywista,¾ im bardziej sa¾oddalone elementy szeregu czasowego xt ; xt+
(im wieksza
¾
jest wielkość przesuniecia
¾
czasowego ) tym mniejsza powinna być
wartość bezwzgledna
¾
r ( )–elementy bardziej oddalone sa¾mniej ze soba¾skorelowane
(wystepuje
¾
tendencja do zanikania korelacji wraz ze wzrostem odstepu
¾ czasu). W
wiekszości
¾
przypadków istnieje (dobieramy) wielkość 0 powyz·ej której wszystkie
wartości funkcji autokorelacyjnej przyjmujemy z·e sa¾toz·samościowo równe zero (8
r ( ) 0)
0
4
1.4
Stacjonarne szeregi czasowe. Wyk÷ad II.
B÷
edy
¾ standardowe estymatorów autokorelacji
Aby dobrać model dla szeregu czasowego musimy równiez· oszacować b÷
edy
¾ standordowe wspó÷
czynników autokorelacji. W tym celu moz·emy skorzystać z wyraz·enia
na wariancje¾ estymowanego wspó÷
czynnika autokorelacji stacjonarnego procesu normalnego, które zosta÷
o podane przez Bartlett’a.
var [r ( )]
1
N
N
X1
r^2 (i) + r^ (i + ) r^ (i
)
4^
r ( ) r^ (i) r^ (i
) + 2^
r2 (i) r^2 ( )
i= N +1
(9)
Zatem b÷
ad
¾ standardowy wspó÷
czynnika autokowariancji wynosi
p
S [r ( )] = var [r ( )]
1.5
(10)
Macierze autokowariancji i autokorelacji
Macierz autokowariancji dla stacjonernego szeregu czasowego fxt g0 t N jest określona
jako
2
3
(0)
(1)
(2)
:::
(N 1)
6
(1)
(0)
(1)
:::
(N 2) 7
6
7
6
(2)
(1)
(0)
:::
(N 3) 7
N = 6
7
4
5
:
:
:
:
:
(N 1)
(N 2)
(N 3) :::
(0)
z w÷
asności funkcji autokorelacji mamy
2
1
r (1)
r (2)
6 r (1)
1
r (1)
6
6
r
(2)
r
(1)
1
=
(0)
N
6
4
:
:
:
r (N 1) r (N 2) r (N 3)
3
::: r (N 1)
::: r (N 2) 7
7
::: r (N 3) 7
7=
5
:
:
:::
1
2
PN
(11)
gdzie macierz PN określa macierz autokorelacji.
Twierdzenie1
Macierze autokorelacji PN i autokowariancji N sa¾ dodatnio określone.
Dowód.
Poniewaz· macierze autokorelacji PN i autokowariancji N sa¾symetryczne, zatem
kaz·da¾ macierz symetryczna¾ np. PN moz·emy przedstawić jako
P N = AT A
wtedy dla dowolnego x 2 RN
1
mamy
xT PN x = xT AT Ax = (Ax)T Ax = kAxk2 > 0
identyczny wynik mamy i dla macierzy autokowariancji
Przyk÷
ad 1.
N:
z
5
E. Koz÷
owski
Niech f"t gt 0 jest ciagiem
¾
niezalez·nych zmiennych losowych o rozk÷
adzie normalny N (0; 1) : Znajdź funkcje¾ autokowariancji i autokorelacji dla szeregu
at = 3 + " t + " t
1
Udowadnij z·e jest to szereg sciśle stacjonarny. Podaj macierz autokowariancji dla
= 0; 1; 2; 3
Rozwiazanie.
¾
Eat = 3
natomiast
( ) = cov (at ; at+ ) = E ("t + "t 1 ) ("t+ + "t+ 1 ) =
= E"t "t+ + E"t "t+ 1 + E"t 1 "t+ + E"t 1 "t+
Stad
¾
8
< 2 dla
1 dla
( )=
:
0 dla
1
=0
=1
2
Zatem proces jest stacjonarny w szerszym sensie (s÷
abo), a poniewaz· fat gt
procesem Gaussa zatem jest równiez· ściśle stacjonarny.
Wspó÷
czynniki autokorelacji
8
< 1 dla = 0
0:5 dla = 1
r( ) =
:
0 dla
2
natomiast macierz autokowariancji wynosi
2
1 0:5 0
0
6 0:5 1 0:5 0
P4 = 6
4 0 0:5 1 0:5
0
0 0:5 1
3
7
7
5
0
jest
6
Stacjonarne szeregi czasowe. Wyk÷ad II.
Przyk÷
ad 2.
Niech szereg (t) = X (t) ; 0 t N gdzie X zmienna losowa o rozk÷
adzie normalnym N (0; ), a (t)- dowolna funkcja nielosowa określona na T = f0; 1; :::; N g
o wartościach w zbiorze liczb zespolonych. Dla jakich funkcji (t) szereg f (t)gt2T
jest stacjonarny. Znaleźć funkcje¾ kowariancji i korelacji takiego szeregu.
Rozwiazanie.
¾
E (t) =
(t) EX = 0
oraz
2
( ) = cov ( (t) ; (t + )) =
(t)
(t + )
Aby szereg Gaussowski by÷stacjonarny wystarczy aby funkcja kowariancji zalez·a÷
a
tylko od przesuniecia
¾
czasowego
a nie zalez·a÷
a od chwili t. Zatem musi być
spe÷
nione
8t 2 T
(t) (t + ) = (0) ( )
czyli dla np.
=1
(t + 1)
(t)
(0)
= const
(1)
=
Mamy
(t) =
t
(0)
w stacjonarnym szeregu czasowym wariancja jest sta÷
a, zatem
(0) =
2
j (0)j2 j j2t = const )
wtedy istnieje taka liczba 2 [
stacjonarny jez·eli jest postaci
j j=1
= ei . Stad
¾ wynika f (t)gt2T jest
; ) gdzie
(t) = X (0) ei t
ei = cos + i sin
Wtedy funkcja kowariancji jest postaci
( )=
2
j (0)j2 ei
(t+ )
i t
e
=
2
j (0)j2 ei
a funkcja korelacyjna
r( ) =
Przyk÷
ad 3.
Niech fXn g1
1 n N
n N
( )
= ei
(0)
oznacza ciag
¾ nieza÷
ez·nych zmiennych losowych oraz EXn = 0;
2
cov (Xi ; Xj ) =
Niech 1 < 2 < ::: < N oraz i 2 [
prawie okresowym i określonym jako
n
=
N
X
k=1
0
dla i = j
dla i =
6 j
; ). Szereg czasowy f n gn2Z nazywamy
Xk ei
kn
7
E. Koz÷
owski
Udowodnij z·e szereg jest stacjonarny oraz znajdź funkcje¾ kowariancji.
Rozwiazanie.
¾
Wartość oczekiwana wynosi
E
n
=
N
X
ei
kn
EXk = 0
k=1
natomiast kowariancja
( ) = cov
=
;
n+
N X
N
X
i
e
n
k (n+
2
N
X
=E4
ei
k (n+
)
Xk
k=1
) i ln
e E
[Xk Xl ] =
N
X
!
N
X
2 i
e
k
k=1
k=1 l=1
Xk 5
ei
kn
=
2
k=1
3
N
X
ei
k
k=1
zalez·y tylko od przesuniecia
¾
. Zatem szereg f n gn2Z jest stacjonarny. Wspó÷
czynnik autokorelacji wynosi
2
r( ) =
( )
=
(0)
N
P
ei
k=1
N
2
k
N
1 X i
=
e
N k=1
k