Wykład II. Stacjonarne szeregi czasowe.
Transkrypt
Wykład II. Stacjonarne szeregi czasowe.
Wyk÷ ad II. Stacjonarne szeregi czasowe. W wiekszości ¾ przypadków poszukiwanie modelu, który dok÷ adnie by opisywa÷ zachowanie sk÷ adnika losowego "t , polega na analizie pewnej klasy losowych ciagów ¾ czasowych – klasy stacjonarnych szeregów czasowych. Bardzo specjalna¾ klase¾ procesów stochastycznych, nazywamy procesami stacjonarnymi. Opiera sie¾ ona na z·a÷ oz·eniu, z·e proces znajduje sie¾ w szczególnym stanie równowagi statystycznej. Stacjonarność szeregu czasowego wymaga aby wartości średnie oraz odchylenia od wartości średnich by÷ y sta÷ e. De…nicja. Szereg xt nazywamy ściśle stacjonarnym (stacjonarnym w w¾ ez·szym sensie) jez·eli ÷ aczny ¾ rozk÷ ad prawdopodobieństwa zwiazany ¾ z m obserwacjami xt1 ; xt2 ; :::; xtm jest identyczny z m obserwacjami xt1 + ; xt2 + ; :::; xtm + dla dowolnych m; t1 ; t2 ; :::; tm ; Innymi s÷ owy szereg xt nazywamy ściśle stacjonarnym jez·eli jego w÷ asności nie ulegaja¾ zmianie przy zmianie poczatku ¾ skali czasowej. 1 1.1 W÷ asności korelacyjne szeregu czasowego Wartość średnia i wariancja szeregu stacjonarnego. W szczególności dla m = 1 z za÷ oz·enia stacjonarności szeregu czasowego wynika z·e rozk÷ ad zmiennej losowej xt nie zalez·y od czasu t, zatem równiez· od t nie zalez·a¾ jego podstawowe charakterystyki (wartość średnia i wariancja sa¾ sta÷ e). Szereg czasowy ma sta÷ a¾ wartość średnia¾ (1) Ext = oraz sta÷ a¾ wariancje¾ D2 xt = E (xt )2 = 2 (2) Jednocześnie wartość określa poziom dooko÷ a którego oscyluje szereg czasowy xt , natomiast wielkość określa rozrzut szeregu czasowego dooko÷ a poziomu . Poniewaz· rozk÷ ad zmiennych losowych xt jest jednakowy dla wszystkich t, zatem jego podstawowe charakterystyki moga¾ być oszacowane (wyestymowane) na podstawie wielkości obserwacji xt1 ; xt2 ; :::; xtN : wartość średnia N 1 X xt ^= N t=1 (3) wariancja ^2 = N 1 X [xt N t=1 ^ ]2 (4) 2 Stacjonarne szeregi czasowe. Wyk÷ad II. De…nicja. Szereg xt dla którego Ex2t < 1 dla 0 (stacjonarnym w szerszym sensie) jez·eli N nazywamy s÷ abo stacjonarnym t Ext = const cov (xt ; xt+ ) = cov (x0 ; x ) 8 ; 0 N 1 Zatem oczywiste jest, z·e proces ściśle stacjonarny o skończonym drugim momencie jest procesem s÷ abo stacjonarnym. Stwierdzenie odwrotne nie jest na ogó÷prawdziwe. Wyjatek ¾ stanowi proces Gaussa, poniewaz· jest on ca÷ kowicie scharakteryzowany przez momenty pierwszego i drugiego rzedu. ¾ Dlatego proces Gaussa s÷ abo stacjonarny jest zarazem stacionarny ściśle. 1.2 Funkcja autokowariancji ( ) Z za÷ oz·enia stacjonarności szeregu czasowego xt dla m = 2 wynika, z·e ÷ aczny ¾ rozk÷ ad dla dwóch dowolnych (xt ; xt+ ) zalez·y tylko od wielkości przesuniecia ¾ w czasie i nie zalez·y od momentu czasowego t. Taka¾ kowariancje¾ nazywamy autokowariancja, ¾ poniewaz· określa kowariancje¾ dla tego samego szeregu czasowego xt , oraz wyznaczamy jako ( ) = cov (xt ; xt+ ) = E [xt ] [xt+ ] (5) Równiez· z za÷ oz·enia stacjonarności szeregu czasowego dla funkcji ( ) o wartościach rzeczywistych wynika ( )= ( ) Zatem w praktyce wystarcza zaznaczyć funkcje¾ ( ) dla dodatnich argumentów. Wielkość funkcji autokowariancji ( ) w zalez·ności od wielkości moz·e być oszacowana (wyestymowana) na podstawie wielkości obserwacji xt1 ; xt2 ; :::; xtN : ^( ) = dla N X 1 N [xt ^ ] [xt+ ^] (6) t=1 = 0; 1; :::; N 1 Oczywiście dla = 0 mamy (0) = 2 ]2 = E [xt oraz estymator N 1 X ^ (0) = ^ = [xt N t=1 ^ ]2 2 W÷ asności funkcji 1. (0) = 2 2. ( )= ( 3. j ( )j ( ): = const ) (funkcja parzysta) [ ( ) = (0) ( ) w przypadku zespolonym] 3 E. Koz÷ owski 1.3 Funkcja autokorelacji r ( ) Jedna z g÷ ównych róz·nic pomiedzy ¾ szeregiem czasowym a ciagiem ¾ próbek losowych polega na tym, z·e elementy szeregu czasowego nie sa¾ niezalez·ne. Wielkość tej zalez·ności jest mierzona za pomoca¾ wspó÷ czynników korelacji. Zatem stopień zalez·ności pomiedzy ¾ elementami szeregu czasowego odleg÷ ymi o wielkość (dla elementów (xt ; xt+ )) określamy jako E [xt r( ) = ] [xt+ ] 2 E [xt ] E [xt+ ] 1 2 2 ( ) (0) = (7) poniewaz· dla szeregów stacjonarnych spe÷ nione jest ]2 = E [xt+ E [xt ]2 = (0) Wspó÷ czynnik r ( ) mierzy korelacje¾ pomiedzy ¾ elementami tego samego szeregu dlatego nazywamy go wspó÷ czynnikiem autokorelacji. Wykres funkcji r ( ) od nazywamy korelogramem oraz dla dowolnego mamy 1 r( ) 1. Dodatkowo z za÷ oz·enia stacjonarności szeregu czasowego dla funkcji r ( ) o wartościach rzeczywistych wynika r( ) = r( ) Równiez· widzimy z·e w praktyce wystarcza zaznaczyć funkcje¾ r ( ) dla dodatnich argumentów. Jako estymator funkcji autokorelacji moz·emy przyjać ¾ 1 N r^ ( ) = NP [xt ^ ] [xt+ t=1 1 N N P ^] = [xt ^] 2 ^( ) ^ (0) (8) t=1 dla = 0; 1; :::; N 1 gdzie wielkość ^ oznacza średnia¾ szeregu czaowego. W÷ asności funkcji r ( ) : 1. r (0) = 1 2. r ( ) = r ( ) (funkcja parzysta) [r ( ) = r ( 3. 1 1 r( ) ) w przypadku zespolonym] Uwaga. Jest rzecza¾oczywista,¾ im bardziej sa¾oddalone elementy szeregu czasowego xt ; xt+ (im wieksza ¾ jest wielkość przesuniecia ¾ czasowego ) tym mniejsza powinna być wartość bezwzgledna ¾ r ( )–elementy bardziej oddalone sa¾mniej ze soba¾skorelowane (wystepuje ¾ tendencja do zanikania korelacji wraz ze wzrostem odstepu ¾ czasu). W wiekszości ¾ przypadków istnieje (dobieramy) wielkość 0 powyz·ej której wszystkie wartości funkcji autokorelacyjnej przyjmujemy z·e sa¾toz·samościowo równe zero (8 r ( ) 0) 0 4 1.4 Stacjonarne szeregi czasowe. Wyk÷ad II. B÷ edy ¾ standardowe estymatorów autokorelacji Aby dobrać model dla szeregu czasowego musimy równiez· oszacować b÷ edy ¾ standordowe wspó÷ czynników autokorelacji. W tym celu moz·emy skorzystać z wyraz·enia na wariancje¾ estymowanego wspó÷ czynnika autokorelacji stacjonarnego procesu normalnego, które zosta÷ o podane przez Bartlett’a. var [r ( )] 1 N N X1 r^2 (i) + r^ (i + ) r^ (i ) 4^ r ( ) r^ (i) r^ (i ) + 2^ r2 (i) r^2 ( ) i= N +1 (9) Zatem b÷ ad ¾ standardowy wspó÷ czynnika autokowariancji wynosi p S [r ( )] = var [r ( )] 1.5 (10) Macierze autokowariancji i autokorelacji Macierz autokowariancji dla stacjonernego szeregu czasowego fxt g0 t N jest określona jako 2 3 (0) (1) (2) ::: (N 1) 6 (1) (0) (1) ::: (N 2) 7 6 7 6 (2) (1) (0) ::: (N 3) 7 N = 6 7 4 5 : : : : : (N 1) (N 2) (N 3) ::: (0) z w÷ asności funkcji autokorelacji mamy 2 1 r (1) r (2) 6 r (1) 1 r (1) 6 6 r (2) r (1) 1 = (0) N 6 4 : : : r (N 1) r (N 2) r (N 3) 3 ::: r (N 1) ::: r (N 2) 7 7 ::: r (N 3) 7 7= 5 : : ::: 1 2 PN (11) gdzie macierz PN określa macierz autokorelacji. Twierdzenie1 Macierze autokorelacji PN i autokowariancji N sa¾ dodatnio określone. Dowód. Poniewaz· macierze autokorelacji PN i autokowariancji N sa¾symetryczne, zatem kaz·da¾ macierz symetryczna¾ np. PN moz·emy przedstawić jako P N = AT A wtedy dla dowolnego x 2 RN 1 mamy xT PN x = xT AT Ax = (Ax)T Ax = kAxk2 > 0 identyczny wynik mamy i dla macierzy autokowariancji Przyk÷ ad 1. N: z 5 E. Koz÷ owski Niech f"t gt 0 jest ciagiem ¾ niezalez·nych zmiennych losowych o rozk÷ adzie normalny N (0; 1) : Znajdź funkcje¾ autokowariancji i autokorelacji dla szeregu at = 3 + " t + " t 1 Udowadnij z·e jest to szereg sciśle stacjonarny. Podaj macierz autokowariancji dla = 0; 1; 2; 3 Rozwiazanie. ¾ Eat = 3 natomiast ( ) = cov (at ; at+ ) = E ("t + "t 1 ) ("t+ + "t+ 1 ) = = E"t "t+ + E"t "t+ 1 + E"t 1 "t+ + E"t 1 "t+ Stad ¾ 8 < 2 dla 1 dla ( )= : 0 dla 1 =0 =1 2 Zatem proces jest stacjonarny w szerszym sensie (s÷ abo), a poniewaz· fat gt procesem Gaussa zatem jest równiez· ściśle stacjonarny. Wspó÷ czynniki autokorelacji 8 < 1 dla = 0 0:5 dla = 1 r( ) = : 0 dla 2 natomiast macierz autokowariancji wynosi 2 1 0:5 0 0 6 0:5 1 0:5 0 P4 = 6 4 0 0:5 1 0:5 0 0 0:5 1 3 7 7 5 0 jest 6 Stacjonarne szeregi czasowe. Wyk÷ad II. Przyk÷ ad 2. Niech szereg (t) = X (t) ; 0 t N gdzie X zmienna losowa o rozk÷ adzie normalnym N (0; ), a (t)- dowolna funkcja nielosowa określona na T = f0; 1; :::; N g o wartościach w zbiorze liczb zespolonych. Dla jakich funkcji (t) szereg f (t)gt2T jest stacjonarny. Znaleźć funkcje¾ kowariancji i korelacji takiego szeregu. Rozwiazanie. ¾ E (t) = (t) EX = 0 oraz 2 ( ) = cov ( (t) ; (t + )) = (t) (t + ) Aby szereg Gaussowski by÷stacjonarny wystarczy aby funkcja kowariancji zalez·a÷ a tylko od przesuniecia ¾ czasowego a nie zalez·a÷ a od chwili t. Zatem musi być spe÷ nione 8t 2 T (t) (t + ) = (0) ( ) czyli dla np. =1 (t + 1) (t) (0) = const (1) = Mamy (t) = t (0) w stacjonarnym szeregu czasowym wariancja jest sta÷ a, zatem (0) = 2 j (0)j2 j j2t = const ) wtedy istnieje taka liczba 2 [ stacjonarny jez·eli jest postaci j j=1 = ei . Stad ¾ wynika f (t)gt2T jest ; ) gdzie (t) = X (0) ei t ei = cos + i sin Wtedy funkcja kowariancji jest postaci ( )= 2 j (0)j2 ei (t+ ) i t e = 2 j (0)j2 ei a funkcja korelacyjna r( ) = Przyk÷ ad 3. Niech fXn g1 1 n N n N ( ) = ei (0) oznacza ciag ¾ nieza÷ ez·nych zmiennych losowych oraz EXn = 0; 2 cov (Xi ; Xj ) = Niech 1 < 2 < ::: < N oraz i 2 [ prawie okresowym i określonym jako n = N X k=1 0 dla i = j dla i = 6 j ; ). Szereg czasowy f n gn2Z nazywamy Xk ei kn 7 E. Koz÷ owski Udowodnij z·e szereg jest stacjonarny oraz znajdź funkcje¾ kowariancji. Rozwiazanie. ¾ Wartość oczekiwana wynosi E n = N X ei kn EXk = 0 k=1 natomiast kowariancja ( ) = cov = ; n+ N X N X i e n k (n+ 2 N X =E4 ei k (n+ ) Xk k=1 ) i ln e E [Xk Xl ] = N X ! N X 2 i e k k=1 k=1 l=1 Xk 5 ei kn = 2 k=1 3 N X ei k k=1 zalez·y tylko od przesuniecia ¾ . Zatem szereg f n gn2Z jest stacjonarny. Wspó÷ czynnik autokorelacji wynosi 2 r( ) = ( ) = (0) N P ei k=1 N 2 k N 1 X i = e N k=1 k