5. Procesy stochastyczne, stacjonarność, integracja - E-SGH
Transkrypt
5. Procesy stochastyczne, stacjonarność, integracja - E-SGH
Ekonometria Wykład 5. Procesy stochastyczne, stacjonarność, integracja Dr Michał Gradzewicz Katedra Ekonomii I KAE Plan wykładu Ekonometria szeregów czasowych • Procesy stochastyczne – Stacjonarność i biały szum – Niestacjonarność: • Trendostacjonarność • Przyrostostacjonarność (błądzenie losowe) • • • Integracja i jej stopień Testowanie stopnia integracji (testy pierwiastka jednostkowego) Przykłady procesów stacjonarnych – procesy autoregresyjne AR – Funkcja ACF – Impulse-Response Function (IRF) – Persystencja i Half-life Procesy stochastyczne i stacjonarność • • • • • Ekonometria szeregów czasowych Definicja: Proces stochastyczny to zbiór zmiennych losowych uporządkowany zgodnie z indeksem czasowym = 1,2, … , Szereg czasowy to realizacja procesu stochastycznego w konkretnej próbie Stacjonarność jest jedną z własności procesu stochastycznego (nie jest to własność wszystkich procesów stochastycznych) Definicja: proces (słabo) stacjonarny spełnia następujące warunki: 1. 2. 3. = (niezależna od ) = < ∞ (niezależna od ) , = (zależna wyłącznie od odległości w czasie , a nie od momentu pomiaru ) Dodatkowo – Jeśli proces stochastyczny spełnia warunki słabej stacjonarności, oraz dodatkowo = 0 dla ≠ 0 (czyli , = 0), to nazywamy go białym szumem (white noise), przykładem jest dobrze zachowujący się składnik losowy w modelu ekonometrycznym Przykład procesu stacjonarnego i niestacjonarnego Proces stacjonarny Proces niestacjonarny Procesy niestacjonarne - trendostacjonarność • • • • • Istnieją różne formy niestacjonarności Większość makroekonomicznych szeregów czasowych jest niestacjonarnych (mają różnego rodzaju trendy) Ważne klasy procesów niestacjonarnych – błądzenie losowe (o którym za chwilę)i trendostacjonarność Szereg trendostacjonarny to losowe wahania wokół trendu deterministycznego = ! " Jak doprowadzić ten proces stochastyczny do stacjonarności – odjąć trend deterministyczny # #! =" Procesy niestacjonarne – błądzenie losowe • Błądzenie losowe (random walk) – por. wykres z wcześniejszego slajdu (szereg niestacjonarny) = $% " Gdzie " jest białym szumem o średniej " = 0 oraz wariancji " = = • • • " = $ " $% " = $& " $ " " = ' "( $% = ∑()% "( = ∑()% /"( - = ∑()% 0 = 0 = # = = ∑()% "( = ∑()% * ()% Jest to zatem szereg o doskonałej pamięci Własności (załóżmy, że * = ∑*()$, "( = 0-: – – • $% "( = ∑()% = Zatem błądzenie losowe ma zerową wartość oczekiwaną, ale wariancję, która rośnie w czasie – jest procesem niestacjonarnym Kroczące wariancje: – procesu białego szumu (WN) – Procesu błądzenia losowego (RW) Integracja i przyrostostacjonarność • • • • • • • • • • Jeśli proces generujący nasze dane jest typu błądzenia losowego, to również łatwo możemy przekształcić go do procesu stacjonarnego = $% " Δ = # $% = " Taki szereg nazywamy szeregiem zintegrowanym stopnia 1, czyli ∼ 2/1Inn nazwa – szereg 2 1 jest przyrostostacjonarny (jego przyrosty są stacjonarne) Trend, któremu podlegają tego typu szeregi nazywamy trendem stochastycznym (w odróżnieniu od trendu deterministycznego, o którym była mowa wcześniej) W tym zapisie, szereg stacjonarny oznaczamy jako zintegrowany w stopniu 0, czyli ∼ 2/0Większość makroekonomicznych szeregów czasowych jest typu 2/1-, przykładowo: poziom realny PKB, konsumpcji, inwestycji, poziom cen, podaży pieniądza Niektóre szeregi czasowe są raczej typu 2/0-, np. inflacja, bezrobocie, stopa procentowa. Testy statystyczne (o których za chwilę) dla tych zmiennych czasami to wskazują (ale czasami nie!) Niektóre szeregi czasowe uzyskują stacjonarność dopiero po dwukrotnym zróżnicowaniu (policzeniu przyrostów drugiego stopnia) – nazywamy je 2/2Δ = Δ # Δ $% = # $% # = # 2 $% $% # $ $ 4 Ogólnie: szereg zintegrowany stopnia 3: ∼ 2 3 oznacza, że Δ ∼ 2/0Zintegrowanie w stopniu 2 zdarza się w danych, choć raczej rzadko (jako analogon z fizyki procesy tego typu mają w miarę stałe przyspieszenie, co nie jest częste w ekonomii). Bywa nim np. nominalny pieniądz, poziom cen w warunkach hiperinflacji Funkcja autokorelacji ACF • Funkcja autokorelacji ACF (Autocorrelation function): 5 = wariancją procesu • . ∑CD< /9 $9A-/9:;< $9A- Estymatorem jest: 5@ = :EF∑C: , A ? :EF 9: $9 % odchyleniu standardowym G – – – 678 9: ,9:;< =>? , gdzie 9 jest mający w przybliżeniu rozkład normalny o Dla białego szumu powinna być ona nierozróżnialna od 0 (w sensie statystycznym) Dla błądzenia losowego powinna być ona równa zawsze 1 lub wygasać bardzo, bardzo powoli Dla stabilnego procesu autoregresyjnego powinna ona wygasać wraz z rosnącym (5 = H ) ACF dla zmiennej WN ACF dla zmiennej rw 1 +- 1.96/T^0.5 0.1 +- 1.96/T^0.5 0.5 0.05 0 0 -0.05 -0.5 -0.1 -1 0 5 10 15 20 25 30 0 5 10 opóĽnienia 15 20 25 30 opóĽnienia PACF dla zmiennej WN PACF dla zmiennej rw 1 +- 1.96/T^0.5 0.1 +- 1.96/T^0.5 0.5 0.05 0 0 -0.05 -0.5 -0.1 -1 0 5 10 15 opóĽnienia 20 25 30 0 5 10 15 opóĽnienia 20 25 30 Testowanie stacjonarności – Test Dickeya-Fullera (DF) • • Test DF jest jednym z grupy testów stopnia integracji, nazywanych też testami pierwiastka jednostkowego (unit root test) Opiera się on na testowaniu współczynnika w procesie AR(1): = " $% – – Jeśli < 1 to proces jest stacjonarny, jeśli = 1 to proces jest niestacjonarny Ale jeśli I* jest prawdziwa, to estymator @ jest obciążony, a statystyka dla testu istotności nie ma rozkładu t-Studenta • Przekształcając równanie autoregresyjne: # $% = $% # $% Δ = # 1 $% " Otrzymujemy poprawną reprezentację testową: Δ = J $% " , gdzie J = • Zestaw hipotez testu DF: – – • I* : J = 0, czyli I% : J < 0, czyli = 1, a zatem < 1, a zatem " #1 ∼ 2/1- jest niestacjonarny ∼ 2 0 jest stacjonarny Ponieważ przy założeniu prawdziwości I* zmienna objaśniająca jest niestacjonarna, zatem statystyka t nie ma rozkładu t-Studenta, ale JM L= ∼ L/ NPO Czyli ma rozkład Dickeya-Fullera, którego wartości krytyczne zostały wyznaczone metodami symulacyjnymi • Jeśli L < L ∗ / - to odrzucamy I* i konkludujemy, że badany proces jest stacjonarny ∼ 2/0- Test Dickeya-Fullera – kolejne etapy • • • Jeśli odrzuciliśmy I* kończymy procedurę testową, przyjmując, że szereg czasowy generowany jest przez proces stacjonarny Jeśli nie ma podstaw do odrzucenia I* kontynuujemy procedurę testową, wyznaczając stopień integracji szeregu czasowego (wiedząc, że na pewno jest on niestacjonarny): 2 etap: – ∼ 2 2 RSTΔ Δ ∼ 2 1 = JΔ – I* : J = 0 – Wyznaczamy ponownie statystykę L = – – • Budujemy analogiczne równanie regresji dla 2-gich przyrostów: $% " .I% : J < 0[ V O WPX ∼ 2 1 RSTΔ ∼2 0 ] i przyrównujemy do wartości krytycznej Jeśli odrzucamy I* to kończymy procedurę testową, przyjmując, że ∼ 2/1Jeśli nie ma podstaw do odrzucenia I* , to przechodzimy do ostatecznej fazy testu 3 etap – – – – – Budujemy analogiczne równanie regresji dla 3-cich przyrostów: Δ& = JΔ Wyznaczamy ponownie statystykę L = V O WPX $% " i przyrównujemy do wartości krytycznej Jeśli odrzucamy I* to kończymy procedurę testową, przyjmując, że ∼ 2/2Jeśli nie ma podstaw do odrzucenia I* , to najprawdopodobniej test DF ma za słabą moc by choć raz odrzucić I* i należy zastosować alternatywne testy pierwiastka jednostkowego Większość szeregów czasowych spotykanych w danych ekonomicznych jest albo 2/0- albo 2 1 , procesy zintegrowane w stopniu wyższym są bardzo rzadko spotykane Rozszerzenia testu DF • ADF – Augmented Dickey-Fuller test – Wartości krytyczne testu DF symulowane są przy założeniu sferycznego składnika losowego (szczególnie – przy braku autokorelacji) – Aby „wyczyścić” składnik losowy równania testowewgo z autokorelacji często dodaje się opóźnienia zmiennej objasnianej (np. opóźnienia Δ w pierwszej fazie testu) – Równanie testowe ma postać: Δ = J $% Y% Δ $% Y Δ $ ⋯ Y Δ $ " – A sam test nosi nazwę rozszerzonego testu Dickeya-Fullera (ADF) – statystyka testowa jest identyczna jak w DF, podobnie jak wartości krytyczne testu • Trendostacjonarność vs. przyrostostacjonarność – Jeśli uzupełnimy równanie testowe dodatkowo o trend, to w zasadzie testujemy charkter trendu – stochastyczny czy deterministyczny Δ = ! J $% 'Y Δ $ " – Jeśli odrzucimy I* w tym teście, a parametr przy trendzie jest istotny, to w przypadku tej specyfikcji oznacza to, że szereg jest trendostacjonarny – Jeśli przyjmujemy I* , to oznacza to przyrostostacjonarność Przykład procesu stacjonarnego – proces autoregresyjny AR(1) • Proces AR(1) = H • Dla H < 1 jest to proces stacjonarny • Można go przedstawić jako: = H H $ " $% " = H • Czyli: , = ' H[ [)* • • Wtedy: , ' H[ " [)* \ \" $[ $[ " $% H = H $& " $ " 1#H ' H[ " [)* $[ = H[ Możemy zdefiniować funkcję odpowiedzi na impuls (Impulse-Response Function) _9 :Da • $% , 2]L ^ = _` : , czasami jej elementy nazywane są mnożnikami modelu • H" Dla stacjonarnego procesu AR(1), dla którego H ∈ /0; 1- funkcja IRF maleje wykładniczo (dla H ∈ /#1; 0- maleje ona oscylacyjnie) Takie procesy czasami określane są procesami o którkiej (malejącej) pamięci – wpływ przeszłych zaburzeń na bieżące wartości maleje wraz z rosnącą odległością w czasie Procesy d]/e- wyższego rzędu • • • Proces d]/e-ma postać: = H% H $ ⋯ Hf $f " Procesy takie sa stacjonarne, jeśli ∑[ H[ < 1 Mają one bardziej skomplikowaną strukturę powiązań czasowych, przykładowo proces: = 1.4 $% # 0.6 $ " generuje funkcję IRF, która ma „garba” (hump-shaped IRF) – tak często wyglądają wyniki symulacji odpowiedzi na impuls w przypadku danych makroekonomicznych $% Funkcje ACF i PACF dla modeli autoregresyjnych • • Funkcje autokorelacji dla stabilnych modeli autoregresyjnych ma charakter malejący, a funkcja PACF (Partial Autocorrelation Function) przyjmuje niezerowe wartości wtedy, kiedy dane opóźnienie jest istotne statystycznie, czyli wyznacza rząd e dla procesu d]/ePoniżej empiryczne ACF i PACF dla szeregów czasowych procesów = 0.75 $% " (lewa część) oraz dla = 1.4 $% # 0.6 $ " ACF dla zmiennej ar1 ACF dla zmiennej ar2 1 1 +- 1,96/T^0,5 +- 1,96/T^0,5 0,5 0,5 0 0 -0,5 -0,5 -1 -1 0 5 10 15 20 25 0 5 10 opóźnienia 15 20 25 opóĽnienia PACF dla zmiennej ar1 PACF dla zmiennej ar2 1 1 +- 1,96/T^0,5 +- 1,96/T^0,5 0,5 0,5 0 0 -0,5 -0,5 -1 -1 0 5 10 15 opóźnienia 20 25 0 5 10 15 opóĽnienia 20 25 Half-life • • • • • Często stosowaną w praktyce miarą „trwałości” (persistence) jest tzw. „half-life”, czasami nazywany czasem połówkowym, czyli czasem potrzebnym na to, aby jednostkowy szok wytracił połowę swojego impetu Jak wyznaczyć go dla procesu AR(1)? Załóżmy, że = " , i zaczynamy $% = 0. Rozważmy co się dzieje z w $% kolejnych okresach, jeśli wystąpi jednostkowy szok w okresie 1 "* = 1, a w kolejnych okresach nie ma dalszych zaburzeń " = 0 dla ≥ 1. Zatem: ⋅ 0 1 = 1, % = ⋅ 1 0 = , = ⋅ 0 = ,…, = * = Zatem half-life Im jest rozwiązaniem 1 ln = ln 2 ⋅ ln = ln 0.5 ln 0.5 = ln Przykładowo, dla = 0.8, Im = 3,1 = % 1 0.9 0.8 IRF (alpha=0.8) 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20