Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

Transkrypt

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne
Analiza szeregów czasowych:
5. Liniowe modele stochastyczne
P. F. Góra
http://th-www.if.uj.edu.pl/zfs/gora/
semestr letni 2006/07
Dwa rodzaje modelowania
1. Modelowanie “z pierwszych zasad”. Znamy prawa rzadz
˛ ace
˛ jakimś zjawiskiem (fizycznym, biologicznym, procesem społecznym), na ich podstawie,
dokonujac
˛ odpowiednich idealizacji, tworzymy model szczegółowy. Cz˛esto
uwzgledniamy
˛
zaburzenie stochastyczne.
˛ acych
˛
jakimś procesem,
2. Modelowanie stochastyczne. Nie znamy praw rzadz
znamy tylko szereg czasowy bed
˛ acy
˛ wynikiem tego procesu. Wiemy lub zakładamy przy tym, iż w procesie uczestniczy bardzo wielu “agentów”, którzy
dokonuja˛ przypadkowych decyzji, ale jakiś mechanizm sprawia, że wynikowy,
uśredniony proces wykazuje pewne regularności. Obserwujac
˛ owe regularności w szeregu czasowym, chcemy poznać pewne charakterystyki mechanizmu
odpowiedzialnego za jego wygenerowanie.
5. Liniowe modele stochastyczne
2
Liniowe modele stochastyczne
Niech {yn}N
˛
pewnym ciagiem
˛
danych “pomiarowych”. Nie znamy men=1 bedzie
chanizmu, który wygenerował ten szereg. Przypuszczamy, że jest on mocno
zaszumiony. Jeżeli szereg {yn}N
n=1 jest stacjonarny, próbujemy przedstawić go
w postaci
yn = β1yn−1 + β2yn−2 + · · · + βpyn−p + α0ηn + α1ηn−1 + · · · + αq ηn−q ,
(1)
gdzie {ηk } jest białym szumem. Model (1) próbuje przedstawić rzeczywisty szereg czasowy w postaci odfiltrowanego białego szumu.
Proces (1) nazywam procesem ARMA(p, q) (AutoRegressive Moving Average
— autoregresywny proces średniej ruchomej). W ogólności zamiast białego
szumu, szereg {ηk } mógłby być dowolnym stacjonarnym sygnałem o znanych
własnościach.
5. Liniowe modele stochastyczne
3
Przykład procesu ARMA(3,2)
5
white noise
ARMA(3,2)
4
3
2
1
0
-1
-2
-3
-4
-5
-6
50
100
150
200
250
n
5. Liniowe modele stochastyczne
4
Funkcja korelacji
W teorii funkcje˛ korelacji wylicza sie˛ średniujac
˛ po realizacjach procesu stochastycznego, który “odpowiada” za wygenerowanie tego szeregu:
*
ρ(i) =

N
X
, 
1
yj−iyj 
N − i j=i+1

N
X
+
1
yj2
N j=1
(2)
W praktyce mamy dana˛ tylko jedna˛ realizacje˛ naszego szeregu i dlatego obliczona funkcja korelacji może sie˛ różnić od wartości teoretycznej.
5. Liniowe modele stochastyczne
5
Funkcja korelacji powyższego procesu
1.0
pojedyncza realizacja
0.9
0.8
0.7
ρ(j)
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0
8
16
24
32
j
5. Liniowe modele stochastyczne
6
Widmo mocy powyższego procesu
10 0
pojedyncza realizacja
wiele realizacji
10-1
P(f)
10-2
10-3
10-4
10-5
10-6
2-6
2-5
2-4
2-3
2-2
2-1
f
5. Liniowe modele stochastyczne
7
Warunek stacjonarności procesu ARMA
Proces (1) ma postać filtru IIR, a zatem
Proces (1) jest stacjonarny wtedy i tylko wtedy gdy pierwiastki równania
λp − β1λp−1 − β2λp−2 − · · · − βp = 0
(3)
leża˛ wewnatrz
˛ okregu
˛
jednostkowego.
5. Liniowe modele stochastyczne
8
Procesy autoregresywne — AR(p)
Jeżeli proces ARMA nie ma średniowania szumu, nazywamy go procesem autoregresywnym:
yn = β1yn−1 + β2yn−2 + · · · + βpyn−p + α0ηn .
(4)
Aby obliczyć jego funkcje˛ autokorelacji, mnoże˛ (4) przez yn−m i średniuje˛ po
realizacjiach szumu:
­
®
hyn−myni = β1 hyn−myn−1i + · · · + βp yn−myn−p + α0 hyn−mηni . (5)
Ostatni człon w (5) znika, gdyż yn−m nie może zależeć od późniejszego od
siebie szumu.
5. Liniowe modele stochastyczne
9
D
E
2 , dostajemy równanie na funkcje
Dzielac
˛ (5) przez wariancje˛ yn
˛ korelacji procesu AR(p):
ρm = β1ρm−1 + β2ρm−2 + · · · + βpρm−p
(6)
Z teorii równań różnicowych wiemy, że rozwiazanie
˛
równania różnicowego (6)
ma postać
ρm =
p
X
j=1
Aj λm
j ,
(7)
gdzie λj sa˛ rozwiazaniami
˛
równania (3). Z uwagi na wymaganie stabilności,
∀j : |λj | < 1, a zatem możemy napisać λj = e−τj e2πifj , gdzie ∀j : τj > 0.
5. Liniowe modele stochastyczne
10
Funkcja korelacji procesu autoregresywnego
Ponieważ równanie (3) ma współczynniki rzeczywiste, jego pierwiastki sa˛ albo
rzeczywiste, albo parami sprz˛eżone. Wobec tego stałe Aj można dobrać tak,
aby ρm było rzeczywiste. Ostatecznie stwierdzamy, że
Funkcja korelacji procesu autoregresywnego ma
postać kombinacji liniowej zanikajacych
˛
eksponent
i tłumionych sinusoid:
ρm =
X
Aj
5. Liniowe modele stochastyczne
e−mτj
+
X0
−mτj 0
Aj 0 e
sin(2πfj 0 m + φj 0 ) .
(8)
11
Widmo procesu autoregresywnego
Widmo procesu autoregresywnego otrzymujemy natychmiast z funkcji przejścia
odpowiedniego filtru:
P (f ) = ¯
α2
0
¯2 ,
¯
¯
p
P
¯
¯
βne2πinf ¯
¯1 −
¯
¯
n=1
5. Liniowe modele stochastyczne
1
0 6 f 6 ,.
2
(9)
12
Równania Yule’a-Walkera
W równaniu (6) podstawmy m = 1. Dostaniemy
ρ1 = β1ρ1−1 + β2ρ1−2 + . . . βpρ1−p = β1 + β2ρ1 + . . . βpρp−1 ,
(10)
gdyż na mocy stacjonarności ρj = ρ−j . Jeżeli zrobimy tak dla m = 1, . . . , p,
dostaniemy równania Yule’a-Walkera:





1
ρ1
...
· · · ρp−1
· · · ρp−2
...
ρp−1 ρp−2 ρp−3 · · ·
1
5. Liniowe modele stochastyczne
ρ1
1
...
ρ2
ρ1
...





β1
β2
...
βp






=


ρ1
ρ2
...
ρp



.

(11)
13
Teoretycznie, znajac
˛ funkcje˛ korelacji ρm, możemy stad
˛ obliczyć parametry procesu βj . W praktyce nie znamy funkcji korelacji ρm, możemy tylko używać korelacji “doświadczalnej”, wyliczonej z jedynej znanej nam realizacji procesu:

rm = 
N
X
, 
1
yi−myi
N − m i=m+1

N
X

1
yi2 .
N i=1
(12)
˛ wyliczamy przybliżone
rm podstawiamy do równania Yule’a-Walkera (11), skad
wartości współczynników βi. Jest jednak poważny problem: Skad
˛ mamy wiedzieć jaki jest rzad
˛ procesu, czyli jaki jest rozmiar układu równań (11)?
5. Liniowe modele stochastyczne
14
Funkcja autokorelacji czastkowej
˛
Funkcja autokorelacji procesu AR(p) ma rozwiniecie
˛
nieskończone, zależy jednak od p liniowo niezależnych funkcji. Załóżmy, że proces jest rz˛edu k. Wówczas
równania Yule’a-Walkera maja˛ postać





ϕk1
· · · ρk−1
ρ1



 ρ 
· · · ρk−2 

  ϕk2 
 2 
(13)
=




 ..  .
.
.
..   .. 

 . 
ρk−1 ρk−2 ρk−3 · · ·
1
ρk
ϕkk
ϕkk nazywam funkcja˛ autokorelacji czastkowej.
˛
Dla procesu AR rz˛edu p, ϕkk 6=
0 dla k 6 p i ϕkk ≡ 0 dla k > p. W praktyce zamiast ρm używamy rm, co
oczywiście utrudnia podjecie
˛
decyzji o rz˛edzie procesu /
1
ρ1
...
ρ1
1
...
5. Liniowe modele stochastyczne
ρ2
ρ1
...
15
Przykład
5
Pewien proces AR
correlations
partial correlations
1
4
3
0.8
2
0.6
1
0
0.4
-1
0.2
-2
-3
0
-4
0
64
Parametry wyestymowane:
Parametry “prawdziwe”:
5. Liniowe modele stochastyczne
128
192
256
0
2
4
6
8
10
12
14
16
p = 3: β1 = 0.415, β2 = 0.003, β3 = 0.470
p = 4: β1 = 0.474, β2 = −0.149, β3 = 0.530, β4 = 0.015
p = 3: β1 = 0.500, β2 = −0.125, β3 = 0.500
16
Proces AR(1)
yn = β1yn−1 + α0ηn
(14)
−1 < β1 < 1. Funkcja korelacji (m > 0):
hynyn−mi = β1 hyn−1yn−mi + α0 hηnyn−mi
(15)
ρm = β1ρm−1
(16)
ρm = β1m = (sgn(β1))m e−m ln |β1|
(17)
5. Liniowe modele stochastyczne
17
yn = 0.75yn−1 + ηn
AR(1) "a"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
18
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
19
yn = −0.75yn−1 + ηn
AR(1) "b"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
20
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
21
Proces AR(2)
yn = β1yn−1 + β2yn−2 + α0ηn
(18)
Postepuj
˛ ac
˛ jak poprzednio
ρi = β1ρi−1 + β2ρi−2
(19)
Rozwiazaniem
˛
jest albo suma dwu członów zanikajacych
˛
potegowo
˛
(“dwie eksponenty”), albo pewne zanikajace
˛
rozwiazanie
˛
znakozmienne (“drgania tłumione”). To, że korelacja zanika, jest zagwarantowane przez warunki stacjonarności.
5. Liniowe modele stochastyczne
22
yn = 0.75yn−1 − 0.05yn−2 + ηn
AR(2) "a"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
23
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
24
yn = 0.75yn−1 − 0.5yn−2 + ηn
AR(2) "b"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
25
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
26
Procesy średniej ruchomej MA(q)
Dla procesu
yn = α0ηn + α1ηn−1 + · · · + αq ηn−q
(20)
otrzymujemy
q
X
hynyn−ii =
D
αj ηn−j yn−i
E
(21)
j=0
Funkcja korelacji urywa sie˛ dla i > q:


 −αi+α1αi−1+···+αq−iαq
2
1+α2
ρi =
1 +···+αq

0
i = 1, 2, . . . , q
(22)
i>q
Funkcja autokorelacji czastkowej
˛
zanika.
5. Liniowe modele stochastyczne
27
yn = 0.25ηn + 0.5ηn−1 + 0.25ηn−2
MA(3) "a"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
28
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
29
yn = −0.25ηn + 0.5ηn−1 + −0.25ηn−2
MA(3) "b"
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
30
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
31
Procesy ARMA(p, q)
Warunkiem stacjonarności procesu ARMA jest stacjonarność cz˛eści autoregresywnej.
Widmo procesu ARMA otrzymujemy z funkcji przejścia odpowiedniego filtru IIR:
¯2
¯
¯
¯
q
P
¯
¯
2πinf
αne
¯
¯
¯
¯ n=0
¯ ,
¯
P (f ) = ¯
¯
p
P
¯
βne2πinf ¯¯
¯1 −
¯
¯
n=1
5. Liniowe modele stochastyczne
1
06f 6 .
2
(23)
32
yn = 0.75yn−1 + 0.25ηn + 0.5ηn−1 + 0.25ηn−2
ARMA(1,3)
GWN
4
2
0
-2
-4
20
5. Liniowe modele stochastyczne
40
60
80
100
120
33
N=27
N=214
1
0.5
0
-0.5
-1
0
5. Liniowe modele stochastyczne
2
4
6
8
10
12
14
34
Kryteria identyfikacji rzedu
˛
procesu
Rodzaj procesu
AR(p)
MA(q)
ARMA(p,q)
Fukcja autokorelacji
zanika (nieskończona)
urywa sie˛ (skończona)
zanika (nieskończona)
5. Liniowe modele stochastyczne
Funkcja autokorelacji czastkowej
˛
urywa sie˛ (skończona)
zanika (nieskończona)
zanika (nieskończona)
35

Podobne dokumenty