Prawdopodobienstwo i statystyka

Transkrypt

Prawdopodobienstwo i statystyka
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prawdopodobieństwo i statystyka
Wykład XIII:
Prognoza. Warunkowa wartość oczekiwana
26 stycznia 2015
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Zagadnienie prognozowania
Prognoza (predykcja)
Zagadnienie prognozowania
Przypuśćmy, że mamy dany ciąg liczb x1 , x2 , . . . , xn ,
stanowiących wyniki pomiaru pewnej zmiennej w czasie
wielkości x, w chwilach t1 < t2 < . . . < tn . Inaczej mówiąc,
mamy dany „szereg czasowy”.
Zagadnienie prognozowania: Niech T > tn . Jaką wartość
przyjmie badana wielkość w chwili T ?
Jeżeli x jest funkcją tylko czasu t, tzn.
xk = f (tk ), k = 1, 2, . . . , tn , możemy próbować odgadnąć
postać funkcji f , np.
znajdując współczynniki wielomianu interpolacyjnego,
lub amplitudę, częstość i przesunięcie sygnału sinusoidalnego,
lub parametry przekształcenia S, którego kolejne iteracje
S(t0 ), S 2 (t0 ), . . . Sn (t0 ) dają nam kolejne wartości x1 , x2 , . . . ,
xn .
To jest jednak rzadka sytuacja. Na ogół musimy zakładać, że
liczby x1 , x2 , . . . , xn są wartościami ciągu zmiennych losowych.
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Zagadnienie prognozowania
Prognoza (predykcja)
Pojęcie prognozy (predykcji)
Postawienie zagadnienia: znamy rozkład łączny zmiennych
losowych X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym , gdzie X1 , X2 , . . . , Xn
reprezentują „przeszłość”, a Y1 , Y2 , . . . , Ym - „przyszłość”. Na
podstawie przeszłości chcemy ocenić wartości przyszłe w postaci
funkcji f (X1 , X2 , . . . , Xn ). Jako „miarę jakości” prognozy
przyjmujemy „błąd średniokwadratowy”
E k(Y1 , Y2 , . . . , Ym )T − f (X1 , X2 , . . . , Xn )k2
=
m
X
E (Yi − fi (X1 , X2 , . . . , Xn ))2 .
i=1
Pokażemy, że błąd średniokwadratowy jest minimalizowany przez
fi (X1 , X2 , . . . , Xn ) = E Yi (X1 , X2 , . . . , Xn ) , i = 1, 2, . . . , m.
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Rozkłady warunkowe
Własności warunkowej wartości oczekiwanej
Warunkowa wartość oczekiwana jako rzut ortogonalny
Rozkłady warunkowe
~ iZ
~ będą wektorami losowymi o wartościach w Rm i Rn ,
Niech Y
określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P).
~ = ~z ) > 0, to rozkładem warunkowym wektora Y
~ gdy
Jeżeli P(Z
~ = ~z nazywamy prawdopodobieństwo
Z
~
~
~ ∈ A|Z
~ = ~z ) = P(Y ∈ A, Z = ~z ) .
R ⊃ A 7→ PY~ |Z~ =~z (A) = P(Y
~ = ~z )
P(Z
!
m
Pytanie: jak określić rozkład warunkowy w ogólnym przypadku?
Jeżeli P(Y ,Z ) jest absolutnie ciągły z gęstością pY ,Z (y , z), to
można określić gęstość rozkładu PY |Z =z za pomocą wzoru
pY |Z =z (y ) =

 R +∞pY ,Z (y ,z)
−∞
pY ,Z (u,z) du
1I [0,1] (y ),

Prawdopodobieństwo i statystyka
,
jeśli
R
jeśli
R
pY ,Z (u, z) du > 0
.
pY ,Z (u, z) du = 0
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Rozkłady warunkowe
Własności warunkowej wartości oczekiwanej
Warunkowa wartość oczekiwana jako rzut ortogonalny
Definicja i własności warunkowej wartości oczekiwanej
Mając dany rozkład warunkowy PY~ |Z~ =~z (·) określamy
~ |Z
~ = ~z ) :=
E (Y
Z
~y PY~ |Z~ =~z (d~y ),
~ |Z
~ ) := E (Y
~ |Z
~ = (·)) ◦ Z
~.
E (Y
Jeżeli E |U| < +∞ i E |V | < +∞, to
~ ) = αE (U|Z
~ ) + βE (V |Z
~ ).
E (αU + βV |Z
~ )| ¬ C , to
Jeżeli E |Y | < +∞ i |h(Z
~ ) · Y |Z
~ ) = h(Z
~ ) · E (Y |Z
~ ).
E (h(Z
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Rozkłady warunkowe
Własności warunkowej wartości oczekiwanej
Warunkowa wartość oczekiwana jako rzut ortogonalny
Warunkowa wartość oczekiwana jako rzut ortogonalny
~ ))2 < +∞, to
Jeżeli EY 2 < +∞ i E (h(Z
~ ) · Y |Z
~ ) = h(Z
~ ) · E (Y |Z
~ ).
E (h(Z
Jeżeli EY 2 < ∞, to
~ ))2 + Var (E (Y |Z
~ )).
Var (Y ) = E (Y − E (Y |Z
Twierdzenie (Warunkowa wartość oczekiwana jako minimalizator)
~ przyjmuje wartości w Rn . Wówczas
Niech EY 2 < +∞ i Z
~ ) jest jedynym minimalizatorem funkcjonału
E (Y |Z
~ ))2 ,
h 7→ E (Y − h(Z
~ ))2 < +∞}.
gdy h przebiega zbiór {h : Rn → R1 ; E (h(Z
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Rozkłady warunkowe
Własności warunkowej wartości oczekiwanej
Warunkowa wartość oczekiwana jako rzut ortogonalny
Warunkowa wartość oczekiwana jako rzut ortogonalny - cd.
Uwaga: w terminach przestrzeni Hilberta L2 (Ω, F, P) warunkowa
wartość oczekiwana jest rzutem ortogonalnym na podprzestrzeń
~ )}, czyli funkcji σ(Z
~ )-mierzalnych. W tym
funkcji postaci {h(Z
kontekście (niemal) oczywiste są następujące fakty:
Jeżeli E |Y | < +∞ i g : Rn → Rm , to
~ )g (Z
~ ) = E (Y |g (Z
~ )).
E E (Y |Z
~ jest funkcją stałą, to E (Y |Z
~ ) = EY .
Jeżeli Z
~ )|?
Co by było, gdybyśmy minimalizowali E |Y − h(Z
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Prognoza liniowa
W zagadnieniu prognozy zmiennych Y1 , Y2 , . . . , Ym , na podstawie
X1 , X2 , . . . , Xn poszukujemy najlepszego przybliżenia zmiennych Yi
w postaci fi (X1 , X2 , . . . , Xn ), gdzie fi spełnia tylko ogólne warunki
całkowalności, należy więc do bardzo szerokiej klasy funkcji.
Z prognozą liniową mamy do czynienia, gdy poszukujemy
najlepszego przybliżenia w klasie funkcji
fi (X1 , X2 , . . . , Xn ) =
n
X
αi,j Xj , i = 1, 2, . . . , m.
j=1
To na ogół dużo łatwiejsze zadanie!
Uwaga: Istnieje ważna klasa szeregów czasowych, dla których oba
pojęcia prognozy pokrywają się: są to procesy gaussowskie.
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Procesy gaussowskie
Definicja zmiennych losowych gaussowskich
Mówimy, że zmienne losowe X1 , X2 , . . . , Xn są gaussowskie, jeśli
ich dowolna kombinacja liniowa α1 X1 + α2 X2 + · · · + αn Xn ma
jednowymiarowy rozkład normalny, tzn.
α1 X1 + α2 X2 + · · · + αn Xn ∼ N (mα~ , σα~2 ),
gdzie α
~ = (α1 , α2 , . . . , αn )T .
Dopuszczamy przypadek σα~2 = 0. Z definicji N (m, 0) = δm .
Rodziny gaussowskie
Rodzinę zmiennych losowych {Xi }i∈I nazywamy gaussowską, jeśli
dla każdego skończonego podzbioru {i1 , i2 , . . . , in } ⊂ I zmienne
Xi1 , Xi2 , . . . , Xin są gaussowskie.
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Procesy gaussowskie - cd.
Biorąc α
~ = (0, . . . , 0, 1, 0, . . . , 0)T , otrzymujemy rozkład normalny
dla składowych Xk ∼ N (mk , σk2 ). W ogólności,
~ i = h~
~ i.
mα~ = E (α1 X1 + α2 X2 + · · · + αn Xn ) = E h~
α, X
α, E X
Podobnie
~ i) = h~
~ )α
σα~2 = Var (h~
α, X
α, Cov (X
~ i.
Twierdzenie (Transformacja liniowa zmiennych gaussowskich)
~ = (X1 , X2 , . . . , Xn )T ma składowe
Jeżeli wektor losowy X
~ =m
~ i Cov (X ) = Σ) i jezeli
gaussowskie, przy czym E X
n
m
A : R → R jest odwzorowaniem liniowym, to składowe wektora
~ ) też są gaussowskie, przy czym
A(X
~ ) = A(~
~ )) = AΣAT .
EA(X
m), Cov (A(X
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Konstrukcja zmiennych gaussowskich
Twierdzenie (Konstrukcja zmiennych gaussowskich)
~ ∈ Rn i Σ jest macierzą n × n, symetryczną i nieujemnie
Jeżeli m
~ o składowych gaussowskich,
określoną, to istnieje wektor losowy X
który spełnia związki
~ =m
~,
EX
~ ) = Σ.
Cov (X
Twierdzenie (Charakterystyka rozkładu łącznego zmiennych
gaussowskich)
Rozkład łączny zmiennych losowych gaussowskich (X1 , X2 , . . . , Xn )
(nazywany n-wymiarowym rozkładem normalnym) jest w pełni
~ i macierz kowariancji
określony przez swoja wartość oczekiwaną m
~ ∼ N (m, Σ).
Σ. Piszemy X
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Niezależność zmiennych gaussowskich
Twierdzenie (Absolutna ciągłość rozkładu normalnego)
Rozkład normalny jest absolutnie ciągły dokładnie wtedy, gdy
macierz Σ jest nieosobliwa (det(Σ) 6= 0). W takim przypadku
gęstość zadana jest wzorem:
1
1
1
~ .
~ , Σ−1 (~x − m)i
exp − h~x − m
pm
x) = √ d √
~ ,Σ (~
2
( 2π)
det Σ
Twierdzenie (Niezależność zmiennych gaussowskich)
Zmienne gaussowskie X1 , X2 , . . . , Xn są niezależne dokładnie
wtedy, gdy są nieskorelowane:
cov (Xi , Xj ) = 0, i, j = 1, 2, . . . , n, i 6= j.
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana
Zagadnienie prognozowania
Warunkowa wartość oczekiwana
Prognoza liniowa
Prognoza liniowa
Procesy gaussowskie
Prognoza dla zmiennych gaussowskich
Twierdzenie (Prognoza dla zmiennych gaussowskich)
Jeżeli zmienne X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym są gaussowskie, to
prognoza liniowa Y1 , Y2 , . . . , Ym na podstawie X1 , X2 , . . . , Xn
pokrywa się z pełną prognozą (tzn. przybliżeniem Y1 , Y2 , . . . , Ym
za pomocą zmiennych postaci h(X1 , X2 , . . . , Xn )).
Uwaga: Jeżeli w schemacie prognozy
X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym
zmienne są gaussowskie, to prognoza (liniowa) Y1 , Y2 , . . . , Ym na
podstawie X1 , X2 , . . . , Xn jest również wektorem o składowych
gaussowskich. Jak określić wektor prognozy?
Prawdopodobieństwo i statystyka
Wykład XIII: Prognoza. Warunkowa wartość oczekiwana

Podobne dokumenty