Prawdopodobienstwo i statystyka

Transkrypt

Prawdopodobienstwo i statystyka
Prawdopodobieństwo i statystyka
Wykład VIII:
Wektory losowe i rozkłady łączne
24 listopada 2015
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Wektor losowy
Definicja
Wektor losowy to odwzorowanie
~ (ω) = (X1 (ω), X2 (ω), . . . , Xd (ω))T ∈ Rd ,
Ω 3 ω 7→ X
którego współrzędne X1 , X2 , . . . , Xd są zmiennymi losowymi,
określonymi na wspólnej przestrzeni probabilistycznej
(Ω, F, P)).
Wynika stąd, że
~ ∈ B} = X
~ −1 (B) ∈ F
{X
dla każdego zbioru borelowskiego B ∈ B d !
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Rozkład wektora losowego
Definicja
~ = (X1 , X2 , . . . , Xd )T albo
Rozkładem wektora losowego X
łącznym rozkładem zmiennych losowych X1 , X2 , . . . , Xd
nazywamy miarę probabilistyczną PX~ na Rd zadaną wzorem
PX~ ((a1 , b1 ] × (a2 , b2 ] × . . . × (ad , bd ]) :=
= P(a1 < X1 ¬ b1 , a2 < X2 ¬ b2 , . . . , ad < Xd ¬ bd ).
~ jest
Dystrybuanta FX~ : IR d → [0, 1] wektora losowego X
zadana wzorem
FX~ (a1 , a2 , . . . , ad ) := PX~ ({X1 ¬ a1 , X2 ¬ a2 , . . . , Xd ¬ ad }) .
Dystrybuanta wektora losowego zadaje jego rozkład.
Dlaczego?
Nie każda funkcja na IR d , która jest niemalejąca po
współrzędnych i prawostronnie ciągła, jest dystrybuantą
pewnego wektora losowego. (Przykład!)
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Wartość oczekiwana wektora losowego
Definicja
~ = (X1 , X2 , . . . , Xd )T będzie wektorem losowym. Niech
Niech X
~ będzie całkowalna (równoważnie:
każda składowa X
~ k < +∞). Wartością oczekiwaną wektora losowego X
~
E kX
nazywamy wektor wartości oczekiwanych współrzędnych
~ = (EX1 , EX2 , . . . , EXd )T .
EX
Twierdenie (Równoważna defincja wartości oczekiwanej)
~ k < +∞. Wartość oczekiwana wektora X
~ to jedyny
Niech E kX
~ ∈ IR d taki, że
wektor m
~ i = h~x , mi,
~
E h~x , X
Prawdopodobieństwo i statystyka
~x ∈ IR d .
Wykład VIII: Wektory losowe i rozkłady łączne
Kowariancja zmiennych losowych
Kowariancją zmiennych losowych X i Y nazywamy liczbę
cov (X , Y ) := E (X − EX )(Y − EY ) = EXY − EX · EY .
Zmienne losowe X i Y są nieskorelowane, jeśli
cov (X , Y ) = 0.
Uwaga:
| cov (X , Y )| ¬ D(X )D(Y ).
Jeśli EX 2 < +∞ i EY 2 < +∞, to cov (X , Y ) istnieje!
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Współczynnik korelacji
Definicja
Współczynnikiem korelacji całkowalnych z kwadratem
zmiennych losowych X i Y nazywamy liczbę
cov (X , Y )
r (X , Y )(= ρ(X , Y )) = D(X )D(Y )


1



jeśli D(X ) · D(Y ) 6= 0,
jeśli D(X ) · D(Y ) = 0.
Twierdzenie (Interpretacja wsp. korelacji)
|r (X , Y )| = 1 wtedy, i tylko wtedy, gdy istnieją stałe α, β
takie, że X = αY + β lub Y = αX + β.
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Współczynnik korelacji r (X , Z ) = 0, 986
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Współczynnik korelacji r (X , Y ) = −0, 013
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Definicja macierzy kowariancji
Definicja
~ = (X1 , X2 , . . . , Xd )T będzie
Niech każda składowa wektora X
~ k2 < +∞).
całkowalna z kwadratem (równoważnie: E kX
~ nazywamy macierz Cov (X
~) o
Macierzą kowariancji wektora X
współczynnikach
1 ¬ j, k ¬ d.
σjk = cov (Xj , Xk ),
Definicja
~ nazywamy liczbę
Wariancją wektora X
~ ) := E kX
~ − EX
~ k2 =
Var (X
d
X
~ ).
Var (Xj ) = tr Cov (X
j=1
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Równoważna definicja macierzy kowariancji
Twierdzenie
~ k2 < +∞. Macierz kowariancji wektora X
~ jest
Niech E kX
jedyną symetryczną macierzą Σ wymiaru d × d wyznaczoną
przez formę kwadratową
~ − EX
~ i2 = Var (hx, X
~ i) = hx, Σ xi,
E hx, X
x ∈ IR d .
~ ) jest więc jedyną macierzą Σ spełniającą związek
Cov (X
~ −E X
~ ihy, X
~ − EX
~i
E hx, X
~ i, hy, X
~ i) = hx, Σ yi, x, y ∈ IR d .
= cov (hx, X
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Charakteryzacja macierzy kowariancji
Twierdzenie
~ jest symetryczna
Macierz kowariancji wektora losowego X
i nieujemnie określona.
Na odwrót, dla dowolnej symetrycznej i nieujemnie
określonej macierzy Σ rozmiaru d × d istnieje
~ taki, że
d-wymiarowy wektor losowy X
~ ) = Σ.
Cov (X
Dowód jest przełożony na następny wykład.
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne
Macierz kowariancji i odwzorowania liniowe
Twierdzenie
~ k2 < +∞ i A : IR d → IR m jest odwzorowaniem
Jeżeli E kX
~ ) istnieje i mamy
liniowym, to Cov (A X
~ ) = A Cov (X
~ ) AT .
Cov (A X
Prawdopodobieństwo i statystyka
Wykład VIII: Wektory losowe i rozkłady łączne