Prawdopodobienstwo i statystyka
Transkrypt
Prawdopodobienstwo i statystyka
Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne 24 listopada 2015 Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Wektor losowy Definicja Wektor losowy to odwzorowanie ~ (ω) = (X1 (ω), X2 (ω), . . . , Xd (ω))T ∈ Rd , Ω 3 ω 7→ X którego współrzędne X1 , X2 , . . . , Xd są zmiennymi losowymi, określonymi na wspólnej przestrzeni probabilistycznej (Ω, F, P)). Wynika stąd, że ~ ∈ B} = X ~ −1 (B) ∈ F {X dla każdego zbioru borelowskiego B ∈ B d ! Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Rozkład wektora losowego Definicja ~ = (X1 , X2 , . . . , Xd )T albo Rozkładem wektora losowego X łącznym rozkładem zmiennych losowych X1 , X2 , . . . , Xd nazywamy miarę probabilistyczną PX~ na Rd zadaną wzorem PX~ ((a1 , b1 ] × (a2 , b2 ] × . . . × (ad , bd ]) := = P(a1 < X1 ¬ b1 , a2 < X2 ¬ b2 , . . . , ad < Xd ¬ bd ). ~ jest Dystrybuanta FX~ : IR d → [0, 1] wektora losowego X zadana wzorem FX~ (a1 , a2 , . . . , ad ) := PX~ ({X1 ¬ a1 , X2 ¬ a2 , . . . , Xd ¬ ad }) . Dystrybuanta wektora losowego zadaje jego rozkład. Dlaczego? Nie każda funkcja na IR d , która jest niemalejąca po współrzędnych i prawostronnie ciągła, jest dystrybuantą pewnego wektora losowego. (Przykład!) Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Wartość oczekiwana wektora losowego Definicja ~ = (X1 , X2 , . . . , Xd )T będzie wektorem losowym. Niech Niech X ~ będzie całkowalna (równoważnie: każda składowa X ~ k < +∞). Wartością oczekiwaną wektora losowego X ~ E kX nazywamy wektor wartości oczekiwanych współrzędnych ~ = (EX1 , EX2 , . . . , EXd )T . EX Twierdenie (Równoważna defincja wartości oczekiwanej) ~ k < +∞. Wartość oczekiwana wektora X ~ to jedyny Niech E kX ~ ∈ IR d taki, że wektor m ~ i = h~x , mi, ~ E h~x , X Prawdopodobieństwo i statystyka ~x ∈ IR d . Wykład VIII: Wektory losowe i rozkłady łączne Kowariancja zmiennych losowych Kowariancją zmiennych losowych X i Y nazywamy liczbę cov (X , Y ) := E (X − EX )(Y − EY ) = EXY − EX · EY . Zmienne losowe X i Y są nieskorelowane, jeśli cov (X , Y ) = 0. Uwaga: | cov (X , Y )| ¬ D(X )D(Y ). Jeśli EX 2 < +∞ i EY 2 < +∞, to cov (X , Y ) istnieje! Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Współczynnik korelacji Definicja Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy liczbę cov (X , Y ) r (X , Y )(= ρ(X , Y )) = D(X )D(Y ) 1 jeśli D(X ) · D(Y ) 6= 0, jeśli D(X ) · D(Y ) = 0. Twierdzenie (Interpretacja wsp. korelacji) |r (X , Y )| = 1 wtedy, i tylko wtedy, gdy istnieją stałe α, β takie, że X = αY + β lub Y = αX + β. Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Współczynnik korelacji r (X , Z ) = 0, 986 Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Współczynnik korelacji r (X , Y ) = −0, 013 Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Definicja macierzy kowariancji Definicja ~ = (X1 , X2 , . . . , Xd )T będzie Niech każda składowa wektora X ~ k2 < +∞). całkowalna z kwadratem (równoważnie: E kX ~ nazywamy macierz Cov (X ~) o Macierzą kowariancji wektora X współczynnikach 1 ¬ j, k ¬ d. σjk = cov (Xj , Xk ), Definicja ~ nazywamy liczbę Wariancją wektora X ~ ) := E kX ~ − EX ~ k2 = Var (X d X ~ ). Var (Xj ) = tr Cov (X j=1 Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Równoważna definicja macierzy kowariancji Twierdzenie ~ k2 < +∞. Macierz kowariancji wektora X ~ jest Niech E kX jedyną symetryczną macierzą Σ wymiaru d × d wyznaczoną przez formę kwadratową ~ − EX ~ i2 = Var (hx, X ~ i) = hx, Σ xi, E hx, X x ∈ IR d . ~ ) jest więc jedyną macierzą Σ spełniającą związek Cov (X ~ −E X ~ ihy, X ~ − EX ~i E hx, X ~ i, hy, X ~ i) = hx, Σ yi, x, y ∈ IR d . = cov (hx, X Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Charakteryzacja macierzy kowariancji Twierdzenie ~ jest symetryczna Macierz kowariancji wektora losowego X i nieujemnie określona. Na odwrót, dla dowolnej symetrycznej i nieujemnie określonej macierzy Σ rozmiaru d × d istnieje ~ taki, że d-wymiarowy wektor losowy X ~ ) = Σ. Cov (X Dowód jest przełożony na następny wykład. Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne Macierz kowariancji i odwzorowania liniowe Twierdzenie ~ k2 < +∞ i A : IR d → IR m jest odwzorowaniem Jeżeli E kX ~ ) istnieje i mamy liniowym, to Cov (A X ~ ) = A Cov (X ~ ) AT . Cov (A X Prawdopodobieństwo i statystyka Wykład VIII: Wektory losowe i rozkłady łączne