Wykład 1 Zmienne losowe, statystyki próbkowe
Transkrypt
Wykład 1 Zmienne losowe, statystyki próbkowe
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki niezapowiedziane (5 punktów każda) aktywność oceny 1 2 3 4 5 [25, 30) [30, 35) [35, 40) [40, 45) [45, 50) - dst dst + db db + bdb Zasady oceniania Egzamin egzamin pisemny egzamin poprawkowy w formie odpowiedzi ustnej kryteria oceniania - jak w przypadku ćwiczeń Ocena ostateczna 60% oceny z wykładu + 40% oceny z ćwiczeń Program wykładu 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Zmienne losowe, statystyki próbkowe - powtórzenie materiału. Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu. Testowanie hipotez statystycznych o wartości średniej oraz dla wariancji z populacji o rozkładzie normalnym. Problem dwóch prób: porównywanie średnich i wariancji z populacji o rozkładach normalnych. Problem dwóch prób - testowanie hipotez dla równości średnich Testowanie hipotez statystycznych dla frakcji Testowanie zgodności z rozkładem normalnym. Testy zgodności (testy Kołmogorowa, χ2 zgodności) Testy rangowe w problemie dwóch prób Testy jednorodności rozkładów przy braku normalności rozkładów (test znaków, test medianowy) Testy jednorodności rozkładów przy braku normalności rozkładów (testy Kołmogorowa-Smirnowa, χ2 jednorodności) Testowanie hipotez dla współczynnika korelacji. Porównanie k średnich (analiza wariancji). Analiza wariancji; testy post-hoc. Porównywanie testów. Teoria Neymana–Pearsona. Literatura Bartoszewicz J., Wykłady ze statystyki matematycznej, PWN, Warszawa 1989 Gajek L., Kałuszka M., Wnioskowanie statystyczne, WNT, Warszawa 2000, wyd. IV. Koronacki, J. Mielniczuk J., Statytyka dla studentów kierunków technicznych i przyrodniczych, WNT, Warszawa, 2004 Krzyśko M., Statystyka matematyczna, Wyd. UAM, Poznan, 1996. Lehmann E.L.,Testowanie hipotez statystycznych, PWN, Warszawa 1968. Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Zmienna losowa Zmienna losowa to taka funkcja X określona na zbiorze zdarzeń elementarnych o wartościach liczbowych, dla której dane są prawdopodobieństwa przyjmowania przez X wartości z dowolnego zbioru. Zmienne losowe dzielimy na: dyskretne (typu skokowego) - zmienna przyjmuje dowolne wartości ze zbioru skończonego albo przeliczalnego typu ciągłego - zmienna przyjmuje dowolne wartości z określonego przedziału Zmienne losowe oznaczamy dużymi literami, np.: X , Y , Z , natomiast małymi literami (x, y , z) oznaczamy wartości zmiennych losowych. Rozkład zmiennej losowej Definicja: Rozkład zmiennej losowej Dystrybuantą rozkładu zmiennej losowej X nazywamy funkcję FX (t) zdefiniowaną dla wszystkich t jako FX (t) = P(ω : X (ω) ¬ t) Własności dystrybuanty FX jest niemalejąca limt→∞ FX (t) = 1 limt→−∞ FX (t) = 0 FX jest prawostronnie ciągła Rozkład zmiennej losowej Warto zauważyć, że dla ciągłej zmiennej losowej i dowolnych liczb a, b ∈ R P(X ¬ a) = FX (a) P(X a) = 1 − FX (a) P(a ¬ X ¬ b) = FX (b) − FX (a) Gęstość zmiennej losowej Definicja: Funkcją gęstości rozkładu dyskretnej zmiennej losowej X nazywamy funkcję fX (t) zdefiniowaną dla wszystkich t jako fX (t) = P(ω : X (ω) = t) Definicja: Funkcją gęstości rozkładu ciągłej zmiennej losowej X nazywamy funkcję fX (t) zdefiniowaną dla wszystkich t jako Z t FX (t) = −∞ fX (s)ds Własności gęstości zmiennej losowej Uwaga! d FX (t) = fX (t) dt Każda funkcja, będąca gęstością prawdopodobieństwa, wyznacza jednoznacznie pewną dystrybuantę, a tym samym rozkład prawdopodobieństwa pewnej zmiennej. Twierdzenie Funkcja f (x) jest gęstością pewnej zmiennej losowej wtedy i tylko wtedy, gdy 1 f (x) 0 2 R∞ −∞ f (t)dt =1 Próba losowa Definicja: Wektor zmiennych losowych X = (X1 , X2 , . . . Xn )0 nazywamy próbą losową rozmiaru n z rozkładu o gęstości fX (x) jeśli X1 , X2 , . . . , Xn są niezależnymi zmiennymi losowymi o wspólnym rozkładzie z gęstością f (x) Niech X1 , X2 , . . . , Xn będą niezależnymi zmiennymi losowymi o gęstościach f (x1 ), f (x2 ), . . . , f (xn ) odpowiednio. Gęstość łączna wektora losowego X wygląda następująco: f (x) = f (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) · · · f (xn ) = n Y f (xi ), i=1 natomiast dystrybuanta łączna: F (x) = F (x1 , x2 , . . . , xn ) = F (x1 )F (x2 ) · · · F (xn ) = n Y i=1 F (xi ) Statystyki próbkowe Niech X = (X1 , X2 , . . . Xn )0 będzie n elementową próbą losową. Definicja: Średnią z próby nazywamy statystykę: n 1X X̄ = Xi n i=1 Definicja: Wariancją z próby nazywamy statystykę: S2 = n 1 X (Xi − X̄ )2 n − 1 i=1 Rozkłady statystyk próbkowych Jeżeli X = (X1 , X2 , . . . Xn )0 jest próbą losową z rozkładu normalnego, tj Xi ∼ N(µ, σ 2 ) to: X̄ = n 1X Xi ∼ N(µ, σ 2 /n) n i=1 nS 2 ∼ χ2 (n − 1) σ2 Zmienne X̄ i S 2 są niezależnymi zmiennymi losowymi Rozkłady statystyk próbkowych Twierdzenie Niech X1 , X2 , . . . Xn będzie n elementową próbą losową, o średniej EXi = µ, i wariancji VarXi = σ 2 < ∞ Wówczas: 1 E X̄ = µ 2 Var X̄ = 3 ES 2 = 4 VarS 2 = σ2 n σ2 2 4 n−1 σ Statystyki pozycyjne Niech X = (X1 , X2 , . . . , Xn )0 - próbą losową o wartościach x = (x1 , x2 , . . . , xn )0 . Uporządkowując wartości wektora w kolejności rosnącej otrzymujemy: x1:n ¬ x2:n ¬ · · · ¬ xn:n . Wektor statystyk pozycyjnych: (X1:n , X2:n , . . . , Xn:n )0 Statystyki pozycyjne Statystyki ekstremalne Maksimum z próby: X(n:n) = max(X1 , X2 , . . . Xn ) Minimum z próby: X(1:n) = min(X1 , X2 , . . . Xn ) Statystyki pozycyjne Twierdzenie Niech X = (X1 , X2 , . . . , Xn )0 - próbą losową z rozkładu o dystrybuancie F . Statystyka pozycyjna Xi:n ma rozkład o dystrybuancie: n! Fi:n (t) = (i − 1)!(n − i)! Z F (x) 0 t i−1 (1 − t)n−i dt Statystki dostateczne Definicja Statystyka T nazywa się statystyką dostateczną dla θ (statystyką dostateczną dla P), jeżeli dla każdej wartości t tej statystyki rozkład warunkowy P(·|T = t) nie zależy od θ. Twierdzenie (kryterium faktoryzacji) Statystyka T jest dostateczna wtedy i tylko wtedy, gdy gęstość rozkładu prawdopodobieństwa próby X1 , X2 , . . . , Xn można przedstawić w postaci fθ (x1 , x2 , · · · , xn ) = gθ (T (x1 , x2 , . . . , xn ))h(x1 , x2 , · · · , xn ), gdzie funkcja h nie zależy od θ, a funkcja gθ , zależna od θ, zależy od x1 , x2 , · · · , xn tylko poprzez wartość statystyki T.