Wykład 1 Zmienne losowe, statystyki próbkowe

Transkrypt

Wykład 1 Zmienne losowe, statystyki próbkowe
Wykład 1
Zmienne losowe, statystyki próbkowe - powtórzenie
materiału
Magdalena Frąszczak
Wrocław, 22.02.2017r
Zasady oceniania
Ćwiczenia
2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017
2 kartkówki niezapowiedziane (5 punktów każda)
aktywność
oceny
1
2
3
4
5
[25, 30)
[30, 35)
[35, 40)
[40, 45)
[45, 50)
-
dst
dst +
db
db +
bdb
Zasady oceniania
Egzamin
egzamin pisemny
egzamin poprawkowy w formie odpowiedzi ustnej
kryteria oceniania - jak w przypadku ćwiczeń
Ocena ostateczna
60% oceny z wykładu + 40% oceny z ćwiczeń
Program wykładu
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Zmienne losowe, statystyki próbkowe - powtórzenie materiału.
Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc
testu.
Testowanie hipotez statystycznych o wartości średniej oraz dla wariancji z
populacji o rozkładzie normalnym.
Problem dwóch prób: porównywanie średnich i wariancji z populacji o
rozkładach normalnych.
Problem dwóch prób - testowanie hipotez dla równości średnich
Testowanie hipotez statystycznych dla frakcji
Testowanie zgodności z rozkładem normalnym.
Testy zgodności (testy Kołmogorowa, χ2 zgodności)
Testy rangowe w problemie dwóch prób
Testy jednorodności rozkładów przy braku normalności rozkładów (test znaków,
test medianowy)
Testy jednorodności rozkładów przy braku normalności rozkładów (testy
Kołmogorowa-Smirnowa, χ2 jednorodności)
Testowanie hipotez dla współczynnika korelacji.
Porównanie k średnich (analiza wariancji).
Analiza wariancji; testy post-hoc.
Porównywanie testów. Teoria Neymana–Pearsona.
Literatura
Bartoszewicz J., Wykłady ze statystyki matematycznej, PWN,
Warszawa 1989
Gajek L., Kałuszka M., Wnioskowanie statystyczne, WNT,
Warszawa 2000, wyd. IV.
Koronacki, J. Mielniczuk J., Statytyka dla studentów
kierunków technicznych i przyrodniczych, WNT, Warszawa,
2004
Krzyśko M., Statystyka matematyczna, Wyd. UAM, Poznan,
1996.
Lehmann E.L.,Testowanie hipotez statystycznych, PWN,
Warszawa 1968.
Wykład 1
Zmienne losowe, statystyki próbkowe - powtórzenie
materiału
Zmienna losowa
Zmienna losowa to taka funkcja X określona na zbiorze zdarzeń
elementarnych o wartościach liczbowych, dla której dane są
prawdopodobieństwa przyjmowania przez X wartości z dowolnego
zbioru.
Zmienne losowe dzielimy na:
dyskretne (typu skokowego) - zmienna przyjmuje dowolne
wartości ze zbioru skończonego albo przeliczalnego
typu ciągłego - zmienna przyjmuje dowolne wartości z
określonego przedziału
Zmienne losowe oznaczamy dużymi literami, np.: X , Y , Z ,
natomiast małymi literami (x, y , z) oznaczamy wartości
zmiennych losowych.
Rozkład zmiennej losowej
Definicja: Rozkład zmiennej losowej
Dystrybuantą rozkładu zmiennej losowej X nazywamy funkcję
FX (t) zdefiniowaną dla wszystkich t jako
FX (t) = P(ω : X (ω) ¬ t)
Własności dystrybuanty
FX jest niemalejąca
limt→∞ FX (t) = 1
limt→−∞ FX (t) = 0
FX jest prawostronnie ciągła
Rozkład zmiennej losowej
Warto zauważyć, że dla ciągłej zmiennej losowej i dowolnych liczb
a, b ∈ R
P(X ¬ a) = FX (a)
P(X ­ a) = 1 − FX (a)
P(a ¬ X ¬ b) = FX (b) − FX (a)
Gęstość zmiennej losowej
Definicja:
Funkcją gęstości rozkładu dyskretnej zmiennej losowej X
nazywamy funkcję fX (t) zdefiniowaną dla wszystkich t jako
fX (t) = P(ω : X (ω) = t)
Definicja:
Funkcją gęstości rozkładu ciągłej zmiennej losowej X nazywamy
funkcję fX (t) zdefiniowaną dla wszystkich t jako
Z t
FX (t) =
−∞
fX (s)ds
Własności gęstości zmiennej losowej
Uwaga!
d
FX (t) = fX (t)
dt
Każda funkcja, będąca gęstością prawdopodobieństwa,
wyznacza jednoznacznie pewną dystrybuantę, a tym samym
rozkład prawdopodobieństwa pewnej zmiennej.
Twierdzenie
Funkcja f (x) jest gęstością pewnej zmiennej losowej wtedy i tylko
wtedy, gdy
1
f (x) ­ 0
2
R∞
−∞ f (t)dt
=1
Próba losowa
Definicja:
Wektor zmiennych losowych X = (X1 , X2 , . . . Xn )0 nazywamy próbą
losową rozmiaru n z rozkładu o gęstości fX (x) jeśli X1 , X2 , . . . , Xn
są niezależnymi zmiennymi losowymi o wspólnym rozkładzie z
gęstością f (x)
Niech X1 , X2 , . . . , Xn będą niezależnymi zmiennymi losowymi o
gęstościach f (x1 ), f (x2 ), . . . , f (xn ) odpowiednio. Gęstość łączna
wektora losowego X wygląda następująco:
f (x) = f (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) · · · f (xn ) =
n
Y
f (xi ),
i=1
natomiast dystrybuanta łączna:
F (x) = F (x1 , x2 , . . . , xn ) = F (x1 )F (x2 ) · · · F (xn ) =
n
Y
i=1
F (xi )
Statystyki próbkowe
Niech X = (X1 , X2 , . . . Xn )0 będzie n elementową próbą losową.
Definicja:
Średnią z próby nazywamy statystykę:
n
1X
X̄ =
Xi
n i=1
Definicja:
Wariancją z próby nazywamy statystykę:
S2 =
n
1 X
(Xi − X̄ )2
n − 1 i=1
Rozkłady statystyk próbkowych
Jeżeli X = (X1 , X2 , . . . Xn )0 jest próbą losową z rozkładu
normalnego, tj Xi ∼ N(µ, σ 2 ) to:
X̄ =
n
1X
Xi ∼ N(µ, σ 2 /n)
n i=1
nS 2
∼ χ2 (n − 1)
σ2
Zmienne X̄ i S 2 są niezależnymi zmiennymi losowymi
Rozkłady statystyk próbkowych
Twierdzenie
Niech X1 , X2 , . . . Xn będzie n elementową próbą losową, o średniej
EXi = µ, i wariancji VarXi = σ 2 < ∞ Wówczas:
1
E X̄ = µ
2
Var X̄ =
3
ES 2 =
4
VarS 2 =
σ2
n
σ2
2
4
n−1 σ
Statystyki pozycyjne
Niech X = (X1 , X2 , . . . , Xn )0 - próbą losową o wartościach
x = (x1 , x2 , . . . , xn )0 .
Uporządkowując wartości wektora w kolejności rosnącej
otrzymujemy:
x1:n ¬ x2:n ¬ · · · ¬ xn:n .
Wektor statystyk pozycyjnych:
(X1:n , X2:n , . . . , Xn:n )0
Statystyki pozycyjne
Statystyki ekstremalne
Maksimum z próby:
X(n:n) = max(X1 , X2 , . . . Xn )
Minimum z próby:
X(1:n) = min(X1 , X2 , . . . Xn )
Statystyki pozycyjne
Twierdzenie
Niech X = (X1 , X2 , . . . , Xn )0 - próbą losową z rozkładu o
dystrybuancie F . Statystyka pozycyjna Xi:n ma rozkład o
dystrybuancie:
n!
Fi:n (t) =
(i − 1)!(n − i)!
Z F (x)
0
t i−1 (1 − t)n−i dt
Statystki dostateczne
Definicja
Statystyka T nazywa się statystyką dostateczną dla θ (statystyką
dostateczną dla P), jeżeli dla każdej wartości t tej statystyki
rozkład warunkowy P(·|T = t) nie zależy od θ.
Twierdzenie (kryterium faktoryzacji)
Statystyka T jest dostateczna wtedy i tylko wtedy, gdy gęstość
rozkładu prawdopodobieństwa próby X1 , X2 , . . . , Xn można
przedstawić w postaci
fθ (x1 , x2 , · · · , xn ) = gθ (T (x1 , x2 , . . . , xn ))h(x1 , x2 , · · · , xn ),
gdzie funkcja h nie zależy od θ, a funkcja gθ , zależna od θ, zależy
od x1 , x2 , · · · , xn tylko poprzez wartość statystyki T.