Testowanie hipotez nieparametrycznych.

Transkrypt

Testowanie hipotez nieparametrycznych.
TESTY ZGODNOŚCI
Niech F(x) będzie nieznaną dystrybuantą cechy X.
Hipotezę statystyczną określającą nieznaną
postać funkcyjną dystrybuanty F(x) nazywa się
hipotezą nieparametryczną.
Test służący do weryfikacji takiej hipotezy nosi
nazwę testu zgodności lub testu
nieparametrycznego.
1
Schemat testowania nieparametrycznego
1. Wysuwamy hipotezę H0 wyznaczającą dystrybuantę F(x).
2. Pobieramy n elementową próbkę prostą.
3. Ustalamy poziom zgodności α.
4. Ustalamy statystykę U, będącą miarą rozbieżności (lub zgodności)
pomiędzy rozkładem empirycznym z próbki a dystrybuantą F(x).
5. Szukamy takiej wartości u0, aby P( U ≥ u 0 ) ≤ α .
6. Jeżeli:
u ≥ u0
to hipotezę odrzucamy,
u < u0
to nie ma podstaw do odrzucenia hipotezy.
2
Statystyka χ - Pearsona
2
Niech F(x) będzie dystrybuantą cechy X populacji generalnej.
Jak każda dystrybuanta jest ona określona na całej osi rzeczywistej.
Rozłóżmy oś x na r rozłącznych zbiorów S k = [a k , a k +1 ) :
US
k
=R .
k
Niech π k (k=1,2,...,r) będzie oznaczać prawdopodobieństwo tego, że cecha X
przybiera wartość należącą do S k :
π k = F (a k +1 ) − F (a k )
Wartości π k nazywamy częstościami teoretycznymi.
Zauważmy, że nπ k jest ilością teoretyczną (spodziewaną) obserwacji
należących do S k .
Załóżmy dalej, że mamy n obserwacji cechy X: x1 , x 2 ,..., x n . Obserwacje te
dzielimy na r grup zaliczając do k-tej grupy te wartości, które należą do S k .
Oznaczamy przez nk ilość obserwacji należących do S k . Jest to empiryczna
liczebność klasy S k .
3
Statystyką χ 2 - Pearsona nazywamy wyrażenie:
(n k − nπ k ) 2
χ =∑
k =1
nπ k
2
r
Twierdzenie. Niech częstości teoretyczne π k będą dane. Wówczas ciąg {Fn (z )}
statystyki χ 2 - Pearsona czyni zadość równości:
lim n → ∞
r −3
z
z
−
1

2
2
z e dz dla z > 0
∫
 r −1  1
0

Fn ( z ) =  2 2 Γ (r − 1) 
2


0
dla z ≤ 0
czyli jest zbieżny do dystrybuanty rozkładu χ 2 o r-1 stopniach swobody.
4
Przykład:
Z partii towaru wybieramy próbę prostą n=100 elementów. Sprawdzamy ich
jakość i znajdujemy n1=22 sztuki wadliwe. Na poziomie α=0,01 sprawdzić czy
wadliwość produkcji wynosi 20%.
Stawiamy hipotezę H0, że rozkład tej cechy jest dwumianowy z p=0,2.
5
„Rozkładamy” cały zbiór obserwacji na n1=22 sztuki wadliwe i n2 = n - n1 = 78
sztuki dobre. Mamy zatem dwie klasy (r = 2). Odpowiednie częstości
teoretyczne wynoszą: p = 0,2 oraz q = 1 – p = 0,8.
2
2
(
)
(
)
n
−
np
n
−
nq
22 22 1
2
1
2
χ =
+
=
+
=
20 80 4
np
nq
Z tablic rozkładu χ 2 o 1 stopniu swobody szukamy P( χ 2 ≥ χ α2 ) = 0,01 ,
⇒ χ α2 = 6,6 .
Wniosek: Nie ma podstaw do odrzucenia hipotezy.
6
Czasami do wyznaczenia wartości teoretycznych dystrybuanty
konieczna jest znajomość parametrów, które także są wyznaczane z tej
samej próby. Ma to oczywisty wpływ na jakość wnioskowania.
Tw. Fishera-Cramera.
Niech wszystkie prawdopodobieństwa teoretyczne π k (λ1 ,...λ m ) > 0 i niech
∂π k
∂ 2π k
istnieją ciągłe pochodne cząstkowe
,
(k=1,2,...,r; i,j=1,2,...,m),
∂λ i
∂λ i ∂λ j
przy czym macierz o wyrazach
∂π k
(k=1,2,...,r; i=1,2,...m) jest rzędu m.
∂λ i
Wówczas jeśli nieznane parametry λ1 , λ 2 ,..., λ m wyznaczane są metodą
największej wiarygodności to rozkład statystyki χ 2 - Pearsona zmierza do
rozkładu χ 2 o r – m – 1 stopniach swobody.
7
Przykład:
Badano wytrzymałość 300 kłębków przędzy bawełnianej. Przez X oznaczono
wytrzymałość wyrażoną w kilogramach. Wyniki zgromadzono w 13 grupach.
Stawiamy hipotezę, że wytrzymałość ta ma rozkład normalny # (m, σ ) .
Koniecznym będzie wyznaczenie obu parametrów (m i σ) z próby.
8
i
x
ni
i
x
ni
1
0,5 – 0,64
1
8
1,48 – 1,62
53
2
0,64 – 0,78
2
9
1,62 – 1,76
25
3
0,78 – 0,92
9
10
1,76 – 1,9
19
4
0,92 – 1,06
25
11
1,9 – 2,04
16
5
1,06 – 1,2
37
12
2,04 – 2,18
3
6
1,2 – 1,34
53
13
2,18 – 2,32
1
7
1,34 – 1,48
56
9
60
1 0,5 – 0,64
2 0,64 – 0,78
3 0,78 – 0,92
4 0,92 – 1,06
5 1,06 – 1,2
6 1,2 – 1,34
7 1,34 – 1,48
8 1,48 – 1,62
9 1,62 – 1,76
50
40
30
20
10
0
1
10 1,76 – 1,9
11 1,9 – 2,04
12 2,04 – 2,18
13 2,18 – 2,32
10
Ponieważ przedziały są dosyć wąskie (0,14), to za podstawę do obliczeń m i σ
m * = x,
weźmiemy środki przedziałów:
σ 2* = s 2
i
xi
ni
i
xi
ni
1
0,57
1
8
1,55
53
2
0,71
2
9
1,69
25
3
0,85
9
10
1,83
19
4
0,99
25
11
1,97
16
5
1,13
37
12
2,11
3
6
1,27
53
13
2,25
1
7
1,41
56
11
m*=1,41, σ*=0,26
Ponieważ grupy skrajne są zbyt mało liczne (stosuje się zasadę, aby w
przybliżeniu nπ i > 10 ), to łączymy je.
Obliczamy π k dla końców przedziałów w połowie odległości pomiędzy
xi
oraz
x i +1 i dla X ~ # (1,41;0,26) :
 X − 1,41

 X − 1,41

< 2,42  + P
≥ 2,42  = 0,
 0,26

 0,26

π 1 = P( X < 0,78) + P( X ≥ 2,04) = P
12
π 2 = 0,0223
π 3 = 0,0584
π 4 = 0,1205
π 5 = 0,1846
π 6 = 0,2128
π 7 = 0,1846
π 8 = 0,1205
π 9 = 0,0584
π 10 = 0,0223
10
( n j − nπ j ) 2
j =1
nπ j
χ2 =∑
= 22,07
Z próby wyznaczamy 2 parametry, zatem stopni swobody jest r – m – 1 =10 – 2
– 1 = 7.
Z tablic χ 2 otrzymujemy, że P ( χ 2 ≥ 22,07) < 0,01 .
Wniosek: hipotezę odrzucamy.
13
Przykład (Bortkiewicz).
Analizując dane dotyczące armii pruskiej obliczono ilość wojskowych w 10
korpusach kawalerii, którzy ponieśli śmierć w ciągu kolejnych 20 lat na skutek
kopnięcia przez konia.
Jako zdarzenie losowe X przyjęto to, że w jednym korpusie w ciągu roku ilość
zabitych przez konia wynosi r = 0, 1, 2, ...
Ilość obserwacji: 10 ⋅ 20 = 200 .
i
Liczebność
zaobserwowana - ni
0
109
1
65
2
22
3
3
4
1
14
Przypuszczamy, że prawdopodobieństwo wystąpienia danej ilości przypadków
regulowane jest przez rozkład Poissona. Obliczamy zatem średnią z próby:
λ* =
1
(0 ⋅ 109 + 1 ⋅ 65 + 2 ⋅ 22 + 3 ⋅ 3 + 4 ⋅ 1) = 0,61. Stąd z tablic:
200
Prawdopodobieństwo
pi
Liczebność oczekiwana
- np i
0,544
0,331
0,101
0,021
0,003
108,8
66,2
20,2
4,2
0,6
15
Dwie ostatnie grupy łączymy w jedną i obliczamy wartość χ 2 - Pearsona:
2
n
np
(
−
)
i
χ2 =∑ i
= 0,3160
i =1
np i
4
stopni swobody: r – m – 1 = 4 – 1 – 1 = 2
P (χ 2 ≥ 0,3160 ) >> 0,05
Wniosek: Nie ma podstaw do odrzucenia hipotezy.
16
Test Kołmogorowa (zwany też testem KołmogorowaSmirnowa)
Niech Dn = sup − ∞ < x < ∞ S n ( x) − F ( x )
Niech Q n (λ ) to dystrybuanta zmiennej losowej D n n :
λ

λ >0
)
 P ( Dn n < λ ) = P( Dn <
Q n (λ ) = 
n
0
λ≤0

Twierdzenie Kołmogorowa.
Niech S n (x) będzie dystrybuantą empiryczną w n-elementowej próbie prostej
wylosowanej z populacji, w której zmienna losowa X ma ciągłą dystrybuantę
F (x) . Teza:
lim n →∞
 ∞ (−1) k exp(−2k 2 λ 2 )
∑
Qn (λ ) = Q(λ ) = k = −∞
0
Rozkład ten jest stablicowany.
λ>0
λ≤0
17
Przykład:
Opracowano miesięczny rozkład przeciętnych temperatur w styczniu w
Warszawie w latach 1779-1947 (bez roku 1945). Ilość obserwacji n=168. Niech
X to przeciętna temperatura w styczniu w Warszawie. Obliczono
x = −4,22
s = 3,57 . Postawiono hipotezę, że cecha X ma rozkład
# (−4,22; 3,57) . Weryfikacji dokonano na poziomie α = 0,05.
Znaleziono: d n = s n (−5,4) − F (−5,4) = 0,086
P( D n ≥ 0,086) = P ( D n 168 ≥ 1,115) ≅ 0,1663
Wniosek: nie ma podstaw do odrzucenia hipotezy.
18
Korelacja
Korelacja (słowo pochodzenia łacińskiego
oznaczające wzajemny związek), pojęcie
matematyczne, oznaczające wzajemne
powiązanie, współwystępowanie jakichś zjawisk
lub obiektów.
W teorii prawdopodobieństwa i statystyce na ogół
rozumie się tutaj zależność liniową zmiennych
losowych i stosuje korelację Pearsona. Istnieją
inne rodzaje korelacji, np. korelacja rangowa
Spearmana, mierząca zależność monotoniczną,
niekoniecznie liniową.
19
Rozważmy dwie zmienne losowe X i Y. Weźmy pod
uwagę kowariancję tych zmiennych, czyli liczbę
E[(X - EX)(Y - EY)], gdzie EX oznacza wartość
średnią (nadzieję matematyczną, wartość
oczekiwaną) zmiennej X. Podzielmy teraz tę liczbę
przez iloczyn odchyleń standardowych obu
zmiennych. To, co otrzymamy, nosi nazwę
współczynnika korelacji i jest zawsze liczbą z
przedziału [-1, 1].
ρ(X ,Y ) =
E[( X − X )(Y − Y )
D 2 ( X ) D 2 (Y )
20
Współczynnik korelacji z próby:
n
∑ ( x − x )( y − y)
i
r( X ,Y ) =
i
i =1
n
n
∑ (x − x ) ∑ ( y − y)
2
i
i
i =1
2
i =1
21
Interpretacja współczynnika korelacji jest następująca.
1. Znak współczynnika korelacji świadczy o kierunku zależności, i tak
gdy:
a) r > 0 – występuje zależność stochastyczna dodatnia (wraz ze wzrostem wartości jednej zmiennej na ogół wzrastają również wartości drugiej
zmiennej),
b) r < 0 – występuje zależność stochastyczna ujemna (wraz ze wzrostem wartości jednej zmiennej na ogół zmniejszają się wartości drugiej
zmiennej).
2. Wartość modułu współczynnika korelacji świadczy o sile zależności,
i tak gdy:
a) r = 0 – obie zmienne są nieskorelowane (praktycznie oznacza to
brak liniowej zależności stochastycznej),
b) 0 < r < 1 – występuje zależność stochastyczna, a siła tej zależności
jest wprost proporcjonalna do modułu wartości współczynnika korelacji,
c) r = 1 – występuje zależność funkcyjna (liniowa).
22
Rys. 1. Korelacyjne wykresy rozrzutu; 1 - korelacja liniowa dodatnia, 2 korelacja liniowa ujemna, 3 - brak korelacji, 4 - korelacja krzywoliniowa
23
Tak wyliczony z próby współczynnik rXY jest estymatorem współczynnika korelacji r
w populacji generalnej, a jego wartość liczbowa stanowi ocenę punktową siły
powiązania w całej populacji. Stąd konieczność testowania istotności
współczynnika korelacji wyliczonego w oparciu o próbę losową. Najpowszechniej
stosowany test polega na sprawdzeniu, czy zmienne X i Y są w ogóle
skorelowane. Weryfikujemy więc następujący układ hipotez:
H0: ρ = 0
H1: ρ różne od 0
Test t-Studenta:
t=
r
1− r
n−2
2
24
Przykład:
20000
Ct
Yt
18000
16000
14000
12000
10000
8000
6000
1960
1965
1970
1975
1980
1985
Ct – osobista konsumpcja, Yt – dochód w dyspozycji per capita
1990
25
Wynik z programu GRETL
Współczynniki korelacji liniowej dla obserwacji z próby 1959-1994
5% wartość krytyczna (dwustronny obszar krytyczny) = 0,3291 dla n = 36
Ct
1,0000
Yt
0,9978
1,0000
Ct
Yt
26