Test t-Studenta dla jednej średniej

Transkrypt

Test t-Studenta dla jednej średniej
Test t-Studenta dla jednej średniej
Hipoteza zerowa: Średnia wartość zmiennej w populacji jest równa określonej wartości a0 (a = a0 ).
Hipoteza alternatywna 1.: Średnia wartość zmiennej w populacji jest różna od określonej wartości a0 (a 6= a0 ).
Hipoteza alternatywna 2.: Średnia wartość zmiennej w populacji jest
mniejsza od określonej wartości a0 (a < a0 ).
Hipoteza alternatywna 3.: Średnia wartość zmiennej w populacji jest
większa od określonej wartości a0 (a > a0 ).
Założenia: Zmienna ma rozkład normalny o nieznanej wariancji σ 2 .
Statystyka testowa:
√ x̄ − a0
Tn = n
s
ma rozkład t-Studenta z n − 1 stopniami swobody (dla dużych n (n ­ 30)
rozkład ten jest zbliżony do standardowego rozkładu normalnego).
n−1
Obszar krytyczny 1.: K = (−∞, −tn−1
1−α/2 ) ∪ (t1−α/2 , +∞)
n−1
Obszar krytyczny 2.: K = (−∞, −t1−α
)
n−1
Obszar krytyczny 3.: K = (t1−α , +∞)
gdzie tn−1
1−α jest kwantylem rzędu 1 − α rozkładu t-Studenta z n − 1 stopniami
swobody.
p-wartość 1.: α̃ = 2 (1 − F n−1 (|Tn |))
p-wartość 2. i 3.: α̃ = 1 − F n−1 (|Tn |)
gdzie F n−1 jest dystrybuantą rozkładu t-Studenta z n−1 stopniami swobody.
Uwagi:
• Ponieważ przy n → ∞, niezależnie od wyjściowego rozkładu badanej
zmiennej, statystyka Tn ma standardowy rozkład normalny i jest to
rozkład graniczny rozkładu t-Studenta, to test t-Studenta może być
stosowany dla zmiennych o dowolnym rozkładzie (dla którego istnieje
wariancja), jeśli tylko próba jest dość liczna (n ­ 30 i rozkład jest
w przybliżeniu jednomodalny i symetryczny lub n ­ 40, gdy rozkład
jest wyraźnie skośny [3], choć czasami podawany jest warunek n ­ 25
[7]). W próbie nie powinny występować wartości odstające.
• W przypadku rozkładu dwupunktowego, tj. zmiennej losowej X, która
przyjmuje wartości 1 i 0 z prawdopodobieństwami odpowiednio p i 1−p,
wartość średnia wynosi
EX = 1 · p + 0 · (1 − p) = p,
jest więc równa prawdopodobieństwu wystąpienia 1. Oznacza to, że testem t-Studenta można testować hipotezę dotyczącą odsetka elementów
1
populacji posiadających pewną własność. Zaleca się stosować ten test,
jeśli np̂ ­ 5 i n(1 − p̂) ­ 5 (gdzie p̂ oznacza prawdopodobieństwo obserwowane), czyli liczba elementów, które mają pewną własność i liczba
tych, które jej nie mają, wynoszą co najmniej 5. [3]
Test t-Studenta dla dwóch średnich i prób niezależnych
Hipoteza zerowa: Średnie wartości zmiennej są takie same w dwóch różnych
populacjach (a1 = a2 ).
Hipoteza alternatywna 1.: Średnie wartości zmiennej są różne w badanych
populacjach (a1 6= a2 ).
Hipoteza alternatywna 2.: Średnia wartość zmiennej w pierwszej populacji jest mniejsza od średniej wartości zmiennej w drugiej populacji (a1 < a2 ).
Hipoteza alternatywna 3.: Średnia wartość zmiennej w pierwszej populacji jest większa od średniej wartości zmiennej w drugiej populacji (a1 > a2 ).
Założenia: Zmienna ma w obu populacjach rozkład normalny o nieznanych
wariancjach.
a) Zmienna ma w obu populacjach rozkład normalny o nieznanych, ale równych wariancjach.
Statystyka testowa:
Tn = s
x¯1 − x¯2
(n1 − 1)s21 + (n2 − 1)s22 n1 + n2
·
n1 + n2 − 2
n1 n2
ma rozkład t-Studenta z n1 + n2 − 2 stopniami swobody.
n1 +n2 −2
n1 +n2 −2
) ∪ (t1−α/2
, +∞)
Obszar krytyczny 1.: K = (−∞, −t1−α/2
n1 +n2 −2
Obszar krytyczny 2.: K = (−∞, −t1−α
)
1 +n2 −2
Obszar krytyczny 3.: K = (tn1−α
, +∞)
1 +n2 −2
gdzie tn1−α
oznacza kwantyl rzędu 1 − α z rozkładu t-Studenta
z n1 + n2 − 2 stopniami swobody.
p-wartość 1.: α̃ = 2 (1 − F n1 +n2 −2 (|Tn |))
p-wartość 2. i 3.: α̃ = 1 − F n1 +n2 −2 (|Tn |)
gdzie F n1 +n2 −2 jest dystrybuantą rozkładu t-Studenta z n1 + n2 − 2 stopniami swobody.
2
b) Zmienna ma w obu populacjach rozkład normalny o nieznanych i różnych
wariancjach.
Statystyka testowa:
x¯1 − x¯2
Cn = s 2
s1
s2
+ 2
n1 n2
(statystyka Cochrana i Coxa).
1 ,n2
1 ,n2
Obszar krytyczny 1.: K = (−∞, −cn1−α/2
) ∪ (cn1−α/2
, +∞)
1 ,n2
Obszar krytyczny 2.: K = (−∞, −cn1−α
)
1 ,n2
Obszar krytyczny 3.: K = (cn1−α
, +∞)
gdzie
!
1 ,n2
cn1−α
≈
s21 n1 −1 s22 n2 −1
t
+ t1−α :
n1 1−α
n2
!
s21
s2
+ 2 .
n1 n2
Uwagi:
• Test t-Studenta dla dwóch średnich i prób niezależnych może być również używany w przypadku zmiennej, która nie posiada w badanych
populacjach rozkładu normalnego. Wymagana jest wówczas duża liczebność obu prób (co najmniej po 30 obserwacji), symetria i brak
obserwacji odstających.
• W idealnych warunkach obiekty powinny być losowo przypisane do dwóch
grup, tak aby każda różnica ich reakcji była wynikiem oddziaływania (lub
braku oddziaływania) tylko jednego czynnika. Nie jest tak w przypadku
porównywania średniego dochodu mężczyzn i kobiet. Płeć badanych nie
jest przypisywana losowo. W takich przypadkach należy zadbać o to,
żeby różnice innych czynników nie pomniejszały, ani nie powiększały,
znaczącej różnicy średnich. Na różnice średniego dochodu mogą mieć
także wpływ takie czynniki jak wykształcenie (a nie tylko płeć). [Pomoc
IBM SPSS Statistics]
Test t-Studenta dla dwóch średnich i prób zależnych
Hipoteza zerowa: Dwie zmienne zależne mają jednakowe średnie (inaczej:
różnica D = X − Y odpowiadających sobie wartości zmiennych ma średnią
równą 0).
Hipoteza alternatywna 1.: Zmienne zależne mają różne średnie (inaczej:
różnica D = X − Y odpowiadających sobie wartości zmiennych ma średnią
różną od 0).
3
Hipoteza alternatywna 2.: Pierwsza ze zmiennych ma średnią mniejszą
niż druga (inaczej: różnica D = X − Y odpowiadających sobie wartości
zmiennych ma średnią ujemną).
Hipoteza alternatywna 3.: Pierwsza ze zmiennych ma średnią większą
niż druga (inaczej: różnica D = X − Y odpowiadających sobie wartości
zmiennych ma średnią dodatnią).
Statystyka testowa:
d¯ √
n
Tn =
sd
ma rozkład t-Studenta z n − 1 stopniami swobody.
n−1
n−1
Obszar krytyczny 1.: K = (−∞, −t1−α/2
) ∪ (t1−α/2
, +∞)
n−1
Obszar krytyczny 2.: K = (−∞, −t1−α )
Obszar krytyczny 3.: K = (tn−1
1−α , +∞)
n−1
gdzie t1−α jest kwantylem rzędu 1 − α rozkładu t-Studenta z n − 1 stopniami
swobody.
p-wartość 1.: α̃ = 2 (1 − F n−1 (|Tn |))
p-wartość 2. i 3.: α̃ = 1 − F n−1 (|Tn |)
gdzie F n−1 jest dystrybuantą rozkładu t-Studenta z n−1 stopniami swobody.
Uwagi: Ponieważ test ten jest w praktyce testem t-Studenta dla jednej średniej (dla zmiennej D = X − Y ), to należy sprawdzić, czy różnica zmiennych
spełnia wymagania testu dla jednej średniej, tj. ma rozkład normalny lub
ma rozkład odbiegający od normalnego (ale bez wartości odstających), ale
liczebność próby jest odpowiednio duża.
Test chi-kwadrat zgodności
Założenia: Zmienna ma rozkład dyskretny, przyjmuje tylko wartości l1 , . . . , lk
z prawdopodobieństwami odpowiednio p1 , . . . , pk , które nie są znane.
Hipoteza zerowa: Zmienna ma rozkład dyskretny z określonymi prawdopodobieństwami p01 , . . . , p0k .
Hipoteza alternatywna: Zmienna ma rozkład z innymi prawdopodobieństwami niż zadane.
Statystyka testowa:
χ2 =
k
X
k
(ni − np0i )2
(ni − n0i )2 X
=
,
n0i
np0i
i=1
i=1
gdzie ni oznaczają liczebności obserwowane, n0i – oczekiwane, ma w przybliżeniu
rozkład chi-kwadrat z k − 1 stopniami swobody.
Obszar krytyczny: K = (uk−1
1−α , +∞),
4
gdzie uk−1
1−α oznacza kwantyl rzędu 1−α rozkładu chi-kwadrat z k−1 stopniami
swobody.
2
p-wartość: α̃ = 1 − Fχk−1
2 (χ ),
gdzie Fχk−1
jest dystrybuantą rozkładu chi-kwadrat z k − 1 stopniami swobo2
dy.
Uwagi:
• Jeżeli rozkład teoretyczny zależy od d nieznanych parametrów, to parametry te wyznaczamy metodą największej wiarogodności, a liczbę
stopni swobody zmniejszamy o d.
• Statystyka χ2 ma tylko w przybliżeniu (asymptotycznie) rozkład chikwadrat. Przybliżenie rozkładem chi-kwadrat uznajemy za dopuszczalne, gdy np0i ­ 5, i = 1, . . . , k, a za dobre, gdy np0i ­ 10, i = 1, . . . , k.
Jeśli liczba kategorii jest duża (> 6), to zgadzamy się stosować przybliżenie rozkładem chi-kwadrat także wtedy, gdy dla jednej lub dwóch
kategorii 1 ¬ np0i < 5 [3]. Mało liczne kategorie można również łączyć
z kategoriami sąsiednimi, redukując wówczas odpowiednio liczbę stopni
swobody.
• W przypadku zmiennej o rozkładzie z ciągłą dystrybuantą dane grupujemy w k (10k ¬ n) klas. Prawdopodobieństwa teoretyczne wyliczamy
z dystrybuanty. Klasy staramy się dobrać tak, aby prawdopodobieństwa
znalezienia się w klasie były równe 1/k, a liczebności teoretyczne były
co najmniej równe 5. Testujemy wówczas hipotezę zerową: Zmienna ma
rozkład o podanej dystrybuancie.
Łatwo zauważyć, że testowanie zgodności z zadanym rozkładem ciągłym
za pomocą testu chi-kwadrat jest przedsięwzięciem kontrowersyjnym,
ponieważ punktem wyjścia do konstrukcji testu jest świadoma utrata
informacji związana z koniecznością dokonania dyskretyzacji. Dlatego,
gdy mamy do czynienia z rozkładem ciągłym, powinniśmy unikać stosowania tego testu [...] Dopiero, gdy próba losowa jest bardzo liczna i histogram sporządzony na jej podstawie przypomina gładki rozkład ciągły,
zastosowanie testu chi-kwadrat przestaje być ryzykowne. Inna sprawa,
że test ten może być jedynym dającym się zastosować w danej konkretnej sytuacji. Tak jest np. wtedy, gdy dane, którymi dysponujemy,
pochodzą wprawdzie z rozkładu ciągłego, ale są już zdyskretyzowane. [3,
str. 372]
• Jeśli założenia testu nie są spełnione, można wykonać tzw. test dokładny, który nie korzysta z rozkładu granicznego statystyki testowej tylko
z jej właściwego rozkładu.
5
Test chi-kwadrat niezależności
Hipoteza zerowa: Zmienne losowe X i Y są niezależne.
Hipoteza alternatywna: X i Y są zależne.
Założenia: Cechy X, Y są jakościowe (nominalne lub o wartościach uporządkowanych).
Statystyka testowa:
(nij − n0ij )2
,
χ =
n0ij
j=1 i=1
2
k X
r
X
gdzie
r — liczba kategorii zmiennej X (liczba wierszy w tablicy kontyngencji),
k — liczba kategorii zmiennej Y (liczba kolumn w tablicy kontyngencji),
nij — liczba wystąpień w próbie par obserwacji (xi , yj ),
k
P
n0ij
=
n=
nij ·
j=1
r
P
i=1
n
k
r X
X
nij
,
nij .
i=1 j=1
Dla zmiennych X i Y przyjmujących tylko po 2 wartości stosuje się statystykę
(|nij − n0ij | − 1/2)2
χ =
,
n0ij
j=1 i=1
2
r
k X
X
co zawiera tzw. poprawkę Yatesa na ciągłość poprawiającą jakość przybliżenia. [6]
(r−1)(k−1)
Obszar krytyczny: K = (u1−α
, +∞),
(r−1)(k−1)
gdzie u1−α
jest kwantylem rzędu 1 − α rozkładu chi-kwadrat
z (r − 1)(k − 1) stopniami swobody.
(r−1)(k−1)
p-wartość: α̃ = 1 − Fχ2
(χ2 ),
(r−1)(k−1)
gdzie Fχ2
jest dystrybuantą rozkładu chi-kwadrat z (r − 1)(k − 1)
stopniami swobody.
Uwagi:
• Podobnie jak w teście chi-kwadrat zgodności, przybliżenie statystyki
testowej rozkładem chi-kwadrat stosujemy, gdy liczebności teoretyczne
prób w wierszach (kolumnach) są stosunkowo duże (n0ij ­ 5).
6
• Gdy tablica kontyngencji ma rozmiar 2 × 2 i liczebności próby w wierszach (kolumnach) są zbyt małe, można oprzeć się na tzw. dokładnym
teście Fishera.
• W przypadku pary cech o uporządkowanych kategoriach test niezależności może okazać się zwodniczy. Może wówczas zajść potrzeba wprowadzenia odpowiedniej miary zależności między cechami.
– Miara gamma – miara zależności monotonicznej, dodatniej, gdy
γ > 0 i ujemnej, gdy γ < 0. Zasadniczo γ ∈ [−1, 1]. p-wartość podawana przy tym współczynniku dotyczy testu hipotezy zerowej
o niezależności zmiennych przy hipotezie alternatywnej orzekającej ich dodatnią (lub ujemną) zależność.
– d Sommersa i τ −b Kendalla – używane, gdy liczba par związanych
jest duża.
Test Kołmogorowa
Hipoteza zerowa: Zmienna ma rozkład o zadanej dystrybuancie F .
Hipoteza alternatywna: Zmienna ma rozkład o innej niż zadana dystrybuancie.
+
Statystyka testowa: Dn = max{D
, Dn− }
n
i
i − 1 gdzie Dn+ = max1¬i¬n − F (x(i) ), Dn− = max1¬i¬n F (x(i) ) −
n
n Obszar krytyczny: (dn (1 − α), 1]
odczytujemy z tablic kwantyli statystyki Kołmogorowa, jest to taka wartość,
dla której P (Dn ­ dn (1 − α)) = α).
Uwagi:
• W przypadku danych zgrupowanych w klasy bierzemy pod uwagę prawy koniec każdej z klas i zamiast podanych statystyk wyznaczamy wartość maksymalną statystyki |Fn (xi )−F (xi )|, gdzie Fn jest dystrybuantą
empiryczną.
√
• Dla dużych prób (n > 100) używa się statystyki nDn , a obszar krytyczny wyznacza, używając kwantyli granicznego rozkładu Kołmogorowa.
• W przypadku testowania zgodności z rozkładem normalnym zaleca się
stosowanie testu Kołmogorowa z poziomem istotności Lillieforsa oraz
testu Shapiro-Wilka (najbardziej polecany dla prób o liczebności nieprzekraczającej 2000).
7
Test Wilcoxona znakowanych rang
Założenia: Dysponujemy ciągiem par obserwacji: (X1 , Y1 ), . . . , (Xn , Yn ). Pary zmiennych losowych są niezależne, natomiast Xi , Yi mogą być zależne. Definiujemy niezależne różnice Zi = Yi − Xi , i = 1 . . . , n. Każda zmienna Zi ,
i = 1, . . . , n pochodzi z tego samego rozkładu ciągłego o dystrybuancie Fi ,
symetrycznego względem wspólnej mediany θ (może być ona interpretowana
jako „efekt kuracji”).
Hipoteza zerowa: θ = 0 (brak „efektu kuracji”)
Hipoteza alternatywna 1.: θ 6= 0 (jest jakiś „efekt kuracji”).
Hipoteza alternatywna 2.: θ > 0 („efekt kuracji” jest dodatni).
Hipoteza alternatywna 3.: θ < 0 („efekt kuracji” jest ujemny).
Statystyka testowa: Jest to statystyka znakowanych rang Wilcoxona, czyli
suma rang wartości bezwzględnych różnic odpowiadających różnicom dodatnim:
X
T+ =
r(|Zi |),
Zi >0
gdzie
r(|Zi |) — ranga |Zi |, i = 1, . . . , n, (r(Xi ) = j ∈ {1, . . .#, n} ⇐⇒ Xi = Xj:n ).
h
n(n + 1)
− w1−α/2 ∪ w1−α/2 , ∞ ,
Obszar krytyczny 1.: K = −∞,
2
Obszar krytyczny 2.: K = [w1−α , +∞)
#
n(n + 1)
− w1−α
Obszar krytyczny 3.: K = −∞,
2
gdzie wa jest kwantylem rozkładu statystyki znakowanych rang Wilcoxona
(przy założeniu prawdziwości hipotezy zerowej) rzędu a (w tablicach).
Uwagi:
• Test znakowanych rang Wilcoxona jest nieparametryczną alternatywą
dla testu t-Studenta w przypadku dwóch próbek dających się połączyć
w pary. Różnica między tymi testami jest taka, że test t-Studenta testuje równość średnich arytmetycznych, a test Wilcoxona testuje mediany.
Test Wilcoxona nie wymaga założeń dotyczących rozkładu próby, może
być więc używany, gdy założenia testu t-Studenta nie są spełnione.
• Test dla jednej próby jest odpowiednikiem testu dla dwóch prób, w którym drugą z prób zastąpiono stałą równą wartości testowanej mediany.
• Jeżeli n jest duże (w praktyce dla n ­ 25), stosuje się tzw. test asymptotyczny, tj. używa się statystyki testowej postaci
∗
T =q
T+ −
n(n+1)
4
n(n + 1)(2n + 1)/24
8
,
i obszarów krytycznych
i
h
Obszar krytyczny 1.: K = −∞, −z1−α/2 ∪ z1−α/2 , ∞
Obszar krytyczny 2.: K = [z1−α , +∞)
Obszar krytyczny 3.: K = (−∞, −z1−α ]
gdzie z1−α jest kwantylem rzędu 1−α standardowego rozkładu normalnego.
• W praktyce (w wyniku zaokrąglania) mogą pojawić się tzw. węzły, czyli
grupy obserwacji o jednakowej wartości bezwzględnej. Postępowanie
w przypadku, gdy
1. n < 25
- odrzucamy wszystkie Zi takie, że Zi = 0 i odpowiednio zmniejszamy n,
- uśredniamy rangi dla pozostałych węzłów (mogą być one niecałkowite),
- stosujemy test dokładny ze zmodyfikowanymi rangami;
2. n ­ 25
- odrzucamy wszystkie Zi takie, że Zi = 0 i odpowiednio zmniejszamy n,
- uśredniamy rangi dla pozostałych węzłów (mogą być one niecałkowite),
- stosujemy test asymptotyczny ze modyfikowaną statystyką testową T ∗ :
T+ −
T˜∗ = T ∗ = s
n(n+1)
4
n(n + 1)(2n + 1)/24 −
1
48
N
P
,
(t2j − 1)tj
j=1
gdzie:
N — liczba grup węzłów (również jednoelementowych),
tj — liczba węzłów w j-tej grupie, j = 1, . . . , N .
9
Bibliografia
[1] Bąk I., Markowicz I., Mojsiewicz M., Wawrzyniak K.: Statystyka w zadaniach. Część II: Statystyka matematyczna. Warszawa, Wydawnictwa Naukowo-Techniczne, 2001.
[2] Harnett D. L., Soni A. K.: Statistical Methods for Business and
Economics. Addison-Wesley Publishing Company, 1991.
[3] Koronacki J., Mielniczuk J.: Statystyka dla studentów kierunków
technicznych i przyrodniczych. Warszawa, WNT, 2006.
[4] Krysicki W., Bartos J., Dyczka W., Królikowska K., Wasilewski M.: Rachunek prawdopodobieństwa i statystyka matematyczna
w zadaniach. Część II: Statystyka matematyczna. Warszawa, PWN, wyd.
VIII, 2006.
[5] Plucińska A., Pluciński E.: Probabilistyka. Warszawa, Wydawnictwa Naukowo-Techniczne, 2000.
[6] Rees D.G.: Essential Statistics. London, Chapman&Hall, 1995.
[7] Sheskin D.J.: Handbook of Parametric and Nonparametric Statistical
Procedures. Boca Raton, Chapman&Hall/CRC, 2000.
10