Testy post-hoc

Transkrypt

Testy post-hoc
Testy post-hoc
Wrocław, 6 czerwca 2016
Testy post-hoc
1
metoda LSD
2
metoda Duncana
3
metoda Dunneta
4
metoda kontrastów
5
matoda Newman-Keuls
6
metoda Tukeya
Metoda LSD
Metoda Least Significant Difference (najmniej istotnych różnic)
Fishera.
Testujemy szereg hipotez
H0i,j : µi = µj dla ustalonej pary i 6= j
H1 : µi 6= µj
Metoda LSD
Metoda Least Significant Difference (najmniej istotnych różnic)
Fishera.
Testujemy szereg hipotez
H0i,j : µi = µj dla ustalonej pary i 6= j
H1 : µi 6= µj
Test oparty jest na statystyce:
Ȳi· − Ȳj·
T =r
MSE n1i +
1
nj
Metoda LSD
Wprowadzamy miarę
v
u
u
LSD = t1−α/2 (N − a)tMSE
1
1
+
ni
nj
!
gdzie t1−α/2 (N − a) jest odpowiednim kwantylem rozkładu
t-Studenta.
Odrzucamy hipotezę zerową gdy:
|Ȳi· − Ȳj· | > LSD
Metoda LSD
W przypadku, gdy mamy do czynienia z modelem zbalansowanym,
tzn. n1 = n2 = · · · = na = n miara LSD przyjmuje postać:
s
LSD = t1−α/2 (N − a)
2 · MSE
n
Metoda LSD - Przykład 14.1
Dla danych z przykładu z wykładu 13 przeprowadzimy porównania
wielokrotne metodą LSD na poziomie istotności 0.05
Wyznaczymy wartość LSD:
s
LSD = t0.975 (20)
2 · MSE
= 2.086
n
s
2 · 8.06
= 3.75
5
Metoda LSD - Przykład 14.1 - c.d.
Różnice pomiędzy średnimi w grupach wynoszą odpowiednio:
ȳ1· − ȳ2·
ȳ1· − ȳ3·
ȳ1· − ȳ4·
ȳ1· − ȳ5·
ȳ2· − ȳ3·
ȳ2· − ȳ4·
ȳ2· − ȳ5·
ȳ3· − ȳ4·
ȳ3· − ȳ5·
ȳ4· − ȳ5·
=
=
=
=
=
=
=
=
=
=
9.8 − 15.4
9.8 − 17.6
9.8 − 21.6
9.8 − 10.8
15.4 − 17.6
15.4 − 21.6
15.4 − 10.8
17.6 − 21.6
17.6 − 10.8
21.6 − 10.8
= −5.6
= −7.8
= −11.8
= −1.0
= −2.2
= −6.2
=
4.6
= −4.0
=
6.8
=
10.8
Metoda LSD - Przykład 14.1 - c.d.
Różnice pomiędzy średnimi w grupach wynoszą odpowiednio:
ȳ1· − ȳ2·
ȳ1· − ȳ3·
ȳ1· − ȳ4·
ȳ1· − ȳ5·
ȳ2· − ȳ3·
ȳ2· − ȳ4·
ȳ2· − ȳ5·
ȳ3· − ȳ4·
ȳ3· − ȳ5·
ȳ4· − ȳ5·
=
=
=
=
=
=
=
=
=
=
9.8 − 15.4
9.8 − 17.6
9.8 − 21.6
9.8 − 10.8
15.4 − 17.6
15.4 − 21.6
15.4 − 10.8
17.6 − 21.6
17.6 − 10.8
21.6 − 10.8
= −5.6
= −7.8
= −11.8
= −1.0
= −2.2
= −6.2
=
4.6
= −4.0
=
6.8
=
10.8
Metoda LSD - Przykład 14.1 - c.d.
Wnioski:
• brak istotnych różnic między średnimi 1 i 5
• brak istotnych różnic między średnimi 2 i 3
• średnia dla grupy 4 jest istotnie większa od pozostałych
ȳ1· ȳ5·
9.8 10.8
ȳ2·
ȳ3·
15.4 17.6
ȳ4·
21.6
metoda Duncana
Test Duncana (wielokrotny test rozstępu).
1 Wyznaczamy błąd standardowy dla wszystkich średnich
postaci:
s
MSE
Syi· =
.
n
W przypadku niezbalansowanym, tzn gdy dla pewnych i 6= j
ni 6= nj , zastępujemy n przez średnią harmoniczną:
nh = Pa
a
1
i=1 ni
2
.
Z tablic istotnych rozstępów Duncana odczytujemy wartości:
rα (p, f ),
gdzie p = 2, 3, . . . , a, α jest poziomem istotności, a f oznacza
liczbę stopni swobody dla błędu.
metoda Duncana
3 Wyznaczamy najmniej znaczące rangi:
Rp = rα (p, f ) · Syi· .
4 szeregujemy średnie w kolejności malejącej:
Ya:a ­ Ya−1:a ­ · · · ­ Y1:a
5 Dla największej ze średnich Ya:a rozważamy różnice pomiędzy
średnimi, zaczynając od tej największej: Ya:a − Y1:a , a
następnie Ya:a − Y2:a , aż do Ya:a − Ya−1:a i porównujemy je
odpowiednio z wartościami Ra do R2 .
Odrzucamy hipotezę zerową gdy Yi· − Yj· > Rp .
6 Powtarzamy krok 5 kolejno dla Ya−1:a , . . . , Y1:a
metoda Duncana-Przykład 14.2
Z wykładu 13 wiemy, że:
MSE = 8.06, N = 25, n = 5, p = 20
Szeregując średnie w kolejności malejącej otrzymujemy:
ȳ4·
ȳ3·
ȳ2·
ȳ5·
ȳ1·
=
=
=
=
=
21.6
17.6
15.4
10.8
9.8
metoda Duncana-Przykład 14.2 - c.d.
Błąd standardowy dla średnich wynosi:
s
Syi· =
8.06
= 1.27.
5
Z tablic istotnych różnic Duncana odczytujemy:
r0.05 (2, 20) = 2.95, r0.05 (3, 20) = 3.1, r0.05 (4, 20) = 3.18,
r0.05 (5, 20) = 3.25.
Stąd najmniej istotne rozstępy:
R2
R3
R4
R5
=
=
=
=
r0.05 (2, 20) · Syi·
r0.05 (3, 20) · Syi·
r0.05 (4, 20) · Syi·
r0.05 (5, 20) · Syi·
=
=
=
=
2.95 · 1.27
3.10 · 1.27
3.18 · 1.27
3.25 · 1.27
=
=
=
=
3.75
3.94
4.04
4.13
metoda Duncana - Przykład 14.2 - c.d.
Następnie porównujemy wartości różnic średnich z odpowiednimi
wartościami Rp :
ȳ4· − ȳ1·
ȳ4· − ȳ5·
ȳ4· − ȳ2·
ȳ4· − ȳ3·
ȳ3· − ȳ1·
ȳ3· − ȳ5·
ȳ3· − ȳ2·
ȳ2· − ȳ1·
ȳ2· − ȳ5·
ȳ5· − ȳ1·
=
=
=
=
=
=
=
=
=
=
21.6 − 9.8
21.6 − 10.8
21.6 − 15.4
21.6 − 17.6
17.6 − 9.8
17.6 − 10.8
17.6 − 15.4
15.4 − 9.8
15.4 − 10.8
10.8 − 9.08
= 11.8 > 4.13 (R5 )
= 10.8 > 4.04 (R4 )
= 6.2 > 3.94 (R3 )
= 4.0 > 3.75 (R2 )
= 7.8 > 4.04 (R4 )
= 6.8 > 3.94 (R3 )
= 2.2 < 3.75 (R2 )
= 5.6 > 3.94 (R3 )
= 4.6 > 3.75 (R2 )
= 1.0 < 3.75 (R2 )
metoda Duncana - Przykład 14.2 - c.d.
Następnie porównujemy wartości różnic średnich z odpowiednimi
wartościami Rp :
ȳ4· − ȳ1·
ȳ4· − ȳ5·
ȳ4· − ȳ2·
ȳ4· − ȳ3·
ȳ3· − ȳ1·
ȳ3· − ȳ5·
ȳ3· − ȳ2·
ȳ2· − ȳ1·
ȳ2· − ȳ5·
ȳ5· − ȳ1·
=
=
=
=
=
=
=
=
=
=
21.6 − 9.8
21.6 − 10.8
21.6 − 15.4
21.6 − 17.6
17.6 − 9.8
17.6 − 10.8
17.6 − 15.4
15.4 − 9.8
15.4 − 10.8
10.8 − 9.08
= 11.8 > 4.13 (R5 )
= 10.8 > 4.04 (R4 )
= 6.2 > 3.94 (R3 )
= 4.0 > 3.75 (R2 )
= 7.8 > 4.04 (R4 )
= 6.8 > 3.94 (R3 )
= 2.2 < 3.75 (R2 )
= 5.6 > 3.94 (R3 )
= 4.6 > 3.75 (R2 )
= 1.0 < 3.75 (R2 )
Metoda Dunneta
Metoda Dunneta - metoda porównań z grupą kontrolną.
Załóżmy, że a jest grupą kontrolną. Testujemy hipotezy
H0i : µi = µa dla i = 1, 2, . . . a − 1
H1 : µ i =
6 µa
Test oparty jest na statystyce:
Ȳi· − Ȳa·
T =r
MSE n1i +
1
na
Metoda Dunneta
Odrzucamy hipotezę zerową gdy:
s
|Ȳi· − Ȳj· | > dα (a − 1, f ) MSE
1
1
+
,
ni
na
gdzie dα (a − 1, f ) oznacza odpowiedni kwantyl rozkładu Dunneta.
Metoda Dunneta - Przykład 14.3 - c.d.
Mamy dane:
a = 5,
a − 1 = 4,
f = 20,
ni = na = n = 5
Z tablic odczytujemy wartość kwantyl
d0.05 (4, 20) = 2.65.
Jako grupę kontrolną przyjmujemy grupę 5, a następnie obliczamy
wartości odpowiednich różnic:
ȳ1· − ȳ5·
ȳ2· − ȳ5·
ȳ3· − ȳ5·
ȳ4· − ȳ5·
= 9.8 − 10.8
= 15.4 − 10.8
= 17.6 − 10.8
= 21.6 − 10.8
= −1.0
=
4.6
=
6.8
= 10.8
Metoda Dunneta - Przykład 14.3 - c.d.
Istotne różnice obserwujemy wyłącznie w przypadku porównywania
średnich: µ3 i µ5 oraz µ2 i µ5 .
Metoda Dunneta
Uwaga praktyczna
Dobrą metodą jest użycie do grupy kontrolnej większej liczby
obserwacji - na , gdzie zakładając, że porównujemy grupę kontrolna
z a − 1 grupami, liczebność grupy kontrolnej dobieramy tak aby
√
na
a, gdzie n oznacza liczebność pozostałych grup.
n =
Kontrasty
Testujemy hipotezy porównujące różne kombinacje równości
średnich.
Hipoteza
H0 : µ 1 = µ 2
H1 : µ 1 =
6 µ2
może być testowana poprzez badanie kombinacji liniowej
y1· − y2· = 0
Hipoteza
H0 : µ 1 + µ 2 = µ 3 + µ 4
H1 : µ1 + µ2 6= µ3 + µ4
może być testowana poprzez badanie kombinacji liniowej
y1· + y2· − y3· − y4· = 0
Kontrasty
W ogólności rozważamy kombinacje liniowe:
C=
a
X
ci yi ,
i=1
przy czym ai=1 ci = 0.
Suma kwadratów dla dowolnego kontrastu ma jeden stopień
swobody i jest postaci:
P
( ai=1 ci yi )2
P
SSC =
n · ai=1 ci2
P
Kontrasty
W przypadku modelu niezbalansowanego wymaga się spełnienia
P
założenia ai=1 ni ci = 0, natomiast suma kwadratów jest postaci:
ci yi )2
2
i=1 ni ci
Pa
(
SSC = Pi=1
a
Kontrasty
Statystyka testowa do testowania kontrastów jest postaci
F =
MSC
SSC
=
MSE
MSE
i przy prawdziwości hipotezy zerowej ma rozkład Fishera Snedecora z 1 i N − a stopniami swobody.
Kontrasty - Przykład 14.4
Testujemy następujące hipotezy:
H01 :
H02 :
H03 :
H04 :
µ4 = µ 5
µ1 + µ 3 = µ 4 + µ5
µ1 = µ 3
4µ2 = µ1 + µ3 + µ4 + µ5
Hipotezą tym odpowiadają odpowiednio kontrasty:
C1
C2
C3
C4
=
−y4· +y5·
=
y1·
+y3· −y4· −y5·
=
y1·
−y3·
= −y1· +4y2·
−y4· −y5·
Kontrasty - Przykład 14.4 -c.d.
obliczamy odpowiednie wartości kontrastów
C1
C2
C3
C4
=
−108 +54 = −54
=
49
+88 −108 −54 = −25
=
49
−88
= −39
= −49 +4 · 77
−108 −54
=9
a następnie odpowiednie sumy kwadratów
SSC1
SSC2
SSC3
SSC4
=
=
=
=
(−54)2
5·2
(−25)2
5·4
(−39)2
5·2
(9)2
5·20
= 291.60
= 31.25
= 125.10
=
0.81
Kontrasty - Przykład 14.4 -c.d.
Tablica analizy wariancji przedstawia się następująco:
źródło
suma
stopnie
średni
zmienności
kwadratów swobody kwadrat
F
zawartość bawełny
475.76
4
118.94 14.76
C1
291.60
1
291.60 36.18
C2
31.25
1
31.25 3.88
C3
125.10
1
125.10 18.87
C4
0.81
1
0.81 0.10
błąd
161.20
20
8.06
całkowita
636.96
24
Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz
f (0.95, 4, 20) = 4.35.
Kontrasty - Przykład 14.4 -c.d.
Tablica analizy wariancji przedstawia się następująco:
źródło
suma
stopnie
średni
zmienności
kwadratów swobody kwadrat
F
zawartość bawełny
475.76
4
118.94 14.76
C1
291.60
1
291.60 36.18
C2
31.25
1
31.25 3.88
C3
125.10
1
125.10 18.87
C4
0.81
1
0.81 0.10
błąd
161.20
20
8.06
całkowita
636.96
24
Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz
f (0.95, 4, 20) = 4.35.
Literatura:
• Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN,
Warszawa 1989.
• Koronacki J. i Mielniczuk J., Statystyka, dla studentów
kierunków technicznych i przyrodniczych, WNT, 2001
• Krysicki W., Bartos J., Dyczka W., Krówlikowska K.,
Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka
Matematyczna w Zadaniach, część II, PWN, 2012
• Magiera M, Modele i metody statystyki matematycznej, część
II, wnioskowanie statystyczne, Wrocław, 2007
• Montgomery D.C.,Design and Analysis of Experiments, John
Wiley & Sons, 1991.

Podobne dokumenty