Testy post-hoc
Transkrypt
Testy post-hoc
Testy post-hoc Wrocław, 6 czerwca 2016 Testy post-hoc 1 metoda LSD 2 metoda Duncana 3 metoda Dunneta 4 metoda kontrastów 5 matoda Newman-Keuls 6 metoda Tukeya Metoda LSD Metoda Least Significant Difference (najmniej istotnych różnic) Fishera. Testujemy szereg hipotez H0i,j : µi = µj dla ustalonej pary i 6= j H1 : µi 6= µj Metoda LSD Metoda Least Significant Difference (najmniej istotnych różnic) Fishera. Testujemy szereg hipotez H0i,j : µi = µj dla ustalonej pary i 6= j H1 : µi 6= µj Test oparty jest na statystyce: Ȳi· − Ȳj· T =r MSE n1i + 1 nj Metoda LSD Wprowadzamy miarę v u u LSD = t1−α/2 (N − a)tMSE 1 1 + ni nj ! gdzie t1−α/2 (N − a) jest odpowiednim kwantylem rozkładu t-Studenta. Odrzucamy hipotezę zerową gdy: |Ȳi· − Ȳj· | > LSD Metoda LSD W przypadku, gdy mamy do czynienia z modelem zbalansowanym, tzn. n1 = n2 = · · · = na = n miara LSD przyjmuje postać: s LSD = t1−α/2 (N − a) 2 · MSE n Metoda LSD - Przykład 14.1 Dla danych z przykładu z wykładu 13 przeprowadzimy porównania wielokrotne metodą LSD na poziomie istotności 0.05 Wyznaczymy wartość LSD: s LSD = t0.975 (20) 2 · MSE = 2.086 n s 2 · 8.06 = 3.75 5 Metoda LSD - Przykład 14.1 - c.d. Różnice pomiędzy średnimi w grupach wynoszą odpowiednio: ȳ1· − ȳ2· ȳ1· − ȳ3· ȳ1· − ȳ4· ȳ1· − ȳ5· ȳ2· − ȳ3· ȳ2· − ȳ4· ȳ2· − ȳ5· ȳ3· − ȳ4· ȳ3· − ȳ5· ȳ4· − ȳ5· = = = = = = = = = = 9.8 − 15.4 9.8 − 17.6 9.8 − 21.6 9.8 − 10.8 15.4 − 17.6 15.4 − 21.6 15.4 − 10.8 17.6 − 21.6 17.6 − 10.8 21.6 − 10.8 = −5.6 = −7.8 = −11.8 = −1.0 = −2.2 = −6.2 = 4.6 = −4.0 = 6.8 = 10.8 Metoda LSD - Przykład 14.1 - c.d. Różnice pomiędzy średnimi w grupach wynoszą odpowiednio: ȳ1· − ȳ2· ȳ1· − ȳ3· ȳ1· − ȳ4· ȳ1· − ȳ5· ȳ2· − ȳ3· ȳ2· − ȳ4· ȳ2· − ȳ5· ȳ3· − ȳ4· ȳ3· − ȳ5· ȳ4· − ȳ5· = = = = = = = = = = 9.8 − 15.4 9.8 − 17.6 9.8 − 21.6 9.8 − 10.8 15.4 − 17.6 15.4 − 21.6 15.4 − 10.8 17.6 − 21.6 17.6 − 10.8 21.6 − 10.8 = −5.6 = −7.8 = −11.8 = −1.0 = −2.2 = −6.2 = 4.6 = −4.0 = 6.8 = 10.8 Metoda LSD - Przykład 14.1 - c.d. Wnioski: • brak istotnych różnic między średnimi 1 i 5 • brak istotnych różnic między średnimi 2 i 3 • średnia dla grupy 4 jest istotnie większa od pozostałych ȳ1· ȳ5· 9.8 10.8 ȳ2· ȳ3· 15.4 17.6 ȳ4· 21.6 metoda Duncana Test Duncana (wielokrotny test rozstępu). 1 Wyznaczamy błąd standardowy dla wszystkich średnich postaci: s MSE Syi· = . n W przypadku niezbalansowanym, tzn gdy dla pewnych i 6= j ni 6= nj , zastępujemy n przez średnią harmoniczną: nh = Pa a 1 i=1 ni 2 . Z tablic istotnych rozstępów Duncana odczytujemy wartości: rα (p, f ), gdzie p = 2, 3, . . . , a, α jest poziomem istotności, a f oznacza liczbę stopni swobody dla błędu. metoda Duncana 3 Wyznaczamy najmniej znaczące rangi: Rp = rα (p, f ) · Syi· . 4 szeregujemy średnie w kolejności malejącej: Ya:a Ya−1:a · · · Y1:a 5 Dla największej ze średnich Ya:a rozważamy różnice pomiędzy średnimi, zaczynając od tej największej: Ya:a − Y1:a , a następnie Ya:a − Y2:a , aż do Ya:a − Ya−1:a i porównujemy je odpowiednio z wartościami Ra do R2 . Odrzucamy hipotezę zerową gdy Yi· − Yj· > Rp . 6 Powtarzamy krok 5 kolejno dla Ya−1:a , . . . , Y1:a metoda Duncana-Przykład 14.2 Z wykładu 13 wiemy, że: MSE = 8.06, N = 25, n = 5, p = 20 Szeregując średnie w kolejności malejącej otrzymujemy: ȳ4· ȳ3· ȳ2· ȳ5· ȳ1· = = = = = 21.6 17.6 15.4 10.8 9.8 metoda Duncana-Przykład 14.2 - c.d. Błąd standardowy dla średnich wynosi: s Syi· = 8.06 = 1.27. 5 Z tablic istotnych różnic Duncana odczytujemy: r0.05 (2, 20) = 2.95, r0.05 (3, 20) = 3.1, r0.05 (4, 20) = 3.18, r0.05 (5, 20) = 3.25. Stąd najmniej istotne rozstępy: R2 R3 R4 R5 = = = = r0.05 (2, 20) · Syi· r0.05 (3, 20) · Syi· r0.05 (4, 20) · Syi· r0.05 (5, 20) · Syi· = = = = 2.95 · 1.27 3.10 · 1.27 3.18 · 1.27 3.25 · 1.27 = = = = 3.75 3.94 4.04 4.13 metoda Duncana - Przykład 14.2 - c.d. Następnie porównujemy wartości różnic średnich z odpowiednimi wartościami Rp : ȳ4· − ȳ1· ȳ4· − ȳ5· ȳ4· − ȳ2· ȳ4· − ȳ3· ȳ3· − ȳ1· ȳ3· − ȳ5· ȳ3· − ȳ2· ȳ2· − ȳ1· ȳ2· − ȳ5· ȳ5· − ȳ1· = = = = = = = = = = 21.6 − 9.8 21.6 − 10.8 21.6 − 15.4 21.6 − 17.6 17.6 − 9.8 17.6 − 10.8 17.6 − 15.4 15.4 − 9.8 15.4 − 10.8 10.8 − 9.08 = 11.8 > 4.13 (R5 ) = 10.8 > 4.04 (R4 ) = 6.2 > 3.94 (R3 ) = 4.0 > 3.75 (R2 ) = 7.8 > 4.04 (R4 ) = 6.8 > 3.94 (R3 ) = 2.2 < 3.75 (R2 ) = 5.6 > 3.94 (R3 ) = 4.6 > 3.75 (R2 ) = 1.0 < 3.75 (R2 ) metoda Duncana - Przykład 14.2 - c.d. Następnie porównujemy wartości różnic średnich z odpowiednimi wartościami Rp : ȳ4· − ȳ1· ȳ4· − ȳ5· ȳ4· − ȳ2· ȳ4· − ȳ3· ȳ3· − ȳ1· ȳ3· − ȳ5· ȳ3· − ȳ2· ȳ2· − ȳ1· ȳ2· − ȳ5· ȳ5· − ȳ1· = = = = = = = = = = 21.6 − 9.8 21.6 − 10.8 21.6 − 15.4 21.6 − 17.6 17.6 − 9.8 17.6 − 10.8 17.6 − 15.4 15.4 − 9.8 15.4 − 10.8 10.8 − 9.08 = 11.8 > 4.13 (R5 ) = 10.8 > 4.04 (R4 ) = 6.2 > 3.94 (R3 ) = 4.0 > 3.75 (R2 ) = 7.8 > 4.04 (R4 ) = 6.8 > 3.94 (R3 ) = 2.2 < 3.75 (R2 ) = 5.6 > 3.94 (R3 ) = 4.6 > 3.75 (R2 ) = 1.0 < 3.75 (R2 ) Metoda Dunneta Metoda Dunneta - metoda porównań z grupą kontrolną. Załóżmy, że a jest grupą kontrolną. Testujemy hipotezy H0i : µi = µa dla i = 1, 2, . . . a − 1 H1 : µ i = 6 µa Test oparty jest na statystyce: Ȳi· − Ȳa· T =r MSE n1i + 1 na Metoda Dunneta Odrzucamy hipotezę zerową gdy: s |Ȳi· − Ȳj· | > dα (a − 1, f ) MSE 1 1 + , ni na gdzie dα (a − 1, f ) oznacza odpowiedni kwantyl rozkładu Dunneta. Metoda Dunneta - Przykład 14.3 - c.d. Mamy dane: a = 5, a − 1 = 4, f = 20, ni = na = n = 5 Z tablic odczytujemy wartość kwantyl d0.05 (4, 20) = 2.65. Jako grupę kontrolną przyjmujemy grupę 5, a następnie obliczamy wartości odpowiednich różnic: ȳ1· − ȳ5· ȳ2· − ȳ5· ȳ3· − ȳ5· ȳ4· − ȳ5· = 9.8 − 10.8 = 15.4 − 10.8 = 17.6 − 10.8 = 21.6 − 10.8 = −1.0 = 4.6 = 6.8 = 10.8 Metoda Dunneta - Przykład 14.3 - c.d. Istotne różnice obserwujemy wyłącznie w przypadku porównywania średnich: µ3 i µ5 oraz µ2 i µ5 . Metoda Dunneta Uwaga praktyczna Dobrą metodą jest użycie do grupy kontrolnej większej liczby obserwacji - na , gdzie zakładając, że porównujemy grupę kontrolna z a − 1 grupami, liczebność grupy kontrolnej dobieramy tak aby √ na a, gdzie n oznacza liczebność pozostałych grup. n = Kontrasty Testujemy hipotezy porównujące różne kombinacje równości średnich. Hipoteza H0 : µ 1 = µ 2 H1 : µ 1 = 6 µ2 może być testowana poprzez badanie kombinacji liniowej y1· − y2· = 0 Hipoteza H0 : µ 1 + µ 2 = µ 3 + µ 4 H1 : µ1 + µ2 6= µ3 + µ4 może być testowana poprzez badanie kombinacji liniowej y1· + y2· − y3· − y4· = 0 Kontrasty W ogólności rozważamy kombinacje liniowe: C= a X ci yi , i=1 przy czym ai=1 ci = 0. Suma kwadratów dla dowolnego kontrastu ma jeden stopień swobody i jest postaci: P ( ai=1 ci yi )2 P SSC = n · ai=1 ci2 P Kontrasty W przypadku modelu niezbalansowanego wymaga się spełnienia P założenia ai=1 ni ci = 0, natomiast suma kwadratów jest postaci: ci yi )2 2 i=1 ni ci Pa ( SSC = Pi=1 a Kontrasty Statystyka testowa do testowania kontrastów jest postaci F = MSC SSC = MSE MSE i przy prawdziwości hipotezy zerowej ma rozkład Fishera Snedecora z 1 i N − a stopniami swobody. Kontrasty - Przykład 14.4 Testujemy następujące hipotezy: H01 : H02 : H03 : H04 : µ4 = µ 5 µ1 + µ 3 = µ 4 + µ5 µ1 = µ 3 4µ2 = µ1 + µ3 + µ4 + µ5 Hipotezą tym odpowiadają odpowiednio kontrasty: C1 C2 C3 C4 = −y4· +y5· = y1· +y3· −y4· −y5· = y1· −y3· = −y1· +4y2· −y4· −y5· Kontrasty - Przykład 14.4 -c.d. obliczamy odpowiednie wartości kontrastów C1 C2 C3 C4 = −108 +54 = −54 = 49 +88 −108 −54 = −25 = 49 −88 = −39 = −49 +4 · 77 −108 −54 =9 a następnie odpowiednie sumy kwadratów SSC1 SSC2 SSC3 SSC4 = = = = (−54)2 5·2 (−25)2 5·4 (−39)2 5·2 (9)2 5·20 = 291.60 = 31.25 = 125.10 = 0.81 Kontrasty - Przykład 14.4 -c.d. Tablica analizy wariancji przedstawia się następująco: źródło suma stopnie średni zmienności kwadratów swobody kwadrat F zawartość bawełny 475.76 4 118.94 14.76 C1 291.60 1 291.60 36.18 C2 31.25 1 31.25 3.88 C3 125.10 1 125.10 18.87 C4 0.81 1 0.81 0.10 błąd 161.20 20 8.06 całkowita 636.96 24 Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz f (0.95, 4, 20) = 4.35. Kontrasty - Przykład 14.4 -c.d. Tablica analizy wariancji przedstawia się następująco: źródło suma stopnie średni zmienności kwadratów swobody kwadrat F zawartość bawełny 475.76 4 118.94 14.76 C1 291.60 1 291.60 36.18 C2 31.25 1 31.25 3.88 C3 125.10 1 125.10 18.87 C4 0.81 1 0.81 0.10 błąd 161.20 20 8.06 całkowita 636.96 24 Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz f (0.95, 4, 20) = 4.35. Literatura: • Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN, Warszawa 1989. • Koronacki J. i Mielniczuk J., Statystyka, dla studentów kierunków technicznych i przyrodniczych, WNT, 2001 • Krysicki W., Bartos J., Dyczka W., Krówlikowska K., Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, część II, PWN, 2012 • Magiera M, Modele i metody statystyki matematycznej, część II, wnioskowanie statystyczne, Wrocław, 2007 • Montgomery D.C.,Design and Analysis of Experiments, John Wiley & Sons, 1991.