Testy statystyczne
Transkrypt
Testy statystyczne
Testowanie hipotez statystycznych Hipotezą statystyczną jest dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Prawdziwość tego przypuszczenia jest oceniana na podstawie wyników próby losowej Testem statystycznym nazywamy regułę postępowania, która każdej możliwej próbie przyporządkowuje decyzję przyjęcia (!!!) lub odrzucenia hipotezy Testowanie hipotez statystycznych Testy statystyczne dzielimy na: • Parametryczne, czyli dotyczące wartości statystycznych populacji, takich jak np. średnia • Nieparametryczne, czyli zmiennej lub losowości próby dotyczące parametrów postaci rozkładu Hipotezę, która podlega weryfikacji nazywamy hipotezę zerową (H0) a jej przeciwieństwo hipotezę alternatywną (H1) . Testowanie hipotez statystycznych Przykład: Wprowadzono na rynek nową markę piwa. Producent twierdzi, że to piwo jest najlepsze. Przeprowadzono eksperyment, w wyniku, którego uzyskano wyniki liczbowe dotyczące jakości tego piwa. Producentowi zależy, żeby udowodnić stawiane przez niego twierdzenie. Stawiamy hipotezy: (H0: μ1 = μ2) (H1: μ1 < μ2) μ1 - średnia jakość starego piwa, μ2 -średnia jakość nowego. Jeżeli test statystyczny doprowadzi do odrzucenia hipotezy zerowej to wynik dla producenta jest zadowalający. Testowanie hipotez statystycznych Poziom istotności: - maksymalne ryzyko błędu jakie badacz jest skłonny zaakceptować - prawdopodobieństwo odrzucenia hipotezy zerowej gdy jest ona prawdziwa Testowanie hipotez statystycznych Hipoteza zerowa prawdziwa fałszywa Test potwierdził H0 Test obalił hipotezę zerową Przyjęto hipotezę alternatywną (Błąd I rodzaju ) Test potwierdził H0 (błąd II rodzaju) Test obalił hipotezę zerową Przyjęto hipotezę alternatywną Testowanie hipotez statystycznych Testy istotności • Podejmuje się decyzję o odrzuceniu hipotezy zerowej bądź stwierdza, że brak jest podstaw do jej odrzucenia • Nie można natomiast podjąć decyzji o przyjęciu H0 (jest tu zabezpieczenie przed popełnieniem błędu II rodzaju) p-value (p-wartość) • pakiety statystyczne podają prawdopodobieństwo P-value (krytyczny (graniczny) poziom istotności; prawdopodobieństwo testowe). • jest to najmniejszy poziom istotności przy którym dla zaobserwowanej wartości statystyki testowej odrzucilibyśmy hipotezę zerową. • Hipotezę zerową odrzucamy, gdy wyliczone prawdopodobieństwo testowe ( p) okaże się nie większe od przyjętego przez nas poziomu istotności (zwykle 0,05). Użycie unormowanej wielkości, w przeciwieństwie do różnorodnych statystyk testowych (z, F, t, Chi-kwadrat, D Kołmogorowa-Smirnowa) pozwala bezpośrednio ocenić wiarygodność hipotezy, a także zastosować klasyczną procedurę (testu statystycznego) poprzez proste porównanie p-wartości z poziomem istotności, np. 0,05. Ocena normalności rozkładu Założeniem do wielu analiz statystycznych jest zgodność rozkładu badanej cechy rozkładem normalnym (symetrycznym). Rozkład normalny jest jednym z najważniejszych rozkładów w biologii. Rozwiązanie wielu zagadnień statystycznych jest "prostsze", jeśli analizowana cecha ma rozkład normalny. Wiele analiz statystycznych i testów wymaga też założenia o normalności rozważanej zmiennej (testy t-Studenta, analiza wariancji, analiza regresji, analiza kanoniczna itd.). Dlatego musimy przeprowadzić weryfikację charakteru rozkładu, ilekroć chcemy zastosować analizy statystyczne, które wymagają danych o określonym rozkładzie. Ocena normalności rozkładu Normalność rozkładu można ocenić na podstawie: • wykresów, np.: histogramów (np. Wykres/Histogramy.../ z zaznaczoną opcją Dopasuj: Normalny na karcie Podstawowe) wykresów prawdopodobieństwa -wykresów normalności (np. Wykresy/Wykresy 2W/ Wykresy normalności) • testów, np.: - testu Chi-kwadrat - testu Lillieforsa - testu normalności Kołmogorova-Smirnova - testu W Shapiro-Wilka – preferowany ze względu na dużą moc (np. opcja na karcie Podstawowe przy wykresach normalności) Testy parametryczne Czyli dotyczące wartości parametrów statystycznych populacji, takich jak np. średnia (często w naukach przyrodniczych) Testy parametryczne - test t dla pojedynczej próby Wykonując to zadanie pamiętajmy o tym: • Jaka jest hipoteza zerowa? • Jaki jest wynik testu w sensie statystycznym? • Jak interpretować wynik testu (o czym świadczy średnia błędów różniąca się od zera). • H0 : μ = 0 H1 : μ ≠ 0 • pVg – brak podstaw do odrzucenia H0 pVg_Czuraja – odrzucamy H0 • Gdy średnia błędów różni się istotnie od zera (pVg_Czuraja to mamy błąd systematyczny) Testy parametryczne - różnice między średnimi z dwóch prób niezależnych Testy różnic między średnimi z dwóch prób. Testy te weryfikują hipotezę zerową o równości średnich w dwóch grupach. Przypuśćmy, że podajemy dwa leki nasenne dwóm różnym grupom (18 osobom tworzącym grupę A i 24 w grupie B). Który z tych leków jest skuteczniejszy. Wykorzystujemy testy dla różnic między średnimi z dwóch prób dla zmiennych niezależnych, najczęściej test t Studenta ( w Statistice test t). Testy istotności różnic dla prób zależnych (powiązanych) Testy istotności różnic dla prób zależnych (powiązanych) Ten rodzaj testów stosujemy, gdy rozpatrujemy tę samą grupę, ale badaną dwukrotnie w czasie. Na przykład oznaczamy poziom parametru biochemicznego w grupie pacjentów przed wprowadzeniem leku (pomiar początkowy) i powtórnie po podaniu leku. Test t Studenta (test t) Warunki stosowania testu t-Studenta dla zmiennych zależnych są identyczne jak dla zmiennych niepowiązanych, z jedną tylko różnicą nie musimy sprawdzać jednorodności wariancji. Testy nieparametryczne Testy nieparametryczne Testy te nie zależą od pewnych parametrów rozkładu populacji. Możemy je stosować, gdy nie są spełnione założenia wymagane dla testów parametrycznych. Stosujemy je również, gdy nasze dane można uporządkować według określonych kryteriów oraz dla grup o małej liczebności. Siła testów nieparametrycznych jest jednak mniejsza niż siła testów parametrycznych. Stosujemy je więc tylko wówczas, gdy nie możemy się posłużyć testem parametrycznym. Testy nieparametryczne Grupa testów będących nieparametrycznymi odpowiednikami testu t-Studenta: • test serii Walda i Wolfowitza • test U Manna i Whitneya • test Kołmogorowa - Smirnowa Testy te służą do weryfikacji hipotezy, że dwie analizowane próby pochodzą z różnych populacji. Wymagają one założenia, że analizowane zmienne mogą być uporządkowane od wartości najmniejszej do wartości największej.