Testy statystyczne

Transkrypt

Testy statystyczne
Testowanie hipotez statystycznych
Hipotezą statystyczną jest dowolne przypuszczenie co do
rozkładu populacji generalnej (jego postaci funkcyjnej lub
wartości parametrów). Prawdziwość tego przypuszczenia jest
oceniana na podstawie wyników próby losowej
Testem statystycznym nazywamy regułę postępowania, która
każdej możliwej próbie przyporządkowuje decyzję przyjęcia (!!!)
lub odrzucenia hipotezy
Testowanie hipotez statystycznych
Testy statystyczne dzielimy na:
• Parametryczne, czyli dotyczące wartości
statystycznych populacji, takich jak np. średnia
• Nieparametryczne,
czyli
zmiennej lub losowości próby
dotyczące
parametrów
postaci
rozkładu
Hipotezę, która podlega weryfikacji nazywamy hipotezę
zerową (H0) a jej przeciwieństwo hipotezę alternatywną
(H1) .
Testowanie hipotez statystycznych
Przykład: Wprowadzono na rynek nową markę piwa.
Producent
twierdzi,
że
to
piwo
jest
najlepsze.
Przeprowadzono eksperyment, w wyniku, którego uzyskano
wyniki liczbowe dotyczące jakości tego piwa. Producentowi
zależy, żeby udowodnić stawiane przez niego twierdzenie.
Stawiamy hipotezy:
(H0: μ1 = μ2)
(H1: μ1 < μ2)
μ1 - średnia jakość starego piwa, μ2 -średnia jakość
nowego.
Jeżeli test statystyczny doprowadzi do odrzucenia hipotezy
zerowej to wynik dla producenta jest zadowalający.
Testowanie hipotez statystycznych
Poziom istotności:
- maksymalne ryzyko błędu jakie badacz jest
skłonny zaakceptować
- prawdopodobieństwo odrzucenia hipotezy
zerowej gdy jest ona prawdziwa
Testowanie hipotez statystycznych
Hipoteza zerowa
prawdziwa
fałszywa
Test potwierdził H0
Test obalił hipotezę zerową
Przyjęto hipotezę alternatywną
(Błąd I rodzaju )
Test potwierdził H0
(błąd II rodzaju)
Test obalił hipotezę zerową
Przyjęto hipotezę alternatywną
Testowanie hipotez statystycznych
Testy istotności
• Podejmuje się decyzję o odrzuceniu
hipotezy zerowej bądź stwierdza, że brak
jest podstaw do jej odrzucenia
• Nie można natomiast podjąć decyzji o
przyjęciu H0 (jest tu zabezpieczenie przed
popełnieniem błędu II rodzaju)
p-value (p-wartość)
• pakiety statystyczne podają prawdopodobieństwo P-value (krytyczny
(graniczny) poziom istotności; prawdopodobieństwo testowe).
• jest to najmniejszy poziom istotności przy którym dla zaobserwowanej
wartości statystyki testowej odrzucilibyśmy hipotezę zerową.
• Hipotezę zerową odrzucamy, gdy wyliczone prawdopodobieństwo
testowe ( p) okaże się nie większe od przyjętego przez nas poziomu
istotności (zwykle 0,05).
Użycie unormowanej wielkości, w przeciwieństwie do różnorodnych
statystyk testowych (z, F, t, Chi-kwadrat, D Kołmogorowa-Smirnowa)
pozwala bezpośrednio ocenić wiarygodność hipotezy, a także
zastosować klasyczną procedurę (testu statystycznego) poprzez proste
porównanie p-wartości z poziomem istotności, np. 0,05.
Ocena normalności rozkładu
Założeniem do wielu analiz statystycznych jest zgodność rozkładu
badanej cechy rozkładem normalnym (symetrycznym).
Rozkład normalny jest jednym z najważniejszych rozkładów w
biologii. Rozwiązanie wielu zagadnień statystycznych jest
"prostsze", jeśli analizowana cecha ma rozkład normalny. Wiele
analiz statystycznych i testów wymaga też założenia o normalności
rozważanej zmiennej (testy t-Studenta, analiza wariancji, analiza
regresji, analiza kanoniczna itd.).
Dlatego musimy przeprowadzić weryfikację charakteru
rozkładu, ilekroć chcemy zastosować analizy statystyczne,
które wymagają danych o określonym rozkładzie.
Ocena normalności rozkładu
Normalność rozkładu można ocenić na podstawie:
• wykresów, np.:
histogramów (np. Wykres/Histogramy.../ z zaznaczoną opcją
Dopasuj: Normalny na karcie Podstawowe)
wykresów prawdopodobieństwa -wykresów normalności (np.
Wykresy/Wykresy 2W/ Wykresy normalności)
• testów, np.:
- testu Chi-kwadrat
- testu Lillieforsa
- testu normalności Kołmogorova-Smirnova
- testu W Shapiro-Wilka – preferowany ze względu na
dużą moc (np. opcja na karcie Podstawowe przy wykresach
normalności)
Testy
parametryczne
Czyli dotyczące wartości parametrów
statystycznych populacji, takich jak np.
średnia (często w naukach
przyrodniczych)
Testy parametryczne - test t dla pojedynczej próby
Wykonując to zadanie pamiętajmy o tym:
• Jaka jest hipoteza zerowa?
• Jaki jest wynik testu w sensie statystycznym?
• Jak interpretować wynik testu (o czym świadczy średnia
błędów różniąca się od zera).
• H0 : μ = 0
H1 : μ ≠ 0
• pVg – brak podstaw do odrzucenia H0
pVg_Czuraja – odrzucamy H0
• Gdy średnia błędów różni się istotnie od zera
(pVg_Czuraja to mamy błąd systematyczny)
Testy parametryczne - różnice między średnimi
z dwóch prób niezależnych
Testy różnic między średnimi z dwóch prób. Testy te weryfikują
hipotezę zerową o równości średnich w dwóch grupach.
Przypuśćmy, że podajemy dwa leki nasenne dwóm różnym
grupom (18 osobom tworzącym grupę A i 24 w grupie B).
Który z tych leków jest skuteczniejszy. Wykorzystujemy testy dla
różnic między średnimi z
dwóch prób dla zmiennych
niezależnych, najczęściej test t Studenta ( w Statistice test t).
Testy istotności różnic
dla prób zależnych
(powiązanych)
Testy istotności różnic dla prób
zależnych (powiązanych)
Ten rodzaj testów stosujemy, gdy rozpatrujemy tę
samą grupę, ale badaną dwukrotnie w czasie. Na
przykład
oznaczamy
poziom
parametru
biochemicznego w
grupie pacjentów przed
wprowadzeniem
leku
(pomiar
początkowy)
i powtórnie po podaniu leku.
Test t Studenta (test t)
Warunki
stosowania
testu
t-Studenta
dla
zmiennych zależnych są identyczne jak dla
zmiennych niepowiązanych, z jedną tylko różnicą nie
musimy
sprawdzać
jednorodności
wariancji.
Testy
nieparametryczne
Testy nieparametryczne
Testy te nie zależą od pewnych parametrów
rozkładu populacji. Możemy je stosować, gdy
nie są spełnione założenia wymagane dla
testów parametrycznych. Stosujemy je również,
gdy nasze dane można uporządkować według
określonych kryteriów oraz dla grup o małej
liczebności.
Siła testów nieparametrycznych jest jednak
mniejsza niż siła testów parametrycznych.
Stosujemy je więc tylko wówczas, gdy nie
możemy się posłużyć testem parametrycznym.
Testy nieparametryczne
Grupa testów będących nieparametrycznymi
odpowiednikami testu t-Studenta:
• test serii Walda i Wolfowitza
• test U Manna i Whitneya
• test Kołmogorowa - Smirnowa
Testy te służą do weryfikacji hipotezy, że dwie
analizowane próby pochodzą z
różnych
populacji.
Wymagają
one
założenia,
że
analizowane zmienne mogą być uporządkowane
od
wartości
najmniejszej
do
wartości
największej.