Zapisz jako PDF

Transkrypt

Zapisz jako PDF
Wnioskowanie_Statystyczne_-_wykład
Testy nieparametryczne
We wstępie mówiliśmy, że jedną z podstawowych wad klasycznych testów statystycznych jest niemal
wszechobecne założenie o pochodzeniu danych z populacji o rozkładzie gaussowskim.
Faktycznie, w wyprowadzeniu statystyki najczęściej stosowanego testu korzystamy explicite z tego
założenia — jeśli nie jest ono spełnione, test da wyniki nieprawdziwe.
Podobnie rozkład
wprowadzamy jako sumę kwadratów zmiennych pochodzących z rozkładu
normalnego. Jednak jeśli przyjrzeć się dokładniej założeniom testu
Pearsona okaże się, że
jedynym warunkiem jest, by ilości zliczeń w poszczególnych komórkach tabeli (bądź binach
histogramu) nie były nadmiernie małe. Wynika to ze specyficznej postaci danych wejściowych —
statystyka
Pearsona nie jest oparta bezpośrednio na danych, lecz na zliczeniach przypadków. W
każdym razie jest to przykład testu, którego poprawność nie zależy od założenia o normalności
rozkładów danych.
Tę pożądaną własność mają wszystkie testy opisywane w pierwszej części książki. Jednak już
znacznie wcześniej, niż rozwój techniki komputerowej umożliwił ich stosowanie, powstało
zapotrzebowanie na tego typu metody. W takich dziedzinach jak medycyna, psychologia czy
socjologia mamy zwykle do czynienia z danymi, o których trudno powiedzieć a priori z jakiego
rozkładu pochodzą, a wysoki koszt lub trudności z dokładnym powtórzeniem eksperymentów
powodują, że samych danych bywa za mało do sprawdzenia hipotezy o normalności rozkładu (na
przykład testem
). [1]
To zapotrzebowanie doprowadziło do powstania w ramach statystyki klasycznej testów
nieparametrycznych, które do poprawnego działania nie wymagają spełnienia hipotezy o
normalności rozkładu danych. Osiągane jest to zwykle kosztem mniejszej mocy testów, jednak w
obliczu groźby popełnienia grubego błędu metodycznego, jakim jest zastosowanie testu
parametrycznego do danych nie spełniających jego założeń, jest to zwykle cena warta zapłacenia.
Pierwszym przykładem z tej grupy jest opisany już test
Pearsona. Poniżej wprowadzimy jeszcze
dwa testy nieparametryczne; pierwszy z nich "wymyślimy" i opracujemy od początku do końca — od
analizy problemu, przez pomysł na rozwiązanie, aż do kompletnych wzorów na rozkład
prawdopobieństwa wybranej statystyki.
Przykład — nieuczciwy ankieter
Zadaniem ankietera w badaniach przedwyborczych (np. przed referendum) jest pytanie losowo
wybranych obywateli, czy mają zamiar głosować "za" czy "przeciw". Czy na podstawie wyników
ankiet, będących wyłącznie ciągiem jedynek ("za") i zer ("przeciw"), na przykład:
1101101000101001011101101111010110010101001010100011101
można sprawdzić, czy ankietowane osoby wybierano w prawidłowy sposób? Czy można też wykryć
nieuczciwego ankietera, który zamiast pracowicie przeprowadzać ankiety "wymyślił" ich wyniki?
Aby wyniki "odpytania" stosunkowo niewielkiej grupy wyborców mogły odzwierciedlać wyniki
przyszłych wyborów, grupa musi być wybrana dostatecznie "przypadkowo". Na przykład, nie ma
sensu przeprowadzenie ankiet wyłącznie wśród studentów i wnioskowanie na ich podstawie o
wynikach wyborów ogólnonarodowych. Tylko jeśli ankietowana grupa jest przypadkowo wybranym
podzbiorem populacji wszystkich wyborców, średnia opinii tej grupy będzie dobrym estymatorem
średniej opinii wszystkich wyborców (populacji).
W statystyce używamy pojęcia próby prostej, będącej wynikiem niezależnych losowań z tej samej
populacji (lub z tego samego rozkładu). Na podstawie samych wyników trudno wykryć, czy próbę
losowano np. tylko spośród mieszkańców miast, zamiast spośród wszystkich uprawnionych do
głosowania. Natomiast dość skutecznie możemy testować niezależność kolejnych losowań; zapewne
zgodzimy się, że zgodnie z intuicją bardziej prawdopodobny jest ciąg 00101101001110101001 niż
11111111110000000000, mimo że zawierają te same ilości jedynek i zer — oczywiście, jeśli mówimy
o wynikach niezależnych losowań.[2] W drugim wyniku mamy zera i jedynki zgrupowane w dwie
długie serie — to właśnie wydaje się mało prawdopodobne, w porównaniu z większą ilością serii w
pierwszym ciągu. Aby dokładnie oszacować poziom istotności dla hipotezy, że dana próba jest prosta,
pozostaje wyliczyć rozkład prawdopodobieństwa uzyskania różnych liczb serii w ciągach zer i
jedynek będących wynikiem niezależnych losowań z tej samej populacji. Ten właśnie pomysł leży u
podstaw testu serii.
1. ↑ Istnieją również testy statystyczne, które weryfikują hipotezę o normalności rozkładu nawet
dla bardzo małych próbek, jednak niezależnie od reguł należy zawsze pamiętać o zdrowym
rozsądku. Wszak o kształcie rozkładu populacji, z której losujemy próbę, mówi histogram, a
histogram kilku czy nawet kilkunastu przypadków nie niesie dość informacji, aby
odpowiedzialnie móc coś powiedzieć o kształcie rozkładu. Dlatego wyniki testów normalności
dla bardzo małych próbek należy traktować ostrożnie.
2. ↑ Jeśli pierwszych dziesięć opinii zbierzemy wśród młodych bezrobotnych a drugie dziesięć
wśród emerytów (dwie długie serie jednakowych opinii), to wynik drugi będzie bardziej
prawdopodobny, ale taki wybór ankietowanych nie jest zgodny z ideą próby prostej.