TESTY I KORELACJE – cz.1
Transkrypt
TESTY I KORELACJE – cz.1
Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) TESTY I KORELACJE – cz.1 TESTY I KORELACJE - WPROWADZENIE Podstawowe narzędzia statystyki indukcyjnej to testy statystyczne i współczynniki korelacji. Różnice między nimi prezentuje poniższa tabela: TEST STATYSTYCZNY WSPÓŁCZYNNIK KORELACJI Może być wykonany zarówno dla jednej zmiennej, Może być wyliczony tylko dla pary zmiennych. jak i dla pary zmiennych. Dla jednej zmiennej – sprawdza sposób rozkładu Sprawdza siłę zależności pomiędzy zmiennymi. zmiennej. Korelacja to współwystępowanie a nie zależność Dla dwóch zmiennych – sprawdza, czy pomiędzy przyczynowo-skutkowa! zmiennymi występuje zależność. Ma dwie hipotezy: H0 i H1 Nie ma hipotez. Hipoteza H0 (zazwyczaj) mówi o tym, że zmienne od siebie nie zależą. Hipoteza H1 (zazwyczaj) mówi o tym, że zmienne od siebie zależą. Dla rozstrzygnięcia testu ważny jest poziom Wartość korelacji mówi o jej sile: istotności statystycznej. Standardowo przyjmuje się im bliżej 0 -> tym słabsza wartość p < 0,05 jako tę, która pozwala odrzucić im bliżej 1 -> tym silniejsza hipotezę H0 i – w efekcie – przyjąć założenie o występowaniu zależności między zmiennymi. Znaki +/- to kierunek korelacji: + - korelacja wprost proporcjonalna - - korelacja odwrotnie proporcjonalna Wybór odpowiedniego testu statystycznego i współczynnika korelacji podyktowany nie jest taki oczywisty. Trzeba wziąć pod uwagę kilka rzeczy: poziom pomiaru zmiennej/zmiennych, liczbę ich wartości, to czy ich rozkład jest losowy i zbliżony do normalnego, czy mamy do czynienia z równością wariancji. Wybór testu/współczynnika korelacji słabszego niż wymagany nie jest błędem, ale osłabia wartość informacyjną prowadzonych analiz. Zdecydowanie błędem jest zaś wybór testu/współczynnika silniejszego – nad tym musi czuwać analityk, bo SPSS w dość dużej liczbie przypadków nie zaprotestuje i wykona bezsensowne i merytorycznie bzdurne obliczenia. 1 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Liczba wartości zmiennej niezależnej 1 wartość 1 grupa lub 1 parametr 2 wartości Wariancje homogeniczne więcej niż 2 grupy lub więcej niż 2 parametry Współczynniki korelacji Test statystyczny WYJATEK! Niezależna: Ilościowy Tak Nie Test t-studenta dla średniej H0 : μ = μ0 H1 : μ ≠ μ0 H1 : μ < μ0 H1 : μ > μ0 WYJATEK! Niezależna: Nominalny Nie Nie Test chi-kwadrat dla jednej zmiennej H0 : rozkład jest losowy H1 : rozkład nie jest losowy Ilościowy Tak Nie Test t-studenta dla dwóch średnich H0 : μ1 = μ2 H1 : μ1 ≠ μ2 H1 : μ1 < μ2 H1 : μ1 > μ2 Porządkowy Nie Nie Test Manna-Whitney’a H0 : F1(x) = F2(x) H1 : ~ H0 Nominalny Nie Nie Test niezależności chi-kwadrat H0 : nie zachodzi zależność H1 : ~ H0 Ilościowy Tak Tak Analiza wariancji ANOVA H0 : μ1 = μ2 = … = μk H1 : ~ H0 2 grupy lub 2 parametry Więcej niż 2 wartości Rozkład zmiennej zależnej normalny Poziom pomiaru zmiennej zależnej + testy: post-hoc Porządkowy Nie Nie Test Kruskala-Wallisa H0 : F1(x) = F2(x) = … = Fk(x) H1 : ~ H0 Nominalny Nie Nie Test niezależności chi-kwadrat H0 : nie zachodzi zależność H1 : ~ H0 Poziom pomiaru zmiennej zależnej Nominalny Porządkowy Interpretacja Ilościowy Nominalny C kontyngencji (n x n) C kontyngencji (n x n) Eta (η) V Cramera (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Phi φ Yulla (2 x 2) Poziom pomiaru zmiennej niezależnej 0,0-0,1 nikła 0,1-0,3 słaba Porządkowy C kontyngencji (n x n) Rho Spearmana (rs) Eta (η) 0,3-0,5 przeciętna V Cramera (n x n) Phi φ Yulla (2 x 2) Ewentualnie: Ewentualnie: C kontyngencji (n x n) Rho Spearmana (rs) 0,5-0,7 wysoka V Cramera (n x n) 0,7-0,9 bardzo Phi φ Yulla (2 x 2) wysoka Ilościowy C kontyngencji (n x n) Rho Spearmana (rs) R Pearsona (rxy) V Cramera (n x n) 0,9-1,0 pełna Phi φ Yulla (2 x 2) 2 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) 1. TEST NIEZALEŻNOŚCI CHI-KWADRAT I WSPÓLCZYNNIK KONTYNGENCJI C test nieparametryczny najsłabszy przedstawianych, co oznacza z jednej strony, że można go wykonać zawsze, ale z drugiej ma najmniejszą „czułość” i czasem wykaże istnienie zależności tam, gdzie silniejsze testy by ją wykluczyły Układ hipotez: H0 : nie zachodzi zależność pomiędzy zmienną niezależną i zależną (zmienna zależna nie różnicuje rozkładu zmiennej zależnej) H1 : ~ H0 Ogólna zasada działania: test porównuje ze sobą dwa rozkłady liczebności w tabeli krzyżowej zmienna niezależna x zmienna zależna: obserwowany i oczekiwany rozkład obserwowany uzyskujemy w toku badania, to nasze dane z bazy rozkład oczekiwany to pewien rozkład idealny: tak rozkładałyby się liczebności w tabeli krzyżowej, gdyby między dwiema zmiennymi nie było żadnej zależności jeśli rozkłady obserwowany i oczekiwany są bardzo podobne – test orzeka, że nie ma zależności 3 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) jeśli natomiast rozkłady od siebie odbiegają – test orzeka, że zależność jest Przykład: filtr: rok badania to 2010 Czy istnieje zależność pomiędzy wiekiem respondenta a samookreśleniem przez niego swojej religijności? Zmienna niezależna: wiek w przedziałach (zdekodowane q9age) Zmienna zależna: re32 „Które z następujących stwierdzeń opisuje Pana(-ią) najlepiej…” (ważne: odpowiedź „trudno powiedzieć” ma być brakiem danych) ANALIZA -> OPIS STATYSTYCZNY -> TABELE KRZYŻOWE i dalej: STATYSTYKI -> CHI-KWADRAT oraz WSPÓŁCZYNNIK KONTYNGENCJI KOMÓRKI -> PROCENTY W WIERSZU Należy pamiętać, że zgodnie z konwencją tworzenia tabel zmienną niezależną umieszczamy w wierszach, a zmienną zależną w kolumnach Jeśli chcemy zobaczyć rozkład oczekiwany to w KOMÓRKI należy zaznaczyć również LICZEBNOŚCI OCZEKIWANE Syntax: CROSSTABS /TABLES=q9age_rek BY re32 /FORMAT=AVALUE TABLES /STATISTICS=CHISQ CC /CELLS=COUNT ROW /COUNT ROUND CELL. W linii kodu /TABLES zmienna niezależna wymieniana jest jako pierwsza a zmienna zależna jako druga Aby zobaczyć rozkład oczekiwany w linii /CELLS powinno być /CELLS=COUNT EXPECTED ROW 4 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Jeśli chodzi o współczynniki korelacji, które można zastosować po obliczeniu testu chi-kwadrat, to są trzy najpopularniejsze: Współczynnik kontyngencji C (najbardziej uniwersalny, z korektą na kształt tabeli) V Cramera (dla tabel innych niż 2 x 2) Phi φ Yulla (tylko dla tabel 2 x 2) Zalecam stosowanie tego pierwszego – właśnie ze względu na jego uniwersalność. Po wydaniu polecenia otrzymujemy 4 tabele: Informacja o analizowanych danych – pokazuje, ile obserwacji zostało wykluczonych: to respondenci, którzy przynajmniej w jednym z analizowanych pytań udzielili odpowiedzi zakwalifikowanej jako brak danych. Tabela krzyżowa Testy chi-kwadrat – skąd odczytujemy decyzję podaną przez test i tak naprawdę interesuje nas tylko wiersz „Chi-kwadrat Pearsona” Miary symetryczne – skąd odczytujemy wartość współczynniki kontyngencji C (tylko, gdy istnieje zależność). Tabela testu: Testy Chi-kwadrat Wartość Istotność df asymptotyczna (dwustronna) a 15 ,000 Iloraz wiarygodności 63,074 15 ,000 Test związku liniowego 31,270 1 ,000 N Ważnych obserwacji 1168 Chi-kwadrat Pearsona 60,792 a. 0,0% komórek (0) ma liczebność oczekiwaną mniejszą niż 5. Minimalna liczebność oczekiwana wynosi 12,41. 2 (df, N) = [wartość], [istotność] < 0,05 2 (15, N=1168) = 60,792, p<0,05 [ przy braku zależności opis wyglądałby: 2 (15, N=1168) = 60,792, p>0,05 ] Ponieważ istotność statystyczna jest mniejsza niż 0,05, to możemy odrzucić hipotezę o braku zależności między zmiennymi i przyjąć, że zależność jest. Co oznacza taką oto interpretację: „W celu sprawdzenia związku pomiędzy wiekiem a samookreśleniem przez respondenta jego religijności wykonano test niezależności chi-kwadrat. Test 2 (15, N=1168) = 60,792, p<0,05 5 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) wykazał, że istnieje zależność pomiędzy zmiennymi. Analiza rozkładu zmiennych w tabeli krzyżowej ujawniła, że im starszy respondent, tym rzadziej pojawiały się odpowiedzi o niepostępowaniu zgodnie z zasadami religii.” Miary symetryczne Wartość Istotność przybliżona Nominalna przez Nominalna Współczynnik kontyngencji N Ważnych obserwacji ,222 ,000 1168 Wartość współczynnika kontyngencji wynosi C=0,222, co oznacza, że zależność jest słaba. Generalnie do właściwego raportu z badań nie wklejamy SPSS-owych tabel testu i współczynnika, tylko opisujemy ich wyniki. Przy teście chi-kwadrat trzeba pamiętać jeszcze o kilku sprawach. Zobrazuję to na przykładzie. Tym razem przetestujemy parę zmiennych: homepop – liczba osób w gospodarstwie domowym re32 – samookreślenie religijności Syntax: CROSSTABS /TABLES=hompop BY re32 /FORMAT=AVALUE TABLES /STATISTICS=CHISQ CC /CELLS=COUNT EXPECTED ROW /COUNT ROUND CELL. Wygenerowana tabela krzyżowa ujawnia w swojej końcowej części to, co może być problematyczne (dla zachowania czytelności usunęłam część wierszy, zmieniłam opis w wierszach i pokolorowałam je) 6 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Tabela krzyżowa Liczba osób w gospodarstwie domowym * Które z następujących stwierdzeń opisuje Pana(-ią) najlepiej: Które z następujących stwierdzeń opisuje Pana(-ią) najlepiej: Postępuję Postępuję Nie postępuję Nie postępuję zgodnie z zgodnie z zgodnie z zgodnie z zasadami religii zasadami zasadami zasadami religii i uważam siebie religii, ale nie religii, ale i nie uważam za osobę uważam siebie uważam siebie siebie za osobę uduchowioną, za osobę za osobę uduchowioną, zainteresowaną uduchowioną, uduchowioną, zainteresowaną tym, co święte zainteresowaną zainteresowaną tym, co święte lub nadprzyrodz tym, co święte tym, co święte lub nad lub nadp lub nadp Ogółem Liczebność 48 131 19 29 227 Liczebność 43,9 141,9 17,9 23,3 227,0 21,1% 57,7% 8,4% 12,8% 100,0% oczekiwana JEDNA (RESPONDENT) % z Liczba osób w gospodarstwie domowym … Liczebność Liczba osób w … SIEDEM OSÓB L.oczekiwana … … … … … 2 9 1 0 12 2,3 7,5 ,9 1,2 12,0 16,7% 75,0% 8,3% 0,0% 100,0% gosp. % domowym Liczebność 2 1 0 0 3 L.oczekiwana ,6 1,9 ,2 ,3 3,0 66,7% 33,3% 0,0% 0,0% 100,0% Liczebność 0 1 0 0 1 L.oczekiwana ,2 ,6 ,1 ,1 1,0 0,0% 100,0% 0,0% 0,0% 100,0% Liczebność 0 1 0 0 1 L.oczekiwana ,2 ,6 ,1 ,1 1,0 0,0% 100,0% 0,0% 0,0% 100,0% 226 730 92 120 1168 226,0 730,0 92,0 120,0 1168,0 19,3% 62,5% 7,9% 10,3% 100,0% OSIEM OSÓB % DZIEWIĘĆ OSÓB % DWANAŚCIE OSÓB % Liczebność Ogółem L.oczekiwana % Zmienna „liczba osób w gospodarstwie domowym” wygenerowała 10 kategorii – od gospodarstw jednoosobowych do gospodarstwa dwunastoosobowego. Tyle, że od kategorii „siedem osób” – ta i kolejne są bardzo mało liczne. Co powoduje, że końcówka tabeli obfituje w puste komórki. A test chi-kwadrat tego bardzo nie lubi. Jego czułość i wiarygodność jeszcze bardziej spada. 7 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Drugi problem jest powiązany z pierwszym i sygnalizuje go sam SPSS. Pod tabelą testu wyświetla się taki oto komunikat: Testy Chi-kwadrat Wartość Istotność df asymptotyczna (dwustronna) a 27 ,597 26,444 27 ,494 Test związku liniowego 4,699 1 ,030 N Ważnych obserwacji 1168 Chi-kwadrat Pearsona Iloraz wiarygodności 24,604 a. 42,5% komórek (17) ma liczebność oczekiwaną mniejszą niż 5. Minimalna liczebność oczekiwana wynosi ,08. Dużego odsetka komórek z małymi liczebnościami oczekiwanymi też chi-kwadrat nie lubi. I to też obniża jego czułość i wiarygodność. Dlatego, gdy mamy do czynienia z taką sytuacją należy zastanowić się nad rekodowaniem problematycznych zmiennych. W tym przypadku można by zrobić coś takiego: liczba osób w gosp dom Częstość Ważne Procent Procent Procent ważnych skumulowany JEDNA (RESPONDENT) 248 19,6 19,6 19,6 DWIE OSOBY 336 26,6 26,6 46,2 TRZY OSOBY 273 21,6 21,6 67,8 CZTERY OSOBY 243 19,2 19,2 87,1 PIĘĆ OSÓB I WIĘCEJ 164 12,9 12,9 100,0 1263 100,0 100,0 Ogółem Test chi-kwadrat co prawda ponownie wskazał na brak zależności (można sprawdzić samemu ), ale przynajmniej wiemy, że nie wynika to z nierównomiernego rozkładu zmiennych. 8 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) 2. TEST CHI-KWADRAT DLA 1 ZMIENNEJ Test chi-kwadrat można też wykorzystać, aby sprawdzić, czy rozkład danej zmiennej nominalnej lub porządkowej: albo jest losowy – tzn. czy poszczególne kategorie osób wyznaczone przez wartości tej zmiennej wypełniają się w sposób losowy. albo odzwierciedla strukturę populacji (np. 20% niewierzących i 80% wierzących) Układ hipotez: H0 : nie ma różnic w rozkładzie liczebności pomiędzy kategoriami (rozkład jest losowy / odzwierciedla strukturę populacji) H1 : ~ H0 Przykład: filtr: rok badania 2010 testowana zmienna q5 „kobiety nie nadają się do polityki” zmienną potraktujemy jako dwuwartościową (odpowiedź „nie jestem pewien/pewna” ma być brakiem danych) przetestujemy losowość rozkładu – czy każda z dwóch ważnych odpowiedzi (zgadzam się / nie zgadzam się) to 50% respondentów ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> CHI-KWADRAT W polu „Wartości oczekiwane” pozostawić „Wszystkie kategorie są równe”. Gdybyśmy chcieli testować rozkład populacyjny, który nie byłby tak równy, to należałoby wybrać opcję wartości i wprowadzić ręcznie proporcje kolejnych kategorii – w takiej samej kolejności jak idą w wartościach testowanej zmiennej! Syntax NPAR TESTS /CHISQUARE=q5 /EXPECTED=EQUAL /MISSING ANALYSIS. 9 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Po wykonaniu polecenia otrzymujemy dwie tabele. Pierwsza to rozkład zmiennej: Kobiety nie nadają się do polityki Obserwowane Oczekiwane N Reszty N Zgadzam się 612 602,0 10,0 Nie zgadzam się 592 602,0 -10,0 Ogółem 1204 Kolumna „Obserwowane” informuje nas jak wygląda uzyskany w badaniu rozkład zmiennej. Kolumna „Oczekiwane” informuje jaki byłby rozkład, gdyby każda z kategorii miała 50%. Kolumna reszty to różnica „Obserwowane” - „Oczekiwane”; reszta większa od zera pokazuje, czego mamy za dużo w rozkładzie faktycznym, a reszta mniejsza od zera: czego za mało. O tym, czy różnica między obserwowanym i oczekiwanym wpływa lub nie wpływa na losowość rozkładu informuje tabela testu. Statystyki testu Kobiety nie nadają się do polityki Chi-kwadrat ,332 df a 1 Istotność asymptotyczna ,564 a. 0 komórek (0,0%) ma liczebność oczekiwaną mniejszą od 5. Minimalna liczebność oczekiwana w komórce wynosi 602,0. 2 (df, N) = [wartość], [istotność] > 0,05 2 (1, N=1204) = 0,332, p>0,05 [ przy braku zależności opis wyglądałby: 2 (1, N=1204) = 0,332, p>0,05 ] Interpretacja: „Dla zbadania losowości rozkładu zmiennej „Kobiety nie nadają się do polityki – zgadzam się lub nie zgadzam ze stwierdzeniem”, wykonano test chi-kwadrat dla jednej zmiennej. Test 2 (1, N=1204) = 0,332, p>0,05 nie jest istotny statystycznie, co nie daje podstaw do odrzucenia hipotezy zerowej: rozkład zmiennej jest losowy.” 10 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) 3. TEST T-STUDENTA I WSPÓŁCZYNNIK KORELACJI ETA Test parametryczny Porównywanym parametrem jest średnia; Test t-Studenta porównuje średnie z dwóch grup. Grupy te można wyznaczyć na trzy różne sposoby: a) Zmienna niezależna jest oryginalnie dwuwartościowa Np. płeć: kobieta / mężczyzna b) Zmienna niezależna jest oryginalnie wielowartościowa, ale dla celów analitycznych sprowadzamy poprzez rekodowanie ją do dwóch wartości, np. Wiek: 1: <= 25 lat 2: 26 – 35 lat 3: 36 – 45 lat 4: 46 – 55 lat 5: 56 – 65 lat 6: 66+ lat Wiek: 1: <=45 lat 2: 45+ lat c) Zmienna niezależna jest oryginalnie wielowartościowa, ale dla celów analitycznych wybieramy do porównania tylko dwie z jej wartości, np. Wiek: 1: <= 25 lat 2: 26 – 35 lat 3: 36 – 45 lat 4: 46 – 55 lat 5: 56 – 65 lat 6: 66+ lat Wiek: 2: 26-35 lat 4: 46-55 lat Układ hipotez: Hipoteza zerowa: nie różnic pomiędzy średnimi w porównywanych grupach; zmienna niezależna nie różnicuje średnich; nie ma związku pomiędzy zmiennymi H0 : μ1 = μ2 Hipoteza alternatywna: jest różnica pomiędzy średnimi w porównywanych grupach; zmienna niezależna różnicuje średnie; jest związek pomiędzy zmiennymi; Trzy możliwe postacie: H1 : μ1 ≠ μ2 => średnie różnią się, bez orzekania która jest większa H1 : μ1 < μ2 => średnia w drugiej grupie większa od średniej w pierwszej grupie H1 : μ1 > μ2 => średnia w pierwszej grupie większa od średniej w drugiej grupie 11 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Test t-Studenta ma też swoje wymagania, których niespełnienie obniża jego wiarygodność: W miarę równoliczne porównywane grupy (w praktyce nie musi być co do osoby, ale ważne, by unikać wielkich dysproporcji); Równe wariancje w porównywanych grupach (w praktyce: test ma wbudowaną poprawkę na okoliczność niehomogenicznych wariancji); Rozkład zmiennej zależnej w każdej z porównywanych grup jest normalny (w praktyce: często się to pomija). Niespełnienie jednego, dwóch lub wszystkich powyższych założeń może/powinno być wskazówką do tego, by parametryczny test t-Studenta zastąpić jego nieparametrycznym odpowiednikiem: testem MannaWhitneya. Przykład: Filtr: rok badania 2010 Zmienna niezależna: q8 „płeć” Zmienna zależna: re6 „Mężczyzna zarabiać, kobieta w domu” o Potraktujemy ją jako zmienną ilościową ze względu na zastosowaną tam kafeterię likertowską; o By utrzymać poziom ilościowych należy do braków danych dopisać odpowiedź „trudno powiedzieć”; o Przypominam: gdyby to była kafeteria czwórelementowa, to można by ją zmienić w likertowską umieszczając „trudno powiedzieć” jako item środkowy; ANALIZA -> PORÓWNANIE ŚREDNICH -> TEST T DLA PRÓB NIEZALEŻNYCH Zmienna testowana -> zależna Zmienna grupująca -> niezależna o Przy wybraniu punktu podziału, będzie on stanowił dolną granicę drugiego przedziału (będzie np. < 3 oraz >=3) Syntax: T-TEST GROUPS=q8(1 2) /MISSING=ANALYSIS /VARIABLES=re6 /CRITERIA=CI(.95). w linii kodu T-TEST GROUPS=q8(1 2) jest zmienna niezależna w kody dwóch porównywanych grup w linii kodu /VARIABLES=re6 jest zmienna zależna 12 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Wykonanie polecenia generuje dwie tabele: Statystyki dla grup Test dla prób niezależnych Interpretuje się obie tabele. Tabela „statystyki dla grup” Statystyki dla grup Płeć respondenta: 1=M, Średnia N 2=KOB Odchylenie Błąd standardowe standardowy średniej Mężczyz zarabiać, kobieta w MĘŻCZYZNA 584 2,73 1,169 ,048 domu KOBIETA 646 3,04 1,208 ,048 Interpretujemy podobne dane jak przy prostym porównywaniu średnich: Wartość średniej Wartość odchylenia standardowego Liczebność grup Ta ostatnia informacja – o liczebności grup – jest dla nas ważna ze względu na wymogi testu (jak pamiętamy: test woli grupy równoliczne). Tu nie ma równoliczności, ale dysproporcja nie jest jakaś bardzo duża. To znaczy, że (na razie) możemy ufać testowi. Interpretacja drugiej tabeli „test dla prób niezależnych” Test dla prób niezależnych Test t równości średnich Test Levene'a jednorodności wariancji F Założono Mężczyz zarabiać, kobieta w domu ,047 Istotność ,829 t df Istotność Różnica Błąd 95% przedział (dwustronna) średnich standardowy ufności dla różnicy różnicy średnich Dolna Górna granica granica -4,575 1228 ,000 -,311 ,068 -,444 -,177 -4,583 1222,760 ,000 -,311 ,068 -,444 -,178 równość wariancji Nie założono równości wariancji 13 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Tabela składa się z wyników dwóch testów: Testu Levene’a (zaznaczony na szaro) Testu t-Studenta Po co test Levene’a? Jednym z warunków testu t-Studenta jest homogeniczność wariancji. Test na szczęście nie wymaga tego bezwzględnie i ma wbudowaną poprawkę właśnie na okoliczność braku równości wariancji. Kłopot polega na tym, że SPSS jednocześnie liczy obie wersje testu: tę bez poprawki i tę z poprawką. Byśmy jednak wiedzieli, który wynik jest ten „nasz” dostajemy podpowiedź w postaci testu Levene’a. Test ten sprawdza właśnie homogeniczność wariancji (jego Ho zakłada równość wariancji): Gdy istotność testu Levene’a jest mniejsza niż 0,05 -> test jest istotny, odrzucamy jego hipotezę zerową -> wariancje nie są homogeniczne i czytamy w tabeli 2 wiersz w części „test t równości średnich”; Gdy istotność testu Levene’a jest większa niż 0,05 -> test jest nieistotny, przyjmujemy jego hipotezę zerową -> wariancje są homogeniczne i czytamy w tabeli 1 wiersz w części „test t równości średnich”; W naszym przypadku istotność testu Levene’a jest większa niż 0,05, co oznacza, że wariancje są homogeniczne i dalej będziemy zajmować się pierwszym wierszem tabeli. Test dla prób niezależnych Test t równości średnich Test Levene'a jednorodności wariancji F Założono Mężczyz zarabiać, kobieta w domu Istotność ,047 ,829 t df Istotność Różnica Błąd 95% przedział (dwustronna) średnich standardowy ufności dla różnicy różnicy średnich Dolna Górna granica granica -4,575 1228 ,000 -,311 ,068 -,444 -,177 -4,583 1222,760 ,000 -,311 ,068 -,444 -,178 równość wariancji Nie założono równości wariancji t(df) = [wartość]; [istotność] < 0,05 t(1228) = -4,575; p<0,05 [ przy braku zależności opis wyglądałby: t(1228) = -4,575, p>0,05 ] 14 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Interpretacja: „Aby sprawdzić, czy odpowiedzi respondentów na pytanie „Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu” są zróżnicowane ze względu na płeć, wykonano test t-Studenta. Test t(1228) = -4,575; p<0,05 wykazał, że płeć różnicuje opinie. Kobiety częściej niż mężczyźni wykazywały tendencję do odrzucania wskazanej w pytaniu tezy.” Ponieważ test t-Studenta wykazała istnienie zależności można obliczyć współczynnik korelacji, który pokaże siłę zależności. Będzie to Eta, którą stosujemy przy układzie zmiennych: Nominalna x ilościowa Porządkowa x ilościowa Etę można policzyć na dwa sposoby: 1) ANALIZA -> PORÓWNYWANIE ŚREDNICH -> SREDNIE w OPCJE zaznaczyć „tabela ANOVA i eta” Syntax: MEANS TABLES=re6 BY q8 /CELLS MEAN COUNT STDDEV /STATISTICS ANOVA. Przy okazji policzy się Anova, którą tutaj ignorujemy. Interesuje nas tylko tabela: Miara związku Eta Mężczyz zarabiać, kobieta w domu ,129 Eta kwadrat ,017 * Płeć respondenta: 1=M, 2=KOB 2) ANALIZA -> OPIS STATYSTYCZNY -> TABELE KRZYŻOWE w STATYSTYKI zaznaczyć „Eta” Syntax: CROSSTABS /TABLES=q8 BY re6 /FORMAT=AVALUE TABLES /STATISTICS=ETA /CELLS=COUNT ROW /COUNT ROUND CELL. 15 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Tabelę krzyżową można zignorować i przejść od razu do tabelki: Miary kierunkowe Wartość Zmienna zależna: Płeć Nominalna przez Przedziałowa ,155 respondenta: 1=M, 2=KOB Eta Zmienna zależna: Mężczyz ,130 zarabiać, kobieta w domu Przy tej tabeli ważne jest, by odczytać właściwy wiersz – ten, gdzie jest wskazana zmienna zależna. Niezależnie od sposobu liczenia współczynnik korelacji Eta ( = 0,129 / = 0,13) informuje, że zależność jest słaba. Do tej pory nie zwracaliśmy uwagi na trzeci warunek testu t-Studenta, czyli wymóg rozkładu normalnego zmiennej zależnej w każdej z porównywanych grup. Tak jak pisałam wcześniej, warunek ten najczęściej się ignoruje. Gdybyśmy jednak chcieli sprawdzić, czy i pod tym względem możemy ufać testowi t-Studenta, to mamy do dyspozycji odpowiednie testy: Test Kołmogorow-Smirnowa dla grup N>100 Test Shapiro-Wilka dla grup N<100 Ponieważ nasza próba jest zdecydowanie ponad stuosobowa, to zrobimy test Kołmogorow-Smirnowa. ANALIZA -> OPIS STATYSTYCZNY -> EKSPLORACJA w WYKRESY zaznaczyć „histogram” oraz „wykresy normalności z testami”; można odznaczyć „łodyga-i-liście”; zmienna niezależna będzie „czynnikiem”, co oznacza, że normalność rozkładu będziemy testować osobno dla każdej z jej grup: osobno dla mężczyzn i osobno dla kobiet; Syntax: EXAMINE VARIABLES=re6 BY q8 /PLOT BOXPLOT HISTOGRAM NPPLOT /COMPARE GROUPS /STATISTICS DESCRIPTIVES /CINTERVAL 95 /MISSING LISTWISE /NOTOTAL. W linii kodu EXAMINE VARIABLES=re6 BY q8 zmienna niezależna (czynnik) podawana jest jako druga 16 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) W tabeli „statystyki opisowe” mamy dobrze nam znane miary. Do oceny normalności rozkładu przydadzą nam się szczególnie dwie: kurtoza i błąd standardowy kurtozy skośność i błąd standardowy skośności Wiemy, że kurtoza opisuje dopasowanie rozkładu zmiennej do rozkładu normalnego „wzwyż / wszerz”, a skośność – przesunięcie rozkładu zmiennej w prawo lub w lewo. Ponadto, jeśli podzielimy obie miary przez ich błędy standardowe, to: wynik w granicach -2 do 2 wskazuje na rozkład normalny zmiennej wynik poniżej -2 lub powyżej 2 wskazuje na „nienormalność” rozkładu Dalej mamy test normalności rozkładu – u nas: test Kołmogorow-Smirnowa. Jego hipoteza zerowa zakłada, że rozkład zmiennej zależnej jest normalny. Dlatego p < 0,05 oznacza istotność testu, odrzucenie H0 i uznanie, że rozkład nie jest normalny p > 0,05 oznacza nieistotność testu, przyjęcie H0 i uznanie, że rozkład jest normalny Wynik testu Kołmogorowa-Smirnowa jest opisany przez poniższą tabelę. Testy normalności rozkładu Płeć respondenta: 1=M, 2=KOB a Kołmogorow-Smirnow Statystyka Istotność df Mężczyz zarabiać, kobieta w MĘŻCZYZNA ,223 584 ,000 domu ,224 646 ,000 KOBIETA a. Z poprawką istotności Lillieforsa W naszym przypadku istotność w obu grupach jest mniejsza niż 0,05. Oznacza to, że mamy podstawy do odrzucenia hipotezy zerowej o normalności rozkładu zmiennej. Gdybyśmy teraz chcieli być bardzo rygorystyczni, to wynik testu Kołmogorowa-Smirnowa powinien nas zniechęcić do wykonania testu t-Studenta. Zamiast tego powinniśmy sięgnąć po jego nieparametryczny odpowiednik, czyli test Manna-Whitneya. Przy teście Kołmogorowa-Smirnowa pokazane są również wykresy – można spojrzeć na histogramy, które powinny potwierdzić wnioski dot. kształtu rozkładu zmiennej z analizy kurtozy i skośności. Resztę wykresów można pominąć. 17 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) 4. TEST MANNA-WHITNEYA Test nieparametryczny Porównuje rozkłady rang dla dwóch grup (wyznaczonych przez zmienną niezależną) Traktowany jako nieparametryczny odpowiednik testu t-Studenta Układ hipotez: => rozkłady rang są równe, zmienna niezależna nie różnicuje rozkładów rang, H0 : F1(x) = F2(x) nie ma zależności między zmiennymi H1 : ~ H0 Zasada działania na przykładzie: Przeprowadzono pomiar czasu nauki do egzaminu w minutach i uzyskano wyniki: Kobiety: 171, 194, 162, 210, 171, 160, 176, 185, 203, 222, 129, 167, 168 Mężczyźni: 152, 114, 151, 174, 149, 161, 153, 163, 156 Pomiary z obu grup są szeregowane od najmniejszego do największego (każda grupa osobno), a potem rangowane (obie grupy razem). Następnie rangi dla każdej z grup są sumowane. K Ranga M Ranga 129 2 114 1 160 8 149 3 162 10 151 4 167 12 152 5 168 13 153 6 171 14,5 156 7 171 14,5 161 9 176 17 163 11 185 18 174 16 194 19 203 20 210 21 222 22 191 62 Dalsze obliczenia związane są ze statystyką U i jej rozkładem. Te wszystkie działania SPSS wykonuje w trakcie obliczania testu. Nam udostępnia jedynie wynik końcowy. Przykład: Filtr: rok badania 2010 Zmienna niezależna: q8 „płeć” Zmienna zależna: re6 „Mężczyzna zarabiać, kobieta w domu” o Dla jasności interpretacji do braków danych zostaje zaliczona odpowiedź „trudno powiedzieć” ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> DWIE PRÓBY NIEZALEŻNE Zmienna grupująca -> niezależna Zmienna testowana -> zależna 18 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Syntax: NPAR TESTS /M-W= re6 BY q8(1 2) /MISSING ANALYSIS. w linii kodu /M-W= re6 BY q8(1 2) zmienna zależna podawana jest jako pierwsza a zmienna niezależna jako druga (wraz z kodami porównywanych grup) Wykonanie polecenia generuje dwie tabele. Pierwsza z tabel: „rangi”, informuje nas ile osób było w każdej z porównywanych grup. Do tego, dla każdej z grup podane są średnie rangi. Można te liczby, lekko naginając rzeczywistość, interpretować tak jak zwykłą średnią: im wyższa wartość, tym częściej padały odpowiedzi wysoko kodowane w kafeterii (u nas: wskazujące na niezgodę z prezentowanym twierdzeniem). Rangi Płeć respondenta: 1=M, 2=KOB Mężczyz zarabiać, kobieta w domu Średnia ranga N Suma rang MĘŻCZYZNA 591 585,94 346288,50 KOBIETA 696 693,30 482539,50 Ogółem 1287 Druga tabela jest tabelą właściwą testu: Statystyki testu a Mężczyz zarabiać, kobieta w domu U Manna-Whitneya 171352,500 W Wilcoxona 346288,500 Z -5,326 Istotność asymptotyczna ,000 (dwustronna) a. Zmienna grupująca: Płeć respondenta: 1=M, 2=KOB U=[wartość]; [istotność] < 0,05 U=171352,5; p<0,05 [ przy braku zależności opis wyglądałby: U=171352,5, p>0,05 ] Interpretacja: „Aby sprawdzić, czy odpowiedzi respondentów na pytanie „Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu” są zróżnicowane ze względu na płeć, wykonano test Manna-Whitenya. Test U=171352,5; p<0,05 wykazał, że płeć różnicuje opinie. Kobiety częściej niż mężczyźni wykazywały tendencję do odrzucania wskazanej w pytaniu tezy.” 19 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) 5. TEST KRUSKALA-WALLISA Test nieparametryczny Porównuje rozkłady rang dla więcej niż dwóch grup (wyznaczonych przez zmienną niezależną) Traktowany jako nieparametryczny odpowiednik jednoczynnikowej analizy wariancji ANOVA Układ hipotez: H0 : F1(x) = F2(x) = … = Fk(x) => rozkłady rang są równe, zmienna niezależna nie różnicuje rozkładów rang, nie ma zależności między zmiennymi H1 : ~ H0 Zasada działania testu jest taka sama jak w przypadku testu Manna-Whitneya, z tą różnicą, że test KruskalaWallisa oparty jest na statystyce chi-kwadrat. Przykład: Filtr: rok badania 2010 Zmienna niezależna: rekodowany do przedziałów wiek Zmienna zależna: re6 „Mężczyzna zarabiać, kobieta w domu” o Dla jasności interpretacji do braków danych zostaje zaliczona odpowiedź „trudno powiedzieć” ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> K PRÓB NIEZALEŻNYCH Zmienna grupująca -> niezależna Zmienna testowana -> zależna Syntax: NPAR TESTS /K-W=re6 BY q9age_rek(1 6) /MISSING ANALYSIS. w linii kodu K-W=re6 BY q9age_rek(1 6) zmienna zależna podawana jest jako pierwsza a zmienna niezależna jako druga (wraz z kodami porównywanych grup – pierwszym i ostatnim kodem z listy wszystkich wartości zmiennej bez braków danych) 20 Opracowanie: dr Agnieszka Figiel (IS UAM Poznań) Wykonanie polecenia generuje dwie tabele. Pierwsza z tabel: „rangi”, informuje nas ile osób było w każdej z porównywanych grup. Do tego, dla każdej z grup podane są średnie rangi. Można te liczby, lekko naginając rzeczywistość, interpretować tak jak zwykłą średnią: im wyższa wartość, tym częściej padały odpowiedzi wysoko kodowane w kafeterii (u nas: wskazujące na niezgodę z prezentowanym twierdzeniem). Rangi Wiek respondenta Średnia ranga N (Podzielone) Mężczyz zarabiać, kobieta w domu <= 25 184 718,14 26 - 35 248 739,73 36 - 45 207 712,39 46 - 55 231 616,64 56 - 65 231 574,92 66+ 186 486,70 Ogółem 1287 Druga tabela jest tabelą właściwą testu: Statystyki testu a,b Mężczyz zarabiać, kobieta w domu Chi-kwadrat df 77,985 5 Istotność asymptotyczna ,000 a. Test Kruskala-Wallisa b. Zmienna grupująca: Wiek respondenta (Podzielone) H=[wartość]; [istotność] < 0,05 H=77,985; p<0,05 [ przy braku zależności opis wyglądałby: H=77,985, p>0,05 ] Interpretacja: „Aby sprawdzić, czy odpowiedzi respondentów na pytanie „Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu” są zróżnicowane ze względu na wiek, wykonano test Kruskala-Wallisa. Test H=77,985; p<0,05 wykazał, że wiek różnicuje opinie. Osoby młodsze częściej niż starsi respondenci wykazywały tendencję do odrzucania wskazanej w pytaniu tezy.” 21