Czy klasyczna metoda statystycznego testowania hipotez realizuje

Transkrypt

Czy klasyczna metoda statystycznego testowania hipotez realizuje
Czy klasyczna metoda statystycznego testowania hipotez
realizuje cel dążenia do prawdy?
Wielu
filozofów
zgodziłoby
się,
że
racjonalność
naukowo
uzasadnionych
przekonań/przyjętych tez/ opiera się na tym, że metoda naukowa, jako sposób nabywania
przekonań/przyjmowania tez, jest wiarygodnym środkiem dochodzenia do prawdy – w sensie
skutecznego (w akceptowalnym stopniu) przyczyniania się do zwiększania udziału prawdziwych i
zmniejszania udziału fałszywych pośród wszystkich przyjętych tez/posiadanych przekonań. Uważa
się, że metody testowania hipotez – testy istotności – należące do częstościowego paradygmatu
statystycznego, którego jednym z głównych twórców i propagatorów był Jerzy Neyman, wskazują
jaka jest ich skuteczność w dochodzeniu do prawdy. Ta wyraża się w z góry określonych
spodziewanych wartościach dwóch rodzajów błędów, które można traktować jako podstawę
szacowania częstości ich popełniania przy wielokrotnym używaniu metody.
Jednym z problemów dotyczących powyższej własności
jest fakt, że wspomniana
skuteczność testu odnosi się do wyidealizowanej, kontrfaktycznej klasy nieskończonej liczby
obserwacji poczynionych w identyczny sposób. Ponadto, gdyby wspomniana wiarygodność testu
dotyczyła jego aplikacji w różnych kontekstach, czy nie wymagałoby to przyjęcia, że poszczególne
badania są od siebie niezależne? Następny kłopot sprawia fakt, że w różnych kontekstach
korzystania z tego samego testu może być wybierany inny poziom błędu i zależy on od
praktycznych preferencji badacza. Dodatkowo, metoda nie przewiduje zbieżności do ideału
przyjmowania jedynie prawdziwych tez wraz ze wzrostem liczby jej zastosowań. Wydaje się
również nie wskazywać w jaki sposób wyniki już uzyskane w ramach danego kontekstu
badawczego mogą być brane pod uwagę przy okazji kolejnych badań na ten sam temat. W końcu,
próby ominięcia części powyższych problemów poprzez odwołanie do twierdzeń statystyki
matematycznej wydają się prowadzić bądź do błędu regresu w nieskończoność, bądź błędu
kołowacizny.
Niezależnie od powyższych problemów, okazuje się, że specyfika koncepcji jednego z
dwóch rodzajów błędów (beta) w rzeczywistości uniemożliwia traktowanie go jako podstawy
szacowania przewidywanej częstości błędów; pozwala szacować częstość niewłaściwych decyzji,
co, w świetle celu dochodzenia do prawdy, nie jest jednak tym samym. Referat będzie polegał, po
pierwsze, na podjęciu próby ominięcia problemów wskazanych w drugim akapicie, poprzez
argumentację nie wykraczającą poza ramy ogólnie rozumianego paradygmatu częstościowego.
Drugim celem referatu będzie dyskusja nad ograniczeniami metody wynikającymi z problemu
dotyczącego błędu beta. W wyniku tego zostanie przeprowadzona próba obrony omawianej metody
jako w specyficzny sposób realizującej cel doprowadzania nas do prawdy a zarazem wskazane
niekorzystne aspekty traktowania tej metody jako standardu w badaniach naukowych.