Czy klasyczna metoda statystycznego testowania hipotez realizuje
Transkrypt
Czy klasyczna metoda statystycznego testowania hipotez realizuje
Czy klasyczna metoda statystycznego testowania hipotez realizuje cel dążenia do prawdy? Wielu filozofów zgodziłoby się, że racjonalność naukowo uzasadnionych przekonań/przyjętych tez/ opiera się na tym, że metoda naukowa, jako sposób nabywania przekonań/przyjmowania tez, jest wiarygodnym środkiem dochodzenia do prawdy – w sensie skutecznego (w akceptowalnym stopniu) przyczyniania się do zwiększania udziału prawdziwych i zmniejszania udziału fałszywych pośród wszystkich przyjętych tez/posiadanych przekonań. Uważa się, że metody testowania hipotez – testy istotności – należące do częstościowego paradygmatu statystycznego, którego jednym z głównych twórców i propagatorów był Jerzy Neyman, wskazują jaka jest ich skuteczność w dochodzeniu do prawdy. Ta wyraża się w z góry określonych spodziewanych wartościach dwóch rodzajów błędów, które można traktować jako podstawę szacowania częstości ich popełniania przy wielokrotnym używaniu metody. Jednym z problemów dotyczących powyższej własności jest fakt, że wspomniana skuteczność testu odnosi się do wyidealizowanej, kontrfaktycznej klasy nieskończonej liczby obserwacji poczynionych w identyczny sposób. Ponadto, gdyby wspomniana wiarygodność testu dotyczyła jego aplikacji w różnych kontekstach, czy nie wymagałoby to przyjęcia, że poszczególne badania są od siebie niezależne? Następny kłopot sprawia fakt, że w różnych kontekstach korzystania z tego samego testu może być wybierany inny poziom błędu i zależy on od praktycznych preferencji badacza. Dodatkowo, metoda nie przewiduje zbieżności do ideału przyjmowania jedynie prawdziwych tez wraz ze wzrostem liczby jej zastosowań. Wydaje się również nie wskazywać w jaki sposób wyniki już uzyskane w ramach danego kontekstu badawczego mogą być brane pod uwagę przy okazji kolejnych badań na ten sam temat. W końcu, próby ominięcia części powyższych problemów poprzez odwołanie do twierdzeń statystyki matematycznej wydają się prowadzić bądź do błędu regresu w nieskończoność, bądź błędu kołowacizny. Niezależnie od powyższych problemów, okazuje się, że specyfika koncepcji jednego z dwóch rodzajów błędów (beta) w rzeczywistości uniemożliwia traktowanie go jako podstawy szacowania przewidywanej częstości błędów; pozwala szacować częstość niewłaściwych decyzji, co, w świetle celu dochodzenia do prawdy, nie jest jednak tym samym. Referat będzie polegał, po pierwsze, na podjęciu próby ominięcia problemów wskazanych w drugim akapicie, poprzez argumentację nie wykraczającą poza ramy ogólnie rozumianego paradygmatu częstościowego. Drugim celem referatu będzie dyskusja nad ograniczeniami metody wynikającymi z problemu dotyczącego błędu beta. W wyniku tego zostanie przeprowadzona próba obrony omawianej metody jako w specyficzny sposób realizującej cel doprowadzania nas do prawdy a zarazem wskazane niekorzystne aspekty traktowania tej metody jako standardu w badaniach naukowych.