1 Testowanie hipotez statystycznych
Transkrypt
1 Testowanie hipotez statystycznych
1 1 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Testowanie hipotez statystycznych 1.1 Podstawowe pojęcia Niech (X , A, P), gdzie P = {Pθ | θ ∈ Θ}, będzie przestrzenią statystyczną. Niech P = P0 ∪ P1 , P0 ∩ P1 = ∅. Wówczas P0 = {Pθ | θ ∈ Θ0 } oraz P1 = {Pθ | θ ∈ Θ1 }, przy czym Θ0 ∪ Θ1 = Θ i Θ0 ∩ Θ1 = ∅. Niech X będzie obserwowaną zmienną losową o nieznanym rozkładzie Pθ . Definicja 1.1 Przyjmujemy następujące definicje 1. Hipotezą statystyczną nazywamy przypuszczenie, że Pθ ∈ P0 lub Pθ ∈ P1 . 2. Przypuszczenie H0 : Pθ ∈ P0 nazywamy hipotezą zerową. Natomiast przypuszczenie H1 : Pθ ∈ P1 nazywamy hipotezą alternatywną 3. Sprawdzanie hipotez statystycznych nazywamy testowaniem lub weryfikacją hipotez statystycznych Niech X = {x1 , . . . , xn } będzie próbą. Zbiór akcji statystyka A = {a0 , a1 }, gdzie a0 -”przyjąć hipotezę H0 ” a a1 -”odrzucić hipotezę H0 ” (”przyjąć hipotezę H1 ”). Każda niezrandomizowana reguła decyzyjną d : X → A rozbija przestrzeń X na rozłączne podzbiory S0 = {x | d(x) = a0 }, S1 = {x | d(x) = a1 } Definicja 1.2 Zbiór S1 nazywamy niezrandomizowanym testem statystycznym hipotezy H0 przeciwko H1 . Zbiór S0 nazywamy obszarem przyjęcia hipotezy H0 . Uwaga 1.3 Zbiór S1 nazywamy również obszarem odrzucenia hipotezy H0 Niech L : Θ × A → R+ będzie funkcją starty. Wtedy funkcja ryzyka testu S1 ma postać R(θ, S1 ) = [1 − Pθ [S1 ]]L(θ, a0 ) + Pθ [S1 ]L(θ, a1 ) i zależy tylko od testu S1 poprzez prawdopodobieństwo Pθ [S1 ]. Definicja 1.4 Funkcję βS1 : Θ → [0, 1] określoną wzorem βS1 (θ) = Pθ [S1 ] nazywamy funkcją mocy testu niezrandomizowanego S1 . Wartość funkcji βs1 w punkcie θ ∈ Θ nazywamy mocą testu S1 przy alternatywie θ. Zbiór A∗ możemy utożsamić z odcinkiem [0, 1], gdzie a∗ ∈ A∗ oznacza prawdopodobieństwo podjęcia akcji a1 . Definicja 1.5 Testem zrandomizowanym hipotezy H0 przy hipotezie alternatywnej H1 nazywamy behawiorystyczną regułę decyzyjną ϕ : X → A∗ , gdzie ϕ(x) ∈ A∗ jest prawdopodobieństwem podjęcia akcji a1 , gdy zaobserwowano x. 1 1.2 Lemat Neymana-Pearsona 1 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Funkcja ryzyka niezrandomizowanego testu ϕ ma postać R̃(θ, ϕ) = (1 − Eθ [ϕ(X)])L(θ, a0 ) + Eθ [ϕ(X)]L(θ, a1 ) = L(θ, a0 ) + Eθ [ϕ(X)](L(θ, a1 ) − L(θ, a0 )) Definicja 1.6 Funkcję βϕ : Θ → [0, 1] określoną wzorem βϕ (θ) = Eθ [ϕ(X)] nazywamy funkcją mocy testu zrandomizowanego ϕ. Wartość funkcji βϕ w punkcie θ nazywamy mocą testu ϕ przy alternatywie θ. Definicja 1.7 Test ϕ hipotezy H0 : θ ∈ Θ0 przeciwko alternatywie H1 : θ ∈ Θ1 nazywamy testem na poziomie istotności α, α ∈ (0, 1), jeżeli Eθ [ϕ(X)] ≤ α θ ∈ Θ0 (prawdopodobieństwo błędu pierwszego rodzaju nie przekracza α) Definicja 1.8 Rozmiarem testu ϕ nazywamy liczbę supθ∈Θ0 {Eθ [ϕ(X)]} Definicja 1.9 Test ϕ0 na poziomie istotności α jest nazywamy testem jednostajnie najmocniejszym (JNM) w klasie testów na poziomie istotności α jeżeli dla każdego testu ϕ na poziomie istotności α zachodzi Eθ [ϕ(X)] ≤ Eθ [ϕ0 (X)] 1.2 θ ∈ Θ1 Lemat Neymana-Pearsona Twierdzenie 1.10 (Lemat Naymana-Pearsona) Niech P0 i P1 będą rozkładami prawdopodobieństwa o gęstościach odpowiednio f0 i f1 ze względu na pewną σ-skończoną miarę µ na przestrzeni mierzalnej (X , A). Wówczas (a) Dla testowania hipotezy H0 : f0 = f1 przeciwko H1 : f0 6= f1 dla każdego α ∈ (0, 1) istnieje test ϕ i taka stała k, że Eθ [ϕ(X)] = α (1) gdzie ϕ(x) = 1{f1 >kf0 } (x) (2) (b) Jeżeli test ϕ spełnia warunki (1) i (2) dla pewnego k, to jest on testem jednostajnie najmocniejszym dla testowania H0 przeciwko H1 (c) Jeżeli ϕ jest testem jednostajnie najmocniejszym na poziomie istotności α dla testowania hipotezy H0 przeciwko H1 , to dla pewnego k spełnia on warunek (2) µ-p.w., a ponadto spełnia on warunek (1), chyba że istnieje test o rozmiarze mniejszym od α o mocy równej 1. Wniosek 1.11 Niech β oznacza moc testu najmocniejszego na poziomie istotności α ∈ (0, 1) dla testowania hipotezy H0 : P0 = P1 przeciwko H1 : P0 6= P 1. Wówczas α < β, chyba, że P0 = P1 . Uwaga 1.12 Testy JMN są funkcjami minimalnej statystyki dostatecznej. 2 1.3 1.3 Testy JMN dla rodzin z monotonicznym. . .1 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Testy jednostajnie najmocniejsze dla rodzin z monotonicznym ilorazem wiarygodności Definicja 1.13 Niech P będzie rodziną rozkładów na (X , A) dominowaną przez σ-skończoną miarę µ, a f (x; θ)- gęstością Pθ ∈ P względem µ. Mówimy, że rodzina P jest rodziną z monotonicznym ilorazem wiarygodności 0 ) (względem funkcji T ), jeżeli dla θ > θ0 funkcja ff(x;θ (x;θ) jest niemalejącą funkcją (statystyki) T (x). Twierdzenie 1.14 (Karlina, Rubina) Niech P = {Pθ | θ ∈ Θ} będzie rodziną z monotonicznym ilorazem wiarygodności względem funkcji T . Wówczas (a) W problemie testowania H0 : θ ≤ θ0 , H1 : θ > θ0 , test określony wzorem 1 gdy T (x) > C ζ gdy T (x) = C ϕ(x) 0 gdy T (x) < C (3) gdzie stałe C i ζ są wyznaczone z warunku Eθ0 [ϕ(X)] = α (4) jest testem JNM na poziomie istotności α. (b) Funkcja mocy testu ϕ, βϕ (θ) = Eθ [ϕ(X)] jest rosnącą funkcją parametru θ, dla każdego θ takiego, że βϕ (θ) < 1. (c) Dla każdego θ0 test określony przez (3) i (4) jest testem JNM dla testowania hipotezy H00 : θ ≤ θ0 , H10 : θ > θ0 na poziomie istotności α0 = βϕ (θ0 ). (d) Dla każdego θ < θ0 test ϕ minimalizuje βϕ (θ) wśród wszystkich testów spełniających (4). Wniosek 1.15 Niech θ ∈ Θ ⊆ R oraz niech rodzina rozkładów P będzie dominowana przez σ-skończoną miarę µ z gęstościami postaci f (x; θ) = C(θ)h(x) exp{Q(θ)T (x)} (5) gdzie Q jest ściśle monotoniczna. Wówczas istnieje JNM test ϕ na poziomie istotności α dla testowania H0 : θ ≤ θ0 przeciwko H1 : θ > θ0 . Dodatkowo, jeżeli Q jest rosnąca, to ϕ jest postaci (3) przy zachowaniu warunku (4). 1.4 Testy jednostajnie najmocniejsze dla hipotez dwustronnych Weryfikujemy hipotezę H : θ ∈ / (θ1 , θ2 ) przeciwko A : θ ∈ (θ1 , θ2 ). Twierdzenie 1.16 (uogólniony lemat Neymanna-Pearsona) Niech f1 , f2 , . . . , fr+1 będą mierzalnymi funkcjami rzeczywistymi określonymi na przestrzeni euklidesowej X i całkowalnych względem σ-skończonej miary µ. Załóżmy, że dla ustalonych stałych C1 , C2 , . . . , Cr istnieje funkcja krytyczna ϕ spełniająca warunek Z ϕ(x)fi (x) dµ(x) = Ci i ∈ [r] (6) X Niech R oznacza zbiór funkcji krytycznych spełniających (6). Wówczas 3 ? 1.4 Testy JNM dla hipotez dwustronnych 1 TESTOWANIE HIPOTEZ STATYSTYCZNYCH (a) W zbiorze R istnieje element maksymalizujący całkę Z ϕ(x)fr+1 (x) dµ(x) (7) X (b) Warunkiem dostatecznym na to, aby ϕ ∈ R maksymalizowało całkę (7) jest istnienie stałych k1 , k2 , . . . , kr takich, że Pr 1 gdy fr+1 (x) > Pi=1 ki fi (x) (8) ϕ(x) = r 0 gdy fr+1 (x) ≤ i=1 ki fi (x) (c) Jeżeli funkcja ϕ ∈ R spełnia warunek (8) przy nieujemnych stałych k1 , k2 , . . . , kr , to ϕ maksymalizuje całkę (7) w zbiorze wszystkich funkcji spełniających Z ϕ(x)fi (x) dµ(x) ≤ Ci i ∈ [r] X (d) Zbiór M punktów z r-wymiarowej przestrzeni, których współrzędne dla pewnej funkcji krytycznej są postaci Z Z ϕ(x)f1 (x) dµ(x), . . . , X ϕ(x)fr (x) dµ(x) X jest wypukły i domknięty. Jeżeli (C1 , C2 , . . . , Cr ) jest punktem wewnętrznym zbioru M to istnieją stałe k1 , k2 , . . . kr i funkcja krytyczna ϕ spełniająca warunki (6) i (8). Warunkiem koniecznym na to, aby funkcja ϕ ∈ R maksymalizowała całkę (7) jest zachodzenie warunku (8) µ-p.w. Wniosek 1.17 Niech f1 , f2 , . . . , fr+1 będą gęstościami ze względu na σ-skończoną miarę µ i niech 0 < α < 1. Jeżeli nie zachodzi r X fr+1 = ri fi µ-p.w. i=1 to nie istnieje test ϕ taki, że Ei [ϕ(X)] = α i ∈ [r] oraz Er+1 [ϕ(X)] < α Twierdzenie 1.18 Niech P = {Pθ |θ ∈ Θ = R} będzie rodziną rozkładów prawdopodobieństwa określonymi na przestrzeni prób (X , A) mających gęstości względem miary µ postaci f (x; θ) = C(θ)h(x) exp{Q(θ)T (x)} gdzie Q jest funkcją rosnącą. Wówczas (a) Dla testowania hipotezy H : θ ∈ / [θ1 , θ2 ], K : θ ∈ [θ1 , θ2 ] istnieje test JNM na poziomie istotności α ∈ (0, 1) postaci 1 gdy C1 < T (x) < C2 ζi gdy T (x) = Ci ϕ(x) = (9) 0 poza tym gdzie stałe C1 , C2 , ζ1 , ζ2 są wyznaczone z warunków Eθ1 [ϕ(X)] = Eθ2 [ϕ(X)] = α 4 (10) 1.4 Testy JNM dla hipotez dwustronnych 1 TESTOWANIE HIPOTEZ STATYSTYCZNYCH (b) Test ϕ minimalizuje funkcję mocy β(θ) = Eθ [ϕ(X)] przy warunku (10) dla wszystkich θ ∈ / [θ1 , θ2 ] (c) Dla α ∈ (0, 1) funkcja mocy tego testu osiąga maksimum w punkcie θ0 zawartym między θ1 i θ2 i ściśle maleje zarówno przy θ rosnącym jak i przy θ malejącym od punktu θ0 . Jedynym wyjątkiem jest przypadek, w którym istnieją wartości t1 i t2 takie, że Pθ [T (x) = t1 ] = Pθ [T (x) = t2 ] = 1 5 θ∈Θ