Estymatory nieobciazone z jednostajnie minimalna wariancja
Transkrypt
Estymatory nieobciazone z jednostajnie minimalna wariancja
Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2014 Rozkłady wybranych statystyk próbkowych - cd Statystyki próbkowe Niech X = (X1 , X2 , . . . Xn )0 będzie n elementowym wektorem losowym. Średnia z próby: n 1X Xi X̄ = n i=1 Statystyki próbkowe Niech X = (X1 , X2 , . . . Xn )0 będzie n elementowym wektorem losowym. Średnia z próby: n 1X Xi X̄ = n i=1 Wariancja nieobciążona: S2 = n 1 X (Xi − X̄ )2 n − 1 i=1 Statystyki próbkowe Niech X = (X1 , X2 , . . . Xn )0 będzie n elementowym wektorem losowym. Średnia z próby: n 1X Xi X̄ = n i=1 Wariancja nieobciążona: S2 = n 1 X (Xi − X̄ )2 n − 1 i=1 Wariancja obciążona: S02 = n 1X (Xi − X̄ )2 n i=1 Rozkłady statystyk próbkowych Lemat 4.1: Niech X1 , X2 , . . . Xn będzie n elementową próbą losową, a g (x), funkcją dla której E [g (x)] oraz Var[g (x)] istnieją. Wówczas: E n X ! g (Xi ) = nE [g (X1 )] i=1 oraz Var n X i=1 ! g (Xi ) = nVar [g (X1 )] Rozkłady statystyk próbkowych Twierdzenie 4.1: Niech X1 , X2 , . . . Xn będzie n elementową próbą losową, o średniej EXi = µ, i wariancji VarXi = σ 2 < ∞ Wówczas: 1. E X̄ = µ σ2 n σ2 2. Var X̄ = 3. ES 2 = 4. VarS 2 = 2 4 n−1 σ Rozkłady statystyk próbkowych Dowód: Korzystając z Lematu 4.1 otrzymujemy: E X̄ = E n 1X Xi n i=1 ! 1 = E n n X ! Xi i=1 co dowodzi równości (1) w Twierdzeniu 4.1. = 1 nEX1 = µ n Rozkłady statystyk próbkowych Dowód: Korzystając z Lematu 4.1 otrzymujemy: E X̄ = E n 1X Xi n i=1 ! 1 = E n n X ! Xi = i=1 1 nEX1 = µ n co dowodzi równości (1) w Twierdzeniu 4.1. Analogicznie dowodzimy równości (2): Var X̄ = Var n 1X Xi n i=1 ! n X 1 = 2 Var Xi n i=1 ! = 1 σ2 nVarX = 1 n2 n Rozkłady statystyk próbkowych Dowód: Aby dowieść punktu (3) Twierdzenia, najpierw pokażemy, że zachodzi równość n X (Xi − X̄ )2 = i=1 n X Xi2 − nX̄ 2 (1) i=1 Niech a ∈ R, powyższą równość dowodzimy następująco: n X n X i=1 i=1 (Xi − X̄ )2 = = n X n X i=1 i=1 (Xi − a)2 + 2 = (Xi − a + a − X̄ )2 = (Xi − a)(a − X̄ ) + n X i=1 n X i=1 Xi2 − nX̄ 2 . (a − X̄ )2 = Rozkłady statystyk próbkowych Dowód: Zatem korzystając z równania (1) i Lematu 4.1 dostajemy: 2 ES = E n 1 X (Xi − X̄ )2 n − 1 i=1 1 = E n−1 ! =E n X n X 1 X 2 − nX̄ 2 n − 1 i=1 i ! Xi2 ! − nE X̄ 2 = i=1 1 = n(σ 2 + µ2 ) − n n−1 σ2 + µ2 n !! = σ2 !! = Estymatory nieobciążone z jednostajnie minimalną wariancją Estymator Definicja: Statystykę T (X1 , X2 , . . . Xn ) służącą do oszacowania nieznanego parametru populacji nazywamy estymatorem. Dla konkretnych wartosci próby X1 = x1 , X2 = x2 , . . . , Xn = xn , liczbę T (x1 , x2 , . . . xn ) nazywamy wartością estymatora. Błąd średniokwadratowy Za liczbową charakterystykę dokładności estymatora T rzeczywistej funkcji g (θ) podlegającej ocenie, przyjmuje się bład średnikwadratowy, oznaczany przez BSKθ (T ) Definicja: Błędem średniokwadratowym estymatora T funkcji g (θ) nazywamy BSKθ (T ) = Eθ [(T − g (θ))2 ] Błąd średniokwadratowy Za liczbową charakterystykę dokładności estymatora T rzeczywistej funkcji g (θ) podlegającej ocenie, przyjmuje się bład średnikwadratowy, oznaczany przez BSKθ (T ) Definicja: Błędem średniokwadratowym estymatora T funkcji g (θ) nazywamy BSKθ (T ) = Eθ [(T − g (θ))2 ] Zauważmy, że BSKθ (T ) = Eθ [(T −Eθ (T ))2 ]+(Eθ (T )−g (θ))2 = Varθ (T )+bθ (T ) gdzie bθ (T ) oznacza obciążenie estymatora. Estymator lepszy, dopuszczalny Definicja: Estymator T1 jest lepszy od estymatora T2 , jeżeli BSKθ (T1 ) ¬ BSKθ (T2 ) dla każdego θ ∈ Θ i chociażby dla jednej wartości θ spełniona jest nierówność ostra BSKθ (T1 ) < BSKθ (T2 ) Estymator lepszy, dopuszczalny Definicja: Estymator T1 jest lepszy od estymatora T2 , jeżeli BSKθ (T1 ) ¬ BSKθ (T2 ) dla każdego θ ∈ Θ i chociażby dla jednej wartości θ spełniona jest nierówność ostra BSKθ (T1 ) < BSKθ (T2 ) Definicja: Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymator lepszy niż T . Wprzeciwnym razie estymator T nazywa się niedopuszczalny. Estymator lepszy, dopuszczalny Przykład Niech X1 , X2 będą zmiennymi losowymi takimi, że Eθ (Xi2 ) < ∞ i niech g (θ) = Eθ (Xi ), i = 1, 2. Który z estymatorów jest lepszy T (X1 , X2 ) = X1 czy 1 S(X1 , X2 ) = (X1 + X2 )? 2 Estymator lepszy, dopuszczalny Przykład Niech X1 , X2 będą zmiennymi losowymi takimi, że Eθ (Xi2 ) < ∞ i niech g (θ) = Eθ (Xi ), i = 1, 2. Który z estymatorów jest lepszy T (X1 , X2 ) = X1 czy 1 S(X1 , X2 ) = (X1 + X2 )? 2 Estymatory spełniają równość: Eθ (T ) = Eθ (S) = g (θ) równoważnie bθ (T ) = bθ (S). Jednocześnie: 1 Varθ (S) = Varθ (X1 ) < Varθ (X1 ) = Varθ (T ), 2 dla każdego θ ∈ Θ. A zatem: BSKθ (S) < BSKθ (T ), czyli S jest estymatorem lepszym niż T , a T jest estymatorem niedopuszczalnym. Estymator nieobciążony Definicja: Estymator T (X1 , X2 , . . . , Xn ) rzeczywistej funkcji g (θ) jest nieobciążony, jeżeli Eθ [T (X1 , X2 , . . . , Xn )] = g (θ) dla każdego θ ∈ Θ Estymator nieobciążony Definicja: Estymator T (X1 , X2 , . . . , Xn ) rzeczywistej funkcji g (θ) jest nieobciążony, jeżeli Eθ [T (X1 , X2 , . . . , Xn )] = g (θ) dla każdego θ ∈ Θ Obciążeniem estymatora T nazywamy: bθ (T ) = Eθ (T ) − g (θ) Estymator nieobciążony Przykład: Niech X = (X1 , X2 , . . . , Xn )0 będzie wektorem losowym, dla którego Eθ Xi = 1θ . Niech n 1X T (X) = Xi = X̄ . n i=1 Wówczas: 1 θ A zatam średnia próbkowa jest nieobciążonym estymatorem wartości oczekiwanej. Eθ [T (X)] = Estymator nieobciążony Przykład: Niech X1 , X2 , . . . , Xn będzie próbą z rozkładu normalnego N(µ, σ 2 ), µ ∈ R, σ > 0. Rozważmy estymator wariancji postaci: S2 = n 1 X (Xi − X̄ )2 n − 1 i=1 Ponieważ E (S 2 ) = σ 2 wariancja próbkowa wyrażona powyższym wzorem jest nieobciążonym estymatorem wariancji σ 2 . Estymator nieobciążony Przykład: Innym estymatorem wariancji σ 2 jest estymator: S02 = n 1X n−1 2 (Xi − X̄ )2 = S , n i=1 n dla którego: ES02 =E n−1 2 n−1 2 S = σ , n n czyli jest on estymatorem obciążonym. Estymator nieobciążony Definicja: Niech T1 i T2 będą dwoma nieobciążonymi estymatorami funkcji g (θ). Powiemy, że estymator T1 jest lepszy od estymatora T2 , jeżeli: Var (T1 ) ¬ Var (T2 ), dla każdego θ ∈ Θ i dla co najmniej jednej wartości θ zachodzi: Var (T1 ) < Var (T2 ). Estymator nieobciążony Definicja: Niech T1 i T2 będą dwoma nieobciążonymi estymatorami funkcji g (θ). Powiemy, że estymator T1 jest lepszy od estymatora T2 , jeżeli: Var (T1 ) ¬ Var (T2 ), dla każdego θ ∈ Θ i dla co najmniej jednej wartości θ zachodzi: Var (T1 ) < Var (T2 ). Estymator nieobciążony Przykład: Niech X1 , X2 , X3 będzie daną próbą losową o średniej E (Xi ) = µ i P wariancji Var (Xi ) = σ 2 i niech T1 (X1 , X2 , X3 ) = 31 3i=1 Xi i T2 (X1 , X2 , X3 ) = 12 X1 + 32 X2 − 16 X3 będą dwoma estymatorami średniej µ. Który z nich jest lepszy? Estymator nieobciążony Przykład: Niech X1 , X2 , X3 będzie daną próbą losową o średniej E (Xi ) = µ i P wariancji Var (Xi ) = σ 2 i niech T1 (X1 , X2 , X3 ) = 31 3i=1 Xi i T2 (X1 , X2 , X3 ) = 12 X1 + 32 X2 − 16 X3 będą dwoma estymatorami średniej µ. Który z nich jest lepszy? Sprawdźmy ich nieobciążoność: E E 3 1X Xi 3 i=1 ! 1 = 3µ = µ 3 1 2 1 1 2 1 X1 + X2 − X3 = µ + µ − µ = µ, 2 3 6 2 3 6 a zatem oba estymatory są nieobciążone. Estymator nieobciążony Przykład: Wyznaczmy zatem wariancje tych estymatorów: Var Var 3 1X Xi 3 i=1 ! 1 1 = 3Var (X1 ) = σ 2 9 3 1 2 1 1 4 1 26 X1 + X2 − X3 = σ 2 + σ 2 + σ 2 = σ 2 , 2 3 6 4 9 36 36 czyli 12 26 < = Var (T2 ), 36 36 a stąd estymator T1 jest lepszy od T2 . Var (T1 ) = Estymator nieobciążony z jednostajnie minimalną wariancją Definicja: Niech g (θ) będzie funkcją estymowalną i niech W będzie zbiorem jej wszystkich estymatorów nieobciążonych posiadających skończoną wariancję dla każdego θ ∈ Θ. Statystyka T ∈ W jest nazywana estymatorem nieobciążonym o minimalnej wariancji funkcji g (θ) (estymatorem NJMW), jeżeli: • Eθ (T 2 ) < ∞, dla każdego θ ∈ Θ • Varθ (T ) = Varθ (U), dla każdego U ∈ W i każdego θ ∈ Θ