1 Estymacja

Transkrypt

1 Estymacja
1
1
1.1
ESTYMACJA
Estymacja
Estymacja bayesowska
Niech Θ będzie otwartym podzbiorem Rk i niech Ξ będzie najmniejszym σ-ciałem podzbiorów zbioru Θ
zawierającego jako swoje elementy wszystkie jednoelementowe podzbiory zbiory Θ i względem którego
wszystkie funkcje R(·, d) dla d ∈ D są mierzalne.
θ
Załóżmy, że P µ dla pewnej σ-skończonej miary µ. Niech f (x, θ) = dP
dµ (x). Ponadto, niech f (x, θ)
będzie A ⊗ Ξ - mierzalną funkcją. Niech τ będzie ustalonym rozkładem a priori na (Θ, Ξ), absolutnie
ciągłym względem σ-skończonej miary ζ i niech h(θ) = dτ
dζ (θ). Wówczas
g(x, θ) = f (x, θ)h(θ)
jest gęstością łącznego rozkładu wektora losowego (X, θ) względem miary µ ⊗ ζ. Z twierdzenia Bayesa
wynika, że dla µ-prawie każdego x ∈ X gęstość warunkowa rozkładu τ (θ|x) zmiennej losowej θ pod
warunkiem X = x, zwanego rozkładem a posteriori parametru θ wyraża się wzorem
f (x, ϑ)h(ϑ)
f (x, ϑ)h(ϑ)
=
f (x, θ)h(θ) ζ(dθ)
f (x)
Θ
h(ϑ|x) = R
Twierdzenie 1.1
Jeśli istnieje reguła decyzyjna d0 ∈ D taka, że dla µ-prawie każdego x ∈ X zachodzi
Z
Z
L(θ, d(x))h(θ|x) ζ(dθ)
L(θ, d0 (x))h(θ|x) ζ(dθ) = inf
Θ
d∈D
Θ
oraz r(τ, d0 ) < ∞, to d0 jest bayesowską reguła decyzyjną względem rozkładu a priori τ
Rozważmy grę statystyczną hΘ, G, Ri, gdzie G jest zbiorem niezrandomizowanych reguł decyzyjnych
γ̂ : X → A = R, estymatorów funkcji γ, dla których R(θ, γ̂) < ∞
Definicja 1.2
Estymatorem bayesowskim funkcji γ : Θ → R względem rozkładu a priori τ nazywamy regułę decyzyjną
γ̂0 ∈ G, dla której
r(τ, γ̂0 ) = inf r(τ, γ̂)
γ̂∈G
Twierdzenie 1.3
Niech γ : Θ → R i niechR L(θ, a) = χ(θ)[γ(θ) − a]2 , a rozkład a priori τ będzie taki, że Rτ (γ̂, x) =
Eτ [L(θ, γ̂(X)|X = x] = Θ L(θ, γ̂(x))h(θ|x) ζ(dθ) < ∞ dla µ-prawie każdego x ∈ X i każdego γ̂ ∈ G.
Wówczas statystyka postaci
Eτ [χ(θ)γ(θ)|X = x]
γ̂0 (x) =
Eτ [χ(θ)|X = x]
jest estymatorem bayesowskim funkcji γ względem rozkładu a priori τ , przy założeniu, że r(τ, γ̂0 ) < ∞.
Twierdzenie 1.4
Niech L(θ, a) = |θ − a| i γ(θ) = θ. Niech τ będzie rozkładem a priori dla którego Rτ (γ̂, x) < ∞ dla
µ-prawie każdego x ∈ X i każdego γ̂ ∈ G. Wówczas statystyka
θ̂(x) = meτ (θ|X = x)
jest estymatorem bayesowskim parametru θ względem rozkładu a priori τ .
1
1.2
Estymacja minimaksowa
1
ESTYMACJA
Definicja 1.5
Rodzinę Θ∗0 rozkładów a priori parametru θ nazywamy sprzężoną rodziną rozkładów a priori dla
P = {Pθ | θ ∈ Θ}, gdy dla każdego Pθ ∈ P i każdego τ ∈ Θ∗0 rozkład a posteriori τ (θ|x) ∈ Θ∗0 .
Definicja 1.6
Reguła δ ∈ D∗ nazywa się granicą reguł bayesowskich δn ∈ D∗ względem rozkładów a priori τn
odpowiednio, gdy δn (x) zbiega słabo do δ(x) dla µ- prawie wszystkich x.
Definicja 1.7
Reguła decyzyjna δ0 ∈ D0 nazywa się uogólnioną reguła bayesowską, gdy istnieje σ-skończona miara
τ na (Θ, Ξ) taka, że całka
Z Z
L(θ, z(x)) δ(dz) f (x, θ) τ (dθ)
Θ
X
osiąga skończone minimum dla δ = δ0 .
Definicja 1.8
Reguła δ0 ∈ D nazywa się rozszerzoną regułą bayesowską, gdy dla każdego ε > 0 istnieje rozkład a
priori τε taki, że δ0 jest regułą ε-bayesowską względem τε .
1.2
Estymacja minimaksowa
Definicja 1.9
Reguła decyzyjna δ0 ∈ D∗ jest minimaksowa
• w grze hΘ, D∗ , R∗ i, gdy
sup R∗ (θ, δ0 ) = inf ∗ sup R∗ (θ, δ)
(1)
sup r(τ, δ0 ) = inf ∗ sup r(τ, δ)
(2)
δ∈D θ∈Θ
θ∈Θ
• w grze hΘ∗ , D∗ , ri, gdy
δ∈D τ ∈Θ∗
τ ∈Θ∗
Twierdzenie 1.10
Niech τ będzie rozkładem a priori dla reguły decyzyjnej d0 , bayesowskiej względem τ . Jeśli zachodzi
Z
r(τ, d0 ) =
R(θ, d0 ) τ (dθ) = sup R(θ, d0 )
θ∈Θ
Θ
Wówczas
(a) d0 jest minimaksowa
(b) Jeśli d0 jest jedyną regułą bayesowską względem danego rozkładu a priori τ , to d0 jest jedyną
regułą minimaksową
(c) rozkład τ jest rozkładem najmniej korzystnym.
Wniosek 1.11
Jeśli reguła bayesowska ma stałe ryzyko, to jest minimaksowa
Wniosek 1.12 (twierdzenie Hodgesa-Lehmanna)
Niech Θτ będzie zbiorem punktów parametru θ na którym funkcja ryzyka R(θ, d) reguły bayesowskiej
względem rozkładu a priori τ osiąga swoje maksimum. Jeżeli τ (Θτ ) = 1, to d jest minimaksowa.
2
1.3
Dopuszczalność estymatorów bayesowskich i minimaksowych
1
ESTYMACJA
Twierdzenie 1.13
Jeżeli reguła decyzyjna dn jest bayesowska względem rozkładu a priori τn oraz jeżeli limn→∞ r(τn , dn ) ≤ c
i istnieje reguła d0 dla której dla dowolnego θ ∈ Θ R(θ, d0 ) ≤ c, to istnieje wartośc gry i reguła d0 jest
minimaksowa.
Wniosek 1.14
Jeżeli d0 jest rozszerzoną reguła bayesowską oraz dla dowolnego θ ∈ Θ R(θ, d0 ) = c, to d0 jest minimaksowa.
Twierdzenie 1.15
Jeżeli d0 jest bayeswoska względem rozkładu a priori τ0 i
∀θ ∈ Θ
R(θ, d0 ) ≤ r(τ0 , d0 )
to istnieje wartość gry, d0 jest minimaksowa, a τ0 jest rozkładem najmniej korzystnym.
1.3
Dopuszczalność estymatorów bayesowskich i minimaksowych
Twierdzenie 1.16
Jeżeli istnieje jedyna (z dokładnością do równoważności) reguła bayesowska względem rozkładu a
priori, to jest ona dopuszczalna.
Twierdzenie 1.17
Niech dana będzie gra hΘ, D, Ri gdzie Θ jest otwartym podzbiorem R. Załóżmy, że funkcja ryzyka
R(θ, d) jest ciągłą funkcją zmiennej θ dla każdej d ∈ D. Jeżeli d0 ∈ D jest regułą bayesowską względem
rozkładu a priori τ takiego, że suppτ = clΘ i jeżeli r(τ, d0 ) < ∞, to d0 jest dopuszczalna.
Twierdzenie 1.18
Zachodzi
(a) Jeżeli d0 jest minimaksowa wyznaczona jednoznacznie, to d0 jest dopuszczalna
(b) Jeżeli d0 jest dopuszczalna i ma stałe ryzyko, to jest minimaksowa
Twierdzenie 1.19 (Girshick, Savage)
Jeżeli statystyka T ma rozkład o gęstości względem σ-skończonej miary µ postaci f (t; θ) = C(θ)eθt h(t)
oraz γ(θ) = Eθ [T ], to T jest estymatorem dopuszczalnym i minimaksowym funkcji γ(θ) przy założeniu,
2
2
2
że funkcja straty ma postać L(θ, a) = (γ(θ)−a)
σ 2 (θ) , gdzie σ (θ) = Dθ [T ].
1.4
Asymptotyczna efektywność estymatorów
Niech P = {Pθ | θ ∈ Θ}, gdzie Θ = R każde Pθ jest rozkładem na (X , A) absolutnie ciągłym względem
σ-skończonej miary µ z gęstością f (x, θ).
Definicja 1.20 (Warunki regularności)
Mówimy, że rodzina P spełnia warunki regularności
1. Θ jest otwartym podzbiorem R oraz {x | f (x, θ) > 0} nie zależy od θ
2. Dla każdej θ ∈ Θ oraz prawie każdego x istnieją pochodne
∂
log(f (x, θ))
∂θ
∂2
log(f (x, θ))
∂θ2
3
∂3
log(f (x, θ))
∂θ3
1.4
Asymptotyczna efektywność estymatorów
1
ESTYMACJA
3. Dla każdej θ0 ∈ Θ istnieją funkcje gθ0 , hθ0 oraz Hθ0 , takie że na pewnym otoczeniu θ0 dla prawie
wszystkich x zachodzi
3
2
∂
log(f (x, θ)) ≤ gθ0 (x) ∂ log(f (x, θ)) ≤ hθ0 (x) ∂ log(f (x, θ)) ≤ Hθ0 (x)
∂θ3
∂θ2
∂θ
R
R
R
przy czym gθ0 (x) µ(dx) < ∞, hθ0 (x) µ(dx) < ∞ i Hθ0 (x) Pθ (dx) < ∞ na pewnym otoczeniu
θ0
4. Dla każdej θ istnieje wartość oczekiwana
0 < I(θ) = Eθ
∂
log(f (X, θ)) < ∞
∂θ
Twierdzenie 1.21 (Rao-Cramér-Fréchet)
Niech X = (X1 , . . . Xn ) będzie próbą z rozkładu z gęstością f (x, θ), spełniającą warunki (1)−(4). Niech
T (X) będzie estymatorem różniczkowalnej funkcji γ(θ) i niech b(θ) = Eθ [T (X) − γ(θ)]. Wówczas
1. Dla każdej θ
[γ 0 (θ) + b0 (θ)]2
Eθ (T (X) − γ(θ))2 ≥
nI(θ)
2. Jeżeli T jest estymatorem nieobciążonym funkcji γ, to
[γ 0 (θ)]2
Dθ (T (X) − γ(θ))2 ≥
nI(θ)
Wniosek 1.22
Równość w nierówności C-R zachodzi tylko wtedy, gdy
n
Y
f (xk , θ) = Cn (x) exp[Qn (θ)T (x)]h(x)
k=1
Definicja 1.23
√
Estymator θ̂n , dla którego ciąg { n(θ̂n − θ)} przy n → ∞ jest asymptotycznie normalny N (0, J 2 (θ))
dla pewnej nieujemnej funkcji J 2 , nazywamy estymatorem zgodnym asymptotycznie normalnym (estymatorem CAN).
Definicja 1.24
Niech T1 oraz T2 będą estymatorami CAN parametru θ z asymptotycznymi wariancjami J12 oraz J22
odpowiednio. Estymator T1 jest estymatorem asymptotycznie efektywniejszym niż T2 , gdy
∀θ ∈ Θ
J12 (θ) ≤ J22 (θ)
oraz
∃θ0 ∈ Θ
J12 (θ0 ) < J22 (θ0 )
Niech T1,n = T1,n (X n ) oraz T2,n = T2,n (X n ). Załóżmy, że
√
oraz
√
0
0
D
n(T1,n − θ) → N (0, J 2 (θ))
D
n(T1,n0 − θ) → N (0, J 2 (θ))
0
gdzie n = n (n) i n → ∞, gdy n → ∞.
4
(3)
1.4
Asymptotyczna efektywność estymatorów
1
ESTYMACJA
Definicja 1.25
Asymptotyczną efektywnością względną estymatora T1,n względem T2,n nazywamy granicę
n0 (n)
n→∞
n
ARE(T1 : T2 ) = lim
przy założeniu, że ona istnieje i nie zależy od wyboru ciągu n0 (n) przy którym zachodzi (3)
Twierdzenie
1.26
√
D
Jeżeli n(Tk,n − θ) → N (0, Jk2 (θ)) i granica (4) istnieje, to jest równa J12 (θ)/J22 (θ)
5
(4)