METODY ESTYMACJI PUNKTOWEJ X1,...,Xn

Transkrypt

METODY ESTYMACJI PUNKTOWEJ X1,...,Xn
METODY ESTYMACJI PUNKTOWEJ
X1, . . . , Xn - próbka z rozkładu Pθ , θ ∈ Θ (θ jest
nieznane).
Definicja. Estymatorem (punktowym) parametru θ
nazywamy dowolną statystykę T (X1, . . . , Xn) o wartościach w Θ, którą uznajemy za przybliżenie θ.
Metoda podstawiania częstości. Polega na szacowaniu nieznanego parametru (lub prawdopodobieństwa)
poprzez jego empiryczny odpowiednik.
W Przykładzie 1 (patrz temat Modele statystyczne)
chcemy oszacować frakcję θ jednostek w populacji, posiadających pewną własność. Parametr θ możemy traktować jako nieznane prawdopodobieństwo wylosowania
z populacji jednostki, posiadającej tę własność. Oczywistym estymatorem dla θ jest θb = X̄, ponieważ X̄
jest frakcją jednostek posiadających tę własność wśród
zbadanych (jest to też odpowiedne prawdopodobieństwo empiryczne).
Wada tej metody: estymator nie musi wyznaczać się w
sposób jednoznaczny.
Metoda momentów. Polega na przyrównaniu momentów rozkładu Pθ do odpowiednich momentów empirycznych. Z powstałego w ten sposób układu równań
wyliczamy θ. Układamy tyle równań, ile jest niewiado1
mych parametrów (współrzędnych wektora θ), np.:
Eθ X = X̄,
Eθ (X − Eθ X)k = m
b k, k > 2
(tutaj X oznacza zmienną losową o rozkładzie Pθ ).
Przykład (rozkład gamma). Rozkład Γ(α, λ), α > 0,
λ > 0, jest rozkładem o gęstości
λαxα−1e−λx
f (x) =
, x > 0.
Γ(α)
Chcemy oszacować θ = (α, λ). Ponieważ mamy dwa
nieznane parametry, wyliczamy:
α
α
Varθ X = 2 .
Eθ X = ,
λ
λ
Zatem układamy równania:
α
α
b2,
= X̄,
=
S
λ
λ2
skąd otrzymujemy
2
X̄
X̄
b= ,
λ
α
b=
.
2
2
b
b
S
S
Estymatory metody momentów też nie muszą wyznaczać się w sposób jednoznaczny.
Przykład (rozkład Poissona). Rozkład Poissona P(λ),
λ > 0, określa się jako
λk −λ
P (X = k) = e , k = 0, 1, . . . .
k!
2
Chcemy oszacować λ. Wyliczamy:
EλX = VarλX = λ.
b = X̄ lub λ
b = Sb2.
Zatem λ
Metoda kwantyli. Polega na przyrównaniu kwantyli
rozkładu Pθ do odpowiednich kwantyli empirycznych.
Otrzymujemy równania postaci ξp(θ) = ξbp, lub równoważnie p = Fθ (ξbp). Bierzemy tyle różnych wartości p,
ile mamy niewiadomych, i rozwiązujemy układ równań
względem współrzędnych wektora θ. Estymatory też
nie muszą wyznaczać się w sposób jednoznaczny.
Przykład (rozkład Weibulla). Rozkład Weibulla W(α, c),
α > 0, c > 0 jest określony przez dystrybuantę
α
Fα,c(x) = 1 − e−(cx) , x > 0.
Chcemy oszacować θ = (α, c). Ponieważ mamy dwa
nieznane parametry, ułożymy równania dla dwóch kwantyli, np. weźmy p = 1/4 i p = 3/4:
{
{
−(cξb1/4 )α
−(cξb1/4 )α
1−e
= 1/4
e
= 3/4
⇐⇒
⇐⇒
−(cξb3/4 )α
−(cξb3/4 )α
1−e
= 3/4
e
= 1/4
{
{
(cξb1/4)α = − ln 3/4
(ξb1/4/ξb3/4)α = (ln 4 − ln 3)/ ln 4
⇐⇒
α
b
(cξ3/4) = − ln 1/4
(cξb3/4)α = ln 4
=⇒
ln(ln 4 − ln 3) − ln ln 4
,
α
b=
b
b
ln ξ1/4 − ln ξ3/4
3
(ln 4)1/bα
b
c=
.
b
ξ3/4
Metoda największej wiarogodności. Idea polega
na tym, że za estymator θ bierzemy taką wartość parametru, dla której otrzymane wyniki doświadczenia są
najbardziej prawdopodobne.
Niech fθ (x1, . . . , xn) będzie łączną gęstością próbki
X1, . . . , Xn, do której są podstawione wartości obserwacji x1, . . . , xn (w przypadku rozkładu dyskretnego bierzemy fθ (x1, . . . , xn) = Pθ (X1 = x1, . . . , Xn = xn)).
Zauważmy, że
n
∏
fθ (x1, . . . , xn) =
fθ (xi),
(1)
i=1
gdzie fθ jest gęstością rozkładu Pθ (w przypadku rozkładu dyskretnego bierzemyfθ (x) = Pθ (Xi = x)). Funkcję (1), rozważaną jako funkcję z Θ do R, nazywamy
wiarogodnością, lub funkcją wiarogodności (standardowo
oznaczamy tę funkcję jako L).
b 1, . . . , Xn) jest
Definicja. Mówimy, że statystyka θ(X
estymatorem największej wiarogodności (ENW) parametru θ, jeśli
b 1, . . . , xn) ∈ Arg sup L(θ, x1, . . . , xn).
θ(x
θ∈Θ
Uwaga. Nieujemna funkcja L osiąga maksimum w tym
4
samym punkcie, co funkcja
ln L(θ, x1, . . . , xn) =
n
∑
ln fθ (xi).
i=1
Przykład (rozkład wykładniczy). Dla rozkładu wykładniczego z parametrem λ > 0 funkcja wiarogodności zadaje się wzorem
n
n
∑
∏
( −λx )
λe i
=⇒ ln L(λ) = n ln λ−λ
xi .
L(λ) =
i=1
i=1
Biorąc pochodną względem λ i przyrównując ją do zera,
otrzymujemy
n
b 1 , . . . , Xn ) = 1 .
− nx̄ = 0 =⇒ λ(X
λ
X̄
Przykład (rozkład Poissona). Dla rozkładu Poissona
P(λ), λ > 0, funkcja wiarogodności zadaje się wzorem
n ( x −λ )
∏
λ ie
L(λ) =
=⇒
x
!
i
i=1
ln L(λ) = ln λ
n
∑
xi − nλ − ln(x1! . . . xn!).
i=1
Zatem
nx̄
−n=0
λ
b 1, . . . , Xn) = X̄.
λ(X
=⇒
5
Przykład (rozkład normalny). Dla rozkładu normalnego N (µ, σ 2), niech θ = (µ, σ). Mamy
(x − µ)2
1
.
ln fθ (x) = − ln(2π) − ln σ −
2
2σ 2
Zatem
n
n
1 ∑
ln L(θ) = − ln(2π) − n ln σ − 2
(xi − µ)2.
2
2σ i=1
Tworząc układ równań
∂ ln L
∂ ln L
= 0,
= 0,
∂µ
∂σ
otrzymujemy
n
n
1 ∑
nx̄ nµ
2
(x
−
µ)
= 0 =⇒
−
=
0,
−
+
i
σ2
σ2
σ σ 3 i=1
v
u n
u1 ∑
b
µ
b(X1, . . . , Xn) = X̄, σ
b(X1, . . . , Xn) =t
(Xi − X̄)2 = S.
n i=1
Przykład (rozkład Laplace’a). Dla rozkładu Laplace’a
z parametrami µ, λ > 0 o gęstości
λ
fθ (x) = e−λ|x−µ|, x ∈ R,
2
funkcja wiarogodności zadaje się wzorem
)
n (
∏
λ −λ|xi−µ|
L(θ) =
e
,
θ = (µ, λ).
2
i=1
6
Zatem
ln L(θ) = n ln λ − n ln 2 − λ
n
∑
|xi − µ|
=⇒
i=1
n ∑
|xi − µ| = 0,
−
λ i=1
n
λ
n
∑
sign(xi − µ) = 0.
i=1
Zatem
d 1, . . . , Xn),
µ
b(X1, . . . , Xn) = med(X
n
b
λ(X1, . . . , Xn) = ∑n
.
d
|Xi − med(X1, . . . , Xn)|
i=1
Przykład (rozkład jednostajny). Dla rozkładu jednostajnego na [0, θ], gdzie θ > 0, funkcja wiarogodności
zadaje się wzorem
{ −n
θ dla θ > max(x1, . . . , xn) = xn:n
L(θ) =
0 w p.p.
Jest oczywiste, że funkcja L(θ) osiąga swój maksimum
na lewym końcu półprostej [xn:n, ∞), czyli
b 1, . . . , Xn) = Xn:n.
θ(X
7