Odporna estymacja komponentów wariancyjnych Wojciech Zieliński

Transkrypt

Odporna estymacja komponentów wariancyjnych Wojciech Zieliński
Odporna estymacja komponentów wariancyjnych
Wojciech Zieliński
Wstęp
Jednym z podstawowych zagadnień statystycznych w modelach liniowych
jest estymacja nieznanych paPK
2
2
rametrów σ12 , . . . , σK
rozkładu wektora losowego y takiego, że Covy =
i=1 σi Ti , gdzie Ti są pewnymi
znanymi macierzami nieujemnie określonymi. Parametry te noszą nazwę komponentów wariancyjnych. Jako
estymatory przyjmuje się formy kwadratowe wektora y, kryteriami są zaś zwykle obciążenie oraz wariancja
estymatora. Jeżeli wektor losowy y ma rozkład normalny, to teoria powyższego zagadnienia jest bardzo dobrze znana, a praktyka często sprowadza się do stosowania gotowych programów komputerowych. Ponieważ
jednak model gaussowski jest modelem raczej wyidealizowanym i w praktycznych zastosowaniach rozkład
obserwacji y może być inny niż normalny, stajemy przed pytaniem, na ile różne interesujące nas własności
tych rutynowych postępowań statystycznych (estymatorów i testów) zmieniają się, gdy faktyczny rozkład
odbiega od rozkładu normalnego.
To zagadnienie jest znane od dawna w statystyce i znane są również różne metody postępowania w takich sytuacjach. Na przykład, czasami stosuje się różne transformacje wektora y tak, żeby zmienne losowe uzyskane
w wyniku tych transformacji miały rozkłady normalne i żeby można było wtedy skorzystać z rozwiązań dla
modelu gaussowskiego. Czasami po prostu rezygnuje się z założeń o rozkładzie i korzysta z różnych metod
nieparametrycznych.
W niniejszej pracy podejmuję zagadnienie ilościowej oceny zmian różnych własności procedur statystycznych
opracowanych dla modelu gaussowskiego, gdy rozkład obserwacji różni się od tego rozkładu modelowego.
Uwagę koncentruję na problemie estymacji komponentów wariancyjnych, a za interesującą mnie własność
estymatorów przyjmuję ich wariancję. Główne wyniki dotyczą konstrukcji kwadratowych, nieobciążonych
estymatorów komponentów wariancyjnych, niezmienniczych ze względu na pewną grupę przesunięć, których
wariancja jest mało wrażliwa na odstępstwa od normalności. Jest to tzw. problem odporności estymatorów
w sensie stabilności wariancji.
W podstawowym rozdziale 2 podaję definicję estymatora odpornego. Podane są tam również warunki konieczne i dostateczne istnienia estymatorów odpornych. Okazuje się, że w wielu sytuacjach istnieje nieskończenie wiele różnych estymatorów odpornych. Wykorzystuję to w ten sposób, że spośród nich wybieram
estymator o minimalnej wariancji. Ponadto podaję tam charakteryzację modeli, w których niezmienniczy
estymator nieobciążony o minimalnej wariancji w modelu normalnym jest zarazem estymatorem odpornym.
Rozdział 3 poświęcony jest zastosowaniom wyników uzyskanych w rozdziale 2. Znajduje się tam szczegółowe
omówienie odpornej estymacji wariancji w modelach z jednym komponentem wariancyjnym; jest rozważany
szczegółowo model jednoczynnikowej analizy wariancji w układzie stałym i mieszanym, a w końcu podany jest
przykład modelu, w którym estymator odporny o minimalnej wariancji jest inny niż estymator nieobciążony
o minimalnej wariancji w modelu normalnym.
Ostatni rozdział zawiera kilka problemów otwartych, które są przedmiotem moich badań.
W pierwszym rozdziale znajduje się krótki przegląd metod estymacji komponentów wariancyjnych w modelach normalnych. Nie poruszono tu jednak zagadnień, które nie są bezpośrednio związane z tematem
niniejszej pracy, np. problem nieujemnej estymacji oraz estymacji bayesowskiej. Podano natomiast krótki
przegląd dotychczasowych wyników związanych z zagadnieniem estymacji odpornej.
Problemy stabilności procedur statystycznych opartych na estymatorach wariancji pojawiły się już w pracach Pearsona (1931), Boxa (1953) oraz Boxa i Andersena (1955). Obszerny przegląd literatury na ten temat
można znaleźć u Niürnberga (1982). Prezentowane w pracy podejście do zagadnień odpornej estymacji komponentów wariancyjnych po raz pierwszy zostało zastosowane do przypadku modeli z jednym komponentem
wariancyjnym w pracy R. Zielińskiego i W. Zielińskiego (1985). Tak zwane ”podejście bezwspółrzędniowe”
w tym problemie po raz pierwszy zastosowano w pracy W. Zielińskiego (1986). Przykłady różnych modeli
można znaleźć w pracy W. Zielińskiego (1985).
W niniejszej rozprawie w systematyczny sposób przedstawione są moje wyniki opublikowane w pracach: W.
Zieliński (1985, 1986) oraz R. Zieliński i W. Zieliński (1985). Uzupełniam je wynikami na temat związku
estymatorów nieobciążonych o minimalnej wariancji w modelu normalnym z estymatorami odpornymi (tw.
2.4) oraz szczegółową analizą odporności w modelu jednoczynnikowej analizy wariancji (rozdz. 3).
1
1. Zagadnienie estymacji komponentów wariancyjnych.
Rozważamy model liniowy
y = Xβ + e,
(1.1)
p
gdzie X jest znaną macierzą o wymiarach
PKn × 2p, β - wektorem w R , e wektorem losowym o rozkładzie
2
2 0
N (0, T (σ)), σ = (σ1 , . . . , σK ) , T (σ) = i=1 σi Ti , Ti są znanymi macierzami nieujemnie określonymi (w
PK
dalszych rozdziałach struktura wektora e będzie dokładniej wyspecyfikowana). Niech f 0 σ = i=1 fi σi2 będzie
liniową funkcją komponentów wariancyjnych. Zadnie polega na znalezieniu kwadratowego estymatora y 0 Ay
dla tej funkcji.
W niniejszym krótkim przeglądzie zagadnień estymacji komponentów wariancyjnych będą nas interesowały
dwa kierunki. Pierwszy z nich to estymacja w modelach normalnych, drugi zaś to zagadnienie takiej estymacji w modelach normalnych, którą można przenieść również na przypadek modeli niegaussowskich, czyli
zagadnienie estymacji odpornej na odstępstwa od normalności modelu.
1.1. Estymacja w modelach gaussowskich. Jedną z pierwszych prac dotyczących estymacji komponentów
wariancyjnych jest praca Hendersona (1953). Podane tam trzy metody estymacji znane są jako metody Hendersona. Polegają one na znalezieniu niezależnych zmiennych losowych y 0 A1 y, . . . , y 0 AK y oraz rozwiązaniu
2
układu równań powstałych przez przyrównanie wartości oczekiwanych do aktualnych
względem σ12 , . . . , σK
0
2
obserwacji: Ey Ai y = y 0 Ai y, i = 1, . . . , K. Otrzymane rozwiązania σ̂1 , . . . , σ̂K
traktuje się jako estymatory
odpowiednich komponentów wariancyjnych. Uzyskane tą drogą estymatory są nieobciążone i cała uwaga
koncentruje się wokół konstrukcji takich właśnie estymatorów. Ponieważ estymator nieobciążony nie jest
wyznaczony jednoznacznie, powstał problem wyboru spośród nich estymatora optymalnego według jakiegoś
dodatkowego kryterium. W 1971 roku Rao zaproponował jako kryterium normę kAkV = trAV AV , gdzie V
jest pewną dodatnio określoną macierzą. Otrzymany tą drogą estymator nosi nazwę MINQUE - minimum
norm quadratic unbiased estimator. Okazuje się, że jeżeli V = Covy, to MINQUE jest estymatorem nieobciążonym o minimalnej wariancji. Wiele szczegółowych wyników uzyskanych przy tym podejściu do estymacji
można znaleźć w pracach Searle (1971), Corbeil i Searle (1976), Kleffe (1977), Rao i Kleffe (1980), Humak
(1984) oraz w najnowszej pracy przeglądowej Gnota (1986).
Ponieważ pewne transformacje wyjściowego modelu liniowego (1.1) nie zmieniają wartości komponentów
2
i przestrzeni wartości oczekiwanych wektora y, wydaje się naturalnym ograniczenie
wariancyjnych σ12 , . . . , σK
klasy rozważanych estymatorów do estymatorów niezmienniczych na te transformacje. Dokładniej: jeżeli g
jest dowolnym wektorem z przestrzeni generowanej przez kolumny macierzy X - oznaczamy tę przestrzeń
przez R(X) - to Cov(y + g) = Covy i E(y + g) ∈ R(X). W tej sytuacji naturalne wydaje się żądanie, aby
estymator y 0 Ay spełniał warunek
(y + g)0 A(y + g) = y 0 Ay,
∀g ∈ R(X).
Takie estymatory będziemy nazywać krótko estymatorami niezmienniczymi. Ponieważ dla każdego g ∈ R(X)
istnieje wektor β ∈ Rp taki, że g = Xβ, więc estymator y 0 Ay jest niezmienniczy wtedy i tylko wtedy, gdy
AX = 0.
Podstawowym zagadnieniem estymacji niezmienniczej jest znalezienie maksymalnego niezmiennika, tzn. przekształcenia liniowego t = M y ∈ Rs , s ≤ n spełniającego warunki:
1. M y = M (y + g), ∀g ∈ R(X);
2. jeżeli M y1 = M y2 , to y1 − y2 ∈ R(X).
W literaturze rozważane są różne przekształcenia M . Najczęściej przyjmuje się M = I − XX + , gdzie X +
jest odwrotnością Moore’a-Penrose’a macierzy X. Przekształcenie to jest rzutem ortogonalnym na N (X) =
{a ∈ Rp : Xa = 0}. W dalszym ciągu będziemy posługiwali się właśnie tą macierzą M . Inne maksymalne
niezmienniki można znaleźć np. w pracach: Kleffe (1976) oraz Olsen i in. (1976).
Zagadnienie niezmienniczej i nieobciążonej estymacji funkcji liniowych komponentów wariancyjnych szczegółowo badał Seely (1971b). Charakteryzację zbioru G funkcji komponentów wariancyjnych, które są nieobciążenie i niezmienniczo estymowalne, sformułował on w postaci następującego lematu:
LEMAT 1.1. Funkcja f 0 σ ∈ G wtedy i tylko wtedy, gdy f ∈ R(G), gdzie G = (trM Ti M Tj )i,j=1,...,K .
Przy założeniu, że jedna z macierzy T1 , . . . , TK , powiedzmy TK = I, Seely podał także warunek konieczny i
dostateczny na to, aby dla każdej funkcji f 0 σ ∈ G istniał estymator jednostajnie najlepszy i niezmienniczy,
2
tzn. estymator o jednostajnie, względem σ, minimalnej wariancji, która w modelu gaussowskim wyraża się
wzorem
V ary 0 Ay = 2trAT (σ)AT (σ).
(1.2)
LEMAT 1.2. Niech TK = I i niech E = sp{M T1 M, . . . , M TK M }. Dla każdej funkcji z G istnieje jednostajnie
najlepszy estymator niezmienniczy wtedy i tylko wtedy, gdy przestrzeń E spełnia warunek:
V ∈ E ⇒ V 2 ∈ E.
Pod przestrzeń E spełniającą warunek podany w lemacie 1.2 Seely nazwał przestrzenią kwadratową.
1.2. Estymacja w modelach niegaussowskich i estymacja odporna. W przypadku gdy rozkład modelowy nie
jest rozkładem normalnym, w wariancji kwadratowego estymatora y 0 Ay pojawia się człon będący funkcją
kurtozy rozkładu modelowego (dokładna postać wariancji w modelu niegaussowskim podana jest w rozdziale
2, wzór 2.1). Zatem, wariancja estymatora optymalnego w modelu normalnym zmienia się i powstaje pytanie,
czy w modelu niegaussowskim estymator ten jest nadal estymatorem nieobciążonym o minimalnej wariancji,
a jeżeli nie, to jak wygląda estymator optymalny w modelu niegaussowskim.
Problem charakteryzacji modeli, w których estymator optymalny przy założeniu normalności nie traci własności optymalności, gdy rozkład nie jest normalny, postawiony był przez Hsu (1938) i nosi nazwę problemu
Hsu. Zagadnieniem tym zajmowali się m.in. Attiqullah (1962 a,b), Drygas i Hupet (1977), Drygas (1980),
Kleffe (1975), Kleffe i Zolner (1978), Anderson i in. (1984). Przegląd wyników można znaleźć np. w podręcznikach Seber (1977) i Rao (1982).
W modelach niegaussowskich, nie będących rozwiązaniami problemu Hsu, możliwe jest znalezienie estymatorów o mniejszej wariancji niż wariancja estymatora optymalnego. Hirano (1973) oraz Singh i in. (1973)
zaproponowali pewną modyfikację standardowego estymatora wariancji zależną od kurt ozy rozkładu modelowego. Inną propozycją jest estymator typu ”jacknife” (Arvesen i Schmitz 1970).
Przykładem modelu będącego rozwiązaniem problemu Hsu jest model, w którym składowe y1 , . . . , yn wektora y są niezależnymi zmiennymi losowymiPo tym samym rozkładzie, powiedzmy F . Scheffe (1959) pokazał,
1
że najlepszy estymator wariancji s2 = n−1
(yi − ȳ)2 ma, po odpowiednim unormowaniu rozkład asymptotycznie normalny N (0, 1 + γ2 (F )/2), gdzie γ2 (F ) = µ4 (F )/µ22 (F ) − 3 jest kurtozą rozkładu F (µi (F ) oznacza
i-ty moment centralny tego rozkładu). W konsekwencji otrzymujemy na przykład, że asymptotyczny rozmiar
testu chi-kwadrat na poziomie istotności 0.05 dla hipotezy H : σ 2 = 1 zależy od kurtozy rozkładu F :
γ2 (F )
rozmiar testu
−1.5
9 × 10−5
−1
0
0.0006 0.05
1
7
0.11 0.36
Podobne zachowanie się rozmiaru testu F Snedecora dla testowania hipotezy o równości dwóch wariancji zauważył Pearson (1931), natomiast Box (1953) oraz Box i Andersen (1955) obliczyli zmiany asymptotycznego
rozmiaru testu Bartletta dla testowania hipotezy o równości k wariancji:
γ2 (F )
2
0
−1
k=2
0.166
0.05
0.0056
k = 20
0.718
0.05
0.0004
W tej sytuacji wydaje się sensowne poszukiwanie takich estymatorów wariancji, których wariancja jest mało
czuła na zmiany kurtozy rozkładu modelowego. Po raz pierwszy badanie zmian wariancji kwadratowego
estymatora wariancji, będących konsekwencją zmiany rozkładu modelowego, było przeprowadzone w pracy
R. Zieliński i W. Zieliński (1985). Podano tam estymatory, których wariancja jest najbardziej stabilna przy
zmianach rozkładu w modelu z jednym komponentem wariancyjnym. Wyniki tej pracy przedstawione są w
§3.1. W niniejszej pracy problem poszukiwania estymatorów o wariancji najbardziej stabilnej przy zmianach
rozkładu zostanie rozszerzony na liniowe funkcje komponentów wariancyjnych.
Inne podejście do odpornej estymacji wariancji prezentuje Huber (1981). Interesuje się on estymacją odchylenia standardowego jako parametru skali w rozkładzie normalnym. W tym podejściu rozważa się problem
3
estymacji parametru skali λ rozkładu Fλ (x) = F (x/λ). Przypuśćmy, że zamiast rozkładu F mamy pewien
rozkład z rodziny Pε = {G : G = (1 − ε)F + εH : H jest dowolnym rozkładem}. (jest to tak zwany model błędów grubych). Poszukuje się takich estymatorów parametru λ, których asymptotyczne obciążenie
lub/i asymptotyczna wariancja są małe dla wszystkich rozkładów z Pε . Estymatorów poszukuje się wśród
M -estymatorów (estymatory typu największej wiarogodności), L-estymatorów (liniowe kombinacje statystyk
pozycyjnych) lub R-estymatorów (estymatory rangowe). Obszerny wykład na temat tego zagadnienia można
znaleźć w monografii Hubera (1981), szczegółowe wyniki zaś np. w pracach Schoemaker i Hettmansperger
(1982) i Lax (1985). Rychlik (1986) podał estymatory parametru skali, których asymptotyczne obciążenie
w sensie mediany jest najmniejsze dla wszystkich rozkładów z Pε . To bardzo ogólne podejście do estymacji
wariancji nie jest jednak przedmiotem moich zainteresowań w niniejszej pracy.
2. Odporna estymacja komponentów wariancyjnych
PK
2.1. Sformułowanie zagadnienia. Rozważamy model liniowy (1.1), gdzie e =
i=1 Wi ξi , Wi są znanymi
macierzami o wymiarach n × ni takimi, że Wi WI0 = Ti , ξi = (ξi1 . . . , ξini )0 , i = 1, . . . , K są wektorami
losowymi takimi, że Eξi = 0, Eξi ξi0 = σi2 Ini oraz Eξi ξj0 = 0 dla i 6= j.
Niech Fij będzie rozkładem zmiennej losowej ξij takim, że kurtoza γ2 (Fij ) = γ2i ∈ [γ 2i , γ 2i ]. Oznaczmy przez
P
F łączny rozkład zmiennych losowych (ξ1 , . . . , ξK ) na RN (N =
ni ). Niech PΓ = {Fγ : γ ∈ Γ} będzie
rodziną rozkładów indeksowaną parametrem γ ∈ Γ = [γ 21 , γ 21 ] × · · · × [γ 2K , γ 2K ]. Załóżmy, że Γ jest zbiorem
w Rk zawierającym zero. Przy tych założeniach wariancja niezmienniczego estymatora y 0 Ay ma postać:
V ary 0 Ay =
K
X
σi4 γ2i a0i ai + 2trAT (σ)AT (σ),
(2.1)
i=1
gdzie ai jest wektorem utworzonym z diagonalnych elementów macierzy Wi0 AWi , i = 1, . . . , K (ai =
diag(Wi0 AWi )). Zauważmy, że jeżeli F jest rozkładem normalnym, to (2.1) redukuje się do (1.2).
Dla zadanej funkcji f 0 σ poszukujemy takiego estymatora, którego wariancja zmienia się możliwie mało,
gdy rozkład F przebiega zbiór Γ. Wzorując się na koncepcji odporności z pracy R. Zielińskiego (1983),
zdefiniujemy dla danego estymatora y 0 Ay funkcję odporności
rA (σ) = sup V ary 0 Ay − inf V ary 0 Ay =
Fγ ∈PΓ
Fγ ∈PΓ
K X
γ 2i − γ 2i σi4 a0i ai .
(2.2)
i=1
DEFINICJA 2.1. Estymator y 0 Ay funkcji f 0 σ nazywamy odpornym, jeżeli Ey 0 Ay = f 0 σ oraz rA (σ) ≤
rB (σ) dla wszystkich σ oraz wszystkich B takich, że Ey 0 By = f 0 σ.
W trzeciej części niniejszego rozdziału problem poszukiwania estymatorów odpornych jest sprowadzony do
problemu poszukiwania estymatorów nieobciążonych o ”minimalnej wariancji” oraz są podane warunki istnienia estymatorów odpornych. Okazuje się, że w wielu modelach dla danej funkcji komponentów wariancyjnych
istnieje nieskończenie wiele estymatorów odpornych i spośród nich można wybrać estymator o minimalnej
wariancji. Zagadnienie istnienia estymatorów odpornych o minimalnej wariancji (które nazywam najlepszymi
estymatorami odpornymi) rozważane jest w części czwartej. Część piąta poświęcona jest badaniu, kiedy estymator nieobciążony o minimalnej wariancji w modelu normalnym jest estymatorem odpornym. Druga część
bieżącego rozdziału ma charakter pomocniczy i zawiera wszystkie te fakty z ogólnej teorii modeli liniowych,
które zostały wykorzystane w dalszej części pracy.
Ponieważ interesuje nas niezmiennicza estymacja komponentów wariancyjnych, więc tam gdzie to będzie
wygodniej, obok modelu wyjściowego
K
X
Y = Xβ +
Wi ξi ,
(2.3)
i=1
będziemy rozważać model zredukowany
t=
K
X
i=1
4
Ui ξi ,
(2.4)
dla maksymalnego niezmiennika opisanego w §1.1 t = M y, gdzie Vi = M Wi oraz M = I − XX + .
Ponieważ estymator kwadratowy względem y jest niezmienniczy wtedy i tylko wtedy, gdy jest funkcją maksymalnego niezmiennika t, problem niezmienniczej i kwadratowej estymacji w modelu (2.3) redukuje się do
problemu estymacji kwadratowej w modelu (2.4).
2.2. Definicje, oznaczenia i lematy. W latach siedemdziesiątych Seely i Zyskind (Seely (1970a, b), (1971), Seely
i Zyskind (1971)) zauważyli, że problem kwadratowej estymacji komponentów wariancyjnych można sprowadzić do pewnego problemu estymacji liniowej. Rozważali oni zmienną losową Z = yy 0 przyjmującą wartości w
przestrzeni liniowej Mn macierzy symetrycznych stopnia n z iloczynem skalarnym (A, B) = trAB. Wówczas
estymator kwadratowy y 0 Ay można zapisać jako estymator liniowy (A, Z). Ogólnie: dla zmiennej losowej Z
o wartościach w skończenie wymiarowej przestrzeni liniowej K z iloczynem skalarnym (·, ·) zadanie polega na
liniowej estymacji liniowej funkcji wartości oczekiwanej EZ. Prace Seely’ego i Zyskinda dały początek tzw.
podejściu bezwspółrzędniowemu (coordinate free approach), które to podejście jest stosowane w niniejszej
pracy. W związku z tym wprowadzimy pewne definicje i lematy przydatne w dalszych rozważaniach.
Niech Z będzie zmienną losową o wartościach w skończenie wymiarowej przestrzeni K z iloczynem skalarnym (·, ·). Niech K0 będzie podprzestrzenią liniową przestrzeni K. Niech E będzie przestrzenią liniową
rozpiętą przez wartości oczekiwane zmiennej losowej Z oraz niech Θ będzie stożkiem wypukłym nieujemnie
określonych i samosprzężonych operatorów liniowych działających z K w K (zazwyczaj przyjmuje się, że Θ
jest stożkiem rozpiętym przez operatory kowariancji CovZ). Dla danego A ∈ K niech g = (A, EZ) będzie
funkcją liniową wartości oczekiwanej EZ. Poszukujemy estymatora funkcji g w klasie estymatorów liniowych (B, Z). Funkcję g będziemy nazywali K0 -estymowalną, jeżeli istnieje B ∈ K0 takie, że E(B, Z) = g.
Estymator (B, Z), B ∈ K0 , funkcji g będziemy nazywali (K0 , Θ) najlepszym estymatorem funkcji g, jeżeli
dla każdego C ∈ K0 takiego, że E(C, Z) = g mamy (B, ΓB) ≤ (C, ΓC) dla wszystkich Γ ∈ Θ. Estymator
(B, Z) nazywamy (K0 , Θ)-najlepszym, jeżeli jest on (K0 , Θ)-najlepszym estymatorem swojej wartości oczekiwanej. Zauważmy, że jeżeli Θ jest zbiorem operatorów kowariancji wektora Z, to pojęcie (K0 , Θ)-najlepszego
estymatora jest równoważne pojęciu estymatora nieobciążonego o jednostajnie
T minimalnej wariancji.
Operator Ψ ∈ Θ nazywamy operatorem maksymalnym w Θ, jeżeli N (Ψ) = Γ∈Θ N (Γ), gdzie N (Γ) oznacza
jądro operatora Γ. Jeżeli w zbiorze Θ istnieje operator dodatnio określony, to jest on operatorem maksymalnym. Istnienie operatora maksymalnego w każdym wypukłym zbiorze samosprzężonych operatorów
nieujemnie określonych udowodnił LaMotte (1977).
Niech K0 oraz K1 będą dwiema podprzestrzeniami liniowymi przestrzeni K i niech Bi = {A ∈ Ki :
(A, Z) jest estymatorem (Ki , Θ) − najlepszym}, i = 0, 1. Podamy kilka lematów charakteryzujących najlepsze estymatory.
LEMAT 2.1. Niech A ∈ K0 . Estymator (A, Z) jest (K0 , Θ)-najlepszym wtedy i tylko wtedy, gdy ΓA ∈ E +K0
dla każdego Γ ∈ Θ.
Dowód. Jest to wersja znanego lematu Lehmanna-Scheffego (por. Gnot i in. (1980)).
Następujący lemat podaje charakteryzację modeli, w których dla wszystkich funkcji K0 -estymowalnych istnieją estymatory najlepsze.
LEMAT 2.2. Dla każdej K0 -estymowalnej funkcji istnieje (K0 , Θ)-najlepszy estymator wtedy i tylko wtedy,
gdy
Γ K0 ∩ Ψ−1 (E + K0⊥ ) ⊆ E + K0⊥ dla wszystkich Γ ∈ Θ.
Dowód. Lemat pochodzi z pracy Gnota i in. (1980), gdzie podano jego dowód.
Powyższy lemat odgrywa podstawową rolę w dalszych rozważaniach.
Następujący lemat podaje postać zbioru Bi przy założeniu, że dla każdej Ki -estymowalnej funkcji istnieje
(Ki , Θ))-najlepszy estymator, i = 0, 1.
LEMAT 2.3. Przypuśćmy, że warunki lematu 2.2 są spełnione dla K0 i K1 . Wówczas Bi = Ki ∩Ψ−1 (E +Ki⊥ ),
i = 0, 1.
5
T
T
Dowód. Na mocy lematu 2.1 mamy Bi = Ki ∩ Γ∈Θ Γ−1 (E + Ki⊥ ). Równość Ki ∩ Γ∈Θ Γ−1 (E + Ki⊥ ) =
Ki ∩ Ψ−1 (E + Ki⊥ ) wynika z dowodu twierdzenia 3.1 w pracy Gnota i in. (1980).
Poniższy lemat podaje warunki przy których każdy (K1 , Θ)-najlepszy estymator jest jednocześnie (K0 , Θ)najlepszym, gdy K0 ⊆ K1 .
LEMAT 2.4. Jeżeli K0 ⊆ K1 , to B1 ⊆ B0 wtedy i tylko wtedy, gdy B1 ⊆ K0 .
Dowód. Przypuśćmy, że B1 ⊆ B0 . Ponieważ na mocy lematu 2.2 B0 ⊆ K0 , więc B1 ⊆ K0 . Niech teraz B1 ⊆ K0 .
Z lematu 2.2 B1 ⊆ Ψ−1 (E + K1⊥ ), więc wobec założenia, że K0 ⊆ K1 mamy B0 ⊆ Ψ−1 (E + K0⊥ ), czyli
B1 ⊆ K0 ∩ Ψ−1 (E + K0⊥ ) = B0 .
Wyniki przedstawione w niniejszym paragrafie wykorzystuję w zagadnieniach kwadratowej estymacji komponentów wariancyjnych w modelu (2.4) (niezmienniczej, kwadratowej estymacji w modelu (2.3)) w następujący
0
sposób. Jako zmienną losową
K jest przestrzenią Mn macierzy symetrycznych stopP 2 Z przyjmuję tt . Wtedy
0
0
nia n. Ponieważ Ett =
σi VP
i , gdzie Vi = Ui Ui , więc E = sp{V1 , . . . , VK }. Interesuje nas estymacja funkcji
f 0 σ, czyli funkcji (A, Ett0 ) =
σi2 trAVi . Estymatory t0 At przyjmują postać (A, tt0 ).
2.3. Twierdzenie o istnieniu estymatorów odpornych. W niniejszym paragrafie zajmujemy się problemem
istnienia estymatorów odpornych w sensie definicji 2.1. Na mocy wzorów (2.1) i (2.2), macierz A ∈ Mn taka,
że t0 At jest odpornym estymatorem funkcji f 0 σ jest rozwiązaniem następującego zagadnienia optymalizacyjnego:
znaleźć A ∈ Mn minimalizującą, jednostajnie względem σ,
rA (σ) =
K
X
(γ 2i − γ 2i )σi4 a0i ai ,
i=1
przy warunku
Et0 At = f 0 σ,
gdzie ai = diag(Ui0 AUi ) = diag(Wi0 M AM Wi ).
Niech P będzie rzutem ortogonalnym na podprzestrzeń macierzy diagonalnych, tzn. dla A = (aij )i,j=1,...,n

a11
.
P (A) =  ..
0
···
···

0
.. 
.
.
ann
Korzystając z własności śladu macierzy, możemy zapisać:
a0i ai = trP (Ui0 AUi )P (Ui0 AUi ) = trUi0 AUi P (Ui0 AUi ) = trAUi P (Ui0 AUi )Ui0 = (AΦi A),
gdzie Φi jest odwzorowaniem liniowym z Mn w Mn zdefiniowanym wzorem Φi A = Ui P (Ui0 AUi )Ui0 . Niech
PK
Φ(σ) = i=1 (γ 2i − γ 2i )σi4 Φi . Wtedy
rA (σ) =
K
X
(γ 2i − γ 2i )σi4 a0i ai = (A, Φ(σ)A).
i=1
Poszukiwanie odpornego estymatora dla funkcji f 0 σ w modelu (2.4) sprowadza się zatem do następującego
problemu:
6
znaleźć macierz A ∈ Mn taką, że
(A, Φ(σ)A) = min! dla wszystkich σ,
Et0 At = f 0 σ.
(2.5)
Nas interesują warunki, przy których dla każdej funkcji estymowalnej w modelu (2.4) istnieje estymator
odporny. Niech Θ = {Φ(σ) : σi2 ≥ 0, i = 1, . . . , K}.
LEMAT 2.5. W zbiorze Θ istnieje operator maksymalny.
Dowód. Zbiór Θ jest wypukły. Dla każdego A ∈ Mn mamy
(A, Φ(σ)A) =
K
X
(A, (γ 2i − γ 2i )σi4 Φi A),
i=1
a ponieważ (A, Φi A) = a0i ai ≥ 0, więc każdy operator Φ(σ) jest nieujemnie określony. Dla dowolnych A, B ∈
Mn mamy
(A, Φi B) = trAUi P (Ui0 BUi )Ui0 = trP (Ui0 AUi )P (Ui0 BUi ) = trUi P (Ui0 AUi )Ui0 B = (Φi A, B), i = 1, . . . , K,
czyli każdy operator Φ ∈ Θ jest samosprzężony. Zatem na mocy cytowanego w §2.2 wyniku LaMotta w Θ
istnieje operator maksymalny.
Niech Ψ będzie operatorem maksymalnym w Θ. Przyjmując K0 = K w lemacie 2.2, otrzymujemy następujące
twierdzenie.
TWIERDZENIE 2.1. Dla każdej funkcji estymowalnej w modelu (2.4) istnieje estymator odporny wtedy
i tylko wtedy, gdy
ΓΨ−1 (E) ⊆ E dla wszystkich Γ ∈ Θ.
2.4. Twierdzenie o istnieniu najlepszych estymatorów odpornych. Twierdzenie 2.1 podaje warunki konieczne
i dostateczne, przy których dla każdej funkcji estymowalnej istnieje estymator odporny. Pojawia się pytanie,
czy te estymatory odporne są określone jednoznacznie. Następujący lemat podaje rozwiązanie tego problemu.
LEMAT 2.6. Jeżeli dla pewnej funkcji estymowalnej istnieje estymator odporny, to jest on wyznaczony
jednoznacznie wtedy i tylko wtedy, gdy N ∩ E ⊥ = {0}.
Dowód. (Konieczność). Przypuśćmy, że istnieje niezerowy element X ∈ N ∩ E ⊥ . Niech (A, tt0 ) będzie estymatorem odpornym. Wtedy E(A + X, tt0 ) = E(A, tt0 ) oraz (A + X, Γ(A + X)) = (A, ΓA) dla wszystkich
Γ ∈ Θ, czyli (A + X, tt0 ) jest również estymatorem odpornym.
(Dostateczność). Niech (A, tt0 ) oraz (B, tt0 ) będą dwoma odpornymi estymatorami tej samej funkcji komponentów wariancyjnych. Zatem A − B ∈ E ⊥ . Ponieważ (A, tt0 ) oraz (B, tt0 ) są odporne, więc na mocy lematu
2.1 (z K0 = K) mamy (A, Γ(A − B))
T = (B, Γ(A − B)) = 0 dla każdego Γ ∈ Θ. Stąd (A − B, Γ(A − B)) = 0
dla każdego Γ ∈ Θ, czyli A − B ∈ Γ∈Θ N (Γ) = N (Ψ). W konsekwencji A = B.
W niniejszym paragrafie rozważamy przypadek, gdy warunki lematu 2.6 nie są spełnione, Wówczas, jeżeli dla
pewnej funkcji estymowalnej istnieje estymator odporny, to jest on określony niejednoznacznie. Spośród nich
można wybrać estymator ”najlepszy” według dodatkowego kryterium. Za kryterium przyjmujemy wariancję
i najlepszym estymatorem odpornym nazywać będziemy estymator odporny o minimalnej wariancji.
Niech AR oznacza pod przestrzeń liniową wszystkich estymatorów odpornych. Niech GR ⊆ G oznacza zbiór
wszystkich odpornie estymowalnych funkcji: f 0 σ ∈ GR wtedy i tylko wtedy, gdy istnieje A ∈ AR takie, że
Et0 At = f 0 σ.
PK
Niech f 0 σ ∈ GR . Ponieważ dla wszystkich odpornych estymatorów funkcji f 0 σ wielkość i=1 (γ 2i −γ 2i )σi4 a0i ai
jest taka sama, więc zgodnie ze wzorem (2.1) najlepszy estymator odporny, jeżeli istnieje, ma postać t0 At,
gdzie A ∈ Mn jest rozwiązaniem następującego problemu
7
(
trAV (σ)AV (σ) = min!
Et0 At = f 0 σ,
A ∈ AR .
dla wszystkich σ,
Dla zadanej macierzy T niech ΣT będzie operatorem liniowym, odwzorowującym Mn w siebie, danym
wzorem ΣT A = T AT . Niech V = {ΣV (σ) : σi2 ≥ 0, i = 1, . . . , K}. Łatwo zauważyć, że - podobnie jak Θ zbiór V jest wypukłym stożkiem samosprzężonych operatorów nieujemnie określonych. Oznaczmy przez Σ
operator maksymalny w V.
Następujące twierdzenie podaje warunki konieczne i dostateczne na to, aby dla każdej funkcji z GR istniał
najlepszy estymator odporny.
TWIERDZENIE 2.2. Dla każdej funkcji odpornie estymowalnej istnieje najlepszy estymator odporny
wtedy i tylko wtedy, gdy
⊥
Γ AR ∩ Σ−1 (E + A⊥
R ) ⊆ E + AR
dla wszystkich Γ ∈ V.
Dowód. Twierdzenie jest wersją lematu 2.2 z K0 = AR oraz Θ = V.
W modelu (2.3) sformułowanym w §2.1 często przyjmuje się, że WK = I (TK = I). Wtedy ξK interpretuje
się jako wektor błędów losowych obserwacji y i oznacza standardowo przez e. Jeżeli WK = I, to twierdzenie
2.2 można zapisać w równoważnej postaci.
TWIERDZENIE 2.3. Niech Q oznacza rzut ortogonalny na podprzestrzeń AR . Dla każdej funkcji z GR
istnieje najlepszy estymator odporny wtedy i tylko wtedy, gdy podprzestrzeń sp{QV1 Q, . . . , QVK Q} jest
kwadratowa, gdzie Vi = M Wi Wi0 M .
Dowód. Twierdzenie to jest adaptacją lematu 1.2 do przypadku, w którym najlepszych estymatorów poszukujemy w zbiorze {y 0 Ay : A ∈ AR }.
2.5. Porównanie z estymatorem standardowym. Załóżmy, że w modelu (2.4) wektory ξi , i = 1, . . . , K, mają
rozkłady normalne, WK = I (VK = M ), a przestrzeń E = sp{V1 , . . . , VK } jest kwadratowa. Wówczas
na mocy lematu 1.2 dla każdej estymowalnej funkcji komponentów wariancyjnych f 0 σ istnieje estymator
najlepszy. Oznaczmy ten estymator przez t0 AfS t i nazwijmy go estymatorem standardowym. Można pokazać,
że AfS ∈ E dla każdej estymowalnej funkcji f 0 σ (por. Gnot (1986)). Podane niżej twierdzenie orzeka, w jakich
modelach dla każdej funkcji estymowalnej estymator standardowy jest jednocześnie najlepszym estymatorem
odpornym. Jest to szersza wersja lematu 4 z pracy W. Zielińskiego (1986).
TWIERDZENIE 2.4. Niech WK = I i niech E będzie podprzestrzenią kwadratową. Następujące warunki
są równoważne:
(i) dla każdej funkcji estymowalnej w modelu (2.4) estymator standardowy jest najlepszym estymatorem
odpornym;
(ii) E ⊆ AR ;
(iii) Φi Vj ∈ E dla i, j = 1, . . . , K.
Dowód. Dowodzimy równoważności warunków (i) oraz (ii) korzystając z lematów przedstawionych w §2.2.
Połóżmy tam K1 = Mn , K0 = AR oraz Θ = V. Wówczas B1 jest zbiorem estymatorów standardowych, B0
jest zaś zbiorem najlepszych estymatorów odpornych. Na mocy lematu 2.4 mamy B1 ⊆ B0 wtedy i tylko
wtedy, gdy B1 ⊆ AR . Ale na mocy lematu 2.3 i założenia WK = I mamy B1 = E.
Dowodzimy (i) ⇔ (iii). Każdy estymator standardowy jest najlepszym estymatorem odpornym wtedy i tylko
wtedy, gdy jest (Mn , Θ)-najlepszym dla Θ zdefiniowanego w §2.3. Ponieważ B1 = E, z lematu 2.1 wynika,
że (i) jest równoważny z warunkiem
ΦA ∈ E
∀A ∈ E, ∀Φ ∈ V.
Z definicji Φ oraz E wynika, że powyższy warunek jest równoważny (iii).
8
3. Zastosowania
W niniejszym rozdziale przedstawimy kilka przykładów zastosowań ogólnej teorii estymatorów odpornych
z rozdziału 2. Model z jednym komponentem wariancyjnym (§3.1) jest klasycznym modelem liniowym z
problemem estymacji wariancji błędu. Model jednoczynnikowej analizy wariancji (§3.2) stanowi punkt wyjścia
dla wielu rozważań teoretycznych związanych z wnioskowaniem statystycznym, a zarazem jest jednym z
modeli najpowszechniej stosowanych w praktyce przyrodniczej, technicznej i ekonomicznej. W paragrafie
3.3 przedstawiony jest model z dwoma komponentami wariancyjnymi, w którym standardowy estymator
nieobciążony o minimalnej wariancji nie jest estymatorem odpornym.
3.1. Model z jednym komponentem wariancyjnym. Rozważamy model y = Xβ + ξ, w którym Eξ = 0,
Eξξ 0 = σ 2 In . Zadanie estymacji liniowej funkcji wariancji sprowadza się teraz do estymacji wielkości cσ 2 dla
c ∈ R. Korzystając z wyników rozdziału 2 pokażemy, że w tym modelu istnieje najlepszy estymator odporny
oraz znajdziemy explicite jego postać.
W rozważanym modelu przestrzeń rozpięta na wartościach oczekiwanych tt0 dla t = M y jest postaci E =
{aM : a ∈ R}. Zbiór określony w paragrafie 2.3 jest teraz generowany przez jeden operator postaci ΦA =
M P (M AM )M , który jest operatorem maksymalnym w Θ. Warunek podany w twierdzeniu 2.1 jest oczywiście
spełniony, zatem dla każdej funkcji estymowalnej (w tym przypadku dla każdej funkcji postaci cσ 2 ) istnieje
estymator odporny. Podprzestrzeń V zdefiniowana w paragrafie 2.4 ma postać V = {ΣaM : a ∈ R}, a
operatorem maksymalnym w tym zbiorze jest ΣM . Z postaci operatora ΣaM widać, że dla wszystkich a ∈ R+
zachodzi
⊥
⊥
ΣaM AR ∩ Σ−1
M (E + AR ) ⊆ E + AR ,
czyli dla każdej funkcji wariancji istnieje najlepszy estymator odporny.
W rozważanym modelu y = Xβ + ξ można efektywnie wyznaczyć najlepszy estymator odporny dla σ 2
(R. Zieliński i W. Zieliński (1985)). Funkcja odporności estymatora y 0 Ay przyjmuje w tym modelu postać
rA (σ) = (γ 2 − γ 2 )σ 4 a0 a, gdzie a = diagA. Zadanie polega na znalezieniu macierzy A minimalizującej rA (σ)
przy warunku niezmienniczości AX = 0 i warunku nieobciążoności trA = 1. W istocie rzeczy, jest to zadanie
znalezienia przekątnej a macierzy; polega ono na znalezieniu najkrótszego, w sensie normy euklidesowej,
wektora w odpowiedniej rozmaitości liniowej. Jak wiadomo, zadanie takie ma zawsze rozwiązanie; oznaczmy
to rozwiązanie przez a0 = (a01 , . . . , a0n )0 . Każda macierz A taka, że diagA = a0 oraz AX = 0, wyznacza
pewien estymator odporny wariancji.
Macierz AR najlepszego estymatora odpornego jest rozwiązaniem następującego zadania:
wyznaczyć macierz A ∈ Mn taką, że

 trA2 = min!,
AX = 0,

trAWi = a0i , i = 1, . . . , n,
(i,i)
(u)
gdzie Wi = (δk,m )k,m=1,...,n δv jest deltą Kroneckera (warunek trAWi = a0i jest równoważny warunkowi
aii = a0i ).
Rozwiązaniem tego zadania jest macierz (por. Rao (1982) §1.6.3 (ii))
AR = (aR
ij )i,j=1,...,n ,
gdzie aR
ij =
równań:
Pn
p=1
λp mip mpj , M = (mij ) = I − XX + , natomiast λ = (λl , . . . , λn ) jest rozwiązaniem układu
n
X
λp m2jp = a0j ,
j = 1, . . . , n.
p=1
W ten sposób zadanie wyznaczenia najlepszego estymatora odpornego w konkretnym modelu y = Xβ + ξ
sprowadza się praktycznie do wyznaczenia macierzy M i rozwiązania powyższego układu równań względem
λ.
9
Na mocy twierdzenia 2.4, skonstruowany wyżej najlepszy estymator odporny jest estymatorem standardowym
wtedy i tylko wtedy, gdy M P (M )M = aM dla pewnego a ∈ R. Warunek ten jest równoważny jednemu z
dwóch następujących warunków:
(a) rząd M = 1 (tzn. rząd X = n − 1);
(b) rząd M > 1 oraz wszystkie niezerowe elementy przekątnej macierzy M są sobie równe.
3.2. Model jednoczynnikowej analizy wariancji. Model jednoczynnikowej analizy wariancji ma postać
yij = µ + αi + eij , j = 1, . . . , ni , i = 1, . . . , k,
gdzie µ jest ”średnią ogólną”, αi jest ”efektem i-tego poziomu czynnika”, yij jest j-tą obserwacją na i-tym
poziomie czynnika, eij jest zaś błędem losowym związanym z tą obserwacją. Zakładamy, że Eeij = 0,
Ee2ij = σ 2 oraz Eeij eml = 0 dla i 6= m lub j 6= l. Wyróżniamy dwie wersje tego modelu: model stały, w
którym αi są nieznanymi parametrami, oraz model mieszany (zwany także modelem losowym), w którym αi
są zmiennymi losowymi takimi, że Eαi = 0, Eαi = τ 2 , i = 1, . . . , k, Eαi αj = 0 dla i 6= j oraz Eαi ejm = 0
dla wszystkich i, j, m. Model stały jest modelem z jednym komponentem wariancyjnym, natomiast model
mieszany jest modelem z dwoma komponentami wariancyjnymi.
W dalszych rozważaniach o modelu jednoczynnikowej analizy wariancji będziemy używali następujących
oznaczeń:
1n - wektor złożony z n jedynek;
Jn = 1n 10n - macierz złożona z samych jedynek;
A ⊗ B - iloczyn kroneckerowski macierzy A i B;
dla macierzy A1 , . . . , An , niech (por. LaMotte (1973))


A1 · · · 0
.
.. 
D(Ai ) =  ..
.
.
0 · · · An
.
3.2.1. Model stały. W standardowym zapisie y = Xβ + e modelu stałego mamy X = (1N ..D(1ni )), gdzie
.
P
N=
ni oraz (A..B) oznacza macierz blokową o podmacierzach A i B.
Macierz M rzutu na N (X) ma postać
1
Jni .
M = IN − D
ni
Macierz standardowego estymatora wariancji σ 2 ma postać
1
M.
N −k
Z tw. 2.4 wynika, że estymator standardowy jest odporny wtedy i tylko wtedy, gdy diagM = cIN dla
pewnego c. Powyższy warunek jest spełniony wtedy i tylko wtedy, gdy n1 = · · · = nk tzn. gdy model jest
zrównoważony.
W ogólnym przypadku, korzystając z metody przedstawionej w paragrafie 3.1, można wyznaczyć macierz
AR najlepszego estymatora odpornego dla σ 2 . Ma ona postać
1
AR = D
(ni Ini − Jni ) .
N (ni − 1)
AS =
Dla porównania wpływu kurtozy rozkładu składowych wektora błędu e na wariancję obu estymatorów yAS y
i yAR y, można łatwo - na podstawie wzoru 2.1 - obliczyć, że
σ −4 V ary 0 AS y =
σ
−4
k
X
γ2
1
(ni − 1)2
+
,
2
(N − k) i=1
ni
N −k
k
γ2
1 X n2i
V ary AR y =
+ 2
.
N
N i=1 ni − 1
0
10
Wykres obu tych wielkości w przypadku modelu niezrównoważonego (n1 = 19, n2 = 3) przedstawiono na
rysunku.
............V
................
................
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
................
........................................V
................
.........................................
.........................................................
............................................
..............................................................
....0.0507
......................................... ..........................0.05
................
................
................
ary 0 AS y
ary 0 AR y
γ2
−2
Rys. 1
Większą stabilność wariancji estymatora odpornego uzyskano tu kosztem zwiększenia jego wariancji w wyjściowym modelu gaussowskim (γ2 = 0).
3.2.2. Model mieszany. W standardowym zapisie (2.3) modelu mieszanego mamy X = 1N , W1 = D(1ni ) oraz
W2 = IN . Przy założeniu normalności LaMotte (1973, 1976) pokazał, że dla każdej funkcji komponentów
wariancyjnych (τ 2 , σ 2 ) istnieje najlepszy estymator nieobciążony wtedy i tylko wtedy, gdy model jest zrównoważony. Te standardowe estymatory są wówczas kombinacjami liniowymi form kwadratowych y 0 M T1 M y
oraz y 0 M y, gdzie M = IN − JN /N , T1 = W1 W10 = Ik ⊗ Jr oraz r = N/k. Korzystając z twierdzenia 2.4,
pokażemy, że każdy estymator standardowy jest estymatorem odpornym.
Sprowadzając rozważany model do postaci (2.4), otrzymujemy
n
o
r
r
U1 = Ik ⊗ 1r − 1N 10k , V1 = U1 U10 , U2 = V2 = M, E = Ik ⊗ Jr − JN , M .
N
N
Obrazem macierzy A ∈ Mn przy przekształceniu Φ1 jest
Φ1 A = Λ1k ⊗ Jr −
2r
r2 trΛ1k
(diagΛ1k ⊗ 1r 10N ) +
JN ,
N
N2
gdzie Λ1k jest macierzą diagonalną z następującymi elementami λ11 , . . . , λ1k na przekątnej:
λ1p =
pr
X
aij − 2
i,j=(p−1)r+1
r
N
pr
X
N
X
i=(p−1)r+1 j=1
aij +
N
r2 X
aij , p = 1, . . . , k.
N 2 i,j=1
Obrazem macierzy A ∈ Mn przy przekształceniu Φ2 jest
Φ2 A = Λ2N −
2
trΛ2N
)diagΛ2N ⊗ 10N ) +
JN ,
N
N2
gdzie Λ2N jest macierzą diagonalną z następującymi elementami λ21 , . . . , λ2N ) na przekątnej:
λ2p = app −
N
N
2 X
1 X
apj + 2
aij , p = 1, . . . , N.
N j=1
N i,j=1
Dla macierzy V1 = M T1 M mamy
r2 (N − 1)
r2 (N − 1)
, p = 1, . . . , k,
czyli Λ1k =
Ik ;
N
N
N −r
N −r
λ2p =
, p = 1, . . . , N,
czyli Λ2N =
IN .
N
N
λ1p =
Zatem
r2 (N − 1) r
Ik ⊗ Jr − JN ∈ E,
N
N
N −r
1
Φ2 V1 =
IN − JN ∈ E.
N
N
Φ1 V1 =
11
Dla macierzy V2 = M mamy
r(N − r)
, p = 1, . . . , k,
N
N −1
λ2p =
, p = 1, . . . , N,
N
λ1p =
Zatem
r(N − r)
Ik ;
N
N −1
=
IN .
N
czyli Λ1k =
czyli Λ2N
r
r(N − r) Ik ⊗ Jr − JN ∈ E,
N N
N −1
1
Φ2 V2 =
IN − JN ∈ E.
N
N
Φ1 V2 =
Otrzymaliśmy, że Φi Vj ∈ E dla i, j = 1, 2, więc na mocy twierdzenia 2.4 estymator standardowy jest odporny.
3.3. Przykład modelu z AS 6= AR . W tym paragrafie podany jest przykład modelu, w którym estymator
standardowy nie jest estymatorem odpornym (por. W. Zieliński (1986)).
0
1 0 0 0
Niech y = Xβ + W1 ξ1 + W2 ξ2 , gdzie X =
oraz β = [β1 , β2 ]0 , natomiast ξ1 = [ξ11 , ξ12 , ξ13 ]0 i
1 1 1 0
ξ2 = [ξ21 , ξ22 , ξ23 , ξ24 ]0 są wektorami losowymi takimi, że Eξ1 = Eξ2 = 0, Eξ1 ξ10 = τ 2 I3 , Eξ2 ξ20 = σ 2 I4 oraz
Eξ1 ξ20 = 0. Macierze W1 , W2 oraz odpowiednie macierze T1 , T2 mają następującą postać:




1 0 0
1 0 0 0
0 1 0
0 1 0 1
W1 = 
 , T1 = 
 , W2 = T2 = I4 .
0 0 1
0 0 1 0
0 1 0
0 1 0 1
W tym modelu

0
1 0
M= 
2 0
0
i po przekształceniu rozważanego modelu do

0


0
E= 

 0
0

0 0
−1 0 

1 0
0 2
0
1
−1
0
postaci (2.4) otrzymujemy


0
0
0


a −a b 
:
a,
b
∈
R
.

−a a −b


b −b 2b
Przestrzeń liniowa AR estymatorów odpornych ma

0 0


0 a
AR = 

 0 −a
0 b
postać
0
−a
a
−b


0


b 
 : a, b ∈ R .
−b


a
i łatwo widać, że inkluzja E ⊆ AR nie zachodzi, czyli na mocy twierdzenia 2.4 estymator standardowy nie jest
odporny. Macierze estymatorów najlepszego odpornego i standardowego funkcji f1 τ 2 + f2 σ 2 mają postać:


0
0
0
0
3
1 0
f2
−f2
2 (f1 − f2 ) 
Ar = 
,
−f2
f2
− 23 (f1 − f2 )
3 0
3
3
0 2 (f1 − f2 ) − 2 (f1 − f2 )
f2


0
0
0
0
1 0
f2
−f2
2(f1 − f2 ) 
AS = 
.
−f2
f2
−2(f1 − f2 )
4 0
0 2(f1 − f2 ) −2(f1 − f2 )
2f2
12
4. Uwagi końcowe
4.1. Efektywność estymatorów odpornych. Estymatory odporne mogą mieć - w stosunku do estymatora standardowego - dużą wariancję w wyjściowym modelu gaussowskim. Mówimy wtedy o stracie efektywności estymatora na rzecz jego odporności. Powstaje problem konstrukcji estymatorów odpornych o z
góry założonej efektywności. Formalnie można rozważać to jako zadanie (2.5) z dodatkowym warunkiem
trAV (σ)AV (σ) ≤ c(σ), dla danego c(σ) > 0. W konkretnym modelu, numeryczne wyznaczenie estymatora
spełniającego te warunki, jeśli taki estymator istnieje, nie powinno przedstawiać większych trudności, ale
ogólne wyniki na ten temat nie są znane.
4.2. Nieujemna estymacja odporna. Może się zdarzyć, że odporne estymatory funkcji f 0 σ, f > 0 przyjmują wartości ujemne. Dobrze znany problem nieujemnej estymacji komponentów wariancyjnych przenosi
się wtedy na problem estymacji odpornej. Zagadnienie nieujemnej estymacji komponentów wariancyjnych
ma już bardzo bogatą literaturę (por. np. Gnot (1986)), ale nie są mi znane rozwiązania, które mógłbym
zastosować do nieujemnej estymacji odpornej.
4.3. Odporne testowanie hipotez o wariancji. Niech y1 , . . . , yn będą niezależnymi zmiennymi losowymi
o jednakowym rozkładzie N (µ, σ 2 ). W rozdziale 1 cytowaliśmy wyniki Scheffégo ilustrujące dużą wrażliwość
rozmiaru testu chi-kwadrat dla hipotezy H : σ 2 = 1, na naruszenie założenia o normalności rozkładu. Z
wyników przedstawionych w §3.1 wynika, że standardowy estymator wariancji, na którym oparty jest ten test,
jest estymatorem najodporniejszym w klasie estymatorów kwadratowych. Zatem, ewentualne ”uodpornienie”
testu można uzyskać tylko przez oparcie go na innych statystykach. Wstępne badania tego zagadnienia
potwierdzają to przypuszczenie. Problematyka ta wykracza jednak poza tematykę estymacji, więc uzyskane
wyniki będą przedstawione w oddzielnej pracy.
Prace cytowane
R. D. Anderson, H. V. Hendersoll, F. Pukelsheim, S. R. Searle, Best estimation of variance components from
balanced data, with arbitrary kurtosis, Math. Operationsforsch. Statist. Ser. Statist. 15 (1984), 163-176.
J. N. Arvesen, T. Schmitz, Robust procedures for variance component problems using the jacknife, Biometrics
26 (1970), 677 - 686.
M. Atiqullah, The estimation of residual variance in quadratically balanced least square problems and the
robustness of the F -test, Biometrika 49 (1962a), 83 -91.
M. Atiqullah, On the effect of nonnormality on the estimation of components of variance, J. Roy. Statist.
Soc. Ser. B 24 (1962b), 140-147.
G. E. P. Box, Non-normality and tests of variances, Biometrika 40 (1953),318-355.
G. E. P. Box, S. L. Andersen, Permutation theory in the derivation of robust criteria and the study of
departures from assumptions, J. Roy. Statist. Soc. Ser. B 17 (1955), 1 - 34.
R. R. Corbeil, S. R. Searle, A comparison of variance component estimators, Biometrics 32 (1976), 779 792.
H. Drygas, Hsu’s theorem in variance component model, Banach Center Publ. 6 (1980), 95 -108.
H. Drygas, G. Hupet, A new proof of Hsu’s theorem in regression analysis - a coordinate free approach,
Math. Operationsforsch. Statist. Ser. Statist. 8 (1977), 333 - 335.
S. Gnot, Kwadratowa estymacja komponentów wariancyjnych, Mat. Stos. 27(1986), 97-147.
S. Gnot, W. Klonecki, R. Zmyślony, Best unbiased linear estimation, a coordinate free approach, Probab.
Math. Statist. 1 (1980), 1 -13.
C. R. Henderson, Estimation of variance and covariance components, Biometrics 9 (1953), 226-252.
K. Hirano, Some properties of an estimator for the variance of a normal distribution, Ann. Inst. Math.
Statist. 25 (1973), 479 -492.
P. Hsu, On the best quadratic estimate of variance, Statist. Res. Memoirs 2 (1938), 91-104.
P. Huber, Robust statistics, Wiley, New York 1981.
K. M. S. Humak, Statistische Methoden der Modellbildung III, Akademie - Verlag, Berlin 1984.
13
J. Kleffe, A note on MINQUE for normal models, Math. Operationsforsch. Statist. Ser. Statist. 7 (1976),
707 -71.4.
J. Kleffe, Optimal estimation of variance components - a survey, Sankhya 39 Ser. B (1977), 211-244.
J. Kleffe, I. Zöllner, On quadratic estimation of heteroscedastic variances, Math. Operationsforsch. Statist.
9 (1978), 27 -44.
L. R. LaMotte, Quadratic estimation of variance components, Biometrics 29 (1973), 311-330.
L. R. LaMotte, Invariant quadratic estimators in the random, one-way ANOVA model, Biometrics 32 (1976),
793 - 804.
L. R. LaMotte, A canonical form for the general linear model, Ann. Statist. 5 (1977), 787-789.
D. A. Lax, Robust estimators of scale: finite sample performance in long-tailed symmetric distributions,
JASA 80 (1985), 736-741.
E. Lehmann, H. Scheffé, Completness, similar regions, and unbiased estimation, part 1, Sankhya 10 (1950),
305-340.
G. Nürnberg G., Beitriige zur Versuchsplanung für die Schiitzung von Varianzkomponenten und Robustheitsuntersuchungen-zum Vergleich zweier Varianzen, Probleme der angewandten Statistik, Heft 6 (1982) Dummerstorf-Rostock.
A. Olsen, J. Seely, D. Birkes, Invariant quadratic unbiased estimation for two variance components, Ann.
Statist. 5 (1976), 878 - 890.
E. S. Pearson, The analysis of variance in cases of nonnormal variation, Biometrika 23 (1931), 114 -135.
C. R. Rao, Estimation of variance and covariance components, J. Mult. Analysis 1 (1971), 257-275.
C. R. Rao, Modele liniowe statystyki matematycznej, PWN, Warszawa 1982.
C. R. Rao, J. Kleffe, Estimation of variance components, Handbok of Statistics l (1980), 1-40.
T. Rychlik, Asymptotycznie stabilne estymatory parametrów lokacyjnych, rozprawa doktorska, IMPAN,
Warszawa 1986.
H. Scheffé, The analysis of variance, Wiley, New York, 1959.
L. H. Schoemaker, T. P. Hettmansperger, Robust estimates and tests for the one- and two-sample scale
models, Biometrika 69 (1982), 47 - 53.
S. R. Searle, Topics in variance component estimation, Biometrics 27 (1971),1-76.
G. A. F. Seber, Linear regression analysis, Wiley, New York 1977.
J. Seely, Linear spaces and unbiased estimation, Ann. Math. Statist. 41 (1970a), 1725 -1734.
J. Seely, Linear spaces and unbiased estimation - application to the mixed model, Ann. Math. Statist. 41
(1970b), 1735 -1748.
J. Seely, Quadratic subspaces and completness, Ann. Math. Statist. 42 (1971), 710-721.
J. Seely, G. Zyskind, Linear spaces and minimum variance unbiased estimation, Ann. Math. Statist. 42
(1971), 691-703.
J. Singh, B. N. Pandey, K. Hirano, On the utilization of a known coefficient of kurtosis on the estimation
procedures oj variance, Ann. Inst. Math. Statist. 25 (1973), 51-55.
R. Zieliński, Robust statistical procedures: a general approach, in Stability Problems for Stochastic Models,
Lecture Notes in Mathematics 982 (1983), Springer-Verlag.
R. Zieliński, W. Zieliński, O odpornym estymatorze wariancji w modelu liniowym, Mat. Stos. 26 (1985), 127
-136.
W. Zieliński, O odporności standardowego estymatora wariancji w modelach liniowych, XV Colloquium
Metodologiczne z Agrobiometrii (1985), 217 - 226.
W. Zieliński, On robust estimation of variance components, Probab. and Math. Statist 7 (1986), w druku.
14