WPROWADZENIE

Transkrypt

WPROWADZENIE
WPROWADZENIE
1
2
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
PROGRAMY KOMPUTEROWE DO ANALIZ STATYSTYCZNYCH
Darmowe oprogramowanie
• R-project - www.r-project.org,
• gretl - www.gretl.eu,
• bogata lista darmowych programów - http://statpages.org/javasta2.html.
Komercyjne oprogramowanie
• STATISTICA - www.statsoft.pl,
• SAS - www.sas.com,
• SPSS - www.spss.com,
• Statgraphics Plus - www.statgraphics.com.
3
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
CIEKAWE STRONY
• http://davidmlane.com/hyperstat/index.html,
• http://www.sportsci.org/resource/stats/index.html,
• http://www.statsoft.pl/textbook/glosfra.html,
• http://www.visualstatistics.net,
• http://statweb.calpoly.edu/chance/applets/applets.html,
• http://www.bettycjung.net/Statpgms.htm,
• http://www.dartmouth.edu/ chance/ChanceLecture/AudioVideo.html,
• http://ideal.stat.wvu.edu:8080/ideal/browseModule.do,
• http://www.anu.edu.au/nceph/surfstat/surfstat-home,
• http://www.scs.unr.edu/ richmon4/richmondstats.htm
Pozycje powyższej listy, oprócz własnych poszukiwań, zaczerpnięte z opracowania Ireny Kasperowicz-Ruki „Internetowe wspomaganie statystyki wykładanej na studiach dziennych i zaocznych SGH”
4
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozdział 1
MODEL STATYSTYCZNY
5
Populacja składa się z obiektów
Obiekt posiada jedną lub kilka cech
Cecha obiektu ≡ zmienna losowa
Przedmiotem statystyki matematycznej jest wnioskowanie statystyczne
na podstawie próby o populacji generalnej
6
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
UWAGA! CIĘŻKA ARTYLERIA
PRZESTRZEŃ PROBABILISTYCZNA
(1.1)
(Ω, F, Pθ ) ,
gdzie:
Ω - przestrzeń zdarzeń elementarnych,
F - σ-ciało podzbiorów zbioru Ω,
Pθ - miara probabilistyczna.
PRZESTRZEŃ STATYSTYCZNA
(1.2)
(X , A, P) ,
gdzie:
X - zbiór wartości obserwowalnej zmiennej losowej (cechy) X,
A - σ-ciało podzbiorów zbioru X ,
P = {Pθ } - rodzina miar probabilistycznych indeksowanych parametrem θ ∈ Θ,
Θ - przestrzeń parametrów.
7
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przykład 1.
Model probabilistyczny
Model statystyczny
Rzucamy n-razy idealną kostką do gry. Interesuje nas
liczba wyrzuconych szóstek. Wtedy zmienna losowa X
określa liczbę wyrzuconych szóstek. Łatwo zauważyć,
że to doświadczenie daje się opisać rozkładem binomialnym B(n, 1/6). Zatem
Rzucamy n-razy jakąś kostką do gry. Interesuje nas
liczba wyrzuconych szóstek. Wtedy zmienna losowa
X określa liczbę wyrzuconych szóstek. Łatwo zauważyć, że to doświadczenie daje się opisać rozkładem
binomialnym B(n, θ). Zauważmy, że tym razem nie
znamy rzeczywistej wartości prawdopodobieństwa pojawienia się szóstki w jednym rzucie. Zatem
Ω = {0, 1, . . . , n} ,
1
,
θ =
6
1
Pθ = B(n, )
6
X = {0, 1, . . . , n} ,
θ = ? (nieznane),
Pθ = B(n, θ)
i ostatecznie
i ostatecznie
1
{0, 1, . . . , n} , F, B(n, ) .
6
({0, 1, . . . , n} , A, B(n, θ)) .
8
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Definicja 1.1. Mówimy, że przestrzeń statystyczna (X , A, P ) jest produktem przestrzeni (Xi , Ai , Pi ),
i = 1, 2, . . . , n, jeżeli X = X1 × X2 × . . . × Xn , A = A1 × A2 × . . . × An (σ-ciało produktowe) oraz P =
{P1 × P2 × . . . × Pn : Pi ∈ Pi , i = 1, 2, . . . , n}.
Jeżeli zmienne losowe Xi , i = 1, 2, . . . , n, są niezależnymi kopiami tej samej zmiennej losowej X indukującej
prze′
strzeń (X , A, P), to przestrzeń statystyczną indukowaną przez wektor losowy X = (X1 , X2 , . . . , Xn ) oznaczamy
(X , A, P)n .
′
Definicja 1.2. Wektor losowy X = (X1 , X2 , . . . , Xn ) , gdzie Xi dla i = 1, 2, . . . , n są niezależnymi zmiennymi
losowymi o jednakowym rozkładzie prawdopodobieństwa Pθ , θ ∈ Θ, nazywamy n-elementową próbą z rozkładu
Pθ .
Uwaga! Będziemy również używali zapisu: X1 , X2 , . . . , Xn jest próbą z rozkładu Pθ .
UFF! WYCOFAĆ CIĘŻKĄ ARTYLERIĘ
9
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Ciąg wartości x1 , x2 , . . . , xn próby losowej X1 , X2 , . . . , Xn będziemy nazywać realizacją próby losowej.
Definicja 1.3. Zmienną losową T (X) = (T1 (X), T2 (X), . . . , Tk (X))′ , gdzie X = (X1 , X2 , . . . , Xn ) jest próbą
losową, nazywać będziemy statystyką.
′
Uwaga! Statystyka nie może zależeć od parametru θ indeksującego rodzinę rozkładów P = (Pθ : θ ∈ Θ).
Przykład 2.
′
Niech X1 , X2 , . . . , Xn będzie próbą z rozkładu Pθ , gdzie θ = (µ, σ) ∈ Θ.
Wtedy
statystykami są
statystykami nie są
Xi − µ
s
Xi − µ
σ
′
X = (X1 , X2 , . . . , Xn )
n
1X
X =
Xi
n i=1
s2 =
n X
2
1
Xi − X
n − 1 i=1
Xi − X
s
i = 1, 2, . . . , n
i = 1, 2, . . . , n
i = 1, 2, . . . , n
10
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
1.1
ESTYMATORY
Model statystyczny
(X , A, {Pθ , θ ∈ Θ})
Pytanie: Ile wynosi θ?
Definicja 1.4. Niech X = (X1 , X2 , . . . , Xn ) będzie próbą losową z rozkładu Pθ , θ ∈ Θ. Estymatorem będziemy
nazywać statystykę T (X), której rozkład zależy od parametru θ.
′
estymacja ≡ ocena, oszacowanie
11
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Estymacja punktowa
Statystykę T (X) służącą do oszacowania wartości nieznanego parametru populacji nazywamy estymatorem punktowym. Zatem estymator punktowy jest odwzorowaniem
T : X → Θ.
Dla konkretnych wartości próby X1 = x1 , X2 = x2 , . . . , Xn = xn , liczbę T (x1 , x2 , . . . , xn ) nazywamy wartością
estymatora.
Przykład 3.
Niech X1 , X2 , . . . , Xn będzie próbą z rozkładu normalnego N (µ, σ 2 ), µ ∈ R, σ > 0. Wartości parametrów µ i σ
są nieznane.
Estymatorem parametru µ jest statystyka
n
1X
X=
Xi .
(1.3)
n i=1
Estymatorem σ 2 jest statystyka
s2 =
n 2
1 X
Xi − X ,
n − 1 i=1
(1.4)
a stąd estymatorem parametru σ jest statystyka
s=
√
v
u
u
s2 = t
n 2
1 X
Xi − X .
n − 1 i=1
12
(1.5)
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Własności estymatorów
Załóżmy, że θ jest nieznanym parametrem rozkładu Pθ , θ ∈ Θ, który chcemy estymować na podstawie próby.
Jakiej statystyki użyć do oceny θ?
Czy istnieje najlepszy estymator?
Jedną z ocen dokładności estymatora T jest błąd średniokwadratowy, ozn. BSKθ (T )
h
BSKθ (T ) = Eθ (T − θ)2
h
i
i
= Eθ (T − Eθ (T ))2 + [Eθ (T ) − θ]2
= varθ (T ) + b2θ (T ).
(1.6)
Definicja 1.5. Estymator T1 jest lepszy od estymatora T2 , jeżeli
BSKθ (T1 ) ≤ BSKθ (T2 )
dla każdego θ ∈ Θ
i chociażby dla jednej wartości θ spełniona jest nierówność ostra
BSKθ (T1 ) < BSKθ (T2 ).
Definicja 1.6. Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymator lepszy niż T . W przeciwnym
razie estymator T nazywa się niedopuszczalny.
13
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
BSKθ (T )
BSKθ (T1 )
θ1
θ2
BSKθ (T2 )
Θ
Z powyższego rysunku wynika, że estymator T1 jest lepszy dla parametrów θ z przedziału (θ1 , θ2 ), natomiast
estymator T2 jest lepszy dla θ < θ1 lub θ > θ2 .
14
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Definicja 1.7. Estymator T (X) parametru θ jest nieobciążony, jeżeli
Eθ [T (X)] = θ,
dla każdego θ ∈ Θ.
(1.7)
Definicja 1.8. Obciążeniem estymatora T parametru θ nazywać będziemy różnicę
Eθ [T (X)] − θ.
(1.8)
Przypomnijmy, że statystyka T zależy od n elementowej próby. Często pożądaną własnością estymatora T jest,
by wraz ze wzrostem liczebności próby, jego wartość dążyła coraz bliżej do prawdziwej wartości parametru θ,
tzn
„gdy n → ∞, to T dąży do θ”.
Definicja 1.9. Estymator T parametru θ nazywamy zgodnym, jeżeli jest on zbieżny według prawdopodobieństwa
do parametru θ, tzn. gdy
dla każdego ε > 0 lim P (|T − θ| > ε) = 0.
(1.9)
n→∞
Definicja 1.10. Estymator T parametru θ nazywamy asymptotycznie nieobciążonym estymatorem parametru
θ, jeżeli
lim E(T ) = θ.
(1.10)
n→∞
15
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Zauważmy. Jeżeli T jest estymatorem nieobciążonym parametru θ, to jego błąd BSKθ (T ) zależy tylko od
wariancji.
Definicja 1.11. Nieobciążony estymator T parametru θ nazywamy estymatorem nieobciążonym o minimalnej
wariancji (NMW), jeżeli wśród wszystkich estymatorów nieobciążonych parametru θ nie istnieje estymator,
którego wariancja byłaby mniejsza dla dowolnej wartości θ ∈ Θ.
Definicja 1.12. Błędem standardowym estymatora T parametru θ nazywamy dowolny estymator jego odchylenia
standardowego i oznaczamy SET .
Definicja 1.13. Niech T będzie nieobciążonym estymatorem parametru θ. Wówczas studentyzowanym estymatorem θ nazywamy wielkość
T −θ
.
(1.11)
SET
16
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
17
1.2
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
WYBRANE ROZKŁADY
Rozkład binomialny
Definicja 1.14. Zmienna losowa ma rozkład binomialny z parametrami n ∈ N i p ∈ (0, 1) (b(n, p)), jeżeli jej
gęstość jest postaci
!
n x
p (1 − p)n−x , x = 1, 2, . . . , n.
(1.12)
f (x) =
x
Jeżeli X ∼ b(n, p), to
E(X) = np,
var(X) = np(1 − p).
(1.13)
Własności.
• Jeżeli X ∼ b(n, p) i Y ∼ b(k, p) oraz zmienne te są niezależne, to
X + Y ∼ b(n + k, p).
18
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Gęstości rozkładu binomialnego b(n, p)
b(4, 0.5)
0.3
b(12, 0.5)
0.3
0.2
0.2
0.1
0.1
0
0
0
1
0.15
2
3
4
0 1 2 3 4 5 6 7 8 9 10 11 12 13
0.15
b(50, 0.5)
0.10
0.10
0.05
0.05
0
b(50, 0.8)
0
0 5 10 15 20 25 30 35 40 45 50
0 5 10 15 20 25 30 35 40 45 50
19
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozkład normalny
Definicja 1.15. Zmienna losowa ma rozkład normalny z parametrami µ ∈ R i σ > 0 (N (µ, σ 2 )), jeżeli jej
gęstość ma postać
!
1
(x − µ)2
.
(1.14)
f (x) = √
exp −
2σ 2
2πσ
Jeżeli X ∼ N (µ, σ 2 ), to
var(X) = σ 2 .
E(X) = µ,
(1.15)
Własności.
• Jeżeli X ∼ N (µ, σ 2 ) oraz a, b ∈ R, to a X + b ∼ N (aµ + b, a2 σ 2 ).
• Jeżeli X1 , X2 , . . . , Xn jest ciągiem niezależnych zmiennych losowych o rozkładach N (µi , σi2 ), dla i =
1, 2, . . . , n, to
!
n
X
i=1
Xi ∼ N
20
n
X
i=1
µi ,
n
X
σi2 .
i=1
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Gęstości rozkładu normalnego N (µ, σ 2 )
Abraham de Moivre
1667 - 1754
(1733)
0.4
N (0, 1)
Pierre-Simon Laplace
1749 - 1827
(1778)
N (1, 1)
0.3
0.2
www-history.mcs.st-andrews.ac.uk
N (0, 2)
−5
−3
−4
Carl Friedrich Gauss
1777 - 1855
(1809)
0.1
−2
−1
www-history.mcs.st-andrews.ac.uk
0
1
2
21
3
4
5
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozkład chi-kwadrat
Definicja 1.16. Rozkładem chi-kwadrat o n stopniach swobody (χ2n ) nazywamy rozkład prawdopodobieństwa
sumy
Y = X12 + X22 + . . . + Xn2 ,
(1.16)
gdzie X1 , X2 , . . . , Xn są niezależnymi zmiennymi losowymi o rozkładzie N (0, 1) każda.
Funkcja gęstości zmiennej losowej Y ma postać
f (x) =
Jeżeli Y ∼ χ2n , to
1
n
22 Γ
x
n
2
n
−1
2
E(Y ) = n,
n
exp −
I(0,∞) (x).
2
var(Y ) = 2n.
(1.17)
(1.18)
Własności.
• Jeżeli Y1 , Y2 , . . . , Yk jest ciągiem niezależnych zmiennych losowych o rozkładach χ2ni , i = 1, 2, . . . , k, to
k
X
i=1
Yi ∼ χ2n ,
22
n=
k
X
ni .
i=1
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Gęstości rozkładu chi-kwadrat χ2n
0.5
n=1
0.4
0.3
n=2
0.2
Karl Pearson
1857 – 1936
(1900)
www-history.mcs.st-andrews.ac.uk
n=3
n=6
0.1
n = 14
0
0
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19
23
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozkład t Studenta
Definicja 1.17. Rozkładem t Studenta z n stopniami swobody (tn ) nazywamy rozkład prawdopodobieństwa ilorazu
X
Z=q
,
(1.19)
1
Y
n
gdzie X i Y są niezależnymi zmiennymi losowymi oraz X ∼ N (0, 1), Y ∼ χ2n .
Funkcja gęstości zmiennej losowej Z ma postać
n+1
2
Jeżeli Z ∼ tn , to
1 Γ 2
f (x) = √
nπ Γ n
x2
1+
n
!− n+1
2
.
n
(dla n > 2).
n−2
Uwaga. Dla n = 1 rozkład t Studenta jest rozkładem Cauchy’ego z parametrami 0 i 1.
E(Z) = 0 (dla n > 1),
var(Z) =
(1.20)
(1.21)
Własności.
• Jeżeli Z ∼ tn , to Z 2 ∼ F1,n .
24
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Gęstości rozkładu t Studenta tn
0.4
n = 14
n=2
0.3
0.2
William Sealy Gosset
1876 – 1937
(1908)
www-history.mcs.st-andrews.ac.uk
−7
−6
n=1
−5
0.1
−4
−3
−2
−1
0
1
2
3
25
4
5
6
7
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozkład F Snedecora
Definicja 1.18. Rozkładem F Snedecora z n i k stopniami swobody (Fn,k ) nazywamy rozkład prawdopodobieństwa ilorazu
1
X
Z = n1 ,
(1.22)
Y
k
gdzie X i Y są niezależnymi zmiennymi losowymi oraz X ∼ χ2n , Y ∼ χ2k .
Funkcja gęstości zmiennej losowej Z ma postać
f (x) =
E(Z) =
k
k−2
Γ
Γ
n+k
2
n
2
Γ
(dla k > 2),
k
2
k
n
!k
n
x 2 −1
2
x+
var(Z) =
k
n
(1.23)
n+k I(0,∞) (x).
2
2k 2 (n + k − 2)
n(k − 2)2 (k − 4)
(dla k > 4).
(1.24)
Własności.
• Jeżeli Z ∼ Fn,k , to 1/Z ∼ Fk,n .
26
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Gęstości rozkładu F -Snedecora Fn,k
n = 1, k = 5
0.8
0.7
n = 10, k = 5
0.6
n = 9, k = 4
0.5
Sir Ronald Aylmer Fisher
1890 - 1962
0.4
George W Snedecor
1881 - 1974
www-history.mcs.st-andrews.ac.uk
www.umass.edu/wsp/statistics/tales/snedecor.html
0.3
0.2
0.1
0
1
2
3
4
5
27
1.3
6
7
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
ESTYMATORY C.D.
Twierdzenia graniczne i rozkłady wybranych statystyk i funkcji statystyk
′
Definicja 1.19. Dystrybuantą empiryczną z próby X = (X1 , X2 , . . . , Xn ) nazywamy funkcję Fn : R × Rn →
[0, 1] określoną wzorem
n
1X
Fn (t; X) =
I(−∞,t] (Xi ), t ∈ R, X ∈ Rn .
(1.25)
n i=1
Własności.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu Pθ z dystrybuantą F , wtedy dla każdego t ∈ R zachodzi
P
(1.26)
EFn (t) = F (t),
lim Fn (t) = F (t)
n→∞
√
(1.27)
= 1,
Fn (t) − F (t)
nq
→ N (0, 1), gdy n → ∞.
F (t)(1 − F (t))
(1.28)
Twierdzenie 1.1. (Gliwienki-Canteliego). Jeśli X1 , X2 , . . . , Xn są niezależnymi zmiennymi losowymi o jednakowych dystrybuantach F , natomiast Fn jest dystrybuantą empiryczną, to
P
lim
sup
n→∞ −∞<t<∞
!
|Fn (t) − F (t)| = 0 = 1.
28
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
′
Twierdzenie 1.2. (Prawo Wielkich Liczb Bernoulliego). Jeżeli X = (X1 , X2 , . . . , Xn )
jest próbą z rozkładu o średniej µ i skończonej wariancji σ 2 , to dla dowolnie małej dodatniej liczby ε
(1.29)
P X − µ ≤ ε → 1, gdy n → ∞.
Jacob Bernoulli
1654 - 1705
(1689)
′
Twierdzenie 1.3. (Centralne Twierdzenie Graniczne). Jeżeli X = (X1 , X2 , . . . , Xn ) jest próbą z rozkładu
o średniej µ i skończonej wariancji σ 2 , to
X −µ
√σ
n
(1.30)
→ N (0, 1), gdy n → ∞.
Równoważnie. Rozkład X jest w przybliżeniu równy rozkładowi N (µ, σ 2 /n).
29
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
′
Twierdzenie 1.4. (Fishera). Jeżeli X = (X1 , X2 , . . . , Xn ) jest próbą z rozkładu normalnego N (µ, σ 2 ), to statystyki
n
n
1X
1 X
X=
Xi , i s2 =
(Xi − X)2
n i=1
n − 1 i=1
są stochastycznie niezależne. Ponadto
1
X ∼ N µ, σ 2
n
oraz
(n − 1)s2
∼ χ2n−1 .
σ2
(1.31)
′
Stwierdzenie 1.1. Jeżeli X = (X1 , X2 , . . . , Xn ) jest próbą z rozkładu normalnego N (µ, σ 2 ), to zmienna losowa
X − µ√
n ∼ tn−1 .
s
′
(1.32)
′
Stwierdzenie 1.2. Jeżeli X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) są niezależnymi próbami z rozkładów
2
N (µX , σX
) oraz N (µY , σY2 ), to
s2X
2
σX
s2Y
2
σY
∼ Fn−1,k−1 .
30
(1.33)
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
′
′
Stwierdzenie 1.3. Jeżeli X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) są niezależnymi próbami z rozkładów
N (µX , σ 2 ) oraz N (µY , σ 2 ), to
X −Y
σ
s
nk
∼ N (0, 1),
n+k
(n − 1)s2X + (k − 1)s2Y
σ2
q
X −Y
(n − 1)s2X + (k − 1)s2Y
s
(1.34)
∼ χ2n+k−2 ,
(1.35)
nk(n + k − 2)
∼ tn+k−2 .
n+k
(1.36)
31
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozdział 2
Wybrane metody otrzymywania estymatorów
32
Metoda momentów ([5, str. 126])
Definicja 2.1. Momentem zwykłym rzędu k zmiennej losowej X nazywamy EX k .
Definicja 2.2. Momentem centralnym rzędu k zmiennej losowej X nazywamy E (X − EX)k .
′
Definicja 2.3. Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o gęstości Pθ . Momentem z próby zwykłym
rzędu k nazywamy statystykę
n
1X
Xk.
Xk =
n i=1 i
Uwaga. Moment z próby zwykły rzędu k jest nieobciążonym estymatorem momentu zwykłego rzędu k.
′
Definicja 2.4. Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o gęstości Pθ . Momentem z próby centralnym rzędu k nazywamy statystykę
n k
1X
Xi − X .
S0k =
n i=1
Uwaga. Moment z próby centralny rzędu k ≥ 2 jest obciążonym estymatorem momentu centralnego rzędu k.
33
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o gęstości Pθ , gdzie θ = (θ1 , θ2 , . . . , θk ) .
′
Momenty rozkładu (µi ) są zazwyczaj funkcjami parametrów θ1 , θ2 , . . . , θk (µi (θ1 , θ2 , . . . , θk )).
Estymatory metodą momentów uzyskuje się przez przyrównanie pierwszych k momentów z próby do odpowiednich k momentów rozkładu i rozwiązaniu powstałego układu równań .


X



 X2

...



 Xk
= µ1 (θ1 , θ2 , . . . , θk )
= µ2 (θ1 , θ2 , . . . , θk )
...
= µk (θ1 , θ2 , . . . , θk ).
Przykład 4.
Niech X będzie zmienną losową ze skończoną wartością oczekiwaną µ i wariancją σ 2 .
Otrzymujemy układ równań
(
X = µ
X 2 = µ2 + σ 2 ,
którego rozwiązaniem jest
µe = X,
σf2 = X 2 − X =
34
n 2
1X
Xi − X .
n i=1
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Uwaga. Estymatory wyznaczone metodą momentów często nie są wyznaczone jednoznacznie.
Przykład 5.
Niech X będzie próbą z rozkładu Poissona z parametrem λ > 0. Ponieważ E(X) = var(X) = λ, to metoda
momentów daje dwa różne estymatory parametru λ
e = X,
λ
1
e = X 2 − X.
λ
2
35
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Metoda największej wiarogodności
′
Definicja 2.5. Niech zmienna losowa X ma gęstość Pθ (x), θ ∈ Θ ⊆ Rk i niech X = (X1 , X2 , . . . , Xn ) będzie
próbą z rozkładu prawdopodobieństwa tej zmiennej. Łączna gęstość próby X rozpatrywana jako funkcja parametru
θ nazywa się funkcją wiarogności i jest oznaczana przez L(θ);
L(θ; x1 , x2 , . . . , xn ) =
n
Y
Pθ (xi ).
i=1
Definicja 2.6. Estymatorem największej wiarogności parametru θ (ENW(θ)) nazywamy statystykę, która maksymalizuje funkcję wiarogności L(θ),
θb = arg max L(θ).
θ
Uwaga. Często, dla uproszczenia rachunków, funkcję wiarogności L(θ) zastępujemy przez ln L(θ).
36
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przykład 6.
Niech X1 , X2 , . . . , Xn będzie próbą z rozkładu normalnego N (µ, σ 2 ), µ ∈ R, σ > 0. Wartości parametrów µ i σ są nieznane.
Funkcja wiarogności
!
!
n
n
2
Y
(xi − µ)
1 X
1
1
2
2
√
exp −
L(µ, σ ; x1 , x2 . . . , xn ) =
(xi − µ) .
= √
n exp −
2σ 2
2σ i=1
2πσ
2πσ
i=1
Jej logarytm
ln L(µ, σ 2 ; x1 , x2 . . . , xn ) = −
n
n
n
1 X
2
(xi − µ) − ln σ 2 − ln 2π.
2σ 2 i=1
2
2
Wyznaczamy pochodne względem µ i σ 2 i przyrównujemy do 0
∂ ln L
∂µ
=
∂ ln L
∂σ
=
n
1 X
(xi − µ) = 0
σ 2 i=1
n
n
1 X
2
(xi − µ) − 2 = 0.
4
σ i=1
2σ
Rozwiązaniem powyższego układu równań jest
n
µ
b=
1X
xi = x,
n i=1
n
X
2
c2 = 1
σ
(xi − x) .
n i=1
c2 osiąga istotnie maksimum.
Należy jeszcze sprawdzić, że funkcja ln L(µ, σ 2 ) w punkcie µ
biσ
c
2
Ostatecznie µ
b i σ są estymatorami największej wiarogodności parametrów µ i σ 2 w rozkładzie normalnym N (µ, σ 2 ).
37
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Uwaga. Estymatory największej wiarogności nie zawsze istnieją.
Własności.
• Jeżeli θb jest estymatorem największej wiarogności parametru θ i funkcja g : Θ → R jest różnowartościowa,
b jest ENW(g(θ)),
to g(θ)
• ENW(θ) jest zgodny,
• ENW(θ) jest asymptotycznie nieobciążony.
38
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozdział 3
Estymacja przedziałowa
39
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o gęstości Pθ należącego do rodziny rozkładów P =
{Pθ : θ ∈ Θ}.
Definicja 3.1. Jeżeli [T1 (X), T2 (X)], gdzie Pθ (T1 < T2 ) = 1, jest przedziałem losowym takim, że
Pθ (T1 ≤ θ ≤ T2 ) = 1 − α, dla każdego θ ∈ Θ
i zadanego α ∈ (0, 1), to [T1 , T2 ] nazywa się 100(1 − α)% przedziałem ufności dla parametru θ ∈ Θ.
Wartość współczynnika 1 − α nazywa się poziomem ufności.
Po zaobserwowaniu danych x = (x1 , x2 , . . . , xn ) przedział [T1 (x), T2 (x)] jest 100(1−α)% oceną przedziałową
nieznanego parametru θ ∈ Θ.
′
40
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Konstrukcja przedziałów ufności
′
Definicja 3.2. Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu Pθ , θ ∈ Θ. Funkcja Q(X, θ) nazywa się
funkcja centralną lub wiodącą dla parametru θ ∈ Θ, jeżeli jej rozkład prawdopodobieństwa nie zależy od θ.
Przykład 7.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ02 ), gdzie µ ∈ R jest nieznanym parametrem, a σ02 znaną liczbą dodatnią.
Niech
X − µ√
n.
Q(X, µ) =
σ0
Funkcja Q(X, µ) ma rozkład normalny N (0, 1) niezależny od µ. Jest to funkcja centralna dla parametru µ.
Załóżmy, że dysponujemy funkcją centralną Q(X, θ) parametru θ. Wybieramy liczby a i b tak, by spełniały
nierówność
Pθ [a ≤ Q(X, θ) ≤ b] = 1 − α,
dla każdego θ ∈ Θ i zadanego α ∈ (0, 1).
Gdy Q(X, θ) jest funkcją ciągłą i ściśle monotoniczną parametru θ, to nierówność a ≤ Q ≤ b jest równoważna
nierówności
L(X, a, b) ≤ θ ≤ U (X, a, b).
Stąd L(X, a, b) oraz U (X, a, b) są odpowiednio dolnym i górnym końcem 100(1 − α)% przedziału ufnosci dla
parametru θ ∈ Θ.
41
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przedział [L(x, a, b), U (x, a, b)] jest 100(1 − α)% oceną przedziałową parametru θ ∈ Θ.
Przykład 8.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ02 ), gdzie µ jest nieznanym parametrem
a σ02 znaną liczbą dodatnią. Chcemy znaleźć 100(1 − α)% przedział ufności dla µ. Funkcja centralna
Q(X, µ) =
X − µ√
n
σ0
ma rozkład normalny N (0, 1). Nierówność a ≤ Q ≤ b jest równoważna nierówności
σ0
σ0
X − b√ ≤ µ ≤ X − a√ .
n
n
Obierzmy a = zα/2 , b = z1−α/2 , gdzie zα/2 i z1−α/2 są kwantylami rzędu α/2 i 1 − α/1 zmiennej losowej o
rozkładzie N (0, 1). Zauważmy, że zα/2 = −z1−α/2 . Wówczas
σ0
σ0
P X − z1−α/2 √ ≤ µ ≤ X + z1−α/2 √
n
n
Zatem przedział
"
!
= 1 − α.
σ0
σ0
[L, U ] = X − z1−α/2 √ , X + z1−α/2 √
n
n
#
jest 100(1 − α)% przedziałem ufności dla µ.
42
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przykład 9.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ), gdzie µ i σ 2 są nieznanymi parametrami. Chcemy znaleźć 100(1 − α)% przedział ufności dla µ. Funkcja centralna
Q(X, µ) =
X − µ√
n
s
ma rozkład t-Studenta z n − 1 stopniami swobody. Po prostych przekształceniach otrzymujemy przedział
"
s
s
[L, U ] = X − √ tn−1,1− α2 , X + √ tn−1,1− α2
n
n
#
Przykład 10.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ), gdzie µ i σ 2 są nieznanymi parametrami. Chcemy znaleźć 100(1 − α)% przedział ufności dla σ 2 . Funkcja centralna
Q(X, σ 2 ) = (n − 1)
s2
σ2
ma rozkład χn−1 .
Po prostych przekształceniach otrzymujemy przedział
"
[L, U ] = (n − 1)
s2
χn−1,1− α2
, (n − 1)
43
s2
χn−1, α2
#
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przykład 11.
′
′
Niech X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) będą niezależnymi próbami z rozkładów N (µX , σ02 ) oraz
N (µY , σ02 ), gdzie µX i µY są nieznanymi parametrami a σ02 znaną liczbą dodatnią. Chcemy znaleźć 100(1 − α)%
przedział ufności różnicy średnich µX − µY .
Funkcja centralna
s
X − Y − (µX − µY )
nk
Q(X, µX − µY ) =
σ0
n+k
mar rozkład N (0, 1).
Po prostych przekształceniach otrzymujemy przedział

[L, U ] = X − Y − z1− α2
s
n+k
σ0 , X − Y + z1− α2
nk
s

n+k 
σ0 .
nk
Przykład 12.
′
′
Niech X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) będą niezależnymi próbami z rozkładów N (µX , σ02 ) oraz
N (µY , σ02 ), gdzie µX , µY oraz σ02 > 0 są nieznanymi parametrami. Chcemy znaleźć 100(1−α)% przedział ufności
różnicy średnich µX − µY .
Funkcja centralna
s
X − Y − (µX − µY )
nk(n + k − 2)
Q(X, µX − µY ) = q
n+k
(n − 1)s2 + (k − 1)s2
X
Y
mar rozkład tn+k−2 .
44
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Po prostych przekształceniach otrzymujemy przedział
"
X − Y − tn+k−2,1− α2
[L, U ] =
X −Y +t
n+k−2,1− α
2
s
s
q
n+k
(n − 1)s2X + (k − 1)s2Y ,
nk(n + k − 2)
#
q
n+k
(n − 1)s2X + (k − 1)s2Y .
nk(n + k − 2)
Przykład 13.
′
′
2
Niech X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) będą niezależnymi próbami z rozkładów N (µX , σX
) oraz
2
2
2
N (µY , σY ), gdzie µX , µY , σX > 0 oraz σY > 0 są nieznanymi parametrami. Chcemy znaleźć 100(1 − α)%
2
przedział ufności ilorazu wariancji σX
/σY2 .
Funkcja centralna
s2X
2
σX
s2Y
2
σY
∼ Fn−1,k−1
ma rozkład Fn−1,k−1 .
2
Jako ćwiczenie, wyznaczyć przedział ufności dla σX
/σY2 .
45
Rozdział 4
TESTOWANIE HIPOTEZ
46
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Definicja 4.1. Każde założenie dotyczące rodziny rozkładów prawdopodobieństwa (związanej z pewnym eksperymentem) nazywamy hipotezą statystyczną.
Rozkłady rodziny Pθ można więc podzielić na takie, dla których hipoteza jest prawdziwa i takie, dla których
jest on fałszywa.
PRZESTRZEŃ PRÓBY X
PRZESTRZEŃ PARAMETRÓW Θ
Θ1
Θ0
X1
Θ0 ∪ Θ1 = Θ
H0 : θ ∈ Θ0 ,
X0
X 0 ∪ X1 = X
H1 : θ ∈ Θ1
47
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Jeżeli zbiór Θ0 składa się dokładnie z jednego punktu, to hipotezę H0 nazywamy hipotezą prostą. W przeciwnym razie jest hipotezą złożoną.
Testem hipotezy statystycznej nazywamy regułę, która precyzuje:
1. Dla jakich wartości próby X podejmowana jest decyzja o przyjęciu hipotezy H0 jako prawdziwej.
2. Dla jakich wartości próby X hipoteza H0 jest odrzucana i przyjmowana jest hipoteza H1 jako prawdziawa.
Definicja 4.2. Podzbiór X1 przestrzeni próby X , dla którego hipoteza H0 jest odrzucana nazywa się obszarem
odrzucenia lub obszarem krytycznym.
Dopełnienie obszaru krytycznego X0 = X \ X1 nazywa się obszarem przyjęcia.
Definicja 4.3. Testem hipotezy H0 przeciwko hipotezie H1 nazywamy funkcję ϕ : X → 0, 1 zdefiniowaną
następująco
(
1, jeżeli x ∈ X1 ,
ϕ(x) =
0, jeżeli x ∈ X0 .
48
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Dwa rodzaje błędów w testowaniu hipotez
decyzja
rzeczywistość
Przyjąć H0
Odrzucić H0
H0
Decyzja poprawna
Błąd I Rodzaju
H1
Błąd II Rodzaju
Decyzja poprawna
Jeżeli θ ∈ Θ0 , ale test odrzuca H0 , to popełniamy Błąd I Rodzaju.
Jeżeli natomiast θ ∈ Θ1 , a test decyduje o przyjęciu H1 , to popełniamy Błąd II Rodzaju.
Pθ (X ∈ X1 ) =
(
prawdopodobieństwo Błędu I Rodzaju,
jeżeli θ ∈ Θ0 ,
jeden minus prawdopodobieństwo Błędu II Rodzaju, jeżeli θ ∈ Θ1 .
49
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Definicja 4.4. Funkcję β : Θ → [0, 1] o wartościach
β(θ) = Pθ (X ∈ X1 )
nazywamy funkcja mocy testu z obszarem odrzucenia X.
Definicja 4.5. Dla 0 ≤ α ≤ 1 test z funkcją mocy β(θ) jest testem rozmiaru α, jeżeli
sup β(θ) = α.
θ∈Θ0
Definicja 4.6. Dla 0 ≤ α ≤ 1, test z funkcją mocy β(θ) jest testem na poziomie istotności α, jeżeli
sup β(θ) ≤ α
θ∈Θ
50
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Jerzy Spława-Neyman
1894-1981
Egon Sharpe Pearson
1895-1980
Lemat Neymana-Pearsona [5, strona 174].
Hipotezie zerowej przypisujemy inną wagę niż hipotezie alternatywnej
Z reguły, za hipotezę zerową przyjmujemy tę, której prawdziwość poddajemy w wątpliwość i którą chcemy
odrzucić, jeśli tylko znajdziemy do tego podstawę.
51
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Nieodrzucenie hipotezy zerowej nie dowodzi jej prawdziwości, a jedynie wynika z braku podstaw do jej
odrzucenia.
Przykład 14.
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ02 ), gdzie µ ∈ R jest nieznanym parametrem, a σ02 znaną liczbą dodatnią.
Stawiamy hipotezę, że „prawdziwa” wartość nieznanego parametru µ jest równa µ0
H0 : µ = µ0
przy hipotezie alternatywnej
a)
H1 : µ 6= µ0
b)
H1 : µ < µ0
c)
H1 : µ > µ0
Statystyka testowa
X − µ0 √
n,
σ0
która przy prawdziwości hipotezy zerowej (H0 ) ma rozkład N (0, 1).
W przypadku zachodzenia jednej z hipotez alternatywnych (a), b) lub c)) statystyka testowa us ma rozkład
us =
N
µ − µ0 √
n, 1 .
σ0
Zapiszmy statystykę testową w następujący sposób
us =
µ − µ0 √
X − µ0 √
X − µ√
n=
n+
n.
σ0
σ0
σ0
52
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Zatem w przypadku zachodzenia hipotezy alternatywnej (H1 ) statystyka testowa us ma rozkład normalny przesunięty względem rozkładu standardowego o
µ − µ0 √
n.
σ0
Stąd można określić „nietypowe” wartości statystyki testowej us pod warunkiem zachodzenia H0 przy alternatywie H1 :
b)
c)
a)
„duże”
„duże” wartości ujemne
„duże” wartości dodatnie
wartości ujemne lub dodatnie
Naturalnym postępowaniem jest by przy „nietypowych” wartościach us odrzucać hipotezę H0 . Oczywiście,
możliwym jest, że „nietypowe” wartości wystąpią nawet przy zachodzeniu hipotezy H0 . Jednak chcielibyśmy
aby takie zdarzenia zachodziły z małym prawdopodobieństem. Ustalmy to prawdopodobieństwo na poziomie α.
a)
b)
α
2
α
2
−u1−α/2
0
u1−α/2
PH0 |us | ≥ u1−α/2 = α
c)
α
α
−u1−α
u1−α
0
0
PH0 (us ≤ −u1−α ) = α
PH0 (us ≥ u1−α ) = α
gdzie u1−α/2 i u1−α są kwantylami rozkładu normalnego standaryzowanego odpowiednio rzędów 1 − α/2, 1 − α.
53
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Ostatecznie podejmujemy decyzję o odrzuceniu hipotezy H0 przy hipotezie alternatywnej H1 , gdy
a)
|us | ≥ u1−α/2
b)
us ≤ u1−α
c)
us ≥ u1−α
Poziomem istotności nazywać będziemy prawdopodobieństwo popełnienia Błędu I Rodzaju.
Definicja 4.7. Najmniejszy poziom istotności, przy którym zaobserwowana wartość statystyki testowej prowadzi
do odrzucenia hipotezy zerowej, nazywamy p-wartością przeprowadzonego testu.
Im mniejsza jest p-wartość, tym mocniejsze staje się przekonanie testującego o fałszywości hipotezy zerowej.
54
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Testy dla wartości średniej w rodzinie rozkładów normalnych
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ), gdzie µ i σ 2 są nieznanymi parametrami.
Testujemy hipotezę
H0 : µ = µ0
przeciwko hipotezie alternatywnej
b)
H1 : µ < µ0
a)
H1 : µ 6= µ0
c)
H1 : µ > µ0
Statystyka testowa
X − µ0 √
n.
s
Przy prawdziwości hipotezy zerowej ts ma rozkład t-Studenta z n − 1 stopniami swobody.
ts =
Hipotezę H0 odrzucamy, gdy
b)
ts ≤ −tn−1,1−α
a)
|ts | ≥ tn−1,1−α/2
55
c)
ts ≥ tn−1,1−α
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Testy o równości wartości średnich dla dwóch prób w rodzinie rozkładów normalnych
Niezależne próby
′
′
Niech X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) będą niezależnymi próbami z rozkładów N (µX , σ 2 ) oraz
N (µY , σ 2 ), gdzie µX , µY oraz σ 2 > 0 są nieznanymi parametrami.
Testujemy hipotezę
H0 : µX = µY
przeciwko hipotezie alternatywnej
a)
H1 : µX 6= µY
b)
H1 : µX < µY
Statystyka testowa
X −Y
ts = q
(n − 1)s2X + (k − 1)s2Y
s
c)
H1 : µX > µY
nk(n + k − 2)
.
n+k
Przy prawdziwości hipotezy zerowej ts ma rozkład t-Studenta z n + k − 2 stopniami swobody. Hipotezę H0
odrzucamy, gdy
a)
|ts | ≤ tn+k−2,1−α/2
b)
ts ≤ −tn+k−2,1−α
56
c)
ts ≥ tn+k−2,1−α
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Testy dla wariancji w rodzinie rozkładów normalnych
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ), gdzie µ i σ 2 są nieznanymi parametrami.
Testujemy hipotezę
H0 : σ 2 = σ02
przeciwko hipotezie alternatywnej
b)
H1 : σ 2 < σ02
a)
H1 : σ 2 6= σ02
Statystyka testowa
χ2s =
c)
H1 : σ 2 > σ02
(n − 1)s2
.
σ02
Przy prawdziwości hipotezy zerowej χ2s ma rozkład χ2 z n − 1 stopniami swobody.
Hipotezę H0 odrzucamy, gdy
a)
χ2s ≤ χ2n−1,α/2 lub χ2s ≥ χ2n−1,1−α/2
b)
χ2s ≤ χ2n−1,α
57
c)
χ2s ≥ χ2n−1,1−α
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Porównanie dwóch populacji
′
′
2
Niech X = (X1 , X2 , . . . , Xn ) i Y = (Y1 , Y2 , . . . , Yk ) będą niezależnymi próbami z rozkładów N (µX , σX
) oraz
2
2
2
N (µY , σY ), gdzie µX , µY , σX > 0 oraz σY > 0 są nieznanymi parametrami.
Testujemy hipotezę
2
H0 : σX
= σY2
przeciwko hipotezie alternatywnej
a)
2
H1 : σX
6= σY2
b)
2
H1 : σX
< σY2
Statystyka testowa
Fs =
c)
2
H1 : σX
> σY2
s2X
s2Y
Przy prawdziwości hipotezy zerowej Fs ma rozkład F-Snedecora z n − 1 i k − 1 stopniami swobody.
Hipotezę H0 odrzucamy, gdy
a)
Fs ≤ Fn−1,k−1,α/2 lub Fs ≥ Fn−1,k−1,1−α/2
b)
Fs ≤ Fn−1,k−1,α
58
c)
Fs ≥ Fn−1,k−1,1−α
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozdział 5
Testy zgodności
[6]Testem zgodności nazywamy test do weryfikacji hipotezy (prostej albo złożonej) dotyczącej zgodności
(dopasowania) rozkładu zbioru wartości w próbie z rozkładem teoretycznym, tzn. hipotezy postaci
H0 : dystrybuantą F (x) badanej cechy X populacji jest dystrybuanta F0 (x),
H1 : dystrybuantą F (x) badanej cechy X populacji nie jest dystrybuanta F0 (x).
59
Wykresy
[7] Graficzne przedstawienie rozkładu cechy (na podstawie próby) nie są testami w ścisłym sensie, nie można
bowiem obliczyć p-wartość czy też powziąć decyzji na zadanym poziomie istotności. Wykresy dostarczają
jedynie wizualnej informacji o badanej próbie losowej. Jednak taka dobrze zinterpretowana informacja jakościowa okazuje się mieć bardzo duże znaczenie praktyczne.
HISTOGRAM
Histogram jest graficznym przedstawieniem
szeregu rozdzielczego.
36
32
28
24
20
16
12
8
4
0
0
60
1
2
3
4
5
6
7
8
9
10 11
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
WYKRES KWANTYLOWY
2
bbbb
b
3
b
kwantyle empiryczne
kwantyle empiryczne
3
bbbb
bb
b
bb
1
0
−1
−2
b
b
bb
bbbbbb
b
bb
bb
2
1
0
−1
−2
−3
−3 −2 −1 0 1 2 3
kwantyle teoretyczne
bb
b
bb
b
bbb
bbbbb
bb
bb
b
bb
bbbb
bb
b
b
b
−3
−3 −2 −1 0 1 2 3
kwantyle teoretyczne
Niech x1 , x2 , . . . , xn będą zaobserwowanymi elementami próby losowej. Uporządkujmy elementy próby od najmniejszego do największego: x1:n , x2:n , . . . , xn:n . Wtedy xi:n jest przybliżeniem kwantyla rzędu i−0.5
.
n
Niech F (x) będzie odwracalną dystrybuantą pewnego rozkład (teoretycznego). Wtedy
z i−0.5 = F −1
n
i − 0.5
n
i = 1, 2, . . . , n
są kwantylami teoretycznymi rozkładu o dystrybuancie F .
Nanosimy na wykres punkty o współrzędnych
xi:n , z i−0.5
n
i = 1, 2, . . . , n.
61
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Test zgodności χ2-Pearsona
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o nieznanej dystrybuancie F . Niech F0 będzie zadaną
dystrybuanta. Testujemy hipotezę
H0 : F = F0 vs. H1 : F 6= F0 .
Dane grupujemy w k rozłącznych klasach o licznościach n1 , . . . , nk , gdzie n1 + . . . + nk = n. Niech pi ,
i = 1, . . . , k, oznacza teoretyczne prawdopodobieństwo, przy prawdziwej hipotezie H0 , że obserwowana zmienna
losowa przyjmie wartość z i-tej klasy.
Statystyka testowa
k
X
(ni − npi )2
.
χ2s =
npi
i=1
Przy prawdziwości hipotezy zerowej χ2s ma rozkład χ2k−1−r , gdzie r liczba estymowanych parametrów rozkładu
F0 . Estymację należy wykonać metodą największej wiarogodności. Przyjmuje się, że npi , dla każdego i powinno
być nie mniejsza niż 5.
Hipotezę odrzucamy, gdy
χ2s ≥ χ2k−1−r,1−α .
62
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Test zgodności Kołmogorowa
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu typu ciągłego o nieznanej dystrybuancie F . Niech F0
będzie zadaną dystrybuantą. Testujemy hipotezę
vs. H1 : F 6= F0 .
H0 : F = F0
Statystyka testowa (Kołmogorowa)
Dn =
sup
−∞<x<∞
gdzie Fn jest dystrybuantą empiryczną.
|Fn (x) − F0 (x)|,
Hipotezę H0 odrzucamy, gdy
Dn ≥ d1−α ,
gdzie d1−α jest kwantylem rzędu 1 − α rozkładu statystyki Dn .
Andriej Nikołajewicz Kołmogorow
1903 - 1987
63
5.1
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Test zgodności z rozkładem normalnym Shapiro-Wilka
′
Niech X = (X1 , X2 , . . . , Xn ) będzie próbą z rozkładu o nieznanej dystrybuancie F . Testujemy hipotezę
H0 : F jest dystrybuantą rozkładu normalnego,
H1 : F nie jest dystrybuantą rozkładu normalnego.
Statystyka testowa
W =
hP
[n/2]
i=1
ai (n) X(n−i+1):n − Xi:n
Pn
i=1
Xi − X
2
i2
,
gdzie X1:n , . . . , Xn:n jest uporządkowaną próbą, ai (n) są wartościami stablicowanymi.
Hipotezę H0 odrzucamy, gdy W < w(α), gdzie w(α) jest kwantylem rzędu α rozkładu statystyki W .
64
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Rozdział 6
Jedno i dwukierunkowa analiza wariancji
Celem jednokierunkowej (dwukierunkowej) analizy wariancji jest stwierdzenie istnienia wpływu jednego
(dwóch) czynnika na interesującą nas cechę.
65
ANOVA - jednokierunkowa analiza wariancji
(jednoczynnikowa analiza wariancji)
poziomy
czynnika
1
2
..
.
I
replikacje - wyniki przeprowadzonego
badania dla danego poziomu czynnika
x11 x12 . . .
x1J
x21 x22 . . .
x2J
..
..
..
.
.
.
xI1 xI2 . . .
xIJ
Model
Xij = µ + αi + εij ,
i = 1, . . . , I, j = 1, . . . , J,
(6.1)
gdzie
µ jest średnią ogólną (stała),
αi jest efektem i-tego poziomu badanego czynnika (stałe),
εij są niezależnymi zmiennymi losowymi o rozkładach N (0, σ 2 ) (błąd losowy obserwacji).
Łatwo zauważyć, że Xij ∼ N (µ + αi , σ 2 ).
Można również zapisać Xij ∼ N (µi , σ 2 ), gdzie µi = µ + αi . Wtedy µi jest średnią dla i-tego poziomu czynnika.
66
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Niech danych będzie I prób
′
X1 = (X11 , X12 , . . . , X1J )
′
X2 = (X21 , X22 , . . . , X2J )
..
.
. = ..
′
XI = (XI1 , XI2 , . . . , XIJ )
pochodzących odpowiednio z rozkładów N (µ1 , σ 2 ), . . . , N (µ1 , σ 2 ), gdzie µi = µ + αi .
Zakładamy, że zmienne Xij mają reprezentację z modelu (6.1).
Testujemy hipotezę postaci
H0 : µ1 = µ2 = . . . = µI
przeciw alternatywnej hipotezie H1 orzekającej, że istnieją co najmniej dwie spośród I średnich, które są różne.
Równoważną formą jest hipoteza
H0 : α1 = α2 = . . . = αI = 0
przeciw alternatywnej hipotezie H1 orzekającej, że istnieje co najmniej jeden spośród I efektów, który jest
różny od zera.
67
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przyjmijmy następujące oznaczenia:
X i• =
X •• =
SST =
J
1X
Xij
J j=1
I X
J
1 X
Xij
IJ i=1 j=1
I X
J X
i=1 j=1
SSA = J
SSE =
I X
SSE
I(J−1)
średnia i-tego poziomu czynnika,
−
Xij − X ••
Xi• − X ••
i=1
I
J XX
i=1 j=1
Statystyka s2 =
−
2
2
Xij − X i•
średnia ogólna,
−
−
2
−
zmienność całkowita,
zmienność między poziomami czynnika,
zmienność wewnątrz grup.
jest estymatorem wariancji σ 2 . Można wykazać tożsamość SST = SSA + SSE.
Statystyka testowa
I(J − 1)SSA
.
(I − 1)SSE
Przy prawdziwości hipotezy zerowej Fs ma rozkład F -Snedecora z liczbami stopni swobody I − 1 i I(J − 1).
Fs =
Hipotezę H0 odrzucamy, gdy
Fs ≥ FI−1,I(J−1),1−α .
68
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Opisana metoda analizy wariancji wymaga założenia równości wariancji w badanych grupach. Hipoteza o jednorodnosci wariancji przyjmuje postać
H0 : σ12 = σ22 = . . . = σI2 ,
gdzie σi2 jest wariancją w i-tej grupie. Hipoteza Alternatywna orzeka, że istnieją co najmniej dwie grupy o
różnych wariancjach.
W praktycznych zastosowaniach najbardziej popularnym testem jest test Bartletta.
Niech
J 2
1 X
s2i =
Xij − X i•
J − 1 j=1
będzie estymatorem wariancji σi2 w i-tej grupie, i = 1, 2, . . . , I.
Statystyka testowa
!
I
I
X
1X
ln s2i .
s2i − (J − 1)
Ms = I(J − 1) ln
I i=1
i=1
Dla dużych J przy prawdziwości hipotezy zerowej zmienna losowa
Ms
′
Ms =
1+
1
I
− I(J−1)
J−1
3(I−1)
ma w przybliżeniu rozkład χ2 z I − 1 stopniami swobody.
Hipotezę H0 odrzucamy, gdy
′
Ms ≥ χ2I−1,1−α .
69
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
MANOVA - wielokierunkowa analiza wariancji
wieloczynnikowa analiza wariancji
Poniżej ograniczymy się do modelu w dwukierunkowej analizie wariancji.
Model
Xijk = µ + αi + βj + γij + εijk ,
i = 1, . . . , I, j = 1, . . . , J, k = 1, . . . , K,
(6.2)
gdzie
µ jest średnią ogólną (stała),
αi jest efektem i-tego poziomu pierwszego czynnika (stałe),
βj jest efektem j-tego poziomu drugiego czynnika (stałe),
γij jest interakcją pomiędzy i-tym poziomem pierwszego czynnika a j-tym poziomem drugiego czynnika
(stałe),
εijk są niezależnymi zmiennymi losowymi o rozkładach N (0, σ 2 ) (błąd losowy obserwacji).
70
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Niech danych będzie IJ prób
′
′
′
X11 = (X111 , X112 , . . . , X11K )
X12 = (X121 , X122 , . . . , X12K )
′
′
X21 = (X211 , X212 , . . . , X21K )
..
.
. = ..
′
XI1 = (XI11 , XI12 , . . . , XI1K )
X22 = (X221 , X222 , . . . , X22K )
..
.
. = ..
′
XI2 = (XI21 , XI22 , . . . , XI2K )
X1J = (X1J1 , X1J2 , . . . , X1JK )
′
...
X2J = (X2J1 , X2J2 , . . . , X2JK )
...
..
.
. = ..
...
′
X
=
(X
,
X
,
.
.
.
,
X
)
IJ
IJ1
IJ2
IJK
...
Pochodzących odpowiednio z rozkładów N (µ11 , σ 2 ), . . . N (µ1J ), N (µ21 , σ 2 ), . . . , N (µIJ , σ 2 ), gdzie µij = µ + αi +
βj + γij .
Zakładamy, że zmienne Xijk mają reprezentację z modelu (6.2).
Testujemy trzy następujące hipotezy
H10 :
α1 = α2 = . . . = αI = 0
vs.
K10 : istnieje co najmniej jedno αi 6= 0,
H20 :
β1 = β2 = . . . = βJ = 0
vs.
K20 : istnieje co najmniej jedno βJ 6= 0,
H30 :
γ11 = γ12 = . . . = γIJ = 0
vs.
K30 : istnieje co najmniej jedno γij 6= 0.
71
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Przyjmijmy następujące oznaczenia:
X ij • =
K
1 X
Xijk
K k=1
X i•• =
K
J X
1 X
Xijk
JK j=1 k=1
X •j • =
X ••• =
SST =
−
I X
K
1 X
Xijk
IK i=1 k=1
średnia i-tego poziomu pierwszego czynnika i j-tego poziomu drugiego
czynnika,
−
średnia dla i-tego poziomu pierwszego czynnika,
−
średnia dla j-tego poziomu drugiego czynnika,
I X
J X
K
1 X
Xijk
IJK i=1 j=1 k=1
I X
J X
K X
i=1 j=1 k=1
SSA = JK
SSB = IK
SSAB = K
Xijk − X •••
I X
K X
i=1 k=1
I X
K X
i=1 k=1
J I
XX
i=1 j=1
średnia ogólna,
−
2
−
zmienność całkowita,
2
−
zmienność między poziomami pierwszego czynnika,
−
zmienność między poziomami drugiego czynnika,
X i•• − X •••
X •j • − X •••
2
X ij • − X i•• − X •j • − X •••
SSE = SST − SSA − SSB − SSAB
−
2
−
zmienność wynikająca ze współdziałania czynników,
zmienność wewnątrz grup.
72
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Statystyka s2 =
SSE
IJ(K−1)
jest estymatorem wariancji σ 2 .
Statystyki testowe
IJ(K − 1)SSA
,
(I − 1)SSE
IJ(K − 1)SSB
,
=
(J − 1)SSE
IJ(K − 1)SSAB
=
.
(I − 1)(J − 1)SSE
F1s =
F2s
F3s
Przy prawdziwości H10 F1s ∼ FI−1,IJ(K−1) ,
Przy prawdziwości H20 F2s ∼ FJ−1,IJ(K−1) ,
Przy prawdziwości H30 F3s ∼ F(I−1)(J−1),IJ(K−1) .
Hipotezę zerową Hi0 odrzucamy jeżeli odpowiadająca jej wartość statystyki testowej przekracza kwantyl rozkładu
F -Snedecora (z odpowiednimi stopniami swobody) rzędu 1 − α.
Uwaga. Testem Bartletta należy sprawdzić równość wariancji w każdej z grup.
73
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
74
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski
Bibliografia
[1] E. Babbie. Badania społeczne w praktyce. Wydawnictwo Naukowe PWN, Warszawa 2004.
[2] J. Brzeziński. Badania eksperymentalne w psychologii i pedagogice. Scholar, Warszawa 2000.
[3] A. Dąbrowski, S. Gnot, A. Michalski, and J. Srzednicka. STATYSTYKA, 15 godzin z pakietem statgraphics.
Akademia Rolnicz we Wrocławiu, Wrocław 1994.
[4] C. Domański. Testy statystyczne. Państwowe Wydawnictwo Ekonomiczne, Warszawa 1990.
[5] M. Krzyśko. Statystyka Matematyczna. Wydawnictwo Naukowe UAM, Poznań 2004.
[6] R. Mageria. Modele i metody statystyki matematycznej. GiS, Wrocław 2002.
[7] J. Mielniczuk and J. Koronacki. Statystyka dla studentów kierunków technicznych i przyrodniczych. Wydawnictwo Naukowo-Techniczne, Warszawa 2004.
[8] A. Plucińska and E. Pluciński. Rachunek prawdopodobieństwa, Statystyka matematyczna, Procesy stochastyczne. WNT, Warszawa 2000.
75
[9] Y. Takane and G. Ferguson. Analiza statytyczna w psychologii i pedagogice. Wydawnictwo Naukowe PWN
SA, Warszawa 2003.
[10] M. Walesiak, E. Gatnar, and inni. Statystyczna analiza danych z wykorzystaniem programu R. Wydawnictwo
Naukowe PWN, 2009.
76
Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/JBojarski

Podobne dokumenty