Wykłady ze statystyki wykład 1

Transkrypt

Wykłady ze statystyki wykład 1
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Wykłady ze statystyki
wykład 1
październik 2013
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Czym zajmuje się statystyka?
analizą i interpretacją danych
opisem danych w języku matematyki (rozkłady
prawdopodobieństwa)
porównywaniem różnych zbiorów danych
projektowaniem doboru próby
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Kto korzysta ze statystyki?
1
biologia i medycyna (nauki przyrodnicze)
dane o leczeniu pacjentów (nowe leki)
epidemiologia (statystyki chorób)
bioinformatyka (genetyka) i biologia molekularna
ekologia
2
ekonomia
szeregi czasowe danych z giełdy
finanse
globalne dane gospodarki
3
nauki społeczne (socjologia, politologia )
dane dotyczące struktury społecznej (struktura wiekowa,
zamożności, wykształcenia...)
sieci społeczne (twitter, facebook, ......)
sondaże społeczne, spisy powszechne....
niewielkie wykorzystanie statystyki fizyka
brak wykorzystania statystyki matematyka
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Jakie typy danych wykorzystuje statystyka ?
dane jakościowe
typ choroby, wyznanie religijne, grupa etniczna ...
dane ilościowe
liczby, wektory,. . .
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
porównanie efektywności leków
A
co
age, g
43, m
32, m
64, f
73, m
59, m
55, m
24, f
51, f
Które leczenie
hipotez)
A
B
B
C
C
co
plac
plac
drug
eff
age
eff
age
eff
2
22.m
3
25, m
>5
1
19, m
>5
29, m
>5
4
55, w
3
33, m
4
>5
67, w
1
44, f
4
3
34, m
>5
36, m
2
1
35, m
3
35, m
4
0.9
57, f
3
45, f
1
2
67, f
2
19, m
>5
daje lepsze rezultaty? (analiza wariantów,testowanie
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
estymacja parameterów dla lepszego opisu
określony zbiór danych (53, 85, 73, 66, 53, .., 98, 102) przedstawiamy
w postaci histogramu
(x − µ )2
szacujemy µ, σ tak, że σ√12π exp − σ2
jest najlepiej
dopasowane (grupa rozkładów normalnych)
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
korelacje danych
mamy dwa zbiory danych (x1 , x2 , ...., xn ) i (y1 , y2,..... , yn )
oczekujemy, że yi zależy ściśle od xi ale istnieje wpływ błędów
x 3 5 5 10 11 6 7..
y 1 2 1 4 5 2 4..
znajdujemy funkcję f taką, że Y = f (X ) + e
najprostszy przypadek Y = cX + e
=⇒ analiza regresji liniowej
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Korelacja danych nie świadczy o faktycznym ich związku
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Korelacja danych nie świadczy o faktycznym ich związku
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Ekstrapolacja i intrapolacja danych
Jakie są oczekiwane trendy? Czy są jakieś regularności danych?
=⇒ przewidywania statystyczne
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Czym jest statystyka wartości ekstremalnych?
Czym jest statystyka wielkich trzęsień ziemi ? =⇒ statystyka
wartości ekstremalnych
szczególnie ważne dla analizy ryzyka (głównie używanej przez firmy
ubezpieczeniowe)
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
analiza sieci
facebook: rekonstrukcja klastrów przyjaźni, częstych kontaktów
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
sieć białek
Znajdujemy główne grupy wchodzące w interakcje
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
sieci społeczne
Kto zajmuje centralne pozycje? Kto zajmuje pozycje dobrze
skomunikowane?
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Podsumowanie typowych problemów statystyki (1/2)
znalezienie dobrego matematycznego opisu rozważanego zbioru
danych
statystyka parametryczna: wśród rodziny parametrycznych
funkcji wybrać parametry najlepiej pasujące do danych (np.
metoda największej wiarogodności)
statystyka nieparametryczna: wybór najlepszego opisu z
rozległej klasy (niesparametryzowanej) możliwych opisów
(stosowana gdy brak lub mała część informacji o statystyce
danych jest dostępna)
testowanie hipotez
dana jest hipoteza dotycząca źródła danych Ho : jak bardzo
jest prawdopodobne, że dane pochodzą z tego źródła
(przykład test t—Studenta) przeciw alternatywnej hipotezie
H1 , że dane pochodzą z innego nieznanego źródła
w zależności od rodzaju hipotezy są parametryczne i
nieparametryczne testy
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Podsumowanie typowych problemów statystyki (2/2)
korelacja i analiza regresji
istnieją różne metody dla
małych zbiorów danych
dużych zbiorów danych
dla złożonych zbiorów danych zawierających relacje (jak grafy)
i wielowymiarowych danych stosuje się wiele nowych i
specjalnych metod
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
trochę historii
pochodzenie nazwy:
Łacina nowożytna:"statisticum collegium" (rada państwa)
W jezyku włoskim "statista" (mąż stanu, polityk)
w języku niemieckim "Statistik" (Staatswissenschaft - nauka o
państwie), Gottfried Achenwall (1749),
arytmetyka polityczna w języku angielskim, termin w języku
angielskim po raz pierwszy użyty przez sir Johna Sinclaira w
1791 w 21-tomowym dziele "Statistical Account of Scotland"
pierwsze użycie metod statystycznych:
W 5 wieku p.n.e. historyk Tukidydes w pracy "Historia wojen
peloponeskich" opisał jak Ateńczycy obliczyli wysokość murów
Platea licząc liczbę cegieł w nieotynkowanej części
muru.Żołnierze powtarzali obliczenia wiele razy, a najczęściej
występujaca wartość była wzieta jako liczba cegieł. Ta wartość
pomnożona przez wysokość cegieł pozwoliła ateńczykom
oszacować wysokosć drabiny koniecznej, by wspiąć się na mury.
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Najstarsze źródła pisane: książka Al-Kindiego z IX w. pt.
Manuskrypt o odszyfrowywaniu ukrytych wiadomości
"Manuscript on Deciphering Cryptographic Messages"
zawierająca szczegółowy opis jak używać analizy częstości do
odszyfrowywania zakodowanych informacji; narodziny
statystyki i kryptografii.
XVIII w. - Termin statystyka oznaczał systematyczne zbieranie
przez państwo danych demograficznych i ekonomicznych.
XIX w. - statystyka "rozszerza się" do zbierania,
podsumowywania i analizowania danych.
Związek między statystyką a teorią prawdopodobieństwa
pojawia się późno. W XIX w. zwiększa się wykorzystanie teorii
prawdopodobieństwa, która rozwinęła się z analizy gier.
Do 1800 roku astronomia wykorzystywała modele
prawdopodobieństwa i teorie statystyczne, w szczególności
metodę najmniejszych kwadratów (Legendre + Gauss)
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Czym jest prawdopodobieństwo?
podejście klasyczne: Pascal, Fermat, Laplace, Bernoulli. . .
częstotliwość sukcesu versus całkowita liczba prób
Laplace’s Théorie analytique des probabilités:
"prawodpodobieństwo zdarzenia jest stosunkiem liczby
oczekiwanych zdarzeń do liczby wszystkich możliwych
zdarzeń. . . "
ma początek w teorii hazardu (karty, kości, rzut monetą. . . )
przykład: jakie jest prawdopodobieństwo p6 otrzymania 6, gdy
rzucamy kością? 61
jak oszacować prawdopodobieństwo dla kości zniekształconej
(biased dice)? rozwiązanie: rzucamy kością n razy i liczymy ile
X (n )
razy pojawi się 6 : X6 (n ) . I tak: p6 = limn→∞ 6n
jeśli liczba zdarzeń jest skończona jest to metoda wyboru
(obliczenia kombinatoryczne)
przykład 1: oszacowanie prawdopodobieństwa w totolotka
przykład 2: problemy urn: gdy dana jest urna z 3 czerwonymi
kulami i 10 niebieskimi; jakie jest prawdopodobieństwo
wylosowania 2 czerwonych kul gdy wyciąga się w sumie 7 kul?
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
współczesne podejście aksjomatyczne: Kołmogorov :
oparte na teorii miary
wspołczesne podejscie "klasyczne": Co to jest losowa 0 − 1
sekwencja? von Mises,Solomonoff, Kołmogorov, Martin-Loef
0001101110001010001001111100010011010101001101110 . . .
0011010001110010101001100111011100010000010111110 . . .
1100100100001111110110101010001000100001101101011 . . .
która sekwencja jest losowa? mają to samo
prawdopodobieństwo w uczciwym rzucie monetą.
algorytmiczne prawdopodobieństwo: Kołmogorov, Schnorr,
Levin, Chaitin...
stawiamy to samo pytanie co wyżej: losowe sekwencje są
sekwencjami, które nie mogą byc skompresowane przez
uniwersalną maszynę Turinga (związane ze złożonością
Kołmogorova): Niech x będzie 0 − 1 słowem o długości n i
K (x ) będzie najkrótszym opisem x. x jest losowy, gdy
K (x ) ∼ n
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
aksjomaty Kołmogorova (dostęp aksjomatyczny)
przestrzeń probabilistyczna: (Ω, F , P )
Ω : przestrzeń zdarzeń elementarnych (sample space)
przykład: [0, 1] , {0; 1} , {0; 1}N , N, Rn , (red, green.blue )
F : sigma algebra zdarzeń losowych (events)
jest zamknięta ze względu na
— dopełnienie zbioru: A ∈ F =⇒ Ω \ A = Ac ∈ F
— przeliczalną sumę zbiorów: {Ai }1∞ , Ai ∈ F =⇒ ∪i Ai ∈ F
zawiera Ω i ∅
P : miara probabilistyczna (probability measure) dla F
P ma własność przeliczalnej addytywności:
P (∪i Ai ) = ∑ P (Ai ) gdzie Ai ∩ Aj = ∅ przy i 6= j
i
P (A) ≥ 0 (nieujemność)
P (Ω) = 1 (unormowanie)
jeśli Ω jest przeliczalna lub skończona, F może być wzięta
jako rodzina wszystkich podzbiorów Ω
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Przykład Próba Bernoulliego
rzut monetą
Ω : {0; 1} ' {orzeł,reszka}
F : ∅, {0} , {1} , {0; 1}
P : P (1) = p = 1 − P (0)
n − krotny rzut monetą (niezależny)
Ωn : Ωn = {0; 1}n : wszystkie 0 − 1 sekwencje długości n
Fn : wszystkie podzbiory Ωn
P n : P × P.... × P
przykład: P 3 (110) = pp (1 − p )
dla p = 1/2 wszystkie sekwencje mają to samo
prawdopodobieństwo (1/2n )
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
algebra zdarzeń i prawdopodobieństwo warunkowe
algebra zdarzeń jest algebrą zbiorów
prawa de Morgana : (A ∪ B )c = Ac ∩ B c i
(A ∩ B )c = Ac ∪ B c
A i B sa niezależnymi zdarzeniami losowymi, gdy
P (A ∩ B ) = P (A) · P (B )
prawdopodobieństwo warunkowe: P (A | B ) =def
P (A∩B )
P (B )
dla zdarzeń niezależnych : P (A | B ) = P (A)
przykład 1: p = 1/2, Ωn = {0; 1}n : A = {x1 = 1} ,
B = {(x1 , x2 , ..., xn ) : ∑ xi = 1}
P (A | B ) =?: P (A ∩ B ) = 1/2n ;
P (B ) = n/2n =⇒ P (A | B ) = 1/n
przykład 2: Ωn = {0; 1}n : A = {x1 = 1} ,
B = {(x1 , x2 , ..., xn ) : ∑ xi = n } =⇒ P (A | B ) = 1
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
zmienne losowe (random variables)
zmienna losowa w przestrzeni probabilistycznej (Ω, F , P ) jest
funkcją (mierzalną) X od Ω w przestrzeni (miarzalnej) E .
najczęściej funkcja przymuje wartości liczb rzeczywistych:
X :Ω→R
zapis: ω ∈ Ω : X (ω ) = x (wartość X gdy ω jest losowane
jest x)
przykład: próba Bernoulliego (rzut monetą)
X : Ω = (orzeł,reszka) → {0, 1}
Y : Ωn → R : Y = n1 ∑ Xi
funkcje i złożenia z.l. (r.v.) definiują ponownie nową z.l. (r.v.)
zmienna losowa X jest dyskretna jeśli X przyjmuje jedynie
skończenie lub przeliczalnie wiele wartości
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Jak opisać zmienną losową?
dystrybuanta (cumulative distribution function, cdf):
FX (z ) = P {X ≤ z } =def P {ω ∈ Ω : X (ω ) ≤ z }
każda zmienna losowa ma dystrybuantę (cdf)
dystrybuanta charakteryzuje zmienną losową w sposób zupełny
zmienna losowa jest ciągła, jeśli dystrybuanta jest ciągła
zmienna losowa X : Ω → R indukuje nową miarę
prawdopodobieństwa P ∗ na R przez P ∗ ((a, b ]) =def
P (a < X ≤ b ) = FX (b ) − FX (a) , zatem wartości X tworzą
przestrzeń prawdopodobieństwa
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Gęstości
niekiedy P (a < X ≤ b ) = FX (b ) − FX (a) można zapisać
jako
Zb
f (t ) dt
a
f (t ) jest nazywana funkcją gęstości ( f (t ) ≥ 0)
d
f (x ) = dx
FX ( x )
F (z ) =
+∞
Z
Zz
f (t ) dt , gęstość jest znormalizowana
−∞
f (t ) dt = 1
−∞
Gęstości nie zawsze występują
gdy Ω jest skończona lub przeliczalna: P (ωi ) = pi staje się
dyskretnym odpowiednikiem gęstości
gdy X i Y są niezależne i mają funkcje gęstości f (t ) i
g (u ) =⇒ (X , Y ) ma funkcję gęstości f (t ) · g (u )
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Wartość oczekiwana (expectation) lub pierwszy moment
E (X ) =def
R
X ( ω ) P (d ω )
gdy istnieje
R funkcja gęstości:
R
E (X ) = xf (x ) dx =R xdF (x )
Y = g (X ) : E (Y ) = g (x ) f (x ) dx
w przypadku dyskretnym
Ω = {ωi } : E (X ) = ∑ xi pi =def ∑ X (ωi ) P (ωi )
Wartość oczekiwana jest liniowa
E (aX ) = aE (X )
E (X + c ) = E (X ) + c
E (X + Y ) = E (X ) + E (Y )
jeżeli X , Y są niezależne, to E (XY ) = E (X ) E (Y )
przykład: próba Bernoulliego
Y = ∑ni=1 Xi : E (Y ) = nE (X1 ) = np
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
R
wyższe momenty: mk = E X k = x k f(x ) dx
(w przypadku dyskretnym : mk = E X k = ∑ xik pi
scentralizowane momenty: µk = E (X − E (X ))k
wariancja (variance):
Var (X ) =def E (X − E (X ))2 = E X 2 − E 2 (X )
Var (cX ) = c 2 Var (X ) i Var (X + c ) = Var (X )
dla X i Y niezależnych :
Var (p
X + Y ) = Var (X − Y ) = Var (X ) + Var (Y )
σ = Var (X ) jest nazywana odchyleniem standardowym
µ
momenty standaryzowane: σkk , pierwszy moment
standaryzowany wynosi 0, a drugi to 1
kowariancja: Cov (X , Y ) =def E ((X − E (X )) (Y − E (Y )))
mediana m: spełnia parę P (X ≤ m ) ≥ 21
kwantyl xp rzędu p, gdzie 0 ≤ p ≤ 1 to wartość zm. los. X
spełniająca parę nierówności: P (X ≤ xp ) ≥ p oraz
P (X ≥ xp ) ≥ 1 − p
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Przykład: rozkład normalny
Pierwszy moment daje nam informację gdzie jest maksimum, a
wariancja informuje o szerokości szczytu
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Krótkie streszczenie niezależności
Wzór na niezależność zdarzeń: P (A ∩ B ) = P (A) · P (B )
równoważny z P (A) = P (A | B ) lub P (B ) = P (B | A)
stąd wiedza, że zachodzi zdarzenie B, nie zmienia
prawdopodobieństwa zajścia zdarzenia A
dwie zmienne losowe X i Y (z wartościami w R) są niezależne,
jeśli zdarzenia {X ≤ a} i {Y ≤ b } są niezależne dla
wszystkich możliwych wyborów a i b
stąd, jeśli X i Y są niezależne =⇒
FX ,Y (a, b ) =def P {X ≤ a ∧ Y ≤ b } = FX (a) · FY (b )
jeśli X i Y są niezależne i mają wspólną gęstość ϕX ,Y (x, y )
dla (X , Y ) =⇒ ϕX ,Y (x, y ) = ϕX (x ) · ϕY (y )
stąd, dla X i Y niezależnych: E (X · Y ) = E (X ) · E (Y )
zdarzenia ze zbioru A1 , . . . , An są wzajemnie niezależne, jeśli
dla wszystkich podzbiorów Ai1 , Ai2 , . . . , Aik zachodzi
k
P (∩l Ail ) =
∏ P (Ai )
l
l =1
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
nierówności Markowa i Czebyszewa
Problem: gdy jest dana zmienna losowa X , co można powiedzieć o
P {|X − E (x )| ≥ c }?
nierówność Markowa (metoda pierwszego momementu): niech
E (X )
X będzie nieujemne =⇒ P (X ≥ c ) ≤ c
nierówność Czebyszewa (metoda drugiego momentu) :
var (X )
P {|X − E (x )| ≥ c } ≤ c 2
twierdzenie Czebyszewa pochodzi od tw. Markowa wstawiamy
(X − E (X ))2 zamiast X w nierowności Markowa
bez dodatkowych zalożeń obydwie nierówności są optymalne
przy dodatkowych warunkach dla X istnieją lepsze estymacje
(szczególnie, gdy X jest sumą niezależnych zmiennych
losowych o identycznym rozkładzie ) np. nierówność Chernoffa
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Prawo wielkich liczb
Niech X1 , X2 , .... będą (nieskonczoną) sekwencją niezależnej i
identycznej (iid) zmiennej losowej E (Xi ) = µ < ∞.
n
Niech ZN =def
1
n
∑ Xi
(dla próby {xi } jest to średnia)
i =1
=⇒ limn→∞ Zn = µ (zbieżność według
prawdopodobieństwa/zbieżność stochastyczna i punktowa)
zbieżność według prawdopodobieństwa:
limn→∞ P (|Zn − µ| > e) = 0
zbieżność punktowa oznacza, że dla niemal wszystkich
realizacji {Xi } granica jest równa µ
prawo wielkich liczb może być wyprowadzone łatwo z
nierówności Czebyszewa
prawo wielkich liczb jest ważne dla bardziej ogólnych
warunkow. Zajmuje się tym odrębny dział matematyki zwany
teorią ergodyczną.
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Wniosek: twierdzenie Glivenko Cantelli
danych jest n i.i.d. zmiennych losowych (X1 , X2 , ..., Xn ) X ∼ Xi z
próby (x1 , ..., xn )
niech Yi (z ) = 1 dla Xi ≤ z i Yi (z ) = 0 dla Xi > z
dla danej realizacji (x1 , ..., xn ) uzyskujemy 0 − 1 sekwencje
(111000....001)
zgodnie z prawem wielkich liczb mamy
limn→∞ n1 ∑ Yi = FX (z ) = P (X ≤ z )
niech Fn,x̂ będzie empiryczną dystrybuantą z próby x̂ = (x1 , ..., xn )
twierdzenie Glivenko - Cantelli :
P (supz |Fn (z ) − F (z )| ≤ c ) → 1 dla wszystkich c > 0
n→∞
twierdzenie to jest niekiedy zwane głównym twierdzeniem
statystyki.
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
Centralne twierdzenie graniczne
niech X1 , X2 , . . . będzie (nieskonczoną ) sekwencją iid
zmiennej losowej z E (Xi ) = µ < ∞ i Var (Xi ) = σ2 < ∞ i
n
niech ZN =def
1
n
∑ Xi
i =1
=⇒
√
n
n (Zn − µ) =
√1
n
∑ (Xi − µ)
!
d
→ N 0, σ2 (zbieżność
i =1
według rozkładu)
N 0, σ2 ma rozkład
normalny z funkcją gęstości:
2
1
x
√
exp − σ2
σ 2π
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
skończona wariancja jest warunkiem koniecznym (dla zmiennej
losowej, która nie ma 2. momentu — tak jak w przypadku
rozkładu Cauchy’ego — istnieją inne twierdzenia graniczne)
centralne twierdzenie graniczne po raz pierwszy było
udowodnione dla próby Bernoulliego przez de Moivera (a
później przez Laplace’a) w 1738.
założenia o niezależności i identycznym rozkładzie mogą być
osłabione w znacznym stopniu.
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
pierwsze zastosowanie w statystyce
Problem: dla danej próby Bernoulli’ego Ωn = {0, 1}n ,
(x1 , x2 ...., xn ) próba (X1 , X2 , ..., Xn ) , p = P (1) jest nieznana i
powinna być oszacowana.
ponieważ Ep n1 ∑ Xi = p i limn→∞ n1 ∑ Xi = X̄n = p a.s.
(zbieżność punktowa, prawie na pewno) możemy używać
średniej empirycznej x̄n = n1 ∑ xi jako estymacji punktowej dla
p.
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
estymacja błędu: przez nierówności Czebyszewa otrzymujemy
−2
Var (X̄ )
p (1−p )
Ppn {|X̄n − p | > e} ≤ e2 n = e−2 n ≤ e4n ponieważ
Var (X̄n ) = Var n1 ∑ Xi = n12 ∑ Var (Xi ) = n1 Var (X1 ) =
p (1−p )
n
szacujemy dalej p (1 − p ) przez x̄n (1 − x̄n ) = sn .
dla wartości oczekiwanej Sn mamy:
Ep (Sn ) =
Ep ( n1 ∑ Xi ) · n1 ∑ (1 − Xi ) = Ep n12 ∑i ∑j Xi (1 − Xj ) =
1
1
E
X (1 − Xi ) + ∑i 6=j Xi (1 − Xj ) = n−
n p (1 − p )
n2 p ∑i i
=⇒ Sn ma zawsze błąd systematyczny (
estymatorem)
n
n−1 sn
jest dobrym
Wstep Przykłady i problemy Prawdopodobieństwo Obserwabla Gęstości i Dystrybuanta Momenty 3 słynne twierdzen
wykorzystanie centralnego twierdzenia granicznego
Centralne twierdzenie graniczne daje
√
d
n (X̄n − p ) → N 0, σ2 = N (0, p (1 − p )) =⇒
q
d
n
Sn (X̄n − p ) → N (0, 1)
n
o
n√
o
stąd Ppn |X̄n − p | > √en = Ppn √Sn |X̄n − p | > √eS ∼
n
n
−e
√
2Φ
gdzie Φ jest dystrybuantą rozkładu normalnego
S
n
N (0, 1)
następnym etapem jest otrzymanie estymacji przedziałowej dla
p zamiast estymacji punktowej. Takie przedziały są nazywane
przedziałami ufności.

Podobne dokumenty