W5-rachunek prawdopodobieństwa ZIPz 2007

Transkrypt

W5-rachunek prawdopodobieństwa ZIPz 2007
E – przestrzeń zdarzeń elementarnych (w praktyce zbiór wszystkich
niepodzielnych wyników doświadczenia).
OZNACZENIA:
E1 + E 2 , E1 − E 2 , E1 • E 2 - suma, róŜnica, iloczyn zdarzeń E1 , E 2
(odpowiednio)
V, U, E1 - zdarzenie niemoŜliwe, zdarzenie pewne, zdarzenie przeciwne do E1
(odpowiednio)
DEF: Zdarzenie E1 implikuje zdarzenie E 2 , jeśli zawsze, gdy zajdzie
E1 , zajście E 2 jest zdarzeniem pewnym; oznaczenie E1 ⊂ E 2
DEF: Zdarzenia E1 i E 2 nazywają się równowaŜnymi (oznaczenie E1 = E 2 ),
jeśli E1 ⊂ E 2 ∧ E 2 ⊂ E1
DEF: Zdarzenia E1 i E 2 nazywają się przeciwnymi ,
jeśli E1 + E 2 = U ∧ E1 • E 2 = V
DEF: Zdarzenia E1 i E 2 nazywają się wyłączającymi ( wykluczającymi) się,
jeśli E1 • E 2 = V
DEF: Mówimy, Ŝe zdarzenie E 0 rozkłada się na zdarzenia E1 , E 2 ,..., E n
jeśli: E 0 = E1 + E 2 + ... + E n oraz
∀
Ei • E j = V
i≠ j
i, j=1,2,...,n
DEF: Borelowskim ciałem zdarzeń B nazywa się najmniejszy zbiór
podzbiorów przestrzeni zdarzeń elementarnych spełniający warunki:
1. U ∈ B
2. V ∈ B
3. E1 , E 2 ∈ B ⇒ E1 − E 2 ∈ B
4. E i ∈ B , i ∈ N ⇒ ∑ E i ∈ B
i∈N
5. E i ∈ B , i ∈ N ⇒ ∏ E i ∈ B
i∈N
DEF: KaŜdy element borelowskiego ciała zdarzeń B nazywa się zdarzeniem
losowym.
DEF: (Klasyczna definicja prawdopodobieństwa)
Niech przestrzeń zdarzeń elementarnych E zawiera n jednakowo
moŜliwych zdarzeń elementarnych, tzn. E = {e1 , e 2 ,...e n : ei ≠ e j dla i ≠ j} ;
niech zdarzenie A rozkłada się na m elementarnych zdarzeń, gdzie 1 ≤ m ≤ n ,
m
tzn. A = ∑ e Ai , gdzie
i =1
∀
i =1,...,m
e Ai ∈ E ∧
∀
i, j=1,...m
i≠ j
e Ai • e A j = V
(o zdarzeniu e Ai dla i=1,2,...,m mówi się, Ŝe sprzyja zajściu zdarzenia A);
wtedy
m
P(A) =
n
Prawdopodobieństwem zdarzenia A [oznaczenie P(A)] nazywamy stosunek
liczby zdarzeń sprzyjających zajściu zdarzenia A do liczby wszystkich zdarzeń
elementarnych.
Wady definicji:
1. Jest tautologią (w definicji występuje słowo definiowane – zdarzenia
jednakowo moŜliwe, to nic innego jak zdarzenia jednakowo
prawdopodobne).
2. Definicja wymaga, by przestrzeń zdarzeń elementarnych E była
skończona.
3. Definicja Ŝąda znajomości zbioru zdarzeń elementarnych sprzyjających
danemu zdarzeniu oraz zbioru wszystkich zdarzeń elementarnych
(przynajmniej ich liczności).
DEF: (Geometryczna definicja prawdopodobieństwa)
JeŜeli Q i q są to dwa zbiory w przestrzeni r-wymiarowej oraz q ⊂ Q , to
prawdopodobieństwo tego, Ŝe dowolny punkt ze zbioru Q naleŜy równieŜ do q,
równa się stosunkowi miary zbioru q do miary zbioru Q.
Wady definicji:
NaleŜy znać miary zbiorów Q i q, co w praktyce często nie jest moŜliwe.
DEF: (Statystyczna [częstościowa] definicja prawdopodobieństwa)
JeŜeli przy wielokrotnej realizacji doświadczeń, w wyniku których moŜe
wystąpić zdarzenie A, częstość tego zdarzenia przejawia wyraźną
prawidłowość, oscylując wokół nieznanej liczby p, i jeśli wahania częstości
przejawiają tendencję malejącą w miarę wzrostu liczby doświadczeń, to liczbę
p nazywa się prawdopodobieństwem zdarzenia A.
DEF: (Aksjomatyczna definicja prawdopodobieństwa)
E - przestrzeń zdarzeń elementarnych
B - borelowskie ciało zdarzeń
P - miara unormowana,
tzn. P : B → R spełnia warunki:
1. ∀ 0 ≤ P(A) ≤ 1
A∈B
2. P(U) = 1
3. P(V) = 0
4. P( ∑ A i ) = ∑ P(A i ) ,
i∈N
jeśli
∀ A ,A
i , j∈N
i∈N
i
j
∈ B ∧ Ai • A j = V
i≠ j
(E,B,P) - przestrzeń (trójka) probabilistyczna -odtąd przyjmujemy, Ŝe jest dana
Niech A ∈ B , wtedy P(A) nazywa się prawdopodobieństwem zdarzenia A.
Własności prawdopodobieństwa:
1. P(A) + P( A ) = 1
2. A ⊂ B ⇒ P(A) ≤ P(B)
DOWÓD:
Ad 1)
Zdarzenia A i A są przeciwne, więc A + A = U oraz A • A = V .
2 def
4 def
1 = P( U ) = P(A + A ) = P(A ) + P( A )
Ad 2)
A⊂B
więc
B = A + ( B − A)
c.n.d.
oraz
A • ( B − A) = V ,
zatem
4 def
P(B) = P(A + (B − A)) = P(A) + P(B − A) ⇒ P(B) ≥ P(A)
c.n.d.
≥0 z1 def
DEF: (Prawdopodobieństwa warunkowego)
Niech P(AIB) oznacza prawdopodobieństwo zajścia zdarzenia A
obliczone przy załoŜeniu, Ŝe wystąpiło zdarzenie B, gdzie P(B) > 0.
Wtedy
P(A • B)
P(AIB) =
...(1)
P(B)
DEF: (Zdarzeń niezaleŜnych)
Dwa zdarzenia A i B nazywają się zdarzeniami niezaleŜnymi, jeśli zajście
jednego z tych zdarzeń nie ma wpływu na prawdopodobieństwo zajścia
drugiego, tzn.
P(A) = P(AIB) ...(2)
lub równowaŜnie P(B) = P(BIA) ...(2*)
(1)
P(A • B) = P(AIB) ⋅ P(B) ...(3)
(1)
[ P(A • B) = P(BIA) ⋅ P(A) ...(3*) ]
WKW niezaleŜności zdarzeń A i B jest P(A • B) = P(A) ⋅ P(B) ...(4)
DOWÓD:
„⇒ ”
(2)
Z (3) P(A • B) = P(AIB) ⋅ P(B) = P(A) ⋅ P(B)
„⇐”
Z załoŜenia P(A • B) = P(A) ⋅ P(B) , ale P(A • B) = P(AIB) ⋅ P(B) .
Stąd P(A) ⋅ P(B) = P(AIB) ⋅ P(B) . Dzieląc obustronnie przez P(B) > 0
otrzymamy P(A) = P(AIB) , a to oznacza niezaleŜność zdarzeń A i B. c.n.d.
DEF: (Dowolnej liczby zdarzeń niezaleŜnych)
Zdarzenia A1 , A 2 ,..., A n są niezaleŜne, jeśli dla kaŜdego s-elementowego
(1 < s ≤ n ) podciągu wskaźników { k1 , k 2 ,..., k s } ciągu liczb naturalnych
1,2,...,n zachodzi P(A k1 • A k 2 • ... • A ks ) = P(A k1 ) ⋅ P(A k 2 ) ⋅ ... ⋅ P(A ks )
Wzór na prawdopodobieństwo iloczynu dowolnej liczby zdarzeń
P(A1 • A 2 • ... • A n ) = P(A1 ) ⋅ P(A 2IA1 ) ⋅ P(A 3IA1 • A 2 ) ⋅ ... ⋅ P(A nIA1 • A 2 • ... • A n -1 )
Wzór na prawdopodobieństwo sumy dowolnych zdarzeń
P(A + B) = P(A) + P(B) − P(A • B)
DOWÓD:
A + B = A + [B − (A • B)] oraz A • [B − (A • B)] = V więc z własności
prawdopodobieństwa P(A + B) = P(A) + P(B − (A • B)) ...(*).
Podobnie P(B) = P(A • B) + P(B − (A • B)) ⇒ P(B − (A • B) = P(B) − P(A • B)
Stąd i z (*) mamy
P(A + B) = P(A) + P(B) − P(A • B) . c.n.d.
P(A + B + C) = P((A + B) + C) = P(A + B) + P(C) − P((A + B) • C) =
= P(A) + P(B) − P(A • B) + P(C) − P((A • C) + (B • C)) =
= P(A) + P(B) − P(A • B) + P(C) − [P(A • C) + P(B • C) − P(A • C • B • C)] =
= P(A) + P(B) − P(A • B) + P(C) − [P(A • C) + P(B • C) − P(A • B • C)] =
= P(A) + P(B) + P(C) − P(A • B) − P(A • C) − P(B • C) + P(A • B • C)
P(A + B + C) = P(A) + P(B) + P(C) − [P(A • B) + P(A • C) + P(B • C)] + P(A • B • C)
Wzór na prawdopodobieństwo całkowite
Dane jest zdarzenie A i wzajemnie wyłączające się zdarzenia B1 , B 2 ,..., Bm
takie, Ŝe ∀ P(Bi ) > 0 . Zdarzenie A moŜe zajść wyłącznie z jednym ze
i =1,...,m
zdarzeń Bi i = 1,2,..., m . Oczywiście zdarzenia A • B1 , A • B 2 ,..., A • Bm są
równieŜ zdarzeniami wyłączającymi się parami.
Zatem z własności prawdopodobieństwa
m
P(A) = P(A • B1 ) + P(A • B 2 ) + ... + P( A • Bm ) = ∑ P(A • B j ) =
prawdopodobienstwo iloczynu
j=1
m
= ∑ P(B j ) ⋅ P(AIB j )
j=1
Wyprowadziliśmy wzór na prawdopodobieństwo całkowite
m
P(A) = ∑ P(B j ) ⋅ P(AIB j ) ...(5)
j=1
Wzór Bayesa
Pozwala obliczyć prawdopodobieństwo, Ŝe zaszło jedno z wzajemnie
wyłączających się zdarzeń B1 , B 2 ,..., Bm , jeśli wiadomo, Ŝe zaszło zdarzenie A.
P(B j • A) = P(B j ) ⋅ P(AIB j ) = P(A) ⋅ P(B jIA) , gdzie P(A) > 0
stąd
P(B jIA) =
P(B j ) ⋅ P(AIB j )
P(A )
Podstawiając za P(A) ze wzoru(5) otrzymamy wzór Bayesa
P(B jIA) =
P(B j ) ⋅ P(AIB j )
m
∑ P(B ) ⋅ P(AIB )
i =1
i
i
...(6)
ZMIENNA LOSOWA
Dana jest trójka prababilistyczna (E,B,P).
DEF: (Zmiennej losowej)
Zmienną losową nazywa się funkcję rzeczywistą określoną na przestrzeni
zdarzeń elementarnych E i mierzalną względem ciała zdarzeń B.
Dokładniej:
Zmienną losową Z nazywa się funkcję Z : E → R taką, Ŝe
∀ A x = {e ∈ E : Z(e) < x} ∈ B .
x∈R
Z tego określenia wynika, Ŝe ma sens P( Z < x ) := P(A x )
DEF: (Dystrybuanty zmiennej losowej)
Dystrybuantą zmiennej losowej Z nazywa się funkcję F : R → R taką, Ŝe
F( x ) = P( Z < x )
Własności dystrybuanty:
1. 0 ≤ F( x ) ≤ 1
2. F(x) jest niemalejąca
3. dystrybuanta jest przynajmniej lewostronnie ciągła
4. lim F( x ) = 0 oraz lim F( x ) = 1
x →−∞
x →+∞
Niech X będzie skokową zmienną losową, tzn. moŜe przyjmować wartości
x1 , x 2 ,...
DEF: (Rozkładu skokowej zmiennej losowej)
Rozkładem skokowej zmiennej losowej X (rozkład prawdopodobieństwa,
funkcja prawdopodobieństwa) nazywa się zbiór par postaci
( x i , p i ) , gdzie p i = P(X = x i ) , i=1,2,...
Oczywiście ∑ p i = 1 .
i∈N
Niech wartości zmiennej losowej X będą uporządkowane rosnąco , tzn.
x1 < x 2 < ... < x n .
Wtedy
 0

F( x ) = P(X < x ) =  ∑ p i
xi <x
 1
dla x ≤ x1
dla x1 < x ≤ x n
dla x > x n
TW: Dla zmiennej losowej ciągłej P(X = x 0 ) = 0 .
DEF: (gęstości prawdopodobieństwa)
Jeśli dystrybuanta F(x) zmiennej losowej X ma pochodną w punkcie x 0 ,
to pochodna ta jest gęstością prawdopodobieństwa zmiennej losowej X w x 0 .
Niech f(x) – gęstość prawdopodobieństwa zmiennej losowej X, wtedy
f ( x ) = F′( x )
x
stąd
F( x ) = ∫ f ( t )dt .
−∞
Własności gęstości prawdopodobieństwa
1. f ( x ) ≥ 0
+∞
2.
∫ f (x )dx = 1
−∞
TW: Niech a , b ∈ R , a < b . Wtedy dla zmiennej losowej X zachodzi
b
P(a ≤ X ≤ b) = P(a < X < b) = P(a < X ≤ b) = P(a ≤ X < b) = F(b) − F(a ) = ∫ f ( x )dx
a
a
P(X < a ) = F(a ) = ∫ f ( t )dt
−∞
+∞
P(X > a ) = 1 − F(a ) = ∫ f ( t )dt .
a
Parametry opisowe zmiennej losowej
Liczba charakteryzująca w pewien sposób zbiór wartości, jakie moŜe
przybierać zmienna losowa nazywa się parametrem opisowym tej zmiennej lub
krótko parametrem.
Kategorie parametrów: przeciętna wielkość zmiennej, parametry dające wyobraŜenie jak bardzo
poszczególne wartości odchylają się od tej przeciętnej wartości
DEF: (wartości oczekiwanej zmiennej losowej X ozn. E(X))
 ∑ x i pi
zmienna losowa skokowa
 i∈N
E ( X ) = + ∞
,
 ∫ x ⋅ f ( x )dx zmienna losowa ciagla
 −∞
gdzie: x i - wartości skokowej zmiennej losowej X przyjmowane
z prawdopodobieństwem p i
f – funkcja gęstości ciągłej zmiennej losowej X
TW: (własności wartości oczekiwanej)
1. E(C) = C , gdzie C – stała
2. E(X +Y) = E(X) + E(Y)
3. E(C ⋅ X) = C ⋅ E (X) , gdzie C – stała
4. E[(C ⋅ X) k ] = C k ⋅ E(X k ) , gdzie C – stała
5. E(X ⋅ Y) = E(X) ⋅ E(Y) , gdzie X, Y niezaleŜne
DEF: (wariancji zmiennej losowej X ozn. V(X))
V(X) = E([X − E(X)]2 )
Stąd
gdzie:
 ∑ [ x i − E (X)]2 ⋅ p i
zmienna losowa skokowa
 i∈N
V ( X ) = + ∞
,
2
 ∫ [ x − E (X)] ⋅ f ( x )dx zmienna losowa ciagla
−∞
x i - wartości skokowej zmiennej losowej X przyjmowane
z prawdopodobieństwem p i
f – funkcja gęstości ciągłej zmiennej losowej X
DEF: Odchyleniem standardowym D(X) nazywa się pierwiastek z wariancji,
tzn.
D( X ) = V ( X )
TW: (własności wariancji zmiennej losowej X)
1. V(C) = 0, gdzie C – stała
2. V(C ⋅ X) = C 2 ⋅ V(X)
3. V(X) = E(X 2 ) − [E(X)]2 = E(X 2 ) - E 2 (X) ≥ 0
4. V(X+Y) = V(X) + V(Y), gdzie X, Y niezaleŜne
5. V(X -Y) = V(X) + V(Y), gdzie X, Y niezaleŜne
6. Dla dowolnej stałej C ≠ E (X) zachodzi V(X) = D 2 (X ) < E([X − C]2 )
DEF: (odchylenia przeciętnego ozn. d(X))
 ∑ x i − E(X) ⋅ p i
zmienna losowa skokowa
 −∞<xi <+∞
d ( X ) = + ∞
 ∫ x − E (X) ⋅ f ( x )dx zmienna losowa ciagla
 −∞
DEF: (współczynnika zmienności )
VD =
D( X )
E (X )
Vd =
d (X )
E(X)
DEF: Medianą Me zmiennej losowej X nazywamy wartość x spełniającą
nierówności:
(1).... P(X ≤ x ) ≥
1
2
(1) ⇔ P(X < x ) + P(X = x ) ≥
P( X < x ) + P (X ≥ x ) = 1
więc z (2) 1 − F( x ) ≥
stąd i z (*)
P(X ≥ x ) ≥
i
1
2
....(2)
1
1
⇔ F( x ) + P(X = x ) ≥
(*)
2
2
stąd P(X ≥ x ) = 1 − F(X)
1
,
2
1
1
− P(X = x ) ≤ F( x ) ≤
2
2
Dla zmiennej losowej ciągłej
F(Me) =
(3)
1
2
(3*)
(bo P(X = Me) = 0 )
DEF: Kwantylem rzędu p zmiennej losowej X, ozn. K p nazywamy wartość x
spełniającą nierówności:
P( X ≤ x ) ≥ p i P ( X ≥ x ) ≥ 1 − p ,
gdzie 0 < p < 1
(4)
Po podobnych przekształceniach jak dla mediany otrzymamy
p − P(X = x ) ≤ F( x ) ≤ p
stąd dla ciągłych zmiennych losowych X kwantyl rzędu p ozn. K p jest taką
wartością x,
Ŝe
F(x)=p
[ F(K p ) = p ]
DEF: (dominanty)
Dominantą Do (modą) zmiennej losowej X nazywa się taką wartość x,
której odpowiada:
największe prawdopodobieństwo – dla skokowej zmiennej losowej,
maksimum lokalne funkcji gęstości - dla ciągłej zmiennej losowej.
Momenty
Momenty dzielą się na: 1) absolutne, 2) względne
oraz 1)zwykłe, 2) centralne
DEF: Momentem absolutnym rzędu k zmiennej losowej X nazywa się wartość
k
oczekiwaną zmiennej losowej X − C , gdzie C oznacza dowolną liczbę
rzeczywistą zwaną punktem odniesienia, natomiast k – liczbę naturalną ,
tzn.
k
E( X − C )
DEF: Momentem względnym rzędu k zmiennej losowej X (momentem)
nazywa się wartość oczekiwaną zmiennej losowej (X − C) k , gdzie C oznacza
dowolną liczbę rzeczywistą zwaną punktem odniesienia, natomiast k – liczbę
naturalną ,
tzn.
E( (X − C) k )
DEF: Momenty, dla których punkt odniesienia C = 0 nazywają się momentami
zwykłymi.
DEF: Momenty, dla których punkt odniesienia C = E(X) nazywają się
momentami centralnymi.
Znając wszystkie momenty zwykłe m1 , m 2 ,..., m k moment centralny rzędu k
µ k moŜna wyznaczyć ze wzoru
k
k
µ k = ∑  m k − j (−m1 ) j
j=0  j 