/ = ABP PS ,, Ω > BP BAP/ . = BP AP BAP = / Ω > BP ?0

Transkrypt

/ = ABP PS ,, Ω > BP BAP/ . = BP AP BAP = / Ω > BP ?0
Prawdopodobieństwo warunkowe
Przykład 1.
W jednej urnie są tylko kule białe, a w drugiej czarne (w kaŜdej z urn jest co najmniej dwie
kule). Wybieramy losowo urnę i wyciągamy z niej kolejno dwie kule. Obliczyć
prawdopodobieństwo, Ŝe za drugim razem zostanie wylosowana kula biała, oraz
prawdopodobieństwo tego, Ŝe za drugim razem wyciągnęliśmy kulę biała, jeśli za pierwszym
razem wylosowaliśmy kulę białą.
A - zdarzenie polegające na wylosowaniu kuli białej za pierwszym razem,
B - zdarzenie polegające na wylosowaniu kuli białej za drugim razem.
1
P (B ) = , poniewaŜ wybór urny determinuje wybór koloru kuli.
2
P(B / A) = 1 Jeśli wiemy, Ŝe zaszło zdarzenie A , to druga wylosowana kula będzie na pewno
biała.
Wniosek 1.
Przykład pokazuje, Ŝe zajście jakiegoś zdarzenia moŜe zmienić prawdopodobieństwo zajścia
innego zdarzenia.
Def.
Niech (Ω, S, P ) przestrzeń probabilistyczna, A, B ∈ S oraz P(B ) > 0 .
Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem, Ŝe zaszło
P( A ∩ B )
zdarzenie B nazywamy liczbę
i oznaczamy P( A / B ) .
P (B )
Uwaga 1.
Jeśli P(B ) = 0 , to przyjmujemy P( A / B ) = P( A) .
Uwaga 2.
~
Odwzorowanie P (⋅, B ) : S → R jest miarą unormowaną na (Ω, S ) przy ustalonym B ∈ S
takim, Ŝe P(B ) > 0 .
Dowód
Ad. 1.
∀ A ∈ S P( A / B ) ≥ 0 (?)
Weźmy dowolne A ∈ S , B ∈ S takie, Ŝe P(B ) > 0 .
PoniewaŜ S jest σ - algebrą, to A , B ∈ S .
Wykorzystując prawo de Morgana otrzymujemy A ∪ B = A ∪ B = A ∩ B ∈ S czyli
P( A ∩ B )
P( A / B ) =
≥ 0 , gdyŜ P( A ∩ B ) ≥ 0 na podstawie pierwszego aksjomatu w definicji
P ( A)
miary unormowanej.
Ad. 2.
P(Ω / B ) = 1 (?)
P (Ω ∩ B ) P (B )
P (Ω / B ) =
=
=1.
P(B )
P (B )
Ad. 3.
∞
 ∞
P U Ai  = ∑ P ( Ai ) (?)
 i =1  i =1
Z definicji prawdopodobieństwa warunkowego i własności rachunku zbiorów mamy
 ∞


∞
 ∞
P  U Ai  ∩ B  P U ( Ai ∩ B ) ∑ P( Ai ∩ B )
∞

 i =1 
 =  i =1
 = i =1
P U Ai / B  = 
.
P (B )
P (B )
P (B )
 i =1

Ostatnią równość moŜemy napisać, gdyŜ ∀ i ∈ N Ai , B ∈ S oraz
∀ i, j ∈ N
Ai , A j ∈ S
Ai ∩ A j = ∅ i ≠ j
( Ai ∩ B ) ∩ (A j ∩ B ) = Ai ∩ A j ∩ B = ∅ ∩ B = ∅
i≠ j.
Kontynuując, otrzymujemy
∞
∑ P( A
i
i =1
∩ B)
P(B )
∞
=∑
i =1
P( Ai ∩ B ) ∞
= ∑ P ( Ai / B ) .
P (B )
i =1
Przykład 2.
Wybieramy jedną rodzinę spośród rodzin z dwojgiem dzieci. Obliczyć prawdopodobieństwo
zdarzenia, Ŝe wybierzemy rodzinę, w której są dwaj chłopcy, jeśli wiemy, Ŝe w tej rodzinie
a) starsze dziecko jest chłopcem,
b) jest co najmniej jeden chłopiec.
Ω = {(c, c ), (c, d ), (d , c ), (d , d )}
P ({(c, c )} /{(c, c ), (c, d )}) =
P ({(c, c )})
=
P ({(c, c ), (c, d )})
P ({(c, c )} /{(c, c ), (c, d ), (d , c )}) =
1
4
1
2
=
1
,
2
1
.
3
Wniosek 2.
Z definicji prawdopodobieństwa warunkowego mamy
P( A ∩ B ) = P( A / B )P(B ) .
Uogólniając, zachodzi następujący wzór
P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 )P ( A2 / A1 )P ( A3 / A1 ∩ A2 )...P ( An / A1 ∩ ... ∩ An −1 ) ,
jeśli P ( A1 ∩ ... ∩ An −1 ) > 0 .
Dowód
ZauwaŜmy, Ŝe A1 ∩ A2 ∩ ... ∩ An −1 ⊂ A1 ∩ A2 ∩ ... ∩ An − 2 ⊂ ... ⊂ A1 ∩ A2 ⊂ A1 ,
zatem, na podstawie monotoniczności miary P otrzymujemy,
0 < P ( A1 ∩ A2 ∩ ... ∩ An −1 ) ≤ P( A1 ∩ A2 ∩ ... ∩ An − 2 ) ≤ ... ≤ P( A1 ∩ A2 ) ≤ P ( A1 ) .
Rozpisując prawą stronę dowodzonego wzoru mamy
P( A2 ∩ A1 ) P( A3 ∩ A1 ∩ A2 ) P( A1 ∩ A2 ∩ ... ∩ An −1 ∩ An )
P( A1 )
...
.
P( A1 )
P( A1 ∩ A2 )
P( A1 ∩ A2 ∩ ... ∩ An −1 )
Upraszczając wyraŜenia dostajemy lewą stronę.
Uwaga 3.
PowyŜsze twierdzenie, to uzasadnienie metody drzewek (stochastycznych) stosowanej w
rozwiązywaniu wielu zadań. Liczby przypisywane gałęziom, to są prawdopodobieństwa
warunkowe, a gdy poruszmy się wzdłuŜ gałęzi, to mnoŜymy te prawdopodobieństwa.
Prawdopodobieństwo całkowite (zupełne)
Def.
Niech (Ω, S, P ) przestrzeń probabilistyczna.
Rodzinę zdarzeń {Bi }i =1 nazywamy rozbiciem (rozkładem) zbioru Ω , jeśli
n
∀ i, j ∈ {1,..., n} Bi ∩ B j = ∅, i ≠ j ,
n
UB
i
=Ω.
i =1
Twierdzenie 1. (o prawdopodobieństwie całkowitym, zupełnym)
n
Jeśli rodzina zdarzeń {Bi }i =1 będzie rozbiciem zbioru Ω takim, Ŝe ∀ i ∈ {1,..., n} P (Bi ) > 0 ,
to ∀ A ∈ S
n
P ( A) = ∑ P ( A / Bi )P (Bi ) .
i =1
Dowód
Weźmy dowolne A∈ S
n
n


 n
 n
P ( A) = P( A ∩ Ω ) = P A ∩ U Bi  = P U ( A ∩ Bi ) = ∑ P ( A ∩ Bi ) = ∑ P ( A / Bi )P(Bi ) .
i =1
i =1


 i =1
 i =1
Uwaga 4.
∞
Twierdzenie powyŜsze obowiązuje równieŜ w przypadku, gdy Ω = U Bi .
i =1
Twierdzenie 2. (wzór Bayesa)
n
Jeśli rodzina zdarzeń {Bi }i =1 będzie rozbiciem zbioru Ω takim, Ŝe ∀ i ∈ {1,..., n} P (Bi ) > 0
oraz P( A) > 0 , to
P(A / B j )P(B j )
∀ j ∈ {1,..., n} P(B j / A) =
.
P ( A)
Zdarzenia B j nazywamy hipotezami (przyczyny zajścia zdarzenia A , które nazywane jest
skutkiem), P( A) to prawdopodobieństwo skutku (a priori). Jeśli zdarzenie A zaszło,
interesuje nas prawdopodobieństwo, Ŝe zdarzenie B j było przyczyną zajścia zdarzenia A ,
czyli P (B j / A) (prawdopodobieństwo a posteriori).
Przykład 3.
Dane są dwie urny z kulami: urna B1 zawiera 6 czarnych i 9 białych kul, a urna B2 5
czarnych i 15 kul białych. Wylosowano białą kulę. Jakie jest prawdopodobieństwo, Ŝe
pochodzi ona z urny B1 .
A - zdarzenie polegające na wyciągnięciu kuli białej,
B1 - zdarzenie polegające na losowaniu z urny pierwszej,
B2 - zdarzenie polegające na losowaniu z urny drugiej.
1
9
15
, P ( A / B1 ) = , P ( A / B2 ) =
,
2
15
20
9 1 15 1 27
P ( A) = P ( A / B1 )P (B1 ) + P ( A / B2 )P (B2 ) =
+
=
,
15 2 20 2 40
P ( A / B1 )P (B1 ) 4
P (B1 / A) =
= .
P ( A)
9
P (B1 ) = P (B2 ) =
NiezaleŜność zdarzeń
Def.
Niech (Ω, S , P ) przestrzeń probabilistyczna.
Zdarzenia losowe A, B ∈ S są niezaleŜne, jeśli P( A ∩ B ) = P( A)P(B ) .
Uogólniając mówimy, Ŝe
Zdarzenia A1 , A2 ,..., An są niezaleŜne, jeśli
∀ k1 ,..., k s : 1 ≤ k1 < ... < k s ≤ n
(
) ( ) ( )
P Ak1 ∩ ... ∩ Ak s = P Ak1 ...P Aks .
Zdarzenia A1 , A2 ,... są niezaleŜne, jeśli ∀ n ≥ 2
A1 , A2 ,..., An są niezaleŜne.
Uwaga 5.
Jeśli dla pewnego układu wskaźników k1 ,..., k s (1 ≤ k s ≤ n ) P Ak1 ∩ ... ∩ Aks ≠ P Ak1 ...P Ak s ,
(
) ( ) ( )
to zdarzenia A1 , A2 ,..., An nazywamy zaleŜnymi.
Przykład 4.
Prawdopodobieństwem przekazania sygnału przez jeden przekaźnik jest p = 0,9 . Przekaźniki
działają niezaleŜnie, tzn. zadziałanie jednego z nich nie ma wpływu na zadziałanie drugiego.
Obliczyć prawdopodobieństwo przekazania sygnału przy połączeniu
a) szeregowym dwu przekaźników (muszą działać oba przekaźniki),
b) równoległym dwu przekaźników (wystarczy, aby jeden z przekaźników
działał).
Niech A - oznacza zdarzenie polegające na przekazaniu sygnału przez przekaźnik oznaczony
litera A , natomiast B przez przekaźnik B .
Przy połączeniu szeregowym sygnał zostanie przekazany, jeśli nastąpi zdarzenie A i
zdarzenie B , czyli iloczyn A ∩ B . PoniewaŜ zdarzenia te są niezaleŜne zatem
P ( A ∩ B ) = P ( A)P (B ) = p 2 = 0,81 .
Przy połączeniu równoległym sygnał zostanie przekazany, jeśli nastąpi zdarzenie A lub
zdarzenie B , czyli suma A ∪ B . PoniewaŜ zdarzenia są niezaleŜne mamy
P ( A ∪ B ) = P ( A) + P (B ) − P ( A)P (B ) = 2 p − p 2 = 0,99 .
Uwaga 6.
Niezawodność elementu określamy jako prawdopodobieństwo tego, Ŝe wykonuje on
poprawnie swoja pracę w ciągu pewnego określonego czasu.
Wówczas powyŜszy przykład moŜna sformułować następująco:
Obliczyć niezawodność układu złoŜonego z dwu przekaźników połączonych szeregowo lub
równolegle, przy załoŜeniu, Ŝe przekaźniki działają niezaleŜnie i niezawodność kaŜdego z
nich równa jest p .

Podobne dokumenty