W5-rachunek prawdopodobieństwa ZIPz 2007
Transkrypt
W5-rachunek prawdopodobieństwa ZIPz 2007
E – przestrzeń zdarzeń elementarnych (w praktyce zbiór wszystkich niepodzielnych wyników doświadczenia). OZNACZENIA: E1 + E 2 , E1 − E 2 , E1 • E 2 - suma, róŜnica, iloczyn zdarzeń E1 , E 2 (odpowiednio) V, U, E1 - zdarzenie niemoŜliwe, zdarzenie pewne, zdarzenie przeciwne do E1 (odpowiednio) DEF: Zdarzenie E1 implikuje zdarzenie E 2 , jeśli zawsze, gdy zajdzie E1 , zajście E 2 jest zdarzeniem pewnym; oznaczenie E1 ⊂ E 2 DEF: Zdarzenia E1 i E 2 nazywają się równowaŜnymi (oznaczenie E1 = E 2 ), jeśli E1 ⊂ E 2 ∧ E 2 ⊂ E1 DEF: Zdarzenia E1 i E 2 nazywają się przeciwnymi , jeśli E1 + E 2 = U ∧ E1 • E 2 = V DEF: Zdarzenia E1 i E 2 nazywają się wyłączającymi ( wykluczającymi) się, jeśli E1 • E 2 = V DEF: Mówimy, Ŝe zdarzenie E 0 rozkłada się na zdarzenia E1 , E 2 ,..., E n jeśli: E 0 = E1 + E 2 + ... + E n oraz ∀ Ei • E j = V i≠ j i, j=1,2,...,n DEF: Borelowskim ciałem zdarzeń B nazywa się najmniejszy zbiór podzbiorów przestrzeni zdarzeń elementarnych spełniający warunki: 1. U ∈ B 2. V ∈ B 3. E1 , E 2 ∈ B ⇒ E1 − E 2 ∈ B 4. E i ∈ B , i ∈ N ⇒ ∑ E i ∈ B i∈N 5. E i ∈ B , i ∈ N ⇒ ∏ E i ∈ B i∈N DEF: KaŜdy element borelowskiego ciała zdarzeń B nazywa się zdarzeniem losowym. DEF: (Klasyczna definicja prawdopodobieństwa) Niech przestrzeń zdarzeń elementarnych E zawiera n jednakowo moŜliwych zdarzeń elementarnych, tzn. E = {e1 , e 2 ,...e n : ei ≠ e j dla i ≠ j} ; niech zdarzenie A rozkłada się na m elementarnych zdarzeń, gdzie 1 ≤ m ≤ n , m tzn. A = ∑ e Ai , gdzie i =1 ∀ i =1,...,m e Ai ∈ E ∧ ∀ i, j=1,...m i≠ j e Ai • e A j = V (o zdarzeniu e Ai dla i=1,2,...,m mówi się, Ŝe sprzyja zajściu zdarzenia A); wtedy m P(A) = n Prawdopodobieństwem zdarzenia A [oznaczenie P(A)] nazywamy stosunek liczby zdarzeń sprzyjających zajściu zdarzenia A do liczby wszystkich zdarzeń elementarnych. Wady definicji: 1. Jest tautologią (w definicji występuje słowo definiowane – zdarzenia jednakowo moŜliwe, to nic innego jak zdarzenia jednakowo prawdopodobne). 2. Definicja wymaga, by przestrzeń zdarzeń elementarnych E była skończona. 3. Definicja Ŝąda znajomości zbioru zdarzeń elementarnych sprzyjających danemu zdarzeniu oraz zbioru wszystkich zdarzeń elementarnych (przynajmniej ich liczności). DEF: (Geometryczna definicja prawdopodobieństwa) JeŜeli Q i q są to dwa zbiory w przestrzeni r-wymiarowej oraz q ⊂ Q , to prawdopodobieństwo tego, Ŝe dowolny punkt ze zbioru Q naleŜy równieŜ do q, równa się stosunkowi miary zbioru q do miary zbioru Q. Wady definicji: NaleŜy znać miary zbiorów Q i q, co w praktyce często nie jest moŜliwe. DEF: (Statystyczna [częstościowa] definicja prawdopodobieństwa) JeŜeli przy wielokrotnej realizacji doświadczeń, w wyniku których moŜe wystąpić zdarzenie A, częstość tego zdarzenia przejawia wyraźną prawidłowość, oscylując wokół nieznanej liczby p, i jeśli wahania częstości przejawiają tendencję malejącą w miarę wzrostu liczby doświadczeń, to liczbę p nazywa się prawdopodobieństwem zdarzenia A. DEF: (Aksjomatyczna definicja prawdopodobieństwa) E - przestrzeń zdarzeń elementarnych B - borelowskie ciało zdarzeń P - miara unormowana, tzn. P : B → R spełnia warunki: 1. ∀ 0 ≤ P(A) ≤ 1 A∈B 2. P(U) = 1 3. P(V) = 0 4. P( ∑ A i ) = ∑ P(A i ) , i∈N jeśli ∀ A ,A i , j∈N i∈N i j ∈ B ∧ Ai • A j = V i≠ j (E,B,P) - przestrzeń (trójka) probabilistyczna -odtąd przyjmujemy, Ŝe jest dana Niech A ∈ B , wtedy P(A) nazywa się prawdopodobieństwem zdarzenia A. Własności prawdopodobieństwa: 1. P(A) + P( A ) = 1 2. A ⊂ B ⇒ P(A) ≤ P(B) DOWÓD: Ad 1) Zdarzenia A i A są przeciwne, więc A + A = U oraz A • A = V . 2 def 4 def 1 = P( U ) = P(A + A ) = P(A ) + P( A ) Ad 2) A⊂B więc B = A + ( B − A) c.n.d. oraz A • ( B − A) = V , zatem 4 def P(B) = P(A + (B − A)) = P(A) + P(B − A) ⇒ P(B) ≥ P(A) c.n.d. ≥0 z1 def DEF: (Prawdopodobieństwa warunkowego) Niech P(AIB) oznacza prawdopodobieństwo zajścia zdarzenia A obliczone przy załoŜeniu, Ŝe wystąpiło zdarzenie B, gdzie P(B) > 0. Wtedy P(A • B) P(AIB) = ...(1) P(B) DEF: (Zdarzeń niezaleŜnych) Dwa zdarzenia A i B nazywają się zdarzeniami niezaleŜnymi, jeśli zajście jednego z tych zdarzeń nie ma wpływu na prawdopodobieństwo zajścia drugiego, tzn. P(A) = P(AIB) ...(2) lub równowaŜnie P(B) = P(BIA) ...(2*) (1) P(A • B) = P(AIB) ⋅ P(B) ...(3) (1) [ P(A • B) = P(BIA) ⋅ P(A) ...(3*) ] WKW niezaleŜności zdarzeń A i B jest P(A • B) = P(A) ⋅ P(B) ...(4) DOWÓD: „⇒ ” (2) Z (3) P(A • B) = P(AIB) ⋅ P(B) = P(A) ⋅ P(B) „⇐” Z załoŜenia P(A • B) = P(A) ⋅ P(B) , ale P(A • B) = P(AIB) ⋅ P(B) . Stąd P(A) ⋅ P(B) = P(AIB) ⋅ P(B) . Dzieląc obustronnie przez P(B) > 0 otrzymamy P(A) = P(AIB) , a to oznacza niezaleŜność zdarzeń A i B. c.n.d. DEF: (Dowolnej liczby zdarzeń niezaleŜnych) Zdarzenia A1 , A 2 ,..., A n są niezaleŜne, jeśli dla kaŜdego s-elementowego (1 < s ≤ n ) podciągu wskaźników { k1 , k 2 ,..., k s } ciągu liczb naturalnych 1,2,...,n zachodzi P(A k1 • A k 2 • ... • A ks ) = P(A k1 ) ⋅ P(A k 2 ) ⋅ ... ⋅ P(A ks ) Wzór na prawdopodobieństwo iloczynu dowolnej liczby zdarzeń P(A1 • A 2 • ... • A n ) = P(A1 ) ⋅ P(A 2IA1 ) ⋅ P(A 3IA1 • A 2 ) ⋅ ... ⋅ P(A nIA1 • A 2 • ... • A n -1 ) Wzór na prawdopodobieństwo sumy dowolnych zdarzeń P(A + B) = P(A) + P(B) − P(A • B) DOWÓD: A + B = A + [B − (A • B)] oraz A • [B − (A • B)] = V więc z własności prawdopodobieństwa P(A + B) = P(A) + P(B − (A • B)) ...(*). Podobnie P(B) = P(A • B) + P(B − (A • B)) ⇒ P(B − (A • B) = P(B) − P(A • B) Stąd i z (*) mamy P(A + B) = P(A) + P(B) − P(A • B) . c.n.d. P(A + B + C) = P((A + B) + C) = P(A + B) + P(C) − P((A + B) • C) = = P(A) + P(B) − P(A • B) + P(C) − P((A • C) + (B • C)) = = P(A) + P(B) − P(A • B) + P(C) − [P(A • C) + P(B • C) − P(A • C • B • C)] = = P(A) + P(B) − P(A • B) + P(C) − [P(A • C) + P(B • C) − P(A • B • C)] = = P(A) + P(B) + P(C) − P(A • B) − P(A • C) − P(B • C) + P(A • B • C) P(A + B + C) = P(A) + P(B) + P(C) − [P(A • B) + P(A • C) + P(B • C)] + P(A • B • C) Wzór na prawdopodobieństwo całkowite Dane jest zdarzenie A i wzajemnie wyłączające się zdarzenia B1 , B 2 ,..., Bm takie, Ŝe ∀ P(Bi ) > 0 . Zdarzenie A moŜe zajść wyłącznie z jednym ze i =1,...,m zdarzeń Bi i = 1,2,..., m . Oczywiście zdarzenia A • B1 , A • B 2 ,..., A • Bm są równieŜ zdarzeniami wyłączającymi się parami. Zatem z własności prawdopodobieństwa m P(A) = P(A • B1 ) + P(A • B 2 ) + ... + P( A • Bm ) = ∑ P(A • B j ) = prawdopodobienstwo iloczynu j=1 m = ∑ P(B j ) ⋅ P(AIB j ) j=1 Wyprowadziliśmy wzór na prawdopodobieństwo całkowite m P(A) = ∑ P(B j ) ⋅ P(AIB j ) ...(5) j=1 Wzór Bayesa Pozwala obliczyć prawdopodobieństwo, Ŝe zaszło jedno z wzajemnie wyłączających się zdarzeń B1 , B 2 ,..., Bm , jeśli wiadomo, Ŝe zaszło zdarzenie A. P(B j • A) = P(B j ) ⋅ P(AIB j ) = P(A) ⋅ P(B jIA) , gdzie P(A) > 0 stąd P(B jIA) = P(B j ) ⋅ P(AIB j ) P(A ) Podstawiając za P(A) ze wzoru(5) otrzymamy wzór Bayesa P(B jIA) = P(B j ) ⋅ P(AIB j ) m ∑ P(B ) ⋅ P(AIB ) i =1 i i ...(6) ZMIENNA LOSOWA Dana jest trójka prababilistyczna (E,B,P). DEF: (Zmiennej losowej) Zmienną losową nazywa się funkcję rzeczywistą określoną na przestrzeni zdarzeń elementarnych E i mierzalną względem ciała zdarzeń B. Dokładniej: Zmienną losową Z nazywa się funkcję Z : E → R taką, Ŝe ∀ A x = {e ∈ E : Z(e) < x} ∈ B . x∈R Z tego określenia wynika, Ŝe ma sens P( Z < x ) := P(A x ) DEF: (Dystrybuanty zmiennej losowej) Dystrybuantą zmiennej losowej Z nazywa się funkcję F : R → R taką, Ŝe F( x ) = P( Z < x ) Własności dystrybuanty: 1. 0 ≤ F( x ) ≤ 1 2. F(x) jest niemalejąca 3. dystrybuanta jest przynajmniej lewostronnie ciągła 4. lim F( x ) = 0 oraz lim F( x ) = 1 x →−∞ x →+∞ Niech X będzie skokową zmienną losową, tzn. moŜe przyjmować wartości x1 , x 2 ,... DEF: (Rozkładu skokowej zmiennej losowej) Rozkładem skokowej zmiennej losowej X (rozkład prawdopodobieństwa, funkcja prawdopodobieństwa) nazywa się zbiór par postaci ( x i , p i ) , gdzie p i = P(X = x i ) , i=1,2,... Oczywiście ∑ p i = 1 . i∈N Niech wartości zmiennej losowej X będą uporządkowane rosnąco , tzn. x1 < x 2 < ... < x n . Wtedy 0 F( x ) = P(X < x ) = ∑ p i xi <x 1 dla x ≤ x1 dla x1 < x ≤ x n dla x > x n TW: Dla zmiennej losowej ciągłej P(X = x 0 ) = 0 . DEF: (gęstości prawdopodobieństwa) Jeśli dystrybuanta F(x) zmiennej losowej X ma pochodną w punkcie x 0 , to pochodna ta jest gęstością prawdopodobieństwa zmiennej losowej X w x 0 . Niech f(x) – gęstość prawdopodobieństwa zmiennej losowej X, wtedy f ( x ) = F′( x ) x stąd F( x ) = ∫ f ( t )dt . −∞ Własności gęstości prawdopodobieństwa 1. f ( x ) ≥ 0 +∞ 2. ∫ f (x )dx = 1 −∞ TW: Niech a , b ∈ R , a < b . Wtedy dla zmiennej losowej X zachodzi b P(a ≤ X ≤ b) = P(a < X < b) = P(a < X ≤ b) = P(a ≤ X < b) = F(b) − F(a ) = ∫ f ( x )dx a a P(X < a ) = F(a ) = ∫ f ( t )dt −∞ +∞ P(X > a ) = 1 − F(a ) = ∫ f ( t )dt . a Parametry opisowe zmiennej losowej Liczba charakteryzująca w pewien sposób zbiór wartości, jakie moŜe przybierać zmienna losowa nazywa się parametrem opisowym tej zmiennej lub krótko parametrem. Kategorie parametrów: przeciętna wielkość zmiennej, parametry dające wyobraŜenie jak bardzo poszczególne wartości odchylają się od tej przeciętnej wartości DEF: (wartości oczekiwanej zmiennej losowej X ozn. E(X)) ∑ x i pi zmienna losowa skokowa i∈N E ( X ) = + ∞ , ∫ x ⋅ f ( x )dx zmienna losowa ciagla −∞ gdzie: x i - wartości skokowej zmiennej losowej X przyjmowane z prawdopodobieństwem p i f – funkcja gęstości ciągłej zmiennej losowej X TW: (własności wartości oczekiwanej) 1. E(C) = C , gdzie C – stała 2. E(X +Y) = E(X) + E(Y) 3. E(C ⋅ X) = C ⋅ E (X) , gdzie C – stała 4. E[(C ⋅ X) k ] = C k ⋅ E(X k ) , gdzie C – stała 5. E(X ⋅ Y) = E(X) ⋅ E(Y) , gdzie X, Y niezaleŜne DEF: (wariancji zmiennej losowej X ozn. V(X)) V(X) = E([X − E(X)]2 ) Stąd gdzie: ∑ [ x i − E (X)]2 ⋅ p i zmienna losowa skokowa i∈N V ( X ) = + ∞ , 2 ∫ [ x − E (X)] ⋅ f ( x )dx zmienna losowa ciagla −∞ x i - wartości skokowej zmiennej losowej X przyjmowane z prawdopodobieństwem p i f – funkcja gęstości ciągłej zmiennej losowej X DEF: Odchyleniem standardowym D(X) nazywa się pierwiastek z wariancji, tzn. D( X ) = V ( X ) TW: (własności wariancji zmiennej losowej X) 1. V(C) = 0, gdzie C – stała 2. V(C ⋅ X) = C 2 ⋅ V(X) 3. V(X) = E(X 2 ) − [E(X)]2 = E(X 2 ) - E 2 (X) ≥ 0 4. V(X+Y) = V(X) + V(Y), gdzie X, Y niezaleŜne 5. V(X -Y) = V(X) + V(Y), gdzie X, Y niezaleŜne 6. Dla dowolnej stałej C ≠ E (X) zachodzi V(X) = D 2 (X ) < E([X − C]2 ) DEF: (odchylenia przeciętnego ozn. d(X)) ∑ x i − E(X) ⋅ p i zmienna losowa skokowa −∞<xi <+∞ d ( X ) = + ∞ ∫ x − E (X) ⋅ f ( x )dx zmienna losowa ciagla −∞ DEF: (współczynnika zmienności ) VD = D( X ) E (X ) Vd = d (X ) E(X) DEF: Medianą Me zmiennej losowej X nazywamy wartość x spełniającą nierówności: (1).... P(X ≤ x ) ≥ 1 2 (1) ⇔ P(X < x ) + P(X = x ) ≥ P( X < x ) + P (X ≥ x ) = 1 więc z (2) 1 − F( x ) ≥ stąd i z (*) P(X ≥ x ) ≥ i 1 2 ....(2) 1 1 ⇔ F( x ) + P(X = x ) ≥ (*) 2 2 stąd P(X ≥ x ) = 1 − F(X) 1 , 2 1 1 − P(X = x ) ≤ F( x ) ≤ 2 2 Dla zmiennej losowej ciągłej F(Me) = (3) 1 2 (3*) (bo P(X = Me) = 0 ) DEF: Kwantylem rzędu p zmiennej losowej X, ozn. K p nazywamy wartość x spełniającą nierówności: P( X ≤ x ) ≥ p i P ( X ≥ x ) ≥ 1 − p , gdzie 0 < p < 1 (4) Po podobnych przekształceniach jak dla mediany otrzymamy p − P(X = x ) ≤ F( x ) ≤ p stąd dla ciągłych zmiennych losowych X kwantyl rzędu p ozn. K p jest taką wartością x, Ŝe F(x)=p [ F(K p ) = p ] DEF: (dominanty) Dominantą Do (modą) zmiennej losowej X nazywa się taką wartość x, której odpowiada: największe prawdopodobieństwo – dla skokowej zmiennej losowej, maksimum lokalne funkcji gęstości - dla ciągłej zmiennej losowej. Momenty Momenty dzielą się na: 1) absolutne, 2) względne oraz 1)zwykłe, 2) centralne DEF: Momentem absolutnym rzędu k zmiennej losowej X nazywa się wartość k oczekiwaną zmiennej losowej X − C , gdzie C oznacza dowolną liczbę rzeczywistą zwaną punktem odniesienia, natomiast k – liczbę naturalną , tzn. k E( X − C ) DEF: Momentem względnym rzędu k zmiennej losowej X (momentem) nazywa się wartość oczekiwaną zmiennej losowej (X − C) k , gdzie C oznacza dowolną liczbę rzeczywistą zwaną punktem odniesienia, natomiast k – liczbę naturalną , tzn. E( (X − C) k ) DEF: Momenty, dla których punkt odniesienia C = 0 nazywają się momentami zwykłymi. DEF: Momenty, dla których punkt odniesienia C = E(X) nazywają się momentami centralnymi. Znając wszystkie momenty zwykłe m1 , m 2 ,..., m k moment centralny rzędu k µ k moŜna wyznaczyć ze wzoru k k µ k = ∑ m k − j (−m1 ) j j=0 j