Rachunek Prawdopodobieństwa I
Transkrypt
Rachunek Prawdopodobieństwa I
WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I ADAM OSEKOWSKI , 1. Aksjomatyka Rachunku Prawdopodobieństwa Przypuśćmy, że wykonujemy pewien eksperyment losowy. Powstaje natychmiast pytanie: w jaki sposób opisać go matematycznie? Przede wszystkim, na pewno możemy mówić o jego potencjalnych ,,najdrobniejszych” wynikach, które bedziemy nazywać zdarzeniami elementarnymi. Zbiór , wszystkich zdarzeń elementarnych oznaczamy litera, Ω, a do oznaczenia zdarzeń elementarnych bedziemy zazwyczaj używać litery ω. , Przyklady: 1. Rzut moneta: , możliwe dwa wyniki: Ω = {O, R}. 2. Rzut kostka: , możliwe sześć wyników: Ω = {1, 2, 3, 4, 5, 6}. Czesto nie interesuje nas konkretny wynik ω, ale to, czy należy on do wcześniej , ustalonego podzbioru zbioru Ω. Takie podzbiory nazywamy zdarzeniami i oznaczamy literami A, B, C, . . .. Przyklady, c.d.: 3. Rzucamy dwa razy kostka, , A - suma oczek wynosi 4. Wówczas Ω = {(i, j) : 1 ≤ i, j ≤ 6} i A = {(1, 3), (2, 2), (3, 1)}. 4. Rzucamy moneta, aż do wypadniecia orla, A - wykonano co najwyżej trzy , rzuty. Wówczas Ω = (O), (R, O), (R, R, O), (R, R, R, O), . . . i A = (O), (R, O), (R, R, O) . 5. Obrót tarczy w ruletce, A - strzalka zatrzymuje sie, w drugiej ćwiartce. Wówczas Ω = [0, 2π) i A = [π/2, π]. Szczególne zdarzenia, interpretacje dzialań/relacji na zdarzeniach: Ω - zdarzenie pewne, ∅ - zdarzenie niemożliwe, A ∩ B - zaszly oba zdarzenia A, B, A ∩ B = ∅ - zdarzenia sie, wykluczaja, (sa, rozlaczne), , A ∪ B - zaszlo A lub B, A0 - nie zaszlo A (A0 nazywamy zdarzeniem przeciwnym do A, badź dopelnieniem , zbioru A), A \ B = A ∩ B 0 - zaszlo A i nie zaszlo B, A ⊆ B - A pociaga za soba, B. , Przypuśćmy, że mamy określony zbiór Ω i chcemy wyróżnić rodzine, F zdarzeń, które bedziemy badać. Pierwszy naturalny pomysl to rozważyć 2Ω - klase, wszys, tkich możliwych podzbiorów Ω. Wybór ten dobrze sie, sprawdza w sytuacji gdy Ω jest zbiorem co najwyżej przeliczalnym. Niestety, dla |Ω| > ℵ0 klasa 2Ω jest zbyt duża - pojawiaja, sie, klopoty z określeniem na niej prawdopodobieństwa 1 2 ADAM OSEKOWSKI , co wymusza wybór pewnej wlaściwej jej podrodziny. Z drugiej strony, sensowna klasa F powinna być zamknieta na branie sum, iloczynów i zdarzenia przeciwnego; , zakladamy wiec, że F jest pewnym wyróżnionym σ-cialem podzbiorów Ω. Przy, pomnijmy odpowiednia, definicje. , Definicja 1.1. Rodzine, F podzbiorów Ω nazywamy σ-cialem, jeśli (i) (ii) ∅ ∈ F, A ∈ F ⇒ A0 ∈ F, (iii) A1 , A2 , . . . ∈ F ⇒ ∞ [ An ∈ F. n=1 Pare, (Ω, F) nazywamy przestrzenia, mierzalna. , Przechodzimy teraz do określenia prawdopodobieństwa. Aby zyskać nieco intuicji dotyczacej tego obiektu i jego wlasności, wygodnie najpierw rozważyć tzw. , czestość zdarzeń. Zalóżmy, iż w pewnym doświadczeniu interesuje nas prawdopo, dobieństwo zajścia pewnego zdarzenia A. Powtórzmy to doświadczenie n razy i zdefiniujmy liczba doświadczeń w których zaszlo A . ρn (A) = n Jest to czestość wzgledna zajścia zdarzenia A w serii n doświadczeń, i spodziewamy , , sie, iż dla dużych n liczba ρn (A) powinna być bliska szansie zajścia zdarzenia A , w pojedynczym doświadczeniu. Jak latwo sprawdzić, ρn przyjmuje wartości w przedziale [0, 1] oraz posiada nastepuj ace wlasności: , , (i) ρn (Ω) = 1, (ii) jeśli A1 , A2 , . . . sa, parami rozlaczne, to ρn , ∞ [ k=1 ! Ak = ∞ X ρn (Ak ). k=1 Prowadzi to do nastepuj acej definicji. , , Definicja 1.2 (Aksjomatyka Kolmogorowa). Niech (Ω, F) bedzie ustalona, przest, rzenia, mierzalna. Funkcj e P : F → [0, 1] nazywamy prawdopodobieństwem, jeśli , , (i) P(Ω) = 1, (ii) dla dowolnych parami rozlacznych A1 , A2 , . . . ∈ F zachodzi , ! ∞ ∞ [ X P Ak = P(Ak ). k=1 k=1 Trójke, (Ω, F, P) nazywamy przestrzenia, probabilistyczna. , Uwagi: 1. Prawdopodobieństwo jest wiec , miara, unormowana, na (Ω, F). Czasami be, dziemy mówić, że P jest miara, probabilistyczna. , 2. Należy pamietać, iż przy modelowaniu konkretnego doświadczenia losowego , wybór przestrzeni probabilistycznej zależy tylko od nas. W wielu sytuacjach z warunków doświadczenia wynikaja, pewne postulaty, które w mniej czy bardziej jednoznaczny sposób zadaja, trójke, (Ω, F, P); czasami jednak tak nie jest (por. paradoks Bertranda poniżej). WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 3 Twierdzenie 1.1 (Podstawowe wlasności prawdopodobieństwa). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz A, B, A1 , A2 , . . . ∈ F. Wówczas (i) P(∅) = 0. n [ (ii) Jeśli A1 , A2 , . . . , An sa, parami rozlaczne, to P , ! Ai = i=1 n X P(Ai ). i=1 (iii) P(A0 ) = 1 − P(A). (iv) Jeśli A ⊆ B, to P(B \ A) = P(B) − P(A) oraz P(A) ≤ P(B). (v) P(A ∪ B) = P(A) + P(B) − P(A ∩ B). ! ∞ ∞ [ X (vi) P Ai ≤ P(Ai ). i=1 i=1 Wlasność (v) z powyższego twierdzenia można uogólnić na przypadek skończonej liczby zbiorów. Zachodzi nastepuj acy fakt. , , Twierdzenie 1.2 (Wzór wlaczeń i wylaczeń). Jeśli A1 , A2 , . . . , An ∈ F, to , P(A1 ∪ A2 ∪ . . . ∪ An ) = n X P(Ai ) − i=1 X X P(Ai ∩ Aj ) + i<j P(Ai ∩ Aj ∩ Ak ) − . . . i<j<k + (−1)n+1 P(A1 ∩ A2 ∩ . . . ∩ An ). Dowody powyższych dwóch twierdzeń sa, bardzo proste i opieraja sie, na wykorzystaniu aksjomatyki Kolmogorowa. Szczególy pozostawiamy czytelnikowi. Twierdzenie 1.3 (Twierdzenie o ciag , lości). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz (An )∞ zdarzeń. n=1 jest ciagiem , (i) Jeśli ciag acy (tzn. A1 ⊆ A2 ⊆ . . .), to , ten jest wstepuj , , ! ∞ [ P An = lim P(An ). n→∞ n=1 (ii) Jeśli ciag acy (tzn. A1 ⊇ A2 ⊇ . . .), to , ten jest zstepuj , , ! ∞ \ P An = lim P(An ). n→∞ n=1 Dowód: (i) Rozważmy ciag , (Bn )n≥1 zdarzeń, zadany przez B1 = A1 , B2 = A2 \ A1 , B3 = A3 \ A2 , . . . . Sk Jak latwo sprawdzić, zdarzenia B1 S , B2 , . . . sa, parami rozlaczne, n=1 Bn = Ak dla , S∞ ∞ dowolnego k ≥ 1 oraz n=1 Bn = n=1 An . Zatem ! ! ∞ ∞ [ [ P An = P Bn n=1 n=1 = ∞ X n=1 P(Bn ) = lim k→∞ k X n=1 P(Bn ) = lim P k→∞ k [ n=1 ! Bn = lim P(Ak ), k→∞ gdzie w drugim przejściu korzystaliśmy z przeliczalnej addytywności miary P, a w czwartym skorzystaliśmy z Twierdzenia 1 (ii). 4 ADAM OSEKOWSKI , 0 (ii) Ciag acy, a zatem, korzystajac , dopelnień (An )n≥1 jest wstepuj , , z (i) oraz z , praw de Morgana, mamy ! !0 ! ∞ ∞ \ \ An = 1 − P An P n=1 n=1 =1−P ∞ [ ! A0n = 1 − lim P(A0n ) = lim P(An ). n→∞ n=1 n→∞ Przyklady: 1. (Schemat klasyczny, prawdopodobieństwo klasyczne). Zalóżmy, że Ω jest zbiorem skończonym, F = 2Ω i wszystkie zdarzenia jednoelementowe sa, jednakowo prawdopodobne. Wówczas, jak latwo sprawdzić, dla dowolnego A ∈ F, P(A) = |A| . |Ω| 2. Zalóżmy, że Ω = {ω1 , ω2 , . . .} jest zbiorem co najwyżej przeliczalnym oraz p1 , p2 , . . . - liczby nieujemne o sumie 1. Wówczas wybór F = 2Ω oraz P({ωi }) = pi , i = 1, 2, . . ., jednoznacznie zadaje przestrzeń probabilistyczna, (Ω, F, P): dla każdego A ∈ F mamy X P(A) = 1A (ωi )pi , i gdzie 1A to funkcja wskaźnikowa (charakterystyczna) badź indykator zbioru A: , ( 1 jeśli ω ∈ A, 1A (ω) = 0 jeśli ω ∈ / A. 3. (Prawdopodobieństwo geometryczne). Zalóżmy, że Ω ∈ B(Rd ), tzn. Ω jest podzbiorem borelowskim Rd , przy czym 0 < |Ω| < ∞ (tu | · | oznacza miare, Lebesgue’a w Rd ). Niech F = B(Ω) bedzie σ-cialem podzbiorów borelowskich , Ω, a miara probabilistyczna P bedzie zadana przez , P(A) = |A| . |Ω| Wówczas trójka (Ω, F, P) jest przestrzenia, probabilistyczna. , Przestrzeń te, wykorzystujemy do modelowania doświadczenia polegajacego na losowaniu punktu ze , zbioru Ω. 4. (Paradoks Bertranda) Z okregu o promieniu 1 wylosowano cieciw e, AB. Jakie , , jest prawdopodobieństwo tego, że bedzie ona d luższa niż bok trójk ata równoboczne, , go wpisanego w ten okrag? , Przedstawimy trzy rozwiazania. , I) Ze wzgledu na niezmienniczość okregu na obroty, wylosowanie cieciwy AB , , , możemy utożsamić z wylosowaniem miary kata środkowego α = ∠AOB ∈ [0, 2π). , Tak wiec , Ω = [0, 2π), F = B(Ω) oraz P jest prawdopodobieństwem geometrycznym. Cieciwa spelnia warunki zadania wtedy i tylko wtedy, gdy α ∈ (2π/3, 4π/3), a zatem , szukane prawdopodobieństwo wynosi P((2π/3, 4π/3)) = 1 |(2π/3, 4π/3)| = . |[0, 2π)| 3 WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 5 II) Wylosowanie cieciwy można utożsamić z wylosowaniem jej środka. Mamy , wiec Ω = B(0, 1), F = B(Ω) i P jest prawdopodobieństwem geometrycznym. , Cieciwa b edzie spe lnia la ż adane warunki wtedy i tylko wtedy, gdy jej środek bedzie , , , , leżal wewnatrz ko la o promieniu 1/2 wspó lśrodkowego z danym okregiem, zatem , , szukane prawdopodobieństwo wynosi 1 |B(0, 1/2)| = . P([0, 1/2)) = B(0, 1) 4 III) Tak jak w poprzednim rozwiazaniu, bierzemy pod uwage, polożenie środka , cieciwy, lecz tym razem patrzymy na jego odleg lość od środka okregu. Tak wiec , , , Ω = [0, 1], F = B(Ω) i P jest prawdopodobieństwem geometrycznym. Cieciwa , bedzie spelniala warunki zadania jeśli jej środek bedzie odlegly od środka okregu o , , , mniej niż 1/2. Zatem szukane prawdopodobieństwo wynosi 1 |[0, 1/2)| = . |[0, 1]| 2 Tak wiec , wyraz ,,paradoks” , widzimy, iż otrzymaliśmy trzy różne wyniki, stad powyżej. Sprzeczności jednak tu nie ma - użyliśmy trzech różnych przestrzeni probabilistycznych do opisu tego samego doświadczenia losowego. Ogólnie rzecz ujmujac, , teoria prawdopodobieństwa nie rozstrzyga, jaki model doświadczenia należy wybrać; pozwala ona obliczać prawdopodobieństwa zdarzeń dopiero w sytuacji, gdy zadano już konkretna, przestrzeń probabilistyczna. , P([0, 1/2)) = 6 ADAM OSEKOWSKI , 2. Zadania 1. Na ile sposobów można ustawić w ciag , sześć jedynek, pieć , dwójek oraz cztery trójki? 2. Wyznaczyć liczbe, rozwiazań równania x1 + x2 + x3 + x4 = 50 , a) w liczbach calkowitych nieujemnych x1 , x2 , x3 , x4 , b) w liczbach calkowitych dodatnich x1 , x2 , x3 , x4 . 3. Ile jest takich ,,szóstek” w Totolotku, że żadne dwie z wylosowanych liczb nie sa, kolejne? 4. Z talii 52 kart wylosowano 13 kart. Jakie jest prawdopodobieństwo tego, że istnieje kolor, w którym a) dokladnie siedem, b) dokladnie sześć kart jest tego samego koloru? 5. Klasa liczy 15 uczniów. Nauczyciel wybiera na każdej lekcji na chybil trafil jednego ucznia do odpowiedzi. Obliczyć prawdopodobieństwo tego, że w ciagu 16 , lekcji każdy uczeń bedzie przepytany. , 6. W szafie jest n par butów. Wyjmujemy na chybil trafil k butów (k ≤ n). Obliczyć prawdopodobieństwo tego, że a) wśród wyjetych butów jest co najmniej jedna para, , b) wśród wyjetych butów jest dokladnie jedna para. , 7. (Ω, F, P ) jest przestrzenia, probabilistyczna, , A, B, C ∈ F. a) Zalóżmy, że P (A ∪ B) = 1/2, P (A ∩ B) = 1/4, P (A\B) = P (B\A). Obliczyć P (A) oraz P (B\A). b) Zalóżmy, że A ∪ B ∪ C = Ω, P (B) = 2P (A), P (C) = 3P (A), P (A ∩ B) = P (A ∩ C) = P (B ∩ C). Wykazać, że 1/6 ≤ P (A) ≤ 1/4. c) Zalóżmy, że P (A) ≥ 2/3, P (B) ≥ 2/3, P (C) ≥ 2/3, P (A ∩ B ∩ C) = 0. Obliczyć P (A). 8. Rozdano 52 karty czterem graczom, po 13 kart każdemu. Jakie jest prawdopodobieństwo, że każdy z graczy ma co najmniej jednego pika? 9. Jest N listów i N zaadaresowanych kopert z różnymi adresami. Każdy list odpowiada dokladnie jednemu adresowi i na odwrót. Wlożono listy do kopert na chybil trafil, po jednym liście do każdej koperty. Obliczyć prawdopodobieństwo, że żaden list nie trafil do wlaściwej koperty. 10. Udowodnić, że każde nieskończone σ-cialo jest nieprzeliczalne. 11. Kij o dlugości 1 zlamano losowo w dwóch punktach. Jakie jest prawdopodobieństwo, że z powstalych trzech odcinków można zbudować trójkat? , 12. Na nieskończona, szachownice, o boku 1 rzucono monete, o średnicy 32 . Jakie jest prawdopodobieństwo, że a) moneta znajdzie sie, calkowicie we wnetrzu jednego , z pól; b) przetnie sie, z dwoma bokami szachownicy? 13. Na plaszczyzne, podzielona, na nieskończone pasy o szerokości d rzucono losowo igle, o dlugości ` (` < d). Wyznaczyć prawdopodobieństwo tego, że igla przetnie brzeg któregoś pasa. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 7 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń 3.1. Prawdopodobieństwo warunkowe. Zacznijmy od nastepuj acego przykladu. , , Przyklad: W urnie jest pieć bia lych kul ponumerowanych liczbami 1, 2, 3, 4, 5 , oraz trzy kule czarne ponumerowane liczbami 1, 2, 3. Losujemy kule, i okazuje sie, , że jest biala. Jakie jest prawdopodobieństwo, że numer na niej jest parzysty? Oczywista odpowiedź: 2/5. Z drugiej strony, formalnie, mamy do czynienia ze schematem klasycznym na Ω = {(1, b), (2, b), . . . , (5, b), (1, c), (2, c), (3, c)}. Określmy zdarzenia: A - wylosowano kule, o numerze parzystym, B - wylosowano kule, biala; , zatem A = {(2, b), (4, b), (2, c)}, B = {(1, b), (2, b), . . . , (5, b)} i mamy |A ∩ B| |A ∩ B|/|Ω| P(A ∩ B) 2 = = = . 5 |B| |B|/|Ω| P(B) Sugeruje to nastepuj ac , a, definicje. , , Definicja 3.1. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz A, B sa, zdarzeniami takimi, że P(B) > 0. Prawdopodobieństwem warunkowym (zajścia) zdarzenia A pod warunkiem (zajścia) zdarzenia B nazywamy liczbe, P (A|B) = P(A ∩ B) . P(B) Uwaga: Jak latwo sprawdzić, przy ustalonym zdarzeniu B takim, że P(B) > 0, prawdopodobieństwo warunkowe P(·|B) jest nowa, miara, probabilistyczna, na (Ω, F). Twierdzenie 3.1 (Prawdopodobieństwo iloczynu zdarzeń). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz A1 , A2 , . . ., An sa, zdarzeniami spelniajacymi , warunek P(A1 ∩ A2 ∩ . . . ∩ An ) > 0. Wówczas P(A1 ∩ A2 ∩ . . . ∩ An ) = P(An |A1 ∩ A2 ∩ . . . ∩ An−1 )P(An−1 |A1 ∩ A2 ∩ . . . An−2 ) . . . P(A2 |A1 )P(A1 ). Dowód. Wystarczy zastosować definicje, prawdopodobieństwa warunkowego. Przyklad: W urnie znajduje sie, n−1 bialych kul oraz jedna czarna. Losujemy po jednej kuli aż do momentu, gdy wylosujemy czarna, kule. , jakie jest prawdopodobieństwo tego, że wykonamy k losowań jeśli a) losujemy bez zwracania b) losujemy ze zwracaniem? Oznaczmy biale kule przez b1 , b2 , . . ., bn−1 , a czarna, kule, przez c. Mamy Ω = {(c), (b1 , c), (b2 , c), . . . , (bn−1 , c), (b1 , b1 , c), . . .}, F = 2Ω , a prawdopodobieństwo zadane jest poprzez określenie mas poszczególnych zdarzeń jednoelementowych (por. Przyklad 2 z poprzedniego wykladu). Rozważmy zdarzenie Ai - i-ta kula jest biala, i = 1, 2, . . .. Korzystajac , z powyższego twierdzenia, mamy P(A0k ∩ Ak−1 ∩ Ak−2 ∩ . . . ∩ A1 ) = P(A0k |Ak−1 ∩ . . . ∩ A1 )P(Ak−1 |Ak−2 ∩ . . . ∩ A1 ) . . . P(A2 |A1 )P(A1 ). 8 ADAM OSEKOWSKI , a) Z warunków zadania wynika, że n−i 1 P(Ai |Ai−1 ∩ . . . ∩ A1 ) = , P(A0k |Ak−1 ∩ . . . ∩ A1 ) = , n−i+1 n−k+1 a zatem szukane prawdopodobieństwo wynosi n−k+1 n−k+2 n−2 n−1 1 1 · · · ... · · = . n−k+1 n−k+2 n−k+3 n−1 n n b) Tym razem mamy n−1 P(Ai |Ai−1 ∩ Ai−2 ∩ . . . ∩ A1 ) = , n a wiec , szukane prawdopodobieństwo jest równe k−1 n−1 n−1 n−1 n−1 1 n−1 . 1− · · · ... · = n n n n n n Zajmiemy sie, teraz analiza, doświadczeń ,,wieloetapowych”, w których mamy do czynienia z losowaniem w kilku krokach, a przestrzeń probabilistyczna jest zadana poprzez specyfikacje, prawdopodobieństw warunkowych zwiazanych z poszczególnymi , krokami (por. przyklad poniżej). Zacznijmy od definicji. Definicja 3.2. Mówimy, że rodzina zdarzeń (Bk )nk=1 jest rozbiciem (skończonym) zbioru Ω, jeśli B1 ∪ B2 ∪ . . . ∪ Bn = Ω oraz zdarzenia B1 , B2 , . . . , Bn sa, parami rozlaczne. Analogicznie definiujemy rozbicie przeliczalne Ω. , Twierdzenie 3.2 (Wzór na prawdopodobieństwo calkowite). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz A ∈ F oraz (Bk )k jest rozbiciem Ω (skończonym lub przeliczalnym), takim, że P(Bk ) > 0 dla wszystkich k. Wówczas X P(A) = P(A|Bk )P(Bk ). k Dowód. Zdarzenia A ∩ B1 , A ∩ B2 , . . ., sa, parami rozlaczne i daja, w sumie A, a , zatem X X P(A) = P(A ∩ Bk ) = P(A|Bk )P(Bk ). k k Twierdzenie 3.3 (Wzór Bayesa). Przy zalożeniach jak wyżej, jeśli P(A) > 0, to dla każdego k, P(A|Bk )P(Bk ) P(A|Bk )P(Bk ) P(Bk |A) = P = . P(A) n P(A|Bn )P(Bn ) Dowód. Wzór wynika natychmiast z definicji prawdopodobieństwa warunkowego oraz wzoru na prawdopodobieństwo calkowite. Przyklad: Dane sa, urny I oraz II. W urnie I znajduje sie, b1 kul bialych oraz c1 kul czarnych, zaś w urnie II - b2 kul bialych i c2 kul czarnych. Losujemy urne, kule, , a nastepnie , z tej urny. a) Jakie jest prawdopodobieństwo, że kula jest biala? b) Zalóżmy, że wyciagni eta kula jest biala. Jakie jest prawdopodobieństwo tego, , , że losowano z I urny? Mamy dwa etapy doświadczenia: losowanie urny oraz losowanie kuli z danej urny. Wprowadźmy zdarzenia A - wyciagni eto biala, kule, , , , B1 - wylosowano urne, I, WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 9 2 B2 - wylosowano urne, II. Mamy B1 ∩ B2 = ∅, B1 ∪ B2 = Ω, a wiec , rodzina (Bi )i=1 jest rozbiciem Ω. Z warunków zadania wynika, że P(B1 ) = P(B2 ) = 1 > 0, 2 P(A|B1 ) = b1 , b1 + c1 P(A|B2 ) = b2 . b2 + c2 a) Korzystajac , ze wzoru na prawdopodobieństwo calkowite mamy 1 b1 b2 P(A) = P(A|B1 )P(B1 ) + P(A|B2 )P(B2 ) = + . 2 b1 + c1 b2 + c2 b) Na mocy wzoru Bayesa, P(B1 |A) = P(A|B1 )P(B1 ) b1 /(b1 + c1 ) = . P(A) b1 /(b1 + c1 ) + b2 /(b2 + c2 ) 3.2. Niezależność zdarzeń. Zacznijmy od intuicji. Zalóżmy, że A, B sa, zdarzeniami, przy czym P(B) > 0. Wówczas zdarzenia A, B powinny być niezależne, jeśli informacja o tym, że zaszlo zdarzenie B nie wplywa na prawdopodobieństwo zajścia zdarzenia A; tzn. niezależność powinna być równoważna równości P(A|B) = P(A), czyli P(A ∩ B) = P(A)P(B). Przyjmujemy to jako definicje. , Definicja 3.3. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna. , Zdarzenia A, B sa, niezależne, jeśli P(A ∩ B) = P(A)P(B). Uwaga: Jeśli P(A) = 0, to dla dowolnego B ∈ F zdarzenia A oraz B sa, niezależne. Ta sama teza zachodzi gdy P(A) = 1. Zdefiniujemy teraz niezależność wiekszej liczby zdarzeń. Zacznijmy od przy, padku skończonego. Intuicyjnie, zdarzenia A1 , A2 , . . ., An sa, niezależne jeśli każdy poduklad tych zdarzeń jest niezależny oraz zdarzenia An , A1 ∩ A2 ∩ . . . An−1 sa, niezależne. jak latwo zauważyć, powyższe warunki wymuszaja, równość P(Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P(Ai1 )P(Ai2 ) . . . P(Aik ) dla dowolnego k = 2, 3, . . . , n i dowolnego rosnacego ciagu 1 ≤ i1 < i2 < . . . < , , ik ≤ n. Przyjmujemy to jako definicje. , Definicja 3.4. Mówimy, że zdarzenia A1 , A2 , . . ., An sa, niezależne, jeśli dla wszystkich 2 ≤ k ≤ n oraz dowolnego ciagu 1 ≤ i1 < i2 < . . . < ik ≤ n zachodzi równość , P(Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P(Ai1 )P(Ai2 ) . . . P(Aik ). Definicja 3.5. Mówimy, że zdarzenia A1 , A2 , . . ., An sa, niezależne parami, jeśli dla dowolnych różnych i, j ∈ {1, 2, . . . , n}, zdarzenia Ai oraz Aj sa, niezależne. Oczywiście niezależność ,,zespolowa” (czy też ,,laczna”) zdarzeń A1 , A2 , . . ., , An pociaga za sob a ich niezależność parami. Implikacja w drug a, strone, nie jest , , prawdziwa, co ilustruje nastepuj acy przyk lad. , , Przyklad: Rzucamy dwa razy kostka. , Niech A - za pierwszym razem wypadla parzysta liczba oczek, B - za drugim razem wypadla parzysta liczba oczek, C - suma oczek jest parzysta. Bezpośrednio wyliczamy, iż 1 1 P(A) = P(B) = P(C) = , P(A ∩ B) = P(B ∩ C) = P(C ∩ A) = , 2 4 10 ADAM OSEKOWSKI , a wiec , zdarzenia A, B, C sa, niezależne parami. Nie sa, jednak niezależne zespolowo: mamy A ∩ B ⊂ C, a wiec , P(A ∩ B ∩ C) = P(A ∩ B) = 1/4 6= P(A)P(B)P(C). W przypadku dowolnej (być może nieskończonej) liczby zdarzeń, niezależność definiujemy nastepuj aco. , , Definicja 3.6. Zalóżmy, że {Ai }i∈I jest pewna, rodzina, zdarzeń. Mówimy, iż zdarzenia te sa, niezależne, jeśli dla każdego n oraz parami różnych i1 , i2 , . . ., in ∈ I zdarzenia Ai1 , Ai2 , . . ., Ain sa, niezależne. Zdefiniujemy teraz pojecie niezależności σ-cial. , Definicja 3.7. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz F1 , F2 , . . . , Fn sa, σ-cialami zawartymi w F. Mówimy, że σ-ciala te sa, niezależne, jeśli dla dowolnych A1 ∈ F1 , A2 ∈ F2 , . . ., An ∈ Fn zachodzi warunek P(A1 ∩ A2 ∩ . . . ∩ An ) = P(A1 )P(A2 ) . . . P(An ). Twierdzenie 3.4. Przy zalożeniach powyższej definicji, σ-ciala F1 , F2 , . . ., Fn sa, niezależne wtedy i tylko wtedy, gdy dowolne A1 ∈ F1 , A2 ∈ F2 , . . ., An ∈ Fn sa, niezależne. Dowód. ⇐ oczywiste. ⇒ Mamy dowieść, że dla dowolnego 2 ≤ k ≤ n oraz dowolnego ciagu 1 ≤ i1 < , i2 < . . . < ik ≤ n zachodzi równość (∗) P(Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P(Ai1 )P(Ai2 ) . . . P(Aik ). Rozważmy zdarzenia B1 , B2 , . . ., Bn dane przez ( Ai jeśli i = i` dla pewnego `, Bi = Ω w przeciwnym przypadku. Wówczas B1 ∈ F1 , B2 ∈ F2 , . . ., Bn ∈ Fn , a zatem P(B1 ∩ B2 ∩ . . . ∩ Bn ) = P(B1 )P(B2 ) . . . P(Bn ), co jest równoważne (*). Przyklady: 1. Rzucamy dwa razy kostka. Wprowadźmy standardowa, przestrzeń proba, bilistyczna, opisujac , a, to doświadczenie (por. poprzedni wyklad). Rozważmy σ-ciala F1 = {A × {1, 2, 3, 4, 5, 6} : A ⊆ {1, 2, 3, 4, 5, 6}}, F2 = {{1, 2, 3, 4, 5, 6} × B : B ⊆ {1, 2, 3, 4, 5, 6}}. Wówczas F1 , F2 ⊂ F i F1 , F2 sa, niezależne: istotnie, dla dowolnych zdarzeń A × {1, 2, 3, 4, 5, 6} ∈ F1 , B × {1, 2, 3, 4, 5, 6} ∈ F2 mamy P(A × {1, 2, 3, 4, 5, 6}) = |A| |A| · 6 = , 36 6 P({1, 2, 3, 4, 5, 6} × B) = 6 · |B| |B| = 36 6 oraz |A| · |B| . 36 2. Zalóżmy, że σ(A1 ), σ(A2 ), . . ., σ(An ) bed , a, σ-cialami generowanymi przez zdarzenia A1 , A2 , . . ., An , odpowiednio (przypomnijmy: σ(A) = {A, A0 , ∅, Ω}). Wówczas jeśli A1 , A2 , . . ., An sa, niezależne, to σ(A1 ), σ(A2 ), . . ., σ(An ) też sa, P((A × {1, 2, 3, 4, 5, 6}) ∩ ({1, 2, 3, 4, 5, 6} × B)) = P(A × B) = WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 11 niezależne. Aby to wykazać, musimy sprawdzić, że dla dowolnych Bi ∈ Fi , i = 1, 2, . . . , n, zachodzi P(B1 ∩ B2 ∩ . . . ∩ Bn ) = P(B1 )P(B2 ) . . . P(Bn ). Jeśli co najmniej jedno ze zdarzeń Bi jest zbiorem pustym, to powyższa równość jest spelniona: obie strony sa, równe 0. Jeśli dla pewnego j mamy Bj = Ω, to możemy to zdarzenie pominać , po obu stronach. Zatem, wystarczy dowieść, że dla dowolnego ciagu 1 ≤ i < i < . . . < ik ≤ n mamy 1 2 , P(Bi1 ∩ Bi2 ∩ . . . ∩ Bik ) = P(Bi1 )P(Bi2 ) . . . P(Bik ), gdzie dla każdego j, zdarzenie Bij jest równe Aij lub A0ij . Poprzez prosta, indukcje, , wystarczy wykazać, że P(A0i1 ∩ Ai2 ∩ Ai3 ∩ . . . ∩ Aik ) = P(A0i1 )P(Ai2 )P(Ai3 ) . . . P(Aik ), co natychmiast wynika z niezależności zdarzeń A1 , A2 , . . ., An : istotnie, P(A0i1 ∩ Ai2 ∩ Ai3 ∩ . . . ∩ Aik ) = P(Ai2 ∩ Ai3 ∩ . . . ∩ Aik ) − P(Ai1 ∩ Ai2 ∩ Ai3 ∩ . . . ∩ Aik ) = P(Ai2 )P(Ai3 ) . . . P(Aik ) − P(Ai1 )P(Ai2 )P(Ai3 ) . . . P(Aik ) = P(A0i1 )P(Ai2 )P(Ai3 ) . . . P(Aik ). Rozważmy teraz nastepuj acy problem. Zalóżmy, że mamy N doświadczeń, przy , , czym i-te doświadczenie jest opisywane przez przestrzeń probabilistyczna, (Ωi , Fi , Pi ). W jaki sposób możemy zbudować przestrzeń (Ω, F, P) dla doświadczenia polegajacego na niezależnym przeprowadzeniu tych N doświadczeń? , Oczywiście, jako zbiór Ω bierzemy Ω1 × Ω2 × . . . ΩN . Aby określić F, zwróćmy uwage, , iż σ-cialo Fi jest reprezentowane, w kontekście powyższego zbioru Ω, przez klase, Fi0 = {Ω1 × Ω2 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × ΩN : Ai ∈ Fi }. 0 0 0 Stad , naturalny pomysl, by wziać , F = σ(F1 , F2 , . . . , FN ), σ-cialo generowane przez 0 0 0 F1 , F2 , . . . , FN . Innymi slowy, jako F bierzemy σ-cialo produktowe F1 ⊗ F2 ⊗ . . . ⊗ FN . Przejdźmy do określenia miary probabilistycznej P. Z powyższych postu0 latów, σ-ciala F10 , F20 , . . ., FN maja, być niezależne, a zatem poszukujemy takiego prawdopodobieństwa P, że dla dowolnych Ai ∈ Fi , i = 1, 2, . . . , N , P(A1 × A2 × . . . × AN ) = P (A1 × Ω2 × . . . × ΩN ) ∩ (Ω1 × A2 × . . . × ΩN ) ∩ . . . ∩ (Ω1 × . . . × ΩN −1 × AN ) = N Y P(Ω1 × . . . × Ai × . . . × ΩN ). i=1 Ponadto, chcemy by P(Ω1 × . . . × Ai × . . . × ΩN ) = Pi (Ai ) dla każdego i. Podsumowujac, , poszukujemy takiego P, by dla dowolnych zdarzeń A1 , A2 , . . . , AN jak wyżej zachodzila równość P(A1 × A2 × . . . × AN ) = P1 (A1 )P2 (A2 ) . . . PN (AN ). Z teorii miary wiadomo, że istnieje dokladnie jedno takie prawdopodobieństwo P na F1 ⊗ F2 ⊗ . . . ⊗ FN , i jest ono równe P1 ⊗ P2 ⊗ . . . ⊗ PN - produktowi miar P1 , P2 , . . ., PN . 12 ADAM OSEKOWSKI , Analogiczne rozumowanie można przeprowadzić w przypadku gdy mamy do czyniania z nieskończona, liczba, doświadczeń modelowanych przez przestrzenie probabilistyczne (Ωi , Fi , Pi ). Przyklad: Schemat Bernoulliego. Zalóżmy, iż dla każdego i = 1, 2, . . . , N mamy Ωi = {0, 1}, F i = 2Ωi oraz Pi ({1}) = p, gdzie p ∈ [0, 1] jest ustalonym parametrem. Widzimy, iż każda pojedyncza przestrzeń (Ωi , Fi , Pi ) modeluje doświadczenie w którym sa, dwa możliwe wyniki: 0 i 1, interpretowane jako porażka i sukces (podkreślmy: prawdopodobieństwo sukcesu jest równe p i nie zależy od numeru doświadczenia). Takie pojedyncze doświadczenie nazywamy próba, Bernoulliego. Na mocy powyższej konstrukcji, przestrzeń probabilistyczna ({0, 1}N , 2Ω , P) = (Ω1 × Ω2 × . . . × ΩN , F1 ⊗ F2 ⊗ . . . ⊗ FN , P1 ⊗ P2 ⊗ . . . ⊗ PN ) modeluje ciag , niezależnych N powtórzeń próby Bernoulliego. Ciag , ten nazywamy schematem Bernoulliego. Zauważmy, iż dla dowolnego ω = (ω1 , ω2 , . . . , ωN ) ∈ Ω mamy P({ω}) = pk (1 − N −k p) , gdzie k jest liczba, jedynek w ciagu ω. Wynika stad, iż jeśli określimy , , zdarzenie Ak = {liczba sukcesów jest równa k}, to X N k k N −k p (1 − p)N −k . P(Ak ) = P({ω}) = |Ak |p (1 − p) = k ω∈Ak T∞ S∞ Zalóżmy, że A1 , A2 , . . . sa, pewnymi zdarzeniami; wówczas n=1 m=n Am możemy interpretować jako ,,zaszlo nieskończenie wiele spośród zdarzeń A1 , A2 , . . .”. Okazuje sie, , że przy pewnych zalożeniach, zdarzenie to ma prawdopodobieństwo 0 lub 1. Ściślej, zachodzi nastepuj acy fakt. , , Lemat 3.1 (Borela-Cantelli). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz AP 1 , A2 , . . . ∈ F. ∞ (i) Jeśli n=1 P(An ) < ∞, to ∞ ∞ [ \ Am = 0 P n=1 m=n (a zatem z prawdopodobieństwem 1 zachodzi P∞ skończenie wiele spośród Ai ). (ii) Jeśli A1 , A2 , . . . sa, niezależne i n=1 P(An ) = ∞, to ∞ [ ∞ \ P Am = 1. n=1 m=n Dowód. (i) Mamy ∞ [ ∞ ∞ ∞ \ [ X n→∞ P Am ≤ P Am ≤ P(Am ) −−−−→ 0. n=1 m=n m=n m=n S∞ T∞ 0 (ii) Udowodnimy, że zdarzenie n=1 m=n Am ma prawdopodobieństwo T∞ przeciwne 0 0. Wystarczy wykazać, iż P( m=n Am ) = 0 dla wszystkich n (wówczas rozważane zdarzenie przeciwne bedzie przeliczalna, suma, zbiorów miary 0, a zatem także bedzie , , mialo miare, 0). Korzystajac , z twierdzenia o ciag , lości, mamy iż dla dowolnego n, ∞ ∞ \ k k \ \ \ P A0m = P A0m = lim P A0m , m=n k=n m=n k→∞ m=n WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 13 co na mocy niezależności zdarzeń A1 , A2 , . . . jest równe lim k→∞ k Y m=n P(A0m ) = lim k→∞ k Y (1 − P(Am )) ≤ lim sup e− Pk m=n P(Am ) = 0. k→∞ m=n Na zakończenie zaprezentujemy pewien przydatny fakt, tzw. lemat o π − λ ukladach. Aby podać pewna, motywacje, , zalóżmy, że µ, ν sa, miarami probabilistycznymi na pewnej przestrzeni mierzalnej (Ω, F). Przypuśćmy, iż chcemy wykazać, iż te miary sa, sobie równe: mamy wiec , sprawdzić, czy dla dowolnego A ∈ F zachodzi równość µ(A) = ν(A). Powstaje bardzo naturalne pytanie: czy wystarczy zweryfikować powyższa, tożsamość dla pewnej szczególnej klasy zdarzeń A, np. dla generatorów σ-ciala F? Okazuje sie, że zbiór generatorów nie jest na ogól dobrym wyborem: mianowicie trzeba zalożyć, że klasa ta jest dodatkowo π-ukladem. Definicja 3.8. Zalóżmy, że K jest niepusta, klasa, podzbiorów Ω. Mówimy, że K jest π-ukladem, jeśli klasa ta jest zamknieta ze wzgledu na branie skończonych , , iloczynów: z tego, że A, B ∈ K wynika, że A ∩ B ∈ K. Definicja 3.9. Zalóżmy, że L jest pewna, klasa, podzbiorów Ω. Mówimy, że L jest λ-ukladem, jeśli sa, spelnione nastepuj ace warunki: , , (i) Ω ∈ L, (ii) jeśli A, B ∈ L i A ⊆ B, to B \ A ∈ L, S∞ (iii) jeśli A1 , A2 , . . . jest wstepuj acym ciagiem elementów L, to n=1 An ∈ L. , , , Lemat 3.2 (o π − λ ukladach). Jeśli L jest λ-ukladem zawierajacym π-uklad K, , to L zawiera także σ-cialo generowane przez K. Dowód. Rozumowanie podzielimy na trzy cześci. , 1) Zauważmy, że jeśli L jest λ-ukladem oraz A, B ∈ L spelniaja, A ∩ B = ∅, to A ∪ B = (A0 \ B)0 ∈ L, korzystajac , z (i) i (ii). 2) Jeśli L jest jednocześnie π-ukladem oraz λ-ukladem, to jest σ-cialem. Aby to wykazać, zauważmy, iż jeśli A, B ∈ L, to A ∪ B = A ∪ (B \ (A ∩ B)) ∈ L, na mocy 1) oraz warunków definiujacych π-uklad i λ-uklad. Wobec tego, przez , prosta, indukcje, zamkniete ze wzgledu na branie skończonych sum, a , L bedzie , , , zatem jeśli A1 , A2 , . . . jest dowolnym ciagiem elementów z L, to , ! n ∞ ∞ [ [ [ An = Ak ∈ L. n=1 n=1 k=1 W ostatnim kroku skorzystaliśmy z tego, że A1 , A1 ∪ A2 , A1 ∪ A2 ∪ A3 , . . . jest wstepuj acym ciagiem elementów L. , , , 3) Niech Λ b edzie klas a, wszystkich λ-ukladów zawierajacych K i polóżmy L0 = , , T L. Wówczas L ∈ Λ oraz K ⊆ L ⊆ L. Wystarczy wi ec udowodnić, że L0 jest 0 0 L∈Λ , σ-cialem: na mocy 2), wystarczy wykazać, że L0 jest π-ukladem. Weźmy dowolne A ∈ K i rozważmy klase, K1 = {B : A ∩ B ∈ L0 }. 14 ADAM OSEKOWSKI , Oczywiście K1 ⊇ K, gdyż K jest π-ukladem. Ponadto K1 jest λ-ukladem: (i) Ω ∈ K1 , bo A ∩ Ω = A ∈ K ⊆ L0 ; (ii) jeśli B1 , B2 ∈ K1 , B1 ⊆ B2 , to A ∩ (B2 \ B1 ) = (A ∩ B2 ) \ (A ∩ B1 ) ∈ L0 , a wiec , B2 \ B1 ∈ K1 ; (iii) B1 ⊆ B2 ⊆ . . . ∈ K1 , to ∞ [ A∩ ! Bn = n=1 skad , wynika, iż S∞ n=1 ∞ [ (A ∩ Bn ) ∈ L0 , n=1 Bn ∈ K1 . Zatem K1 zawiera L0 , gdyż L0 jest najmniejszym λ-ukladem zawierajacym K. , Wykazaliśmy wiec, że dla dowolnego A ∈ K oraz dowolnego B ∈ L , A ∩ B ∈ L 0 0. , Nastepnie powtarzamy rozumowanie: ustalamy B ∈ L i definiujemy K = {A : 0 2 , A ∩ B ∈ L0 }. Mamy K2 ⊇ K oraz K2 jest λ-ukladem, skad wynika, iż K ⊇ L , a 2 0 , wiec , dla dowolnych A, B ∈ L0 zachodzi A ∩ B ∈ L0 . Dowód jest zakończony. Jako zastosowanie, udowodnimy nastepuj acy fakt. , , Twierdzenie 3.5. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna. , Przypuśćmy, iż rodzine, {Fγ }∈Γ niezależnych σ-cial podzielono na n podrodzin {Fγ i }γ i ∈Γi , i = 1, 2, . . . , n. Wówczas σ-ciala σ {Fγ 1 }γ 1 ∈Γ1 , σ {Fγ 2 }γ 2 ∈Γ2 , . . . , σ ({Fγ n }γ n ∈Γn ) , generowane przez poszczególne podrodziny też sa, niezależne. Dowód. Przeprowadzimy dowód dla n = 2; dla wiekszych n rozumowanie jest ana, logiczne. Mamy wiec , dwie rodziny {Fγ }γ∈Γ , {Gδ }δ∈∆ niezależnych pod-σ-cial F i musimy wykazać, że dla dowolnych A ∈ σ({Fγ }γ∈Γ ), B ∈ σ({Gδ }δ∈∆ ) zachodzi (∗) P(A ∩ B) = P(A)P(B). Na mocy niezależności σ-cial, wzór (*) zachodzi dla zbiorów postaci A = Aγ 1 ∩ Aγ 2 ∩ . . . ∩ Aγ k , Aγ i ∈ Fγ i , i = 1, 2, . . . , k, B = Bδ1 ∩ Bδ2 ∩ . . . ∩ Bδ` , Bδj ∈ Gδj , j = 1, 2, . . . , `. Ustalmy A jak wyżej i rozważmy klase, K = {B : zachodzi (*)}. Mamy wiec , K ⊇ {Bδ1 ∩ Bδ2 ∩ . . . ∩ Bδ` : Bδj ∈ Gδj }, i ta ostatnia klasa jest, rzecz jasna, π-ukladem generujacym σ({Gδ }δ∈∆ ). Ponadto K jest λ-ukladem: , (i) Ω ∈ K, bo P(A ∩ Ω) = P(A)P(Ω). (ii) jeśli B1 , B2 ∈ K i B1 ⊆ B2 , to B2 \ B1 ∈ K: istotnie, P(A ∩ (B2 \ B1 )) = P (A ∩ B2 ) \ (A ∩ B1 ) = P(A ∩ B2 ) − P(A ∩ B1 ) = P(A) P(B2 ) − P(B1 ) = P(A)P(B2 \ B1 ). WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I (iii) Jeśli B1 ⊆ B2 ⊆ . . . ∈ K, to !! ∞ [ P A∩ Bn =P n=1 S∞ n=1 ∞ [ 15 Bn ∈ K, gdyż z twierdzenia o ciag , lości, ! (A ∩ Bn ) n=1 = lim P(A ∩ Bn ) n→∞ = lim P(A)P(Bn ) = P(A)P n→∞ ∞ [ ! Bn . n=1 Zatem na mocy lematu o π − λ ukladach, K zawiera σ({Gδ }δ∈∆ ), czyli (*) zachodzi dla dowolnego zbioru A postaci Aγ 1 ∩ Aγ 2 ∩ . . . ∩ Aγ k oraz B ∈ σ({Gδ }δ∈∆ ). Nastepnie, powtarzamy rozumowanie: ustalamy B ∈ σ({Gδ }δ∈∆ ) i definiujemy L = , {A : zachodzi (*)}. Klasa L zawiera wszystkie zbiory postaci Aγ 1 ∩ Aγ 2 ∩ . . . ∩ Aγ k , które tworza, π-uklad generujacy σ({Fγ }γ∈Γ ). Tak jak wyżej, sprawdzamy, że L , jest λ ukladem, a zatem z lematu o π − λ ukladach, L ⊇ σ({Fγ }γ∈Γ ). Wobec tego (*) zachodzi dla wszystkich A ∈ σ({Fγ }γ∈Γ ) oraz B ∈ σ({Gδ }δ∈∆ ), skad , dostajemy żadan a niezależność σ-cia l. , , 16 ADAM OSEKOWSKI , 4. Zadania 1. Grupa n osób (n ≥ 3), wśród których sa, osoby X, Y i Z, ustawia sie, losowo w kolejce. Jakie jest prawdopodobieństwo tego, że a) X stoi bezpośrednio przed Y , jeśli Y stoi bezpośrednio przed Z? b) X stoi przed Y , jeśli Y stoi przed Z? 2. Z talii 52 kart losujemy 5 kart bez zwracania. Obliczyć prawdopodobieństwo tego, że mamy dokladnie 3 asy, jeżeli wiadomo, że a) mamy co najmniej jednego asa; b) mamy asa czarnego koloru; c) mamy asa pik; d) pierwsza, wylosowana, karta, jest as; e) pierwsza, wylosowana, karta, jest czarny as; f) pierwsza, wylosowana, karta, jest as pik. 3. W urnie znajduja, sie, trzy biale i cztery czarne kule. Losujemy kule, , wyrzucamy bez ogladania, a nast epnie losujemy kolejn a kul e z urny. , , , , a) Jakie jest prawdopodobieństwo, że druga kula jest biala? b) Zalóżmy, że za drugim razem wyciagni eto biala, kule. , , , Jakie jest prawdopodobieństwo, że za pierwszym razem wylosowano czarna, kule? , 4. W populacji jest 15% dyslektyków. Jeśli w teście diagnostycznym uczeń popelni 6 lub wiecej bledów, to zostaje uznany za dyslektyka. Każdy dyslektyk , , na pewno popelni co najmniej 6 bledów w takim teście, ale również nie-dyslektyk , może popelnić wiecej niż 5 b l edów – dzieje sie, tak z prawdopodobieńswem 0,1. Jasio , , popelnil w teście 6 bledów. Jakie jest prawdopodobieństwo, że jest dyslektykiem? , Jakie jest prawdopodobieństwo tego, że w kolejnym teście też popelni co najmniej 6 bledów? , 5. W pewnej fabryce telewizorów każdy z aparatów może być wadliwy z prawdopodobieństwem p. W fabryce sa, trzy stanowiska kontroli i wyprodukowany telewizor trafia na każde ze stanowisk z jednakowym prawdopodobieństwem. ite stanowisko wykrywa wadliwy telewizor z prawdopodobieństwem pi (i = 1, 2, 3). Telewizory nie odrzucone w fabryce trafiaja, do hurtowni i tam poddawane sa, dodatkowej kontroli, która wykrywa wadliwy telewizor z prawdopodobieństwem p0 . a) Obliczyć prawdopodobieństwo tego, że dany nowowyprodukowany telewizor znajdzie sie, w sprzedaży (tzn. przejdzie przez obie kontrole). b) Przypuśćmy, że telewizor jest już w sklepie. Jakie jest prawdopodobieństwo, że jest on wadliwy? 6. Rzucamy dwa razy kostka. , Rozważmy zdarzenia: A – za pierwszym razem wypadla liczba oczek podzielna przez 3; B – suma wyrzuconych oczek jest parzysta; C – za każdym razem uzyskaliśmy te, sama, liczbe, oczek. Czy zdarzenia A, B sa, niezależne? Czy A, B, C sa, niezależne? 7. Na n kartonikach zapisano n różnych liczb rzeczywistych. Kartoniki wlożono do pudelka, starannie wymieszano, a nastepnie losowano kolejno bez zwracania. , Niech Ak – k-ta wylosowana liczba jest wieksza od poprzednich. , a) Udowodnić, że P(Ak ) = 1/k, k = 1, 2, . . . , n. b) Udowodnić, że zdarzenia A1 , A2 , . . . , An sa, niezależne. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 17 8. Dane sa, liczby calkowite dodatnie m, n oraz liczby p, q ∈ (0, 1) spelniajace , warunek p + q = 1. Dowieść, że (1 − pn )m + (1 − q m )n ≥ 1. 9. Wyznaczyć najbardziej prawdopodobna, liczbe, sukcesów w schemacie n prób Bernoulliego z prawdopodobieństwem sukcesu p. 10. Rzucono 10 razy kostka. , Jakie jest prawdopodobieństwo tego, że w pierwszym rzucie otrzymano szóstke, , jeśli wiadomo, że a) otrzymano trzy szóstki? b) w nastepnych dziewieciu rzutach otrzymano same szóstki? , , 11. Rzucamy kostka, aż do momentu gdy wyrzucimy piatk trzy razy , e, badź , szóstke, (lacznie, niekoniecznie pod rz ad). Jakie jest prawdopodobieństwo, że rzucimy , , dokladnie n razy? k 12. Prawdopodobieństwo tego, że w urnie znajduje sie, k kostek, wynosi 2k! e−2 , k = 0, 1, 2, . . .. Losujemy kolejno bez zwracania wszystkie kostki z urny i wykonujemy rzuty każda, z nich. Jakie jest prawdopodobieństwo, że uzyskamy l szóstek? 13. Jakie jest prawdopodobieństwo tego, że liczba sukcesów w schemacie Bernoulliego n prób z p = 12 bedzie podzielna , a) przez 3? b) przez 4? 14. Niech (Ω, F, P) bedzie przestrzenia, probabilistyczna, dla schematu n prób , Bernoulliego z prawdopodobieństwem sukcesu p. Dla dowolnego 0 ≤ k ≤ n, niech Ak oznacza zdarzenie, iż jest dokladnie k sukcesów. Wykazać, że dla dowolnego B ∈ F oraz każdego k, prawdopodobieństwo warunkowe P(B|Ak ) nie zależy od p. 15. Rzucamy nieskończenie wiele razy moneta, , dla której prawdopodobieństwo wypadniecia or la wynosi p = 6 1/2. Dla n = 2, 4, . . ., rozważmy zdarzenie An , do rzutu n wlacznie wypad lo tyle samo or lów co reszek. Udowodnić, że z praw, dopodobieństwem 1 zajdzie skończenie wiele spośród zdarzeń A1 , A2 , . . .. 16. Rzucamy nieskończenie wiele razy moneta, , dla której prawdopodobieństwo wypadniecia or la wynosi p ∈ (0, 1]. Udowodnić, że z prawdopodobieństwem 1 , wystapi nieskończenie wiele serii z lożonych ze 100 or lów pod rzad. , , 17. Dane sa, dwie miary probabilistyczne µ, ν na (R, B(R)). a) Zalóżmy, że dla dowolnej liczby t > 0 mamy ν([−t, t]) = µ([−t, t]). Udowodnić, że jeśli A ∈ B(R) jest symetryczny wzgledem 0, to µ(A) = ν(A). , b) Przypuśćmy, że K jest pewna, klasa, generujac , a, B(R) (tzn. spelniajac , a, σ(K) = B(R)). Czy z tego, że µ(A) = ν(A) dla każdego A ∈ K, wynika, iż µ = ν? 18 ADAM OSEKOWSKI , 5. Zmienne losowe i ich rozklady Przechodzimy do kluczowego pojecia rachunku prawdopodobieństwa. , Definicja 5.1. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna. , Zmienna, losowa, d-wymiarowa, (lub zmienna, losowa, o wartościach w Rd ) nazywamy dowolna, d mierzalna, funkcje, X : Ω → Rd (tzn. spelniajac , a, , dla dowolnego B ∈ B(R ), −1 warunek {X ∈ B} := X (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ F). W szczególności, dla d = 1 bedziemy mówić po prostu ,,zmienna losowa”. , Twierdzenie 5.1. Jeśli (Ω, F, P) jest przestrzenia, probabilistyczna, , X jest d-wymiarowa, zmienna, losowa, oraz f : Rd → Rk jest funkcja, borelowska, , to f (X) jest k-wymiarowa, zmienna, losowa. W szczególności teza zachodzi wiec , , lych , dla ciag funkcji f . W szczególności, widzimy iż jeśli X = (X1 , X2 , . . . , Xd ), to X1 , X2 , . . ., Xd sa, jednowymiarowymi zmiennymi losowymi. Kolejnym ważnym pojeciem jest tzw. rozklad zmiennej losowej. Zalóżmy, że , (Ω, F, P) jest przestrzenia, probabilistyczna, , a X jest d-wymiarowa, zmienna, losowa. , Dla dowolnego B ∈ B(Rd ) określamy PX (B) = P(X ∈ B) := P({ω ∈ Ω : X(ω) ∈ B}) (czyli PX jest obrazem miary P przy przeksztalceniu X). Jak latwo sprawdzić, (Rd , B(Rd ), PX ) jest nowa, przestrzenia, probabilityczna. , Definicja 5.2. Miare, PX nazywamy rozkladem zmiennej X. Definicja 5.3. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, , a X jest dwymiarowa, zmienna, losowa. Dystrybuant a tej zmiennej losowej nazywamy funkcje, , , FX : Rd → [0, 1] dana, wzorem FX (x1 , x2 , . . . , xd ) = P(X1 ≤ x1 , X2 ≤ x2 , . . . , Xd ≤ xd ) = PX ((−∞, x1 ] × (−∞, x2 ] × . . . × (−∞, xd ]). Dystrybuanta zależy tylko od rozkladu, a wiec , jest sens mówić o dystrybuancie rozkladu prawdopodobieństwa. Przyklady: 1. Rzucamy raz symetryczna, moneta; , Ω = {O, R}. Niech X(O) = 1, X(R) = −1. Wówczas jeśli t < −1, 0 FX (t) = P(X ≤ t) = 1/2 jeśli − 1 ≤ t < 1, 1 jeśli t ≥ 1. z kola o promieniu R: mamy zatem (Ω, F, P) = 2. Wybieramy losowo punkt |·| odleglościa, wylosowanego K(0, R), B(K(0, R)), πR2 . Niech X(ω) = ρ(ω, 0) bedzie , punktu od środka. Wówczas jeśli t < 0, 0 FX (t) = P(X ≤ t) = t2 /R2 jeśli 0 ≤ t < R, 1 jeśli t ≥ R. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 19 Twierdzenie 5.2 (Wlasności dystrybuanty). Zalóżmy, że X jest (jednowymiarowa) , zmienna, losowa. , Wówczas a) FX jest niemalejaca. , b) limt→∞ FX (t) = 1, limt→−∞ FX (t) = 0. c) F jest prawostronnie ciag , la. d) dla dowolnego t ∈ R istnieje lewostronna granica FX (t−) = lims↑t FX (s) i FX (t−) = P(X < t) = P(X ∈ (−∞, t)). e) FX jest nieciag , la w punkcie t0 wtedy i tylko wtedy, gdy P(X = t0 ) > 0 (taka, liczbe, t0 nazywamy wówczas atomem rozkladu). Ściślej, dla dowolnego t0 ∈ R mamy P(X = t0 ) = FX (t0 ) − FX (t0 −). f ) dla dowolnych a < b mamy P(a ≤ X ≤ b) = P(X ∈ [a, b]) = FX (b) − FX (a−), P(a < X ≤ b) = P(X ∈ (a, b]) = FX (b) − FX (a), P(a ≤ X < b) = P(X ∈ [a, b)) = FX (b−) − FX (a−), P(a < X < b) = P(X ∈ (a, b)) = FX (b−) − FX (a). Dowód. a) Jeśli t1 < t2 , to (−∞, t1 ] ⊂ (−∞, t2 ], a wiec , FX (t1 ) = PX ((−∞, t1 ]) ≤ PX ((−∞, t2 ]) = FX (t2 ). b) Dla (tn )n≥1 rosnacego do nieskończoności zachodzi równość , , S dowolnego ciagu R = n (−∞, tn ] i przedzialy pod suma, sa, wstepuj ace. Zatem, korzystajac , , z , twierdzenia o ciag , lości, 1 = PX (R) = lim PX ((−∞, tn ]) = lim FX (tn ). n→∞ n→∞ Analogicznie dowodzimy druga, cześć. , c) WeźmyTt ∈ R oraz ciag do t. Ciag , (tn )n≥1 malejacy , , przedzialów (t, tn ] jest zstepuj acy i n (t, tn ] = ∅, a wiec , , , ! \ 0 = PX (t, tn ] = lim PX ((t, tn ]) = lim PX ((−∞, tn ] \ (−∞, t]) n n→∞ n→∞ h i = lim PX ((−∞, tn ]) − PX ((−∞, t]) = lim (FX (tn ) − FX (t)). n→∞ n→∞ d) Rozumujemy podobnie jak w c). e) Wynika to wprost z d) oraz równości P(X = t0 ) = P(X ≤ t0 ) − P(X < t0 ). f) Udowodnimy tylko pierwsza, równość, pozostale wykazuje sie, analogicznie: P(a ≤ X ≤ b) = PX ([a, b]) = PX ((−∞, b]) − PX ((−∞, a)) = FX (b) − FX (a−). Uwaga: Jeśli funkcja F spelnia warunki a), b) oraz c) z powyższego twierdzenia, to jest dystrybuanta, pewnego rozkladu (dowód pozostawiamy jako ćwiczenie). Twierdzenie 5.3 (O jednoznaczności). Dystrybuanta zmiennej losowej d-wymiarowej wyznacza rozklad jednoznacznie. Dowód: Zalóżmy, że X, Y sa, zmiennymi losowymi posiadajacymi te, sama, dystry, buante. Chcemy wykazać, że P = P , czyli X Y , (∗) PX (B) = PY (B) 20 ADAM OSEKOWSKI , dla dowolnego podzbioru borelowskiego Rd . Klasa wszystkich zbiorów B spelniajacych (*) tworzy λ-uklad. Z drugiej strony, równość dystrybuant daje, iż , PX ((−∞, x1 ] × (−∞, x2 ] × . . . × (−∞, xd ]) = FX (x) = FY (x) = PY ((−∞, x1 ] × (−∞, x2 ] × . . . × (−∞, xd ]), a zatem (*) zachodzi dla zbiorów postaci (−∞, x1 ] × (−∞, x2 ] × . . . (−∞, xd ], które tworza, π-uklad generujacy B(Rd ). Teza twierdzenia wynika wiec , , natychmiast z lematu o π − λ ukladach. Definicja 5.4. Zalóżmy, że X = (X1 , X2 , . . . , Xd ) jest d-wymiarowa, zmienna, losowa, oraz 1 ≤ i1 < i2 < . . . < ik ≤ d (k < d). Wówczas (Xi1 , Xi2 , . . . , Xik ) też jest zmienna, losowa, i jej rozklad nazywamy k-wymiarowym rozkladem brzegowym rozkladu X. Uwaga: Rozklady brzegowe nie wyznaczaja, na ogól rozkladu lacznego. Rozważ, my nastepuj acy przyk lad: , , I - rzucamy trzy razy moneta, i niech X1 bedzie liczba, reszek przed pojawieniem , sie, pierwszego orla, a X2 oznacza laczn a liczb e or lów. , , , II - rzucamy dwie serie po trzy razy moneta, i niech X10 bedzie liczba, reszek przed , pojawieniem sie, pierwszego orla w pierwszej serii, a X20 oznacza laczn a, liczbe, orlów , w drugiej serii. Jest oczywiste, że zmienne X1 oraz X10 maja, ten sam rozklad; tak samo, X2 oraz 0 X2 maja, ten sam rozklad. Z drugiej strony, zmienne (X1 , X2 ) oraz (X10 , X20 ) nie maja, tego samego rozkladu: istotnie, P(X1 ,X2 ) ({(3, 3)}) = 0 oraz P(X10 ,X20 ) ({(3, 3)}) = 2−6 . 0 0 Tak wiec , rozklady brzegowe zmiennych (X1 , X2 ) oraz (X1 , X2 ) sa, identyczne, ale rozklady laczne s a różne. , , W dalszej cześci wykladu bedziemy stosować nastepuj ace oznaczenie: jeśli X jest , , , , d-wymiarowa, zmienna, losowa, , to σ(X) := {{X ∈ B} : B ∈ B(Rd )} jest σ-cialem zdarzeń generowanym przez X. Definicja 5.5. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, , a {Xi }i∈I jest rodzina, zmiennych losowych, przy czym Xi przyjmuje wartości w Rdi . Mówimy, że zmienne te sa, niezależne, jeśli σ-ciala generowane przez te zmienne sa, niezależne. Innymi slowy, zmienne {Xi }i∈I sa, niezależne wtedy i tylko wtedy, gdy dla każdego n, dowolnych parami różnych i1 , i2 , . . . , in ∈ I oraz dowolnych B1 ∈ B(Rdi1 ), . . ., Bn ∈ B(Rdin ), P(Xi1 ∈ B1 , Xi2 ∈ B2 , . . . , Xin ∈ Bn ) = P(Xi1 ∈ B1 )P(Xi2 ∈ B2 ) . . . P(Xin ∈ Bn ). Przyklady: 1. Zdarzenia A1 , A2 , . . ., An sa, niezależne wtedy i tylko wtedy, gdy 1A1 , 1A2 , . . ., 1An sa, niezależne. Istotnie, wynika to natytchmiast z faktu, iż dla dowolnego WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 21 zdarzenia A oraz dowolnego podzbioru borelowskiego prostej mamy A jeśli 0 ∈ / B, 1 ∈ B, A0 jeśli 0 ∈ B, 1 ∈ / B, {1A ∈ B} = ∅ jeśli 0, 1 ∈ / B, Ω jeśli 0, 1 ∈ B. 2. W schemacie n prób Bernoulliego określmy Xi (ω) = Xi (ω1 , ω2 , . . . , ωn ) ( 1 jeśli w i-tej próbie byl sukces, := ωi = 0 jeśli w i-tej próbie byla porażka. Wówczas X1 , X2 , . . ., Xn sa, niezależnymi zmiennymi losowymi. Wyniknie to latwo z faktów, które przytoczymy w dalszej cześci wykladu. , Omówimy teraz pewne warunki które sa, równoważne niezależności zmiennych losowych. Dla prostoty, skupimy sie, na przypadku jednowymiarowym, ale poniższe twierdzenie pozostaje w mocy także w sytuacji gdy zmienne przyjmuja, wartości wektorowe. Twierdzenie 5.4. Zalóżmy, że X1 , X2 , . . ., Xn sa, zmiennymi losowymi. Nastepu, jace warunki sa, równoważne. , 1) X1 , X2 , . . ., Xn sa, niezależne. 2) Dla dowolnych B1 , B2 , . . ., Bn ∈ B(R) zdarzenia {X1 ∈ B1 }, {X2 ∈ B2 }, . . ., {Xn ∈ Bn } sa, niezależne. 3) P(X1 ,X2 ,...,Xn ) = PX1 ⊗ PX2 ⊗ . . . ⊗ PXn , 4) Dla dowolnego x = (x1 , x2 , . . . , xn ) ∈ Rn , F(X1 ,X2 ,...,Xn ) (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) . . . FXn (xn ). Dowód. Wiemy już, iż warunki 1) oraz 2) sa, równoważne. 2)⇒4). Mamy F(X1 ,X2 ,...,Xn ) (x1 , x2 , . . . , xn ) = P(X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ) = P(X1 ≤ x1 )P(X2 ≤ x2 ) . . . P(Xn ≤ xn ) = FX1 (x1 )FX2 (x2 ) . . . FXn (xn ). 4)⇒3) Niech X 0 bedzie n-wymiarowa, zmienna, losowa, o rozkladzie PX1 ⊗ PX2 ⊗ , . . . ⊗ PXn . Dla dowolnego x = (x1 , x2 , . . . , xn ) mamy FX 0 (x1 , x2 , . . . , xn ) = PX1 ⊗ . . . ⊗ PXn (−∞, x1 ] × (−∞, x2 ] × . . . × (−∞, xn ] = FX1 (x1 )FX2 (x2 ) . . . FXn (xn ) = F(X1 ,X2 ,...,Xn ) (x1 , x2 , . . . , xn ). 0 Na mocy twierdzenia o jednoznaczności, wynika stad , PX = P(X1 ,X2 ,...,Xn ) . 3)⇒1) Dla dowolnych podzbiorów borelowskich B1 , B2 , . . ., Bn prostej rzeczywstej mamy P(X1 ∈ B1 , X2 ∈ B2 , . . . , Xn ∈ Bn ) = P(X1 ,X2 ,...,Xn ) (B1 × B2 × . . . × Bn ) = PX1 (B1 )PX2 (B2 ) . . . PXn (Bn ) = P(X1 ∈ B1 )P(X2 ∈ B2 ) . . . P(Xn ∈ Bn ). Dowód jest zakończony. Przechodzimy teraz do bardziej szczególowego omówienia typów i przykladów rozkladów prawdopodobieństwa w Rd . 22 ADAM OSEKOWSKI , Definicja 5.6. Mówimy, że d-wymiarowa zmienna losowa X ma dyskretny (skokowy, atomowy) rozklad, jeśli P(X ∈ SX ) = 1, gdzie SX = {x ∈ Rd : P(X = x) > 0} jest zbiorem atomów rozkladu. Uwagi: 1) Dla dowolnej zmiennej d-wyiarowej X zbiór SX jest co najwyżej przeliczalny, gdyż [ SX = {x ∈ Rd : P(X = x) > 1/n}, n≥1 i każdy ze zbiorów wystepuj acych pod suma, jest skończony. , , 2) Rozklad dyskretny jest jednoznacznie wyznaczony przez P co najwyżej przeliczalny zbiór S ⊂ Rd oraz funkcje, p : S → [0, 1] taka, że x∈S p(x) = 1. Istotnie, , wówczas X P (B) = p(x). x∈S∩B Odnotujmy bardzo prosty fakt. Twierdzenie 5.5. Zmienne losowe X1 , X2 , . . ., Xn maja, rozklad skokowy wtedy i tylko wtedy, gdy zmienna (X1 , X2 , . . . , Xn ) ma rozklad skokowy. W przypadku gdy mamy do czynienia ze skończona, rodzina, zmiennych dyskretnych, warunek niezależności może być badany za pomoca, nastepuj acego prostego , , kryterium. Twierdzenie 5.6. Zmienne losowe X1 , X2 , . . ., Xn majace rozklady dyskretne , sa, niezależne wtedy i tylko wtedy, gdy dla dowolnych x1 ∈ SX1 , x2 ∈ SX2 , . . ., xn ∈ SXn zachodzi P(X1 = x1 , X2 = x2 , . . . , Xn = xn ) = P(X1 = x1 )P(X2 = x2 ) . . . P(Xn = xn ). Dowód. ⇒ Oczywiste: postulowana równość jest szczególnym przypadkiem warunku wystepuj acego w definicji niezależności. , , ⇐ Dla ulatwienia zapisu, przeprowadzimy dowód tylko dla n = 2; przypadek n ≥ 3 rozpatruje sie, analogicznie. Mamy P(X1 ∈ B1 , X2 ∈ B2 ) = P(X1 ∈ SX1 ∩ B1 , X2 ∈ SX2 ∩ B2 ) X = P(X1 = x1 , X2 = x2 ) x1 ∈SX1 ∩B1 ,x2 ∈SX2 ∩B2 = X X P(X1 = x1 )P(X2 = x2 ) = P(X1 ∈ B1 )P(X2 ∈ B2 ). x1 ∈SX1 ∩B1 x2 ∈SX2 ∩B2 Przyklady: 1) Rozklad skupiony w punkcie a ∈ Rd , ozn. δa . Zmienna X ma rozklad skupiony w a, jeśli P(X = a) = 1; SX = {a}. 2) Rozklad dwupunktowy skupiony w a, b ∈ Rd , a 6= b. Zmienna X ma rozklad dwupunktowy skupiony na {a, b} jeśli P(X = a) = p oraz P(X = b) = 1 − p dla pewnego p ∈ (0, 1). 3) Rozklad Bernoulliego (rozklad dwumianowy) z parametrami n, p (n = 1, 2, . . ., p ∈ (0, 1)), ozn. B(n, p). Zmienna X ma rozklad B(n, p), jeśli P(X = k) = WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I n k 23 pk (1−p)n−k , k ∈ SX = {0, 1, 2, . . . , n}. Innymi slowy, jeśli mamy dany schemat Bernoulliego skladajacy sie, z n prób o prawdopodobieństwie sukcesu p, to laczna , , liczba sukcesów ma rozklad Bernoulliego B(n, p). Dygresja. Zalóżmy, że zmienne X1 , X2 , . . ., Xn zadane sa, wzorem ( 1 jeśli w i-tej próbie byl sukces, (∗) Xi = 0 w przeciwnym przypadku. Wówczas jak latwo sprawdzić korzystajac , z Twierdzenia 5.6, zmienne X1 , X2 , . . ., Xn sa, niezależne. Z drugiej strony, X1 + X2 + . . . + Xn jest laczn a, liczba, sukcesów. , Otrzymaliśmy wiec nast epuj acy fakt: , , , Zalóżmy, że X1 , X2 , . . ., Xn sa, niezależnymi zmiennymi losowymi o tym samym rozkladzie (czasami te dwie wlasności bedziemy w skrócie oznaczać przez i.i.d.) , zadanym przez P(Xi = 1) = p = 1 − P(Xi = 0). Wówczas zmienna X1 + X2 + . . . + Xn ma rozklad B(n, p). Skorzystaliśmy tu z nastepuj acej prostej obserwacji: , , Twierdzenie 5.7. Jeśli d-wymiarowe zmienne X, Y maja, ten sam rozklad oraz f : Rd → Rk jest funkcja, borelowska, , to f (X) oraz f (Y ) maja, ten sam rozklad. 4) Rozklad geometryczny z parametrem p (0 < p < 1), ozn. Geom(p). Zmienna X ma taki rozklad, jeśli P(X = k) = (1 − p)k p, k ∈ SX = {0, 1, 2, . . .}. Interpretacja: zalóżmy, iż dany jest schemat Bernoulliego o nieskończonej liczbie prób i prawdopodobieństwie sukcesu p. Niech X oznacza liczbe, porażek poprzedzajacych pojawienie sie, pierwszego sukcesu. Wówczas X ma rozklad geometryczny , z parametrem p. Istotnie, wprowadzajac , zmienne X1 , X2 , . . . jak w poprzednim przykladzie, możemy zapisać P(X = k) = P(X1 = 0, X2 = 0, . . . , Xk = 0, Xk+1 = 1) = P(X1 = 0)P(X2 = 0) . . . P(Xk = 0)P(Xk+1 = 1) = (1 − p)k p. Czasami w literaturze rozklad geometryczny jest definiowany nieco inaczej: mianowicie, Y ∼Geom(p) jeśli dla dowolnej k ∈ SY = {1, 2, . . .}, mamy P(Y = k) = (1 − p)k−1 p. Wówczas zmienna ta ma interpretacje, jako czas oczekiwania na pierwszy sukces w nieskończonym schemacie Bernoulliego o prawdopodobieństwie sukcesu p. Jest ona zwiazana z poprzednia, zmienna, zależnościa, Y = X + 1. , 5) Rozklad Poissona z parametrem λ (λ > 0), ozn. Pois(λ). Zmienna X ma taki rozklad, jeśli λk −λ e , k ∈ SX = {0, 1, 2, . . .}. k! Rozklad Poissona powstaje przez odpowiednie przejście graniczne dla rozkladów Bernoulliego. Ściślej, zachodzi nastepuj acy fakt (który pozostawiamy bez dowodu). , , P(X = k) = Twierdzenie 5.8 (Poissona). Zalóżmy, że (pn )n≥1 jest ciagiem liczb z przedzialu , (0, 1) spelniajacym warunek lim np = λ > 0. Wówczas dla dowolnej liczby n→∞ n , k ∈ {0, 1, 2, . . .}, n k λk −λ lim pn (1 − pn )n−k = e . n→∞ k k! 24 ADAM OSEKOWSKI , Innymi slowy, jeśli Xn ma rozklad B(n, p), X ma rozklad Pois(λ) i np ≈ λ, to rozklady Xn oraz X sa, bliskie. Przechodzimy do kolejnej ważnej rozdziny rozkladów. Definicja 5.7. Mówimy, że zmienna losowa d-wymiarowa X ma rozklad ciag , ly, jeśli istnieje funkcja borelowska g : Rd → [0, ∞) taka, że dla dowolnego podzbioru borelowskiego B ⊆ Rd , Z P(X ∈ B) = PX (B) = g(x)dx. B Funkcje, g nazywamy wówczas gestości a, rozkladu. , Uwagi: 1. Jeśli PX jest ciag , ly, to SX = ∅, ale nie na odwrót (warunkiem koniecznym i dostatecznym jest równość P(X ∈ B) = 0 dla dowolnego B ⊂ Rd o zerowej mierze Lebesgue’a). 2. Jeśli g : Rd → [0, ∞) jest gestości a, pewnego rozkladu µ oraz g̃ : Rd → [0, ∞) , jest funkcja, borelowska, a, µ wtedy i tylko wtedy, gdy g = g̃ p.w.. , to g̃ jest gestości , Istotnie, implikacja ⇐ jest oczywista: Z Z µ(A) = g(x)dx = g̃(x)dx. A A R R Przechodzimy do implikacji ⇒: mamy B g = B g̃ dla dowolnego zbioru borelowskiego B. Zalóżmy, że teza nie zachodzi; wówczas jeden ze zbiorów {g > g̃}, {g < g̃} ma dodatnia, miare. lóżmy, że , Bez straty ogólności zaR R jest to pierwszy zbiór, i oznaczmy go przez B. Jest to zbiór borelowski, i B g > B g̃, sprzeczność. R 3. Każda funkcja borelowska g : Rd → [0, ∞) taka, że Rd g(x)dx = 1 jest R gestości a, pewnego rozkladu, zadanego przez µ(B) = B g(x)dx dla B ∈ B(Rd ). , 4. Zmienna X ma rozklad ciag , ly wtedy i tylko wtedy, gdy istnieje funkcja borelowska g : Rd → [0, ∞) taka, że Z x1 Z x2 Z xd FX (x1 , x2 , . . . , xd ) = ... g(y1 , y2 , . . . , yd )dyd dyd−1 . . . dy1 . −∞ −∞ −∞ Istotnie: ⇒ Mamy F (x1 , . . . , xd ) = P((X1 , . . . , Xd ) ∈ (−∞, x1 ] × . . . × (−∞, xd ]) i wystarczy skorzystać z definicji gestości. , R ⇐ Zbiegajac , z x1 , x2 , . . ., xd do nieskończoności widzimy, że Rd g(x)dx = 1. Niech µ bedzie rozkladem prawdopodobieństwa w Rd , zadanym przez gestość g , , (patrz Uwaga 3 powyżej). Wówczas, na mocy poprzedniej implikacji mamy FX = Fµ , a zatem, z twierdzenia o jednoznaczności, PX = µ. 5. Jako wniosek z poprzedniej uwagi, otrzymujemy nastepuj acy fakt. , , Twierdzenie 5.9. Zalóżmy, że X jest d-wymiarowa, zmienna, losowa, o dystrybuancie F i niech g(x1 , x2 , . . . , xd ) = Wówczas jeśli Przyklad: R Rd ∂dF (x1 , x2 , . . . , xd ) ∂x1 ∂x2 . . . ∂xd p.w.. g = 1, to X ma rozklad ciag a, jest funkcja g. , ly i jego gestości , WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I Losujemy punkt z kola o promieniu R. środka kola. Wówczas, jak już wiemy, 0 FX (t) = t2 /R2 1 25 Niech X oznacza odleglość punktu od dla t < 0, dla 0 ≤ t < R, dla t ≥ R. Różniczkujac, , dostajemy ( g(t) = Latwo sprawdzić, że R R 0 2t/R2 dla t < 0 lub t ≥ R, dla 0 ≤ t < R. g = 1, a wiec a, rozkladu zmiennej X. , g jest gestości , Twierdzenie 5.10. Jeśli zmienna X = (X1 , X2 , . . . , Xd ) ma rozklad ciag , ly, to jej rozklady brzegowe też sa, ciag le. Ponadto , Z gXi (x) = g(x1 , x2 , . . . , xi−1 , x, xi+1 , . . . , xd )dx1 . . . dxi−1 dxi+1 . . . dxd . Rd−1 Ogólniej, aby otrzymać gestość wektora (Xi1 , Xi2 , . . . , Xik ), musimy odcalkować , gestość X po wszystkich xi dla i ∈ / {i1 , i2 , . . . , ik }. , Dowód. Mamy i−1 d−i Z P(Xi ∈ B) = P((X1 , X2 , . . . , Xd ) ∈ R ×B×R )= g Ri−1 ×B×Rd−i Z Z = g(x)dx1 . . . dxi−1 dxi+1 . . . dxn dxi . B Ri−1 ×Rd−i W przypadku gdy rozklad brzegowy jest wielowymiarowy, rozumowanie jest analogiczne. Uwaga: Implikacja w druga, strone, nie zachodzi: wystarczy wziać , dowolna, jednowymiarowa, zmienna, losowa, X o rozkladzie ciag , lym i rozważyć wektor (X, X) (który rozkladu ciag , lego już nie posiada, gdyż jest skoncentrowany na zbiorze {(x, x) : x ∈ R}, który ma zerowa, miare, Lebesgue’a). Ważne przyklady rozkladów ciag , lych 1) Rozklad jednostajny (równomierny) na zbiorze D, ozn. U(D). Zalóżmy, że D ∈ B(Rd ) spelnia warunek 0 < |D| < ∞. Zmienna losowa X ma rozklad jednostajny na D, jeśli ma gestość , ( 1/|D| dla x ∈ D, 1 1D (x) = g(x) = |D| 0 dla x ∈ / D. R Dla dowolnego B ∈ B(Rd ) mamy wówczas P(X ∈ B) = B g(x)dx = |B∩D| |D| . W szczególności, jeśli d = 1 oraz D = [a, b], dostajemy rozklad o gestości g(x) = , 1 1 (x) i dystrybuancie b−a [a,b] dla x < a, Z x 0 g(s)ds = (x − a)/(b − a) dla a ≤ x < b, FX (x) = −∞ 1 dla x ≥ b. 26 ADAM OSEKOWSKI , 2) Rozklad wykladniczy z parametrem λ (λ > 0), ozn. Exp(λ). Zmienna losowa X ma taki rozklad, jeśli ma gestość , ( 0 dla x < 0, g(x) = λe−λx 1[0,∞) (x) = −λx λe dla x ≥ 0. Jak latwo policzyć, wówczas ( 0 FX (x) = 1 − e−λx dla x < 0, dla x ≥ 0. Rozklad wykladniczy sluży do modelowania czasu oczekiwania na zjawisko calkowicie losowe. Zalóżmy, że nieujemna zmienna losowa X oznacza taki czas oczekiwania, a calkowita, losowość zapisujemy poprzez wlasność braku pamieci , : P(X > t + s|X > s) = P(X > t) dla wszystkich s, t ≥ 0. Oznaczajac , f (t) = P(X > t), widzimy, iż powyższe równanie jest równoważne f (t + s) = f (t)f (s). Dodatkowo, f jest nierosnaca, prawostronnie ciag , , la oraz −λx spelnia f (0) = 1, limt→∞ f (t) = 0, skad już wynika, że f (t) = e dla pewnego , λ > 0, a zatem X ma rozklad wykladniczy. 3) Rozklad Gaussa (rozklad normalny). Zalóżmy, że m jest ustalonym wektorem w Rd , a A jest symetryczna, i dodatnio określona, macierza, d × d. Zmienna losowa X ma rozklad normalny (z parametrami m i A), jeśli jej gestość wynosi , √ 1 detA g(x) = exp − hA(x − m), x − mi 2 (2π)d/2 (h·, ·i oznacza iloczyn skalarny w Rd ). Sprawdźmy, że funkcja g istotnie calkuje sie, do 1. Z algebry liniowej wiadomo, że istnieje izometria (macierz ortogonalna) B : Rd → Rd taka, że B t AB ma postać diagonalna: , a1 0 . . . 0 0 a2 . . . 0 . B t AB = ... 0 0 . . . ad Podstawiajac , x − m = By, dostajemy √ Z Z detA 1 g(x)dx = exp − hABy, Byi |detB|dy 2 (2π)d/2 Rd Rd √ Z detA 1 −1 = exp − hB ABy, yi dy 2 (2π)d/2 Rd ! √ Z d detA 1X 2 = exp − ak yk dy 2 (2π)d/2 Rd k=1 √ d Z 2 detA Y = e−ak yk /2 dyk d/2 (2π) k=1 R √ Z d Y 2 detA 1 −zk /2 √ =√ e dzk = 1, a1 a2 . . . ad 2π R k=1 WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 27 √ gdzie w przedostatnim kroku dokonaliśmy podstawienia zk = ak yk , a w ostatnim skorzystaliśmy z równości Z 2 1 detA = a1 a2 . . . ad oraz √ e−x /2 dx = 1. 2π R W szczególnym przypadku d = 1, jeśli m ∈ R i σ > 0 (i za macierz A weźmiemy [σ −2 ]), otrzymujemy gestość , (x − m)2 1 exp − , x ∈ R. g(x) = √ 2σ 2 2πσ Rozklad ten oznaczamy N (m, σ 2 ). W szczególności, rozklad N (0, 1) nazywamy standardowym rozkladem normalnym (standardowym rozkladem Gaussa). W przypadku zmiennych o rozkladzie ciag ace kryterium , lym, mamy nastepuj , , niezależności. Twierdzenie 5.11. Zalóżmy, że g1 , g2 , . . ., gn sa, gestościami. Wówczas zmienne , losowe X1 , X2 , . . ., Xn o rozkladach z gestościami g1 , g2 , . . ., gn sa, niezależne , wtedy i tylko wtedy, gdy zmienna (X1 , X2 , . . . , Xn ) ma gestość g(x1 , x2 , . . . , xn ) = , g1 (x1 )g2 (x2 ) . . . gn (xn ). Dowód. ⇒ Mamy, na mocy niezależności zmiennych, F(X1 ,X2 ,...,Xn ) (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) . . . FXn (xn ) Z x1 Z x2 Z xn = g1 (y1 )dy1 g2 (y2 )dy2 . . . gn (yn )dyn −∞ −∞ Z−∞ = g1 (y1 )g2 (y2 ) . . . gn (yn )dy1 dy2 . . . dyn , (−∞,x1 ]×...×(−∞,xn ] skad , natychmiast wynika teza. ⇐ Piszemy ten sam ciag , równości, zaczynajac , od końca. Przyklad: Zmienne X1 , X2 , . . ., Xn o rozkladach jednostajnych na D1 , D2 , . . ., Dn sa, niezależne wtedy i tylko wtedy, gdy (X1 , X2 , . . . , Xn ) ma rozklad jednostajny na D1 × D2 × . . . × Dn . Wynika to natychmiast z tego, że gestość rozkladu , jednostajnego na D1 × D2 × . . . × Dn wynosi 1D1 ×D2 ×...×Dn (x1 , x2 , . . . , xn ) 1D1 (x1 ) 1D2 (x2 ) 1D (xn ) = · · ... · n , |D1 × D2 × . . . × Dn | |D1 | |D2 | |Dn | a czynniki po prawej stronie to gestości rozkladów jednostajnych na D1 , D2 , . . ., , Dn , odpowiednio. W przypadku gdy zmienne losowe sa, niezależne i maja, rozklady ciag , le, istnieje efektywna metoda liczenia rozkladu ich sumy. Zachodzi nastepuj acy fakt. , , Twierdzenie 5.12. Zalóżmy, że X1 , X2 sa, niezależnymi, jednowymiarowymi zmiennymi losowymi o rozkladach z gestościami g1 oraz g2 , odpowiednio. Wówczas , zmienna X1 + X2 ma rozklad z gestości a , Z , g1 ∗ g2 (x) = g1 (x − y)g2 (y)dy. R Widzimy wiec, że g1 ∗ g2 to splot gestości g1 i g2 . , , 28 ADAM OSEKOWSKI , Dowód. Dla dowolnego B ∈ B(R) mamy P(X1 + X2 ∈ B) = P(X1 ,X2 ) ({(x, y) : x + y ∈ B}) ZZ = g(X1 ,X2 ) (x, y)dxdy {(x,y):x+y∈B} ZZ = g1 (x)g2 (y)dxdy {(x,y):x+y∈B} ZZ = 1B (x + y)g1 (x)g2 (y)dxdy 2 Z RZ = 1B (x + y)g1 (x)dx g2 (y)dy R R Z Z = 1B (z)g1 (z − y)dz g2 (y)dy R R Z Z = g1 (z − y)g2 (y)dy dz R ZB = g1 ∗ g2 (z)dz. B Przyklady: 1) Jeśli X1 , X2 sa, niezależnymi zmiennymi losowymi o rozkladzie jednostajnym na [0, 1], to g1 (x) = g2 (x) = 1[0,1] (x), a wiec , X1 + X2 ma gestość , Z g1 ∗ g2 (x) = 1[0,1] (x − y)1[0,1] (y)dy R Z = 1[x−1,x] (y)1[0,1] (y)dy R 0 dla x < 0, x dla 0 ≤ x < 1, = [x − 1, x] ∩ [0, 1] = 2 − x dla 1 ≤ x < 2, 0 dla x ≥ 2. 2) Zalóżmy, że X1 , X2 sa, niezależnymi zmiennymi losowymi o rozkladach N (m1 , σ12 ), N (m2 , σ22 ): zatem (x − mi )2 1 exp − , i = 1, 2. gi (x) = √ 2σi2 2πσi Wówczas X1 + X2 ma gestość , Z 1 (x − y − m1 )2 (y − m2 )2 g1 ∗ g2 (x) = exp − − dy 2πσ1 σ2 R 2σ12 2σ22 1 (x − m1 − m2 )2 =p exp − 2(σ12 + σ22 ) 2π(σ12 + σ22 ) (dowód ostatniej równości pozostawiamy jako ćwiczenie). Zatem X1 +X2 ∼ N (m1 + m2 , σ12 + σ22 ). I ogólniej, przez indukcje: jeśli X1 , X2 , . . ., Xn sa, niezależnymi , zmiennymi losowymi o rozkladach N (m1 , σ12 ), N (m2 , σ22 ), . . ., N (mn , σn2 ), to X1 + X2 + . . . + Xn ma rozklad N (m1 + m2 + . . . + mn , σ12 + σ22 + . . . + σn2 ). WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 29 6. Zadania 1. Rzucamy moneta, orla wynosi , dla której prawdopodobieństwo wypadniecia , p ∈ (0, 1], aż do momentu wyrzucenia k orlów (lacznie, niekoniecznie pod rzad). , , Niech X oznacza liczbe, rzutów. Wyznaczyć rozklad zmiennej X. 2. Rzucamy dwa razy kostka. , Niech X, Y oznaczaja, minimum oraz maksimum z uzyskanych liczb oczek, odpowiednio. Wyznaczyć rozklady zmiennych X, Y oraz sprawdzić, że zmienne X i 7 − Y maja, ten sam rozklad. 3. Na skrzyżowaniu ulic na pewnym kierunku światlo czerwone świeci sie, minute, , a światlo zielone - pól minuty (zakladamy, że nie ma żóltego światla). Samochód dojeżdża do skrzyżowania (w danym kierunku) w losowym momencie czasowym. Niech X oznacza czas spedzony na skrzyżowaniu; zakladamy, że nie ma korka. , a) Wyznaczyć rozklad zmiennej X. b) Zalóżmy, że po 20 sekundach samochód wciaż , nie przejechal skrzyżowania; jakie jest prawdopodobieństwo, że opuści je w przeciagu najbliższych 10 sekund? , 4. Dystrybuanta zmiennej losowej X dana jest wzorem 0 dla t < −1, 1 (t + 1) dla − 1 ≤ t < 0, FX (t) = 23 dla 0 ≤ t < 4, 4 1 dla t ≥ 4. Obliczyć P(X = −5), P(2 < X ≤ 5), P(X = 4), P(−1 < X < 0). 5. Zmienna losowa X ma rozklad o dystrybuancie dla t < 0, 0 F (t) = t/2 dla 0 ≤ t < 2, . 1 dla t ≥ 2. Wyznaczyć dystrybuante, zmiennych Y = max(X, 1) oraz Z = min(X, X 2 ). 6. Niech F : R → [0, 1] bedzie funkcja, prawostronnie ciag , la, , niemalejac , a, , taka, że , limt→∞ F (t) = 1 oraz limt→−∞ F (t) = 0. Wykazać, że F jest dystrybuanta, pewnej zmiennej losowej w pewnej przestrzeni probabilistycznej. 7. Z talii 52 kart losujemy ze zwracaniem pieć , razy po jednej karcie. Niech X oznacza liczbe, wyciagni etych pików, Y liczb e wyci agni etych kierów, a Z - liczbe, , , , , , wyciagni etych waletów. Czy zmienne X, Y s a niezależne? Czy zmienne X, Z sa, , , , niezależne? 8. Zmienne losowe X1 , X2 , . . ., Xn (n ≥ 6) sa, niezależne i maja, ten sam rozklad, zadany wzorem P(Xi = −1) = P(Xi = 1) = 1/2, i = 1, 2, . . . , n. a) Czy zmienne X1 + X2 , X1 X2 sa, niezależne? b) Czy zmienne X1 + X2 , X3 , X4 + X5 X6 sa, niezależne? c) Czy zmienne X1 , X1 X2 , . . ., X1 X2 . . . Xn sa, niezależne? 9. Zmienne losowe X, Y sa, niezależne, przy czym dla n = 1, 2, . . . mamy P(X = n) = (1 − p)n−1 p oraz P(Y = n) = (1 − q)n−1 q. Obliczyć P(X ≤ Y ). 10. Dla dowolnej liczby ω ∈ [0, 1], niech Xn (ω) oznacza n-ta, cyfre, rozwiniecia , dwójkowego ω, n = 1, 2, . . . (jeśli ω posiada dwa różne rozwiniecia, to bierzemy to, , które zawiera skończona, liczbe, jedynek). Wykazać, że X1 , X2 , . . . sa, niezależnymi zmiennymi losowymi na przestrzeni probabilistycznej ([0, 1], B([0, 1]), | · |). 30 ADAM OSEKOWSKI , 11. Zmienne X, Y sa, niezależne, przy czym X nie ma atomów. Udowodnić, że P(X = Y ) = 0. 12. Zmienne losowe X1 , X2 , . . ., Xn sa, niezależne i maja, rozklady Poissona z parametrami λ1 , λ2 , . . ., λn . Udowodnić, że X1 +X2 +. . .+Xn ma rozklad Poissona z parametrem λ1 + λ2 + . . . + λn . 13. Zmienna losowa X jest niezależna od siebie samej. Udowodnić, że istnieje c takie, że P(X = c) = 1. 14. Zmienna losowa X ma rozklad wykladniczy z parametrem 1. a) Wyznaczyć rozklady zmiennych [X] oraz {X}. b) Czy zmienne te sa, niezależne? Uwaga: [x], {x} oznaczaja, cześć calkowita, i cześć ulamkowa, liczby x ∈ R, odpowied, , nio. 15. Zmienna losowa X ma rozklad jednostajny na przedziale [0, 1]. Wyznaczyć rozklad zmiennej Y = − ln X. 16. Zmienna losowa X ma rozklad normalny N (0, 1). Wyznaczyć gestości zmi, ennych Y = eX , Z = X 2 . 17. Tekst broszury zawiera n = 100000 znaków. W trakcie pisania (na komputerze) każdy znak może zostać blednie wprowadzony z prawdopodobieństwem , 0, 001. Z kolei redaktor znajduje każdy z bledów z prawdopodobieństwem 0, 9, po , czym tekst wraca do autora, który znajduje każdy z pozostalych bledów z praw, dopodobieństwem 0, 5. Oszacować prawdopodobieństwo tego, że po obu korektach broszura bedzie zawierala nie wiecej niż 3 bledy. , , , 18. Zmienne losowe X1 , X2 , . . ., Xn sa, niezależne i maja, rozklady wykladnicze z parametrami λ1 , λ2 , . . ., λn , odpowiednio. Wyznaczyć rozklad zmiennej Y = max(X1 , X2 , . . . , Xn ). 19. Zmienna losowa (X, Y ) ma rozklad z gestości a, , g(x, y) = Cxy1{0≤x≤y≤1} . a) Wyznaczyć C. b) Obliczyć P(X + Y ≤ 1). c) Wyznaczyć rozklad zmiennej X/Y . d) Czy X, Y sa, niezależne? e) Czy X/Y , Y sa, niezależne? 20. Zmienne X, Y sa, niezależne i maja, rozklad jednostajny na przedziale [−1, 1]. Obliczyć P(X 2 + Y 2 ≤ 1). 21. Zmienna losowa X ma rozklad Cauchy’ego, tzn. z gestości a, , 1 1 . g(x) = π 1 + x2 Udowodnić, że zmienne X, 1/X maja, ten sam rozklad. R∞ 22. Niech Γ(r) = 0 xr−1 e−x dx, r > 0. Mówimy, że zmienna X ma rozklad gamma z parametrami λ, r (ozn. Γ(λ, r)), jeśli ma gestość , gλ,r (x) = 1 r r−1 −λx λ x e 1[0,∞) (x). Γ(r) a) Udowodnić, że jeśli X, Y sa, niezależnymi zmiennymi losowymi, X ∼ Γ(λ, r), Y ∼ Γ(λ, s), to X + Y ∼ Γ(λ, r + s). WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 31 b) Udowodnić, że jeśli X1 , X2 , . . ., Xn sa, niezależnymi zmiennymi losowymi o rozkladzie Exp(λ), to X1 + X2 + . . . + Xn ma rozklad Γ(λ, n). c) Udowodnić, że jeśli X1 , X2 , . . ., Xn sa, niezależnymi zmiennymi losowymi o rozkladzie N (0, 1), to X12 + X22 + . . . + Xn2 ma rozklad Γ(1/2, n/2) (jest to tzw. rozklad chi kwadrat o n stopniach swobody. 23. Zmienne losowe X, Y sa, niezależne i maja, rozklad wykladniczy z parametrem 1. Udowodnić, że zmienne X/Y oraz X + Y sa, niezależne. 32 ADAM OSEKOWSKI , 7. Parametry rozkladu zmiennej losowej (wartość oczekiwana i wariancja) Definicja 7.1. (i) Zalóżmy, że X jest jednowymiarowa, zmienna, losowa, na przestrzeni probabilistycznej (Ω, F, P). Mówimy, że X ma wartość oczekiwana, , jeśli istnieje R calka Ω X(ω)dP(ω). Calke, te, nazywamy wartościa, oczekiwana, (średnia) , zmiennej X i oznaczamy symbolem EX. (ii) Jeśli E|X| < ∞, to mówimy, że X jest calkowalna i oznaczamy to przez X ∈ L1 (Ω, F, P). p (iii) Analogicznie, zalóżmy, że p jest pewna, dodatnia, liczba. , Jeśli E|X| < ∞, to p mówimy że X jest calkowalna z p-ta, poteg a i oznaczamy to przez X ∈ L (Ω, F, P). , , (iv) Mówimy, że zmienna losowa X jest ograniczona, jeśli istnieje liczba u taka, że P(|X| ≥ u) = 0. Oznaczenie: X ∈ L∞ (Ω, F, P). Uwaga: Powyższe definicje maja, także sens gdy X jest zmienna, wielowymiarowa: o tym mowa w dalszej cześci wykladu. , bedzie , , Odnotujmy dwie ważne nierówności: 1) Nierówność Minkowskiego. Jeśli X, Y sa, zmiennymi losowymi oraz 1 ≤ p < ∞, to (E|X + Y |p )1/p ≤ (E|X|p )1/p + (E|Y |p )1/p . Istnieje wersja tej nierówności dla p = ∞: mianowicie, ess sup |X + Y | ≤ ess sup |X| + ess sup |Y |, gdzie ess sup ξ = inf{u : P(ξ ≥ u) = 0} to tzw. istotne supremum zmiennej ξ. 2) Nierówność Höldera. Zalóżmy, że X, Y sa, zmiennymi losowymi oraz p, q ∈ (1, ∞) sa, liczbami harmonicznie sprzeżonymi, tzn. spelniajacymi równość p1 + 1q = 1. , , Wówczas E|XY | ≤ (E|X|p )1/p (E|Y |q )1/q . Uwaga: Bezpośrednio z definicji widzimy, że wartość oczekiwana jest operatorem liniowym: ściślej, jeśli X1 , X2 , . . . , Xn sa, calkowalnymi zmiennymi losowymi oraz a1 , a2 , . . . , an ∈ R, to zmienna a1 X1 + a2 X2 + . . . + an Xn jest calkowalna oraz E(a1 X1 + a2 X2 + . . . + an Xn ) = a1 EX1 + a2 EX2 + . . . + an EXn . Z analizy znamy nastepuj ace trzy twierdzenia o przechodzeniu do granicy pod , , znakiem calki. Twierdzenie 7.1 (Lebesgue’a o monotonicznym przechodzeniu do granicy). Zalóżmy, że X1 , X2 , . . . sa, nieujemnymi i calkowalnymi zmiennymi losowymi, przy czym Xn (ω) ≤ Xn+1 (ω), n = 1, 2, . . .. Wówczas E lim Xn = lim EXn . n→∞ n→∞ W szczególności, zmienna limn→∞ Xn jest calkowalna wtedy i tylko wtedy, gdy limn→∞ EXn < ∞. Twierdzenie 7.2 (Lebesgue’a o zbieżności zmajoryzowanej). Zalóżmy, że X1 , X2 , . . . sa, zmiennymi losowymi majoryzowanymi przez pewna, zmienna, calkowalna, η: |Xn | ≤ η dla n = 1, 2, . . .. Jeśli istnieje granica X(ω) = limn→∞ Xn (ω) dla prawie wszystkich ω (prawie wszystkich w sensie miary P), to limn→∞ EXn = EX. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 33 Twierdzenie 7.3 (Lemat Fatou). Zalóżmy, że X1 , X2 , . . . sa, nieujemnymi zmiennymi losowymi. Wówczas E lim inf n→∞ Xn ≤ lim inf n→∞ EXn . Dygresja: Zalóżmy, że X, Y sa, zmiennymi losowymi. Mówimy, że X i Y sa, równe prawie na pewno, jeśli zachodzi równość P(X 6= Y ) = 0. Zalóżmy, że p ∈ [1, ∞] i określmy ( (E|X|p )1/p dla 1 ≤ p < ∞, ||X||p = ess sup |X| dla p = ∞. Jeśli utożsamimy zmienne losowe równe p.n., to || · ||p jest norma, na Lp (Ω, F, P). Co wiecej, przestrzeń Lp (Ω, F, P) wraz z ta, norma, jest liniowa i zupelna (czyli jest , przestrzenia, Banacha). Uwaga: Na mocy nierówności Höldera, mamy ||X||p ≤ ||X||p0 jeśli p < p0 . p0 p Dostajemy stad , inkluzje, L (Ω, F, P) ⊂ L (Ω, F, P). Definicja 7.2. Dla p ∈ (0, ∞), liczbe, E|X|p nazywamy p-tym momentem zmiennej X. Twierdzenie 7.4 (Nierówność Czebyszewa). Zalóżmy, że X jest zmienna, losowa, oraz f : [0, ∞) → [0, ∞) jest funkcja, niemalejac , a, taka, , że f (x) > 0 dla x > 0. Wówczas dla dowolnej liczby λ > 0, Ef (|X|) . P(|X| ≥ λ) ≤ f (λ) p W szczególności, biorac , f (x) = x , p > 0, dostajemy P(|X| ≥ λ) ≤ E|X|p . λp Dowód. Mamy Ef (|X|) ≥ Ef (|X|)1{|X|≥λ} ≥ Ef (λ)1{|X|≥λ} = f (λ)P(|X| ≥ λ). Definicja 7.3. Zalóżmy, że X jest jednowymiarowa, zmienna, losowa, calkowalna, z kwadratem (tzn. X ∈ L2 ). Liczbe, VarX = E(X − EX)2 nazywamy wariancja, zmiennej X. Jak latwo sprawdzić, wariancja posiada nastepuj ace wlasności. Przy zalożeniu, , , że X ∈ L2 , mamy: (a) VarX = EX 2 − (EX)2 , (b) VarX ≥ 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X ma rozklad jednopunktowy. (c) Var(aX + b) = a2 VarX dla dowolnych liczb rzeczywistych a, b. (d) Z nierówności Czebyszewa, dla dowolnej liczby λ > 0, Var X . P(|X − EX| ≥ λ) ≤ λ2 Odnotujmy kolejny ogólny fakt. Twierdzenie 7.5 (O zamianie zmiennych). Zalóżmy, że X jest d-wymiarowa, zmienna, losowa, na (Ω, F, P), a f : Rd → R jest funkcja, borelowska. , Wówczas Z Ef (X) = f (x)PX (dx), Rd o ile jedna z tych calek istnieje. 34 ADAM OSEKOWSKI , Dowód. Stosujemy metode, komplikacji funkcji. (i) Najpierw zalóżmy, że f jest funkcja, charakterystyczna, pewnego zbioru B: f = 1B . Wówczas dowodzona tożsamość przyjmuje postać P(X ∈ B) = PX (B), która oczywiście jest prawdziwa. (ii) Jeśli f jest funkcja, prosta, , tzn. kombinacja, liniowa, funkcji charakterystycznych, to badana równość zachodzi, gdyż jej obie strony zależa, od f w sposób liniowy. (iii) Zalóżmy, że f ≥ 0. Wówczas f jest granica, punktowa, pewnego niemalejacego , ciagu (fn )n≥0 nieujemnych funkcji prostych. Na mocy (ii), mamy , Z Efn (X) = fn (x)PX (dx), n = 1, 2, . . . , Rd a wiec , wystarczy zbiec z n → ∞ oraz skorzystać z twierdzenia Lebesgue’a o monotonicznym przejściu do granicy. (iv) Jeśli f jest dowolna, to rozbijamy ja, na różnice, dwóch nieujemnych funkcji borelowskich: f = f+ − f− = f 1{f ≥0} + f 1{f <0} , stosujemy (iii) do funkcji f+ i f− , a nastepnie odejmujemy stronami uzyskane dwie tożsamości. Stad , teza. , Z powyższego faktu wynikaja, nastepuj ace , , Wnioski: R 1) Jeśli X jest zmienna, losowa, , to EX = R xPX (dx) oraz Z Z Var X = (x − EX)2 PX (dx) = x2 PX (dx) − (EX)2 R R (o ile te wielkości istnieja). , 2) Wartość oczekiwana i wariancja zależa, tylko od rozkladu. Jak latwo widać z powyższego twierdzenia, jeśli X jest d-wymiarowa, zmienna, o rozkladzie dyskretnym, a f : Rd → R jest funkcja, borelowska, , to Z X X Ef (X) = f (x)PX (dx) = f (x)PX ({x}) = f (x)P(X = x), Rd x∈SX x∈SX o ile wartość oczekiwana istnieje. Tak wiec, w szczególności, dla d = 1 mamy , X X EX = xPX ({x}) = xP(X = x), x∈SX Var X = EX 2 − (EX)2 = X x∈SX x2 PX ({x}) − (EX)2 = x∈SX X x2 P(X = x) − (EX)2 . x∈SX W przypadku gdy zmienna ma rozklad ciag , ly, jej parametry wyznaczamy przy użyciu nastepuj acego faktu. , , Twierdzenie 7.6. Zalóżmy, że d-wymiarowa zmienna losowa X ma rozklad z gestości a, g. Wówczas dla dowolnej funkcji borelowskiej f : Rd → R mamy , Z Z Ef (X) = f (x)PX (dx) = f (x)g(x)dx, Rd Rd o ile wartość oczekiwana istnieje. Dowód. Tak jak wyżej, stosujemy metode, komplikacji funkcji. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 35 Wobec tego, jeśli X jest jednowymiarowa, zmienna, losowa, o rozkladzie z gestości a, , g, to Z Z EX = xg(x)dx, x2 g(x)dx − (EX)2 . Var X = R R Przyklady: 1) Zalóżmy, że PX = δa , a ∈ R. Wówczas EX = a · 1 = a, Var X = EX 2 − (EX)2 = a2 − a2 = 0. 2) Przypuśćmy, że PX to rozklad dwupunktowy, skupiony w {a, b}, taki że PX ({a}) = p, PX ({b}) = 1 − p, 0 < p < 1. Wówczas EX = a · p + b · (1 − p), Var X = a2 · p + b2 · (1 − p) − (ap + b(1 − p))2 = (a − b)2 p(1 − p). 3) Zalóżmy teraz, że PX = B(n, p): PX ({k}) = nk pk (1−p)n−k , k = 0, 1, . . . , n. Wówczas, jak za chwile, policzymy, EX = np oraz Var X = np(1 − p). Podejście wprost z definicji jest niewygodne: na przyklad, mamy n X n k EX = k p (1 − p)n−k k k=0 i trzeba ,,zwinać” te, sume. , , rachunków, rozważmy niezależne zmienne , Aby uniknać losowe X1 , X2 , . . ., Xn o tym samym rozkladzie dwupunktowym zadanym przez P(Xi = 1) = p = 1 − P(Xi = 0). Wówczas, jak już wiemy, X1 + X2 + . . . + Xn ma rozklad B(n, p), a zatem, z liniowości wartości oczekiwanej, EX = E(X1 + X2 + . . . + Xn ) = EX1 + EX2 + . . . + EXn = np. Ponadto, EX 2 = E(X1 + X2 + . . . + Xn )2 = n X k=1 EXk2 + 2 X EXk X` . k<` Dla dowolnych różnych k, `, zmienna Xk X` ma rozklad dwupunktowy skoncentrowany na {0, 1}, przy czym P(Xk X` = 1) = P(Xk = 1, X` = 1) = P(Xk = 1)P(X` = 1) = p2 , na mocy niezależności Xk oraz X` . Zatem n 2 2 EX = n · p + 2 p = np + n(n − 1)p2 2 i w konsekwencji, Var X = EX 2 − (EX)2 = np − np2 = np(1 − p). 4) Zalóżmy nastepnie, że zmienna X ma rozklad Poissona z parametrem λ > 0: , k PX ({k}) = e−λ λk! , k = 0, 1, 2, . . .. Wówczas EX = ∞ X k=0 ∞ k · e−λ X λk−1 λk = λe−λ = λ. k! (k − 1)! k=1 36 ADAM OSEKOWSKI , Podobnie obliczamy, iż Var X = ∞ X k 2 · e−λ k=0 5) Zalóżmy, że PX = U([a, b]): g(x) = Z EX = xg(x)dx = R oraz 1 Var X = b−a Z 1 b−a 1[a,b] (x). 1 b−a b 2 x dx − a λk − (EX)2 = λ. k! Z Wtedy b xdx = a a+b 2 2 = a+b 2 (b − a)2 . 12 6) Dalej, przypuśćmy, że X ∼ Exp(λ), λ > 0, tzn. X ma rozklad z gestości a, , g(x) = λe−λx 1[0,∞) (x). Calkujac dostajemy , przez cześci, , Z ∞ ∞ Z ∞ 1 EX = x · λe−λx dx = −xe−λx + e−λx dx = λ 0 0 0 1 oraz, wykonujac , analogiczne obliczenia, otrzymujemy Var X = λ2 . 7) Wreszcie, przypuśćmy, że PX = N (m, σ 2 ), gdzie m ∈ R oraz σ > 0. Wówczas gestość X dana jest wzorem , (x − m)2 1 . exp − g(x) = √ 2σ 2 2πσ Dokonujac , podstawienia y = (x − m)/σ, obliczamy, iż Z 1 (x − m)2 dx EX = √ x · exp − 2σ 2 2πσ R Z 2 1 =√ (σy + m)e−y /2 dy 2π R Z Z 2 2 m σ ye−y /2 dy + √ e−y /2 dy = m. =√ 2π R 2π R Ponadto, ponownie stosujac , powyższe podstawienie, otrzymujemy Z 2 2 1 Var X = √ (x − m)2 e−(x−m) /(2σ ) dx 2πσ R Z 2 σ2 y 2 e−y /2 dy =√ 2π R Z ∞ 2 2 σ2 σ2 =√ − ye−y /2 e−y /2 dy = σ 2 . +√ −∞ 2π 2π R Podkreślmy: zatem parametry m i σ 2 pojawiajace sie, w oznaczeniu rozkladu nor, malnego, to odpowiednio jego średnia i wariancja. 8) Warto tu jeszcze podać jeden przyklad. Zalóżmy, że X ma rozklad Cauchy’ego, tzn. rozklad z gestości a, , 1 1 , x ∈ R. g(x) = π 1 + x2 Wówczas zmienna X nie jest calkowalna: mamy Z 1 1 dx = ∞. E|X| = |x| · π 1 + x2 R WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 37 Co wiecej, wartość oczekiwana X nie istnieje: mamy , Z Z ∞ 1 x EX + = x+ g(x)dx = dx = ∞ π 1 + x2 0 R i podobnie EX − = ∞. Przechodzimy teraz do zwiazków wartości oczekiwanej i wariancji z niezależnościa, , zmiennych. Twierdzenie 7.7. Zalóżmy, że X1 , X2 , . . ., Xn to calkowalne i niezależne zmienne losowe. Wówczas zmienna X1 X2 . . . Xn jest calkowalna i zachodzi równość EX1 X2 . . . Xn = EX1 EX2 . . . EXn . Dowód. Wiemy, że P(X1 ,X2 ,...,Xn ) = PX1 ⊗PX2 ⊗. . .⊗PXn . Wobec tego, korzystajac , z twierdzenia o zamianie zmiennych, Z E|X1 X2 . . . Xn | = |x1 x2 . . . xn |P(X1 ,...,Xn ) (dx1 . . . dxn ) = Rn n YZ i=1 |xi |PXi (dxi ) < ∞, R 1 a wiec , , X1 X2 . . . Xn ∈ L (Ω, F, P). Wystarczy teraz powtórzyć powyższy ciag równości bez modulów (który ma sens, gdyż, jak wlaśnie udowodniliśmy, wszystkie wartości oczekiwane istnieja). , Uwaga: Twierdzenie odwrotne nie zachodzi. Przykladowo, weźmy zmienne η1 , η2 o tym samym rozkladzie calkowalnym z kwadratem i polóżmy X1 = η1 + η2 , X2 = η1 − η2 . Wówczas EX2 = 0, a wiec , EX1 EX2 = 0; ponadto, EX1 X2 = Eη12 − Eη22 = 0, na mocy równości rozkladów. Na ogól zmienne X1 oraz X2 nie sa, jednak niezależne: przykladowo, rozważmy dwukrotny rzut kostka, i niech ηi oznacza liczbe, oczek w i-tym rzucie, i = 1, 2. Wówczas X1 , X2 sa, zależne - maja, te, sama, parzystość. Przechodzimy do sytuacji wielowymiarowej. Definicja 7.4. Zalóżmy, że X = (X1 , X2 , . . . , Xd ) jest d-wymiarowa, zmienna, losowa, o calkowalnych wspólrzednych (tzn. E|Xi | < ∞ dla i = 1, 2, . . . , n). , Wartościa, oczekiwana, X nazywamy wektor (EX1 , EX2 , . . . , EXd ). Uwagi: 1) Jeśli X, Y sa, d-wymiarowymi zmiennymi losowymi majacymi wartość oczeki, wana, oraz α, β ∈ R, to αX + βY także posiada wartość oczekiwana. , 2) Zmienna d-wymiarowa X ma wartość oczekiwana, wtedy i tylko wtedy, gdy E|X| < ∞ (gdzie | · | oznacza tu norme, euklidesowa). Wynika to natychmiast z , oszacowania d X |Xj | ≤ |X| ≤ |Xi |, j = 1, 2, . . . , d. i=1 3) Jeśli d-wymiarowa zmienna X ma skończona, wartość oczekiwana, , to |EX| ≤ E|X|. Istotnie, dla dowolnego wektora a ∈ Rd o dlugości 1 mamy hEX, ai = d X j=1 EXj · aj = EhX, ai ≤ E|X||a| = E|X| 38 ADAM OSEKOWSKI , i biorac alternatywnie, kladac , supremum po a (badź, , , a = EX/|EX|), dostajemy żadan a nierówność. , , Definicja 7.5. Zalóżmy, że X1 , X2 sa, zmiennymi losowymi calkowalnymi z kwadratem. Liczbe, Cov (X, Y ) = E (X − EX)(Y − EY ) nazywamy kowariancja, zmiennych X i Y . W przypadku gdy Cov (X, Y ) = 0, mówimy, że zmienne X, Y sa, nieskorelowane. Jak latwo sprawdzić, kowariancja posiada nastepuj ace wlasności: , , (a) Przede wszystkim, jest ona dobrze określona, na mocy nierówności Schwarza. (b) Zachodzi równość Cov (X, Y ) = EXY − EXEY . (c) Dla dowolnej zmiennej X ∈ L2 , Cov (X, X) = Var X. (d) Zachodzi równość Cov (X, Y ) = Cov (Y, X). (e) Kowariancja jest operatorem dwuliniowym: jeśli X, Y, Z ∈ L2 , to Cov (X + Y, Z) = Cov (X, Z) + Cov (Y, Z). Ponadto, jeśli X ∈ L2 oraz a ∈ R, to Cov (X, a) = 0. 2 Uwaga: Powyższe rozważania pokazuja, , że jeśli X, Y ∈ L sa, niezależne, to sa, nieskorelowane, ale nie na odwrót. Twierdzenie 7.8. Zmienne X1 , X2 , . . ., Xn sa, calkowalne z kwadratem. Wówczas n X X Var (X1 + X2 + . . . + Xn ) = Var Xk + 2 Cov (Xk , X` ). k=1 k<` W szczególności, jeśli zmienne X1 , X2 , . . ., Xn sa, nieskorelowane, to Var (X1 + X2 + . . . + Xn ) = Var X1 + Var X2 + . . . + Var Xn . Dowód. Przeksztalcamy: 2 n n X X Var (X1 + X2 + . . . + Xn ) = E Xj − E Xj j=1 j=1 2 n X = E (Xj − EXj ) j=1 = = n X j=1 n X j=1 E(Xj − EXj )2 + 2 X E(Xi − EXi )(Xj − EXj ) i<j Var Xj + 2 X Cov (Xi , Xj ). i<j Dowodzi to pierwszej cześci twierdzenia. Jeśli teraz zmienne sa, nieskorelowane, to , wszystkie kowariancje pojawiajace sie, w drugiej sumie sie, zeruja. , , Stad , teza. Porównujac , przypadek jedno- i wielowymiarowy widzimy, iż wartość oczekiwana jednowymiarowej zmiennej losowej jest liczba, , a wartościa, oczekiwana, wielowymiarowej zmiennej jest wektor. Powstaje naturalne pytanie dotyczace uogólnienia , wariancji na przypadek wielowymiarowy. Okazuje sie, iż tym uogólnieniem jest , tzw. macierz kowariancji. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 39 Definicja 7.6. Zalóżmy, że X = (X1 , X2 , . . . , Xd ) jest d-wymiarowa, zmienna, losowa, o wspólrzednych calkowalnych z kwadratem. Macierz , Cov (X1 , X1 ) Cov (X1 , X2 ) . . . Cov (X1 , Xd ) Cov (X2 , X1 ) Cov (X2 , X2 ) . . . Cov (X2 , Xd ) Λ= ... Cov (Xd , X1 ) Cov (Xd , X2 ) . . . Cov (Xd , Xd ) nazywamy macierza, kowariancji zmiennej X. Uwaga: Wartość oczekiwana i macierz kowariancji zmiennej losowej d-wymiarowej zależa, tylko od rozkladu. Twierdzenie 7.9 (Wlasności macierzy kowariancji). Macierz kowariancji zmiennej X = (X1 , X2 , . . . , Xd ) jest symetryczna i nieujemnie określona. Dowód. Symetryczność wynika wprost z wlasności (d) kowariancji. Aby udowodnić nieujemna, określoność, niech mi = EXi oraz weźmy dowolny ciag , liczb rzeczywistych t1 , t2 , . . ., td . Rozważmy jednowymiarowa, zmienna, losowa, η = t1 X1 + t2 X2 + . . . + td Xd , która jest calkowalna z kwadratem (gdyż wlasność te, maja, też zmienne X1 , X2 , . . ., Xd ). Mamy 0 ≤ Var η 2 d X = E tj (Xj − EXj ) j=1 = d X E ti (Xi − EXi ) · tj (Xj − EXj ) i,j=1 = d X ti tj Cov (Xi , Xj ), i,j=1 co oznacza teze. , Poczyńmy jeszcze jedna, przydatna, obserwacje. , Przypuśćmy, iż macierz kowariancji nie jest dodatnio określona, tzn. dla pewnych t1 , t2 , . . ., td mamy X ti tj Cov (Xi , Xj ) = 0. i,j Oznacza to, iż η = t1 X1 +t2 X2 +. . .+td Xd ma rozklad jednopunktowy, tzn. istnieje c ∈ R takie, że P (t1 X1 + t2 X2 + . . . + td Xd = c) = 1, a zatem z prawdopodobieństwem 1 zmienna X przyjmuje wartości w pewnej d − 1wymiarowej podprzestrzeni afinicznej. Odnotujmy pożyteczny Wniosek: Zmienna X = (X1 , X2 , . . . , Xd ) ma parami nieskorelowane wspólrzedne , wtedy i tylko wtedy, gdy macierz kowariancji jest diagonalna. W szczególności, jeśli wspólrzedne X1 , X2 , . . ., Xd sa, niezależne, to X ma diagonalna, macierz kowariancji , (ale nie na odwrót!). 40 ADAM OSEKOWSKI , Przyklad: Rozważmy wielowymiarowy rozklad normalny. Niech m ∈ Rd , niech A bedzie symetryczna, , dodatnio określona, macierza, d × d oraz zalóżmy, że X = , (X1 , X2 , . . . , Xd ) ma rozklad z gestości a, , √ det A 1 g(x) = exp − hA(x − m), (x − m)i . 2 (2π)d/2 Twierdzenie 7.10. Mamy EX = m, a macierz kowariancji X jest równa A−1 . Pozostawiamy dowód tego twierdzenia jako ćwiczenie. Twierdzenie 7.11. Zalóżmy, że X = (X1 , X2 , . . . , Xd ) ma d-wymiarowy rozklad normalny. Wówczas zmienne X1 , X2 , . . ., Xd sa, niezależne wtedy i tylko wtedy, gdy sa, nieskorelowane. Dowód. ⇒ W te, strone, implikacja zachodzi dla dowolnych zmiennych losowych. ⇐ Jeśli wspólrzedne sa, nieskorelowane, to, jak wiemy, macierz kowariancji jest , przekatniowa: , 2 σ1 0 . . . 0 0 σ22 . . . 0 . Λ= ... 0 0 . . . σd2 Zatem A = Λ−1 także jest diagonalna i jej wyrazy na glównej przekatnej to 1/σ12 , , 2 2 1/σ2 , . . ., 1/σd . Wobec tego q d σ1−2 σ2−2 . . . σd−2 X 1 exp − (xj − mj ) · σj−2 g(x) = 2 j=1 (2π)d/2 ! d Y 1 −(xj −mj )2 /(2σj2 ) √ = e 2πσj j=1 = g1 (x1 )g2 (x2 ) . . . gd (xd ), gdzie gj to gestość rozkladu N (mj , σj2 ). Stad , niezależność. , Rozważymy teraz tzw. zagadnienie regresji liniowej, grajace ważna, role, w statystyce. , Problem możermy sformulować nastepuj aco. Zalóżmy, że mamy zmienne losowe X, , , Y calkowalne z kwadratem i znamy ich laczny rozklad. Ponadto, przypuśćmy, iż , obserwujemy wartości zmiennej X, a zmienna Y jest trudniejsza - badź niemożliwa , - do zmierzenia. Powstaje wiec zagadnienie optymalnego przybliżania , , interesujace zmiennej Y za pomoca, zmiennej X. Oczywiście, musimy odpowiednio postawić ten problem; bedziemy szukać optymalnego przybliżenia liniowego, tzn. postaci , aX + b, a, b ∈ R, a blad mierzyć w sensie średniokwadratowym. Innymi , bedziemy , slowy, szukamy stalych a, b ∈ R, dla których wielkość f (a, b) = E(Y − aX − b)2 jest najmniejsza. Aby rozwiazać ten problem, zauważmy, iż przy ustalonym a, funkcja b 7→ f (a, b) , jest trójmianem kwadratowym, który przyjmuje swoja, najmniejsza, wartość w punkcie E(Y − aX). Wystarczy wiec , wyznaczyć najmniejsza, wartość funkcji h(a) = f (a, E(Y −aX)) = E(Y −EY −a(X−EX))2 = a2 VarX−2aCov(X, Y )+VarY. Jeśli zmienna X jest stala p.n. (czyli VarX=0), to wówczas h jest funkcja, stala, i widać, że optymalnym liniowym estymatorem zmiennej Y jest jej średnia: aX +b = WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 41 aX + (EY − aEX) = EY . Jeśli zaś VarX 6= 0, to h jest trójmianem kwadratowym zmiennej a, przyjmujacym swoja, najmniejsza, wartość w punkcie , Cov(X, Y ) a= VarX i wówczas Cov(X, Y ) . b = EY − EX · VarX Uwagi: 1) Widać, że do powyższych obliczeń nie potrzebowaliśmy calej wiedzy o rozkladzie lacznym zmiennych (X, Y ). Wystarczy nam znajomość średnich i wariancji , zmiennych X, Y oraz ich kowariancji. 2) Zalóżmy, że wariancje X oraz Y sa, niezerowe. Dla powyższych (optymalnych) a, b obliczamy, iż f (a, b) = Var X(1 − ρ2 (X, Y )), gdzie Cov (X, Y ) ρ(X, Y ) = √ Var X VarY to tzw. wspólczynnik korelacji. Wspólczynnik ten posiada nastepuj ace wlasności: , , (a) Zachodzi nierówność −1 ≤ ρ(X, Y ) ≤ 1, (b) Mamy ρ(X, Y ) = ρ(Y, X) oraz, dla dowolnych a, b ∈ R, ρ(aX + b, Y ) = ρ(X, Y ). (c) Jeśli |ρ(X, Y )| = 1, to X = αY + β dla pewnych α, β ∈ R; innymi slowy, miedzy X a Y jest zależność liniowa. , (d) Równość ρ(X, Y ) = 0 zachodzi wtedy i tylko wtedy, gdy X, Y sa, nieskorelowane. Wówczas najlepszym przybliżeniem Y jest EX. 42 ADAM OSEKOWSKI , 8. Zadania 1. Dana jest zmienna losowa X taka, że P(X = 0) = P(X = 1) = 1 −3) = 12 . Obliczyć EX, E X+2 , E cos(πX) oraz Var X. 1 4, P(X = 2. Zmienna losowa X ma rozklad Poissona z parametrem 2. Obliczyć E6X . 3. Zmienna losowa X ma rozklad z gestości a, , 3 2 g(x) = x 1[0,2] . 8 1 2 oraz Var X . Obliczyć EX, E 1+x 3 4. Zmienna losowa X ma rozklad z dystrybuanta, 0 jeśli t < 0, t/2 jeśli 0 ≤ t < 1, F (t) = 3/4 jeśli 1 ≤ t < 5, 1 jeśli t ≥ 5. Wyznaczyć E(2X + 1). 5. W urnie znajduje sie, 50 bialych kul. Losujemy ze zwracaniem po jednej kuli, przy czym wyciagni et , , a, kule, malujemy na czerwono, jeśli jest biala. Niech X oznacza liczbe, czerwonych kul w urnie po 20 losowaniach. Wyznaczyć EX oraz Var X. 6. Każdy bok i każda, przekatn foremnego malujemy losowo na , a, sześciokata , jeden z trzech kolorów. Wybór każdego koloru jest jednakowo prawdopodobny, kolorowania różnych odcinków sa, niezależne. Niech X oznacza liczbe, jednobarwnych trójkatów o wierzcholkach bed wierzcholkami sześciokata. Obliczyć , , , , acych EX. 7. Rzucamy kostka, aż do momentu, gdy wyrzucimy wszystkie liczby oczek. Obliczyć wartość oczekiwana, i wariancje, liczby rzutów. 8. Udowodnić, że dla dowolnej zmiennej losowej nieujemnej X oraz p > 0 zachodzi wzór Z ∞ Z ∞ EX p = p tp−1 P(X ≥ t)dt = p tp−1 P(X > t)dt. 0 0 Wywnioskować stad, że jeśli zmienna X ma rozklad dyskretny skoncentrowany na , liczbach calkowitych nieujemnych, to EX = ∞ X k=1 P(X ≥ k) = ∞ X P(X > k). k=0 9. Liczby 1, 2, . . . , n ustawiono losowo w ciag , (a1 , a2 , . . . , an ). Niech N oznacza najwieksz a, taka, liczbe, , , że ak > ak−1 dla k ≤ N . Obliczyć EN . 10. Dany jest ciag , niezależnych zmiennych losowych X0 , X1 , X2 , . . . o tym samym rozkladzie posiadajacym ciag , , la, dystrybuante. , Niech η = inf{n : Xn > X0 }. Wyznaczyć rozklad zmiennej η oraz obliczyć Eη. 11. Kij o dlugości 1 zlamano w punkcie wybranym losowo, z prawdopodobieństwem rozlożonym równomiernie. Obliczyć wartość oczekiwana, stosunku a) dlugości kawalka lewego do dlugości kawalka prawego. b) dlugości kawalka krótszego do dlugości kawalka dluższego. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 43 12. Zmienne losowe X, Y spelniaja, warunki VarX = 3, Cov(X, Y ) = −1, VarY = 2. Obliczyć Var(4X − 3Y ) oraz Cov(5X − Y, 2X + Y ). 13. Zmienna losowa X ma wariancje, σ 2 < ∞. Udowodnić, że 1 P(|X − EX| > 3σ) ≤ . 9 14. Zmienne losowe ε1 , ε2 , . . . , εn sa, niezależne i maja, ten sam rozklad P(εk = 1) = P(εk = −1) = 1/2, ciagiem liczb , , Pnk = 1, 2, . . . , n. Niech a1 , a2 , . . . , an bedzie rzeczywistych i A = ( k=1 a2k )1/2 . Udowodnić, że ! n X P ak εk > t ≤ 2 exp(−t2 /2A2 ). k=1 15. Zmienne ε1 , ε2 , . . . sa, niezależne i maja, ten sam rozklad P(εk = 1) = P(εk = −1) = 1/2, k = 1, 2, . . . . Niech Sn = ε1 + ε2 + . . . + εn , n = 1, 2, . . .. Udowodnić, że Sn lim sup √ ≤1 p.n. 2n log n oraz Sn lim inf √ ≥ −1 p.n.. 2n log n 16. Zmienna losowa X ma nastepuj ac , a, wlasność: dla n = 1, 2, . . . mamy , 2n E|X|n ≤ . n Udowodnić, że X ∈ L∞ (tzn. istnieje taka liczba M , że P(|X| ≤ M ) = 1). 17. Zmienna losowa X ma rozklad normalny w Rd , o średniej m i macierzy kowariancji Λ. Niech T bedzie przeksztalceniem afinicznym Rd na Rk , k ≤ d. , Udowodnić, że T X ma rozklad normalny w Rk . Wyznaczyć jego średnia, oraz macierz kowariancji. 18. Zmienna losowa X ma d-wymiarowy rozklad normalny o gestości , √ det A 1 g(x) = exp − hA(x − m), (x − m)i . 2 (2π)d/2 Udowodnić, że EX = m oraz Λ = A−1 (Λ oznacza tu macierz kowariancji X). 19. Zmienna losowa (X, Y ) ma dwuwymiarowy rozklad normalny o średniej (0, 0) i macierzy kowariancji 2 1 Λ= . 1 1 a) Napisać gestość zmiennej (X, Y ). , b) Wyznaczyć rozklad zmiennej X + 3Y . c) Wyznaczyć taka, liczbe, a ∈ R, by zmienne X + Y , X + aY byly niezależne. 20. Nadajnik wysyla sygnal ξ, a odbiornik odbiera sygnal η = aξ + ζ, gdzie a ∈ R+ jest wspólczynnikiem wzmocnienia, zaś ζ jest zaklóceniem. Zakladamy, że ξ i ζ sa, niezależnymi zmiennymi losowymi, przy czym Eξ = m, Var ξ = 1, Eζ = 0, Var ζ = σ 2 . Wyznaczyć wspólczynnik korelacji ξ i η oraz regresje, liniowa, ξ wzgledem η (tzn. najlepsze liniowe przybliżenie ξ za pomoca, η). , 44 ADAM OSEKOWSKI , 9. Różne rodzaje zbieżności zmiennych losowych Zajmiemy sie, teraz zachowaniem granicznym ciagów zmiennych losowych. Za, cznijmy jednak od pewnego pożytecznego faktu. Definicja 9.1. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz F1 , F2 , . . . ⊆ F jest ciagiem σ-cial. Wówczas σ-cialo , ∞ \ σ(Fn , Fn+1 , Fn+2 , . . .) n=1 nazywamy σ-cialem resztkowym. Przyklad: Zalóżmy, że X1 , X2 , . . . jest ciagiem zmiennych losowych i niech , Fn = σ(Xn ) bedzie σ-cia lem generowanym przez zmienn a, Xn , n = 1, 2, . . .. , Wówczas każde ze zdarzeń ) (∞ X Xn jest zbieżny {(Xn )n≥1 jest zbieżny}, {sup |Xn | < ∞}, n n=1 należy do σ-ciala resztkowego. Twierdzenie 9.1 (Prawo 0−1 Kolmogorowa). Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczn a, oraz σ-ciala F1 , F2 , . . . ⊆ F sa, niezależne. Wówczas dla każdego T∞ A ∈ n=1 σ(Fn , Fn+1 , . . .) mamy P(A) = 0 lub P(A) = 1. Lemat 9.1. Zalóżmy, że G1 ⊆ G2 ⊆ . . . ⊆ F jest wstepuj acym ciagiem σ-cial , , , oraz niech G = σ(G1 , G2 , . . .). Wówczas dla dowolnego A ∈ G istnieje ciag , (An )n≥1 takich zdarzeń, że An ∈ Gn dla każdego n oraz limn→∞ P(A∆An ) = 0 (∆ oznacza tu różnice, symetryczna, zbiorów). Dowód. Wprowadźmy klase, zbiorów K = {A ∈ G : istnieje ciag , (An )n≥1 jak w sformulowaniu lematu}. S Oczywiście n≥1 Gn ⊂ K, ponadto suma po lewej stronie zawierania jest π-ukladem. Wystarczy wiec , wykazać, że K jest λ-ukladem. Sprawdzamy: (i) Ω ∈ K - jest to oczywiste. (ii) Zalóżmy, że A, B ∈ K spelniaja, warunek A ⊆ B i niech (An )n≥1 , (Bn )n≥1 bed przybliżajacymi. Wykażemy, zgodnie z intuicja, , , , że ciag , , a, odpowiednimi ciagami (Bn \ An )n≥1 przybliża B \ A. Oczywiście Bn \ An ∈ Gn dla każdego n. Ponadto, korzystajac , z tożsamości P(A∆B) = E|1A − 1B |, mamy P (Bn \ An )∆(B \ A) = E1Bn \An − 1B\A = E1B − 1A ∩B − 1B + 1A n n n ≤ E|1Bn − 1B | + E|1A − 1An 1Bn |. Pierwszy skladnik jest równy P(Bn ∆B), a wiec , zbiega do 0 gdy n → ∞. Ponadto, E|1A − 1An 1Bn | = E1A − (1An − 1A + 1A )(1Bn − 1B + 1B ) ≤ E|1A − 1A 1B | + E1A |1Bn − 1B | + E1B |1An − 1A | + E|1An − 1A ||1Bn − 1B | ≤ 0 + P(B∆Bn ) + P(A∆An ) + 2P(A∆An ) także zbiega do zera gdy n daży do nieskończoności. Udowodniliśmy zatem, że , B \ A ∈ K. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 45 S∞ (iii) Jeśli A1 , A2 , . . . jest wstepuj ciagiem elementów z K, to n=1 An , , ,S acym ∞ także należy do K. Istotnie, sume, n=1 An możemy dowolnie dokladnie przybliżyć SN za pomoca, sumy cześciowej zbiór AN przybliżamy n=1 An = AN , a nastepnie , , odpowiednim ciagiem zdarzeń z σ-cia l G . n , Dowód twierdzenia Kolmogorowa. Rozważmy wstepuj acy ciag , , σ-cial dany przez , Gn = σ(F1 , F2 , . . . , Fn ), n = 1, 2, . . . . Weźmy zdarzenie A należace do σ-ciala resztkowego. Oczywiście należy ono także , do σ-ciala σ(F1 , F2 , . . .) = σ(G1 , G2 , . . .), a zatem, na mocy powyższego lematu, możemy wskazać ciag , (An )n≥1 taki, że An ∈ Gn oraz P(A∆An ) → 0 gdy n → ∞. Ponieważ P(A∆An ) = P(A \ An ) + P(An \ A), to każde z tych dwóch prawdopodobieństw także zbiega do 0. Ale P(A \ An ) = P(A) − P(A ∩ An ), zatem P(A ∩ An ) → P(A). Ponadto, P(An \ A) = P(An ) − P(A ∩ An ), a wiec, w polaczeniu z poprzednia, zbieżnościa, , , P(An ) → P(A). Wreszcie, dla , dowolnego n mamy A ∈ σ(Fn+1 , Fn+2 , . . .), An ∈ Gn , i te σ-ciala sa, niezależne. Wobec tego A oraz An także sa, niezależne, P(A ∩ An ) = P(A)P(An ), i lewa strona daży do P(A), a prawa do P(A)2 . Stad , , P(A) ∈ {0, 1}. Przechodzimy teraz do zbieżności zmiennych losowych. Definicja 9.2. Zalóżmy, że (Xn )n≥1 jest ciagiem zmiennych losowych o wartościach , w Rd . Mówimy, że (i) Xn zbiega do X prawie na pewno, jeśli P(limn→∞ Xn = X) = 1. Oznaczenie: Xn → X p.n. (ii) (p ≥ 1, d = 1) Xn zbiega do X w Lp jeśli X1 , X2 , . . . ∈ Lp oraz limn→∞ ||Xn − X||p = 0 (przypomnijmy: ||ξ||p = (E|ξ|p )1/p dla p < ∞, ||ξ||∞ = esssup |ξ|). Oznaczenie: Xn → X w Lp . (iii) Xn zbiega do X wedlug prawdopodobieństwa, jeśli dla każdego ε > 0, P limn→∞ P(|Xn − X| > ε) = 0. Oznaczenie: Xn − → X. P Twierdzenie 9.2. Jeśli Xn → X p.n., to Xn − → X. Implikacja przeciwna nie zachodzi. Dowód. Z definicji, ciag , (Xn )n≥1 zbiega do X prawie na pewno, jeśli ∞ \ \ [ P {ω : |Xn (ω) − X(ω)| < ε} = 1. ε>0 N =1 n≥N Jest to równoważne warunkowi, że dla każdego ε > 0, ∞ \ [ P {ω : |Xn (ω) − X(ω)| < ε} = 1. N =1 n≥N 46 ADAM OSEKOWSKI , Ale ciag , zdarzeń T n≥N {|Xn − X| < ε} N ≥1 jest wstepuj acy; na mocy twierdzenia , , o ciag , lości, powyższa równość oznacza, iż dla dowolnego ε > 0, \ lim P {ω : |Xn (ω) − X(ω)| < ε} = 1. N →∞ n≥N Wobec tego tym bardziej lim P ({ω : |XN (ω) − X(ω)| < ε}) = 1, N →∞ czyli, po przejściu do zdarzenia przeciwnego, P(|XN − X| ≥ ε) → 0. Aby udowodnić, że implikacja przeciwna nie zachodzi, rozważmy nastepuj acy , , przyklad. Zalóżmy, że przestrzeń probabilistyczna to przedzial [0, 1] wraz ze swoimi podzbiorami borelowskimi oraz miara, Lebesgue’a. Niech X1 = 1[0,1) , X2 = 1[0,1/2) , X3 = 1[1/2,1) , X4 = 1[0,1/4) , X5 = 1[1/4,1/2) , X6 = 1[1/2,3/4) , X7 = 1[3/4,1) , ... Wówczas ciag , (Xn )n≥0 zbiega do 0 wedlug prawdopodobieństwa: dla dowolnego ε, P(|Xn − 0| > ε) jest poteg , a, dwójki z coraz mniejszym calkowitym wykladnikiem. Z drugiej strony, dla dowolnego ω ∈ [0, 1), liczbowy ciag , (Xn (ω))n≥1 nie jest zbieżny; jest to ciag zawieraj acy nieskończenie wiele zer oraz nieskończenie wiele jedynek. , , P Twierdzenie 9.3. Jeśli Xn → X w Lp , to Xn − → X. Implikacja w druga, strone, nie zachodzi. Dowód. Na mocy nierówności Czebyszewa, dla dowolnego ε mamy E|Xn − X|p n→∞ −−−−→ 0. εp Wykażemy, że implikacja w druga, strone, nie zachodzi. Rozpatrzymy tylko p < ∞, przypadek p = ∞ pozostawiamy czytelnikowi. Rozważmy przestrzeń probabilistyczna, ([0, 1], B(0, 1), | · |) oraz ciag , (Xn )n≥1 zmiennych zadanych wzorem P(|Xn − X| ≥ ε) ≤ Xn (ω) = n1/p 1[0,1/n] (ω). P Wówczas Xn − → 0: dla dowolnego ε mamy P(|Xn − 0| > ε) ≤ 1/n → 0. p Zatem, gdyby ciag , (Xn )n≥1 zbiegal w L , to do zmiennej skoncentrowanej w zerze (na mocy implikacji która, wlaśnie udowodniliśmy). Ale E|Xn − 0|p = E|Xn |p = 1 6→ 0. 0 Twierdzenie 9.4. Jeśli p < p0 oraz Xn → X w Lp , to Xn → X w Lp . Dowód. Wynika to natychmiast z nierówności Höldera: mamy n→∞ ||Xn − X||p ≤ ||Xn − X||p0 −−−−→ 0. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 47 Twierdzenie 9.5. a) Ciag , (Xn )n≥1 jest zbieżny wedlug prawdopodobieństwa wtedy i tylko wtedy, gdy spelnia warunek Cauchy’ego wedlug prawdopodobieństwa: ∀δ>0 ∀ε>0 ∃N ∀m,n≥N P(|Xn − Xm | > ε) < δ. b) Jeśli Xn zbiega do X wedlug prawdopodobieństwa, to istnieje podciag , (nk )k≥1 taki, że ciag (X ) zbiega p.n. do X. nk k≥1 , Definicja 9.3. Zalóżmy, że {Xi }i∈I jest rodzina, calkowalnych zmiennych losowych. Mówimy, że ta rodzina jest jednostajnie (jednakowo) calkowalna, jeśli Z r→∞ sup |Xi |dP −−−→ 0. i∈I {|Xi |≥r} Przyklady: 1) Zalóżmy, że istnieje nieujemna calkowalna zmienna η taka, że |Xi | ≤ η dla wszystkich i ∈ I. Wówczas {Xi }i∈I jest rodzina, jednakowo calkowalna. , Istotnie, Z Z r→∞ sup |Xi |dP ≤ |η|dP −−−→ 0, i∈I {|Xi |≥r} {η≥r} na mocy twierdzenia Lebesgue’a o zmajoryzowanym przejściu do granicy. 2) Każda skończona rodzina zmiennych calkowalnych P jest jednakowo calkowalna: wystarczy wykorzystać poprzedni przyklad, biorac i∈I |Xi |. , η = 3) Dowolna jednostajnie calkowalna rodzina zmiennych losowych, po dodaniu do niej skończonej liczby zmiennych calkowalnych, pozostaje jednostajnie calkowalna. 4) Rozważmy przestrzeń probabilistyczna, ([0, 1], B([0, 1]), |·|) oraz ciag , zmiennych X1 , X2 , . . . zadanych przez Xn (ω) = n2 1[0,1/n] (ω). Rodzina ta nie jest jednostajnie calkowalna: mamy ( ∅ dla n < m, 2 2 2 {|Xn | ≥ m } = {n 1[0,1/n] ≥ m } = [0, 1/n] dla n ≥ m, a wiec , ( Z |Xn |dP = {|Xn |≥m2 } 0 dla n < m, 2 n · 1/n dla n ≥ m, R a wiec , dla każdego r, supn {|Xn |≥r} |Xn |dP = ∞. √ Z drugiej strony, rodzina zmiennych {Yn }n≥1 = { n1[0,1/n] }n≥1 jest jednostajnie calkowalna. Powtarzajac , powyższe rozumowanie widzimy, że ( √ Z 0 dla n < r, |Xn |dP = √ √ n · 1/n dla n ≥ r. {|Xn |≥r} Zatem dla ustalonego r, Z |Xn |dP ≤ 1/r, sup n {|Xn |≥r} co zbiega do 0 gdy r → ∞. Udowodnimy teraz pewien równoważny warunek na jednakowa, calkowalność. Twierdzenie 9.6. Rodzina {Xi }i∈I jest jednakowo calkowalna wtedy i tylko wtedy, gdy zachodza, nastepuj ace dwa warunki: , , 1◦ supi∈I E|Xi | < ∞, 48 ADAM OSEKOWSKI , 2◦ Dla każdego ε > 0 istnieje δ > 0 taka, że jeśli zdarzenie A spelnia P(A) < δ, to Z |Xi |dP < ε, i ∈ I. A Dowód. ⇒ Zacznijmy od warunku 2◦ . Dla każdego A ∈ F oraz i ∈ I mamy Z Z Z Z |Xi |dP = |Xi |dP+ |Xi |dP ≤ sup |Xi |dP+rP(A). A∩{|Xi |≥r} A A∩{|Xi |<r} i∈I {|Xi |≥r} Zatem, przy ustalonym ε > 0, bierzemy r takie, by pierwszy skladnik byl mniejszy niż ε/2 (jest to możliwe na mocy definicji jednakowej calkowalności); nastepnie, , bierzemy δ = ε/(2r): wówczas drugi skladnik także jest mniejszy niż ε/2. Ponadto, biorac , wyżej A = Ω, dostajemy, iż dla każdego r, Z sup E|Xi | ≤ sup |Xi |dP + r < ∞, i∈I i∈I {|Xi |≥r} ◦ co jest żadanym warunkiem 1 . , ⇐ Dla dowolnego i ∈ I mamy, z nierówności Czebyszewa oraz 1◦ , P(|Xi | ≥ r) ≤ E|Xi | ≤ sup E|Xi |/r < ∞. r i∈I Nastepnie, dla dowolnego ε > 0 dobieramy δ z warunku 2◦ . Powyższy rachunek , daje, iż dla dostatecznie dużych r mamy supi∈I P(|Xi | ≥ r) < δ, a zatem z 2◦ , Z sup |Xi |dP < ε. i∈I {|Xi |≥r} Oznacza to, iż jest spelniony warunek definiujacy jednakowa, calkowalność. , Twierdzenie 9.7. Niech p ≥ 1 bedzie ustalona, liczba. , Ciag , (Xn )n≥1 jest zbieżny , w Lp wtedy i tylko wtedy, gdy jest zbieżny wedlug prawdopodobieństwa oraz rodzina {|Xn |p }n≥1 jest jednostajnie calkowalna. Dowód. ⇒ Zbieżność wedlug prawdopodobieństwa mamy za darmo; pozostaje wykazać jednostajna, calkowalność. Dla dowolnego A ∈ F, Z 1/p p (∗) |Xn | dP = ||Xn 1A ||p ≤ ||X1A ||p + ||(X − Xn )1A ||p . A Dla A = Ω, nierówność (∗) daje ||Xn ||p ≤ ||X||p +||Xn −X||p , a wiec , supn ||Xn ||p < ◦ ∞, co pociaga za sob a warunek 1 z poprzedniego twierdzenia. Aby dowieść 2◦ , , , p ustalmy ε > 0. Z definicji zbieżności w L , istnieje N takie, że ||Xn − X||p < ε/2 dla n ≥ N . Rodzina {|X|p , |X1 − X|p , . . . , |XN − X|p } jest skończona i zawiera calkowalne zmienne losowe, jest wiec , jednakowo calkowalna (por. Przyklad 2 powyżej) i spelnia warunek 2◦ : istnieje δ taka, że jeśli P(A) < δ, to Z 1/p Z 1/p p p |X| dP < ε/2, |Xi − X| dP < ε/2, i = 1, 2, . . . , N. A A Wystarczy teraz polaczyć wszystkie powyższe rozważania i (*): jeśli P(A) < δ, to , Z sup |Xn |p dP ≤ εp . n A WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 49 ⇐ Ponieważ Xn → X wedlug prawdopodobieństwa, to możemy wybrać podciag , (Xnk )k≥1 zbieżny do X prawie na pewno. Z lematu Fatou, X ∈ Lp : E|X|p = E lim |Xnk |p ≤ lim inf E|Xnk |p ≤ sup E|Xn |p < ∞. k→∞ k→∞ n Dalej, mamy ||Xn − X||p ≤ ||(Xn − X)1{|Xn −X|≥α} ||p + ||(Xn − X)1{|Xn −X|<α} ||p !1/p !1/p Z Z p p ≤ |Xn | dP + |X| dP {|Xn −X|≥α} Z + {|Xn −X|≥α} !1/p |Xn − X|p dP . {|Xn −X|<α} Nastepnie, wybierzmy dowolne ε > 0 i polóżmy α = ε/3. Z warunku 2◦ dostajemy , istnienie takiej δ, że jeśli P(A) < δ, to Z Z p sup |Xn |p dP < (ε/3) , |X|p < (ε/3)p . n A A Ponadto, z definicji zbieżności wedlug prawdopodobieństwa, istnieje N takie, że dla n ≥ N , P(|Xn − X| ≥ α) < δ. Stad , wynika teza, gdyż dwa pierwsze skladniki w powyższym oszacowaniu sa, mniejsze niż ε/3 oraz !1/p !1/p Z Z p p |Xn − X| dP ≤ α dP ≤ α = ε/3. {|Xn −X|<α} {|Xn −X|<α} 50 ADAM OSEKOWSKI , 10. Zadania 1. Zmienne (Xn )n≥1 sa, niezależnymi zmiennymi Rademachera. Udowodnić, że (Xn )n≥1 nie jest zbieżny p.n.. Czy (Xn )n≥1 jest zbieżny wedlug prawdopodobieństwa? P∞ −n 2. Dany jest ciag Xn n=1 2 , (Xn )n≥1 jak poprzednio. Udowodnić, że szereg jest zbieżny p.n. i wyznaczyć rozklad graniczny. 3. Dane sa, ciagi (Xn )n≥1 , (Yn )n≥1 zbieżne wedlug prawdopodobieństwa do X, , Y , odpowiednio. Udowodnić, że a) (Xn + Yn )n≥1 zbiega do X + Y wedlug prawdopodobieństwa. b) (Xn Yn )n≥1 zbiega wedlug prawdopodobieństwa do XY . 4. Dana jest calkowalna zmienna losowa X. Niech dla n ≥ 1, jeśli X(ω) < −n, −n Xn (ω) = X(ω) jeśli |X(ω)| ≤ n, n jeśli X(ω) > n. Czy (Xn )n≥1 zbiega do X p.n.? Czy zbiega w L1 ? 5. Dane sa, ciagi , (Xn )n≥1 , (Yn )n≥1 zbieżne p.n. do zmiennych X, Y . Udowodnić, że jeśli dla każdego n zmienne Xn oraz Yn maja, ten sam rozklad, to X i Y też maja, ten sam rozklad. 6. Zmienne X1 , X2 , . . . sa, niezależnymi zmiennymi losowymi o rozkladzie wykladniczym z parametrem λ. (a) Udowodnić, że jeśli λ > 1, to z prawdopodobieństwem 1 mamy {Xn < log n} dla dostatecznie dużych n, natomiast jeśli λ ≥ 1, to z prawdopodobieństwem 1 mamy Xn ≥ log n dla nieskończenie wielu n. (b) Zbadać zbieżność p.n. ciagu (Xn / log n)n≥2 . , 7. Zmienne X1 , P X2 , . . . sa, niezależne, nieujemne i maja, ten sam rozklad, różny ∞ od δ0 . Dowieść, że n=1 Xn = ∞ z prawdopodobieństwem 1. 8. Zmienne losowe X1 , X2 , . . . sa, niezależne, maja, ten sam rozklad i spelniaja, warunek P(|Xi | < 1) = 1. Udowodnić, że limn→∞ X1 X2 . . . Xn = 0 p.n. 9. Zmienne X1 , X2 , . . . sa, niezależne i maja, ten sam rozklad. (a) Udowodnić, że ciag , średnich X1 + X2 + . . . + Xn , n = 1, 2, . . . n jest albo zbieżny p.n., albo rozbieżny z prawdopodobieństwem 1. (b) Udowodnić, że jeśli ten ciag , jest zbieżny p.n., to jego granica ma rozklad jednopunktowy. 10. Dany jest ciag , (Xn )n≥1 niezależnych zmiennych losowych takich, że dla n ≥ 1 Xn ma rozklad Poissona z parametrem 1/n. Czy (Xn )n≥1 jest zbieżny wedlug prawdopodobieństwa? Czy jest zbieżny p.n.? Czy jest zbieżny w L2 ? Czy jest zbieżny w L3/2 ? 11. Dany sa, ciagi zmiennych (Xn )n≥1 , (Yn )n≥1 , przy czym Xn → X w Lp , q oraz Yn → Y w L , gdzie p, q > 1 spelniaja, warunek 1/p + 1/q = 1. Dowieść, że (Xn Yn )n≥1 zbiega w L1 do XY . 12. Jakie warunki musi spelniać niepusty zbiór Λ ⊆ (0, ∞), aby rodzina zmiennych losowych (Xλ )λ∈Λ , gdzie WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 51 (a) Xλ ∼ U([0, λ]), (b) Xλ ∼ Exp (λ), byla jednostajnie calkowalna? 13. Dana jest funkcja G : [0, ∞) → [0, ∞) taka, że limt→∞ G(t) t = ∞. Zalóżmy, że (Xi )i∈I jest rodzina, zmiennych losowych takich, że supi∈I EG(|Xi |) < ∞. Udowodnić, że rodzina ta jest jednostajnie calkowalna. 52 ADAM OSEKOWSKI , 11. Prawa wielkich liczb Prawa wielkich liczb mówia, o zachowaniu granicznym ciagu średnich arytmety, cznych X1 + X2 + . . . + Xn , n = 1, 2, . . . , n przy rozmaitych zalożeniach dotyczacych zmiennych. Zacznijmy od slabego prawa , wielkich liczb (SPWL): termin ,,slabe” bierze sie, stad, iż badana jest zbieżność , wedlug prawdopodobieństwa. Twierdzenie 11.1. Zalóżmy, że X1 , X2 , . . . sa, zmiennymi losowymi calkowalnymi z kwadratem. Jeśli zmienne te sa, nieskorelowane oraz maja, wspólnie ograniczona, wariancje, , to X1 + X2 + . . . + Xn − E(X1 + X2 + . . . + Xn ) →0 n wedlug prawdopodobieństwa. W szczególności, jeśli zmienne Xi posiadaja, te, sama, wartość oczekiwana, , to X1 + X2 + . . . + Xn P − → EX1 . n Dowód. Zauważmy, iż X1 + X2 + . . . + Xn − E(X1 + X2 + . . . + Xn ) 2 E n X1 + X2 + . . . + Xn − E(X1 + X2 + . . . + Xn ) = Var n ! n X 1 Xk = 2 Var n k=1 n supk≥1 Var Xk 1 X Var Xk ≤ . = 2 n n k=1 Wobec tego dla ustalonego ε > 0 mamy, na mocy nierówności Czebyszewa, X1 + X2 + . . . + Xn − E(X1 + X2 + . . . + Xn ) P ≥ε n supk≥1 Var Xk . nε2 Wystarczy zauważyć, że ostatnie wyrażenie zbiega do 0 gdy n → ∞. Wynika stad , żadana zbieżność wedlug prawdopodobieństwa. , ≤ Jako przypadek szczególny, dostajemy tzw. slabe prawo wielkich liczb Bernoulliego. Mianowicie, rozważmy ciag , (ξn )n≥1 zmiennych losowych (niekoniecznie niezależnych), przy czym dla n ≥ 1, zmienna ξn ma rozklad B(n, p), gdzie p ∈ (0, 1) jest ustalonym parametrem. Wówczas ξn P − → p. n Istotnie, wystarczy wziać , ciag , (Xn )n≥1 niezależnych (a wiec , w szczególności nieskorelowanych) zmiennych losowych o tym samym rozkladzie dwupunktowym P(Xi = WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 53 1) = p = 1 − P(Xi = 0). Wówczas ξn ∼ X1 + X2 + . . . + Xn , a wiec , dla ε > 0, ξn X1 + X2 + . . . + Xn lim P − p > ε = lim P − p > ε = 0. n→∞ n→∞ n n Glównym wynikiem tego rozdzialu jest tzw. mocne prawo wielkich liczb (MPWL) (Twierdzenie 11.4 poniżej), które mówi o zbieżności prawie na pewno. Zacznijmy od kilku przygotowawczych faktów. Twierdzenie 11.2 (Nierówność Kolmogorowa). Zalóżmy, że X1 , X2 , . . ., Xn sa, niezależnymi i scentrowanymi zmiennymi losowymi calkowalnymi z kwadratem. Wówczas dla dowolnego α > 0, 1 P( max |X1 + X2 + . . . + Xk | ≥ α) ≤ 2 Var (X1 + X2 + . . . + Xn ). 1≤k≤n α Dowód. Wprowadźmy oznaczenie S0 = 0 oraz Sk = X1 + X2 + . . . + Xk dla k = 1, 2, . . . , n. Rozważmy zdarzenia Ak = {|Sj | < α dla j < k oraz |Sk | ≥ α}, k = 1, 2, . . . , n. Jak widać, dla dowolnego k mamy Ak ∈ σ(X1 , X2 , . . . , Xk ). Ponadto, zdarzenia A1 , A2 , . . ., An sa, parami rozlaczne i daja, w sumie B := , {max1≤k≤n |Sk | ≥ α}. Dalej, Var Sn = ESn2 Z Z = Sn2 dP + Sn2 dP B B0 Z ≥ Sn2 dP B = n Z X Sn2 dP Ak = = ≥ k=1 n Z X (Sk + Sn − Sk )2 dP k=1 Ak n Z X Ak k=1 Z n X k=1 Sk2 dP Z Z (Sn − Sk )Sk dP + +2 Ak Sk2 dP Z +2 Ak 2 (Sn − Sk ) dP Ak (Sn − Sk )Sk 1Ak dP . Ω Ale dla dowolnego k zmienne Sn − Sk oraz Sk 1Ak sa, niezależne (pierwsza z nich to Xk+1 + Xk+2 + . . . + Xn , a druga z nich zależy wylacznie od X1 , X2 , . . . , Xk ). , Stad , Z (Sn − Sk )Sk 1Ak dP = E(Sn − Sk )Sk 1Ak = E(Sn − Sk )ESk 1Ak = 0. Ω Zatem, kontynuujac, , Var Sn ≥ n Z X k=1 Ak Dowód jest zakończony. Sk2 dP ≥ n Z X k=1 Ak α2 dP = α2 n X P(Ak ) = α2 P(B). k=1 54 ADAM OSEKOWSKI , Twierdzenie 11.3. Zalóżmy, że X1 , X2 , . . . jest ciagiem niezależnych, scen, P∞ Var X trowanych zmiennych losowych ca lkowalnych z kwadratem. Jeśli n < n=1 P∞ ∞, to n=1 Xn jest zbieżny p.n. Dowód. Jak latwo sprawdzić, mamy P ∞ X ! Xn jest rozbieżny n=1 1 = P ∃γ∈N+ ∀n sup |Xn + Xn+1 + . . . + Xn+k | > γ k≥0 [ 1 ∀n sup |Xn + Xn+1 + . . . + Xn+k | > . = P γ k≥0 γ∈N+ Wystarczy wiec , wykazać, że dla każdego γ ∈ N+ , 1 = 0. (∗) P ∀n sup |Xn + Xn+1 + . . . + Xn+k | > γ k≥0 Ale dla każdego n, powyższe prawdopodobieństwo szacuje sie, z góry przez 1 P sup |Xn + Xn+1 + . . . + Xn+k | > γ k≥0 1 = lim P sup |Xn + Xn+1 + . . . + Xn+k | > m→∞ γ 0≤k≤m m ∞ X X ≤ lim sup γ 2 Var Xn+k = γ 2 Var Xk . m→∞ k=0 k=n Jeśli teraz wziać , n → ∞, to z zalożenia powyższe wyrażenie zbiega do 0. Tak wiec , prawdopodobieństwo (*) musi wynosić 0. LematP11.1 (Kronecker). Zalóżmy, że (an )n≥1 jest ciagiem liczbowym takim, że , ∞ szereg n=1 an /n jest zbieżny. Wówczas (a1 + a2 + . . . + an )/n → 0. Pn Dowód. Oznaczmy Sn = k=1 ak /k. Wówczas an = n(Sn − Sn−1 ) dla wszystkich n oraz S1 + 2(S2 − S1 ) + . . . + n(Sn − Sn−1 ) a1 + a2 + . . . + an = n n nSn − S1 − S2 − . . . − Sn−1 → 0. = n Przechodzimy do glównego twierdzenia. Twierdzenie 11.4 (MPWL Kolmogorowa). Zalóżmy, że X1 , X2 , . . . jest ciagiem , niezależnych zmiennych losowych o tym samym rozkladzie. (a) Jeśli Xn ∈ L1 i m = EX1 , to X1 + X2 + . . . + Xn →m n p.n. (b) Jeśli Xn ∈ / L1 , to X1 + X2 + . . . + Xn P lim sup = ∞ = 1. n n→∞ WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 55 Dowód. (a) Przypuśćmy najpierw, że zmienne X1 , X2 , . . . sa, calkowalne z kwadratem. Wówczas teza wynika z dwóch powyższych pomocniczych faktów. Istotnie, korzysP∞ Xn −m tajac z Twierdzenia 11.3, szereg jest zbieżny p.n., gdyż n=1 , n Var Xn − m Var Xn , = n n2 i wystarczy skorzystać z lematu Kroneckera. 0 Rozważmy teraz przypadek ogólny. Wprowadźmy nowy ciag , (Xn )n≥1 zmiennych losowych, zadanych przez Xn0 (ω) ( Xn (ω) = Xn (ω)1(−n,n) (Xn (ω)) = 0 jeśli |Xn (ω)| < n, jeśli |Xn (ω)| ≥ n. Wówczas X10 , X20 , . . . sa, niezależnymi zmiennymi losowymi calkowalnymi z kwadratem. Możemy napisać X1 + X2 + . . . + Xn − m = In + IIn + IIIn , n gdzie X1 + X2 + . . . + Xn − (X10 + X20 + . . . + Xn0 ) , n X 0 + X20 + . . . + Xn0 − (EX10 + EX20 + . . . + EXn0 ) , IIn = 1 n EX10 + EX20 + . . . + EXn0 IIIn = − m. n In = Zbadajmy zachowanie każdego ze skladników In , IIn , IIIn gdy n → ∞. Na mocy twierdzenia Lebesgue’a o zmajoryzowanym przejściu do granicy, n→∞ EXn0 = EXn 1{|Xn |<n} = EX1 1{|X1 |<n} −−−−→ EX1 = m, skad zauważmy, że , wynika, że IIIn → 0. Nastepnie, , ∞ X P(Xn 6= Xn0 ) = n=1 = ∞ X n=1 ∞ X P(|Xn | ≥ n) P(|X1 | ≥ n) n=1 Z ∞ ≤ P(|X1 | ≥ t)dt = E|X1 | < ∞. 0 Zatem z lematu Borela-Cantelli, z prawdopodobieństwem 1 zajdzie tylko skończenie wiele spośród zdarzeń {Xn 6= Xn0 }. Innymi slowy, dla prawie wszystkich ω, ciagi , (Xn (ω))n≥1 oraz (Xn0 (ω))n≥1 pokrywaja, sie, od pewnego miejsca. Stad , In → 0 p.n. Pozostalo już tylko pokazać,P że IIn → 0 p.n. Na mocy lematu Kroneckera, ∞ wystarczy udowodnić, że szereg n=1 (Xn0 − EXn0 )/n jest zbieżny prawie na pewno. 56 ADAM OSEKOWSKI , Skorzystamy z Twierdzenia 11.3. Otóż 0 Xn − EXn0 1 Var = 2 (E(Xn0 )2 − (EXn0 )2 ) n n 1 ≤ 2 E(Xn0 )2 n ∞ Z 1 X = 2 |Xn0 |2 dP n 0 |<k} {k−1≤|X n k=1 n Z X 1 |Xn0 |2 dP = 2 n 0 k=1 {k−1≤|Xn |<k} n Z 1 X |X1 |2 dP = 2 n {k−1≤|X |<k} 1 k=1 Z n 1 X ≤ 2 k |X1 |dP. n {k−1≤|X1 |<k} k=1 Wobec tego, ∞ X Var n=1 Xn0 − EXn0 n ≤ ∞ X n X k E|X1 |1{k−1≤|X1 |<k} 2 n n=1 k=1 ∞ ∞ X X k E|X1 |1{k−1≤|X1 |<k} = n2 = k=1 n=k ∞ X kE|X1 |1{k−1≤|X1 |<k} · k=1 Ale ∞ X 1 . n2 n=k Z ∞ ∞ ∞ X X 1 1 1 1 1 2 = + ≤ + dx = . 2 n2 k2 n2 k x k k n=k n=k+1 Wobec tego, uwzgledniaj ac , to w powyższych rozważaniach, dostajemy , 0 ∞ ∞ X X Xn − EXn0 Var ≤2 E|X1 |1{k−1≤|X1 |<k} = 2E|X1 | < ∞. n n=1 k=1 Stad , teza (a). (b) Mamy X1 + X2 + . . . + Xn n − 1 X1 + X2 + . . . + Xn−1 Xn = − . n n n n−1 Wynika stad, że jeśli ciag , , ((X1 (ω) + X2 (ω) + . . . + Xn (ω))/n)n≥1 jest ograniczony dla pewnego ω, to ciag (X n (ω)/n)n≥1 także ma te, wlasność. Wobec tego, wystarczy , wykazać, że ! Xn P ciag jest nieograniczony = 1. , n n≥1 Mamy Xn P nieograniczony = P n ! \ |Xn | > M dla nieskończenie wielu n , n M ∈N WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 57 a wiec zachodzić, jeśli udowodnimy, że dla każdego M ∈ N, , teza bedzie , |Xn | P > M dla nieskończenie wielu n = 1. n Zauważmy, że zdarzenia {|Xn |/n > M }, n = 1, 2, . . ., sa, niezależne; ponadto ∞ X P(|Xn |/n > M ) = n=1 = ∞ X P(|X1 | > nM ) n=1 ∞ X ∞ X P (kM < |X1 | ≤ (k + 1)M ) n=1 k=n = = ∞ X k X P (kM < |X1 | ≤ (k + 1)M ) k=1 n=1 ∞ X kP(kM < |X1 | ≤ (k + 1)M ) k=1 ∞ 1 X (k + 1)M P (kM < |X1 | ≤ (k + 1)M ) M k=1 ∞ Z 1 X ≥ −1 + |X1 |dP M {kM <|X1 |≤(k+1)M } ≥ −1 + k=1 1 E|X1 |1{|X1 |>M } = ∞. = −1 + M Zatem, z lematu Borela-Cantelli wynika teza. Omówimy teraz jedno z zastosowań mocnego prawa wielkich liczb, zwiazane z , tzw. dystrybuanta, empiryczna. , Definicja 11.1. Zalóżmy, że X1 , X2 , . . . sa, niezależnymi zmiennymi o tym samym rozkladzie z dystrybuanta, F . Wówczas n-ta, dystrybuanta, empiryczna, nazywamy 1{X1 ≤t} + 1{X2 ≤t} + . . . + 1{Xn ≤t} n 1(−∞,t] (X1 ) + 1(−∞,t] (X2 ) + . . . + 1(−∞,t] (Xn ) = . n Fn (t) = Zauważmy, że dla każdego ω ∈ Ω, funkcja Fn jest dystrybuanta, (jako funkcja zmiennej t). Poniższe twierdzenie jest jednym z podstawowych wyników statystyki matematycznej. Twierdzenie 11.5 (Gliwienko-Cantelli). Jeśli X1 , X2 , . . ., F , Fn sa, jak wyżej, to n→∞ sup |Fn (t) − F (t)| −−−−→ 0 t∈R prawie na pewno. W dowodzie wykorzystamy nastepuj acy lemat (bez dowodu: pozostawiamy to , , jako ćwiczenie). 58 ADAM OSEKOWSKI , Lemat 11.2. Zalóżmy, że F , F1 , F2 , . . . sa, dystrybuantami oraz S jest zbiorem punktów nieciag przeliczalnym podzbiorem , lości funkcji F . Zalóżmy, że Q jest gestym, , R takim, że limn→∞ Fn (t) = F (t) dla każdego t ∈ Q. Wówczas jeśli dla każdego t ∈ S mamy Fn (t) − Fn (t−) → F (t) − F (t−), to n→∞ sup |Fn (t) − F (t)| −−−−→ 0. t∈R Dowód twierdzenia Gliwienki-Cantelli’ego przy zalożeniu lematu. Ustalmy dowolny gesty przeliczalny podzbiór Q ⊂ R i niech S bedzie zbiorem punktów nieciag , lości , , F . Na mocy MPWL, dla każdego t ∈ Q mamy n→∞ Fn (t) −−−−→ F (t) prawie na pewno, gdyż E1(−∞,t] (X1 ) = P(X1 ≤ t) = F (t). Podobnie, dla dowolnego t ∈ S, 1{t} (X1 ) + 1{t} (X2 ) + . . . + 1{t} (Xn ) n n→∞ −−−−→ E1{t} (X1 ) = P(X1 = t) = F (t) − F (t−). Fn (t) − Fn (t−) = Zatem zbiór Ω0 = \ {Fn (t) → F (t)} ∩ t∈Q \ {Fn (t) − Fn (t−) → F (t) − F (t−)} t∈S jest pelnej miary, jako przeliczalne przeciecie zbiorów pelnej miary. , lematu, dla każdego ω ∈ Ω0 mamy zbieżność jednostajna, Fn → F . Zatem, z Na zakończenie tego rozdzialu, omówimy wstepne wyniki zwiazane ze zbieżnościa, , , szeregów niezależnych zmiennych losowych. Zacznijmy od nastepuj acego faktu. , , Twierdzenie 11.6. Zalóżmy, że X1 , X2 , . . . sa, niezależnymi, wspólnie ograniczonymi zmiennymi losowymi (tzn. istnieje takie aP> 0, że |Xn | ≤ a z praw∞ dopodobieństwem 1 dla n = 1, 2, . . .). Jeśli szereg n=1 Xn jest zbieżny prawie p na pewno, to jest on także zbieżny w L dla dowolnego p ≥ 1. Lemat 11.3 (Nierówność Hoffmana-Joergensena). Zalóżmy, że X1 , X2 , . . . sa, niezależnymi zmiennymi losowymi (być może o wartościach w Rd , badź ogólniej, o , wartościach w przestrzeni Banacha) i zdefiniujmy S0 = 0, Sn = X1 +X2 +. . .+Xn , n ≥ 1. Wówczas dla dowolnych s, t, a ≥ 0, P( max |Sk | > s + t + a) 1≤k≤n ≤ P( max |Xk | > a) + P( max |Sk | > s)P( max |Sn − Sk | > t/2). 1≤k≤n 1≤k≤n 1≤k≤n Dowód. Niech τ = inf{k ≥ 1 : |Sk | > s} (przyjmujemy inf ∅ = ∞). Zauważmy, że { max |Sk | > s + t + a} 1≤k≤n ⊆ { max |Xk | > a} ∪ 1≤k≤n = { max |Xk | > a} ∪ 1≤k≤n n [ j=1 n [ j=1 { max |Xk | ≤ a} ∩ {τ = j} ∩ { max |Sk | > s + t + a} 1≤k≤n Aj . 1≤k≤n WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 59 Ustalmy ω ∈ Aj . Mamy Sj (ω) > s; ponadto, |Sj−1 (ω)| ≤ s oraz |Xj (ω)| ≤ a, skad iż |Sj | ≤ s + a. Nastepnie, mamy , wynika, na mocy nierówności trójkata, , , |S` (ω)| > s + t + a dla pewnego ` > j. Możemy wiec napisać , s + t + a < |S` | ≤ |Sj | + |S` − Sj | ≤ s + a + |Sn − S` | + |Sn − Sj | ≤ s + a + 2 max |Sn − Sk |. j≤k≤n Wnioskujemy stad, że maxj≤k≤n |Sn − Sk | > t/2. Wobec tego , Aj ⊂ {τ = j} ∩ { max |Sn − Sk | > t/2} j≤k≤n i przecinane zdarzenia sa, niezależne: istotnie, pierwsze z nich zależy tylko od zmiennych X1 , X2 , . . ., Xj , podczas gdy drugie zapisuje sie, w terminach pozostalych zmiennych. Zbierajac , wszystkie powyższe fakty dostajemy iż n X P( max |Sk | > s+t+a) ≤ P( max |Xk | > a)+ P(τ = j)P( max |Sn −Sk | > t/2) 1≤k≤n 1≤k≤n j=1 1≤k≤n i wystarczy już tylko zauważyć, że n X P(τ = j) = P(τ < ∞) = P( max |Sk | > s). 1≤k≤n j=1 Dowód Twierdzenia 11.6. Niech, jak wyżej, Sn = X1 + X2 + . . . + Xn , n = 1, 2, . . .. na mocy zalożeń, (Sn )n≥1 jest zbieżny p.n., a wiec , dla każdego ε ∈ (0, 1) istnieje m takie, że P( max |Sn − Sk | > ε/2) < ε m≤k≤n o ile tylko n > m. Mamy Z ∞ E|Sn − Sm |p = p αp−1 P(|Sn − Sm | > α)dα 0 Z ∞ X = p (r+1)(ε+a)>α>r(ε+a) r=0 Z αp−1 P(|Sn − Sm | > α)dα ε+a =p αp−1 P(|Sn − Sm | > α)dα 0 Z ∞ X + p r=1 αp−1 P(|Sn − Sm | > r(ε + a))dα. (r+1)(ε+a)>α>r(ε+a) Ale Sn − Sm = Xm+1 + Xm+2 + . . . + Xn , wiec , nierówność Hoffmana, stosujac Joergensena do tych zmiennych, z parametrami s = (r − 1)(ε + a), t = ε oraz a = a, dostajemy P( max |Sk − Sm | > r(ε + a)) ≤ 0 + P( max |Sk − Sm | > (r − 1)(ε + a))× m<k≤n m<k≤n × P( max |Sn − Sk | > ε/2). m<k≤n Drugi czynnik szacuje sie, przez ε, a zatem, przez prosta, indukcje, , dostajemy, że P(|Sn − Sm | > r(ε + a)) ≤ P( max |Sn − Sm | > r(ε + a)) ≤ εr . m<k≤n 60 ADAM OSEKOWSKI , Wobec tego Z p ε E|Sn − Sm | ≤ p + α 0 ∞ X p−1 Z αp−1 P(|Sn − Sm | > ε)dα dα + p ε (r+1)(ε+a) αp−1 εr dα p r=1 ε+a Z r(ε+a) ≤ εp + (ε + a)p · ε + ε ∞ X εr−1 ((r + 1)p − rp )(ε + a)p r=1 ≤ ε · C, gdzie C jest pewna, stala, zależac , a, tylko od p i a. Wobec tego (Sn )m≥0 spelnia p warunek Cauchy’ego w Lp , a wiec , jest zbieżny w L . Wprowadźmy nastepuj ace oznaczenie: , , a a X (ω) = X(ω) −a dla zmiennej losowej X oraz a > 0, niech dla X(ω) > a, dla |X(ω)| ≤ a, dla X(ω) < −a. Twierdzenie 11.7 (Kolmogorowa o trzech szeregach). Zalóżmy, że X1 , X2 , . . . sa, niezależnymi , Wówczas P∞ zmiennymi losowymi oraz a jest ustalona, liczba, dodatnia. szereg n=0 Xn jest zbieżny p.n. wtedy i tylko wtedy, gdy zbieżne sa, szeregi liczbowe ∞ X EXna , ∞ X Var Xna , P(|Xn | > a). n=1 n=1 n=1 ∞ X W dowodzie wykorzystamy nastepuj acy prosty fakt. , , Lemat 11.4. Zalóżmy, że X1 , X2 , . . . sa, zmiennymi losowymiP spelniajacymi warunek , P∞ ∞ P(|X | > a) < ∞ dla pewnego a > 0. Wówczas szereg X jest zbieżny n n n=1 n=1 P∞ p.n. wtedy i tylko wtedy, gdy szereg n=1 Xna jest zbieżny p.n. Dowód. Na mocy lematu Borela-Cantelli, dla prawie wszystkich ω ciagi Xn (ω), , natychmiast wynika teza. Xna (ω) pokrywaja, sie, od pewnego miejsca. Stad , DowódP twierdzenia o trzech szeregach. ⇐ Na mocy lematu, wystarczy wykazać, że ∞ szereg n=1 Xna jest zbieżny p.n. Zmienne Xna − EXna sa, scentrowane, niezależne, ograniczone oraz ∞ ∞ X X a a Var (Xn − EXn ) = Var Xna < ∞, n=1 n=1 P∞ a wiec 11.3 szereg n=1 (Xna −EXna ) jest zbieżny p.n. Ponieważ , na mocy Twierdzenia P∞ a szereg liczbowy n=1 EXn także jestPzbieżny, wynika stad , teza. ∞ ⇒ Przypuśćmy, wbrew tezie, że n=1 P(|Xn | > a) = ∞. Wówczas na mocy lematu Borela-Cantelli, z prawdopodobieństwem 1 P zachodzi nieskończenie wiele ∞ nierówności |X | > a, co wyklucza zbieżność szeregu n , sprzeczność. Zatem n n=1 XP P∞ ∞ a P(|X | > a) < ∞, a wi ec z powyższego lematu szereg n n=1 , P∞ n=1 aXn jest zbieżny p.n. Korzystajac n=1 Xn jest zbieżny w , z Twierdzenia 11.6, dostajemy, że szereg L1 oraz L2 . Zatem, w szczególności, ciag liczbowy , ! ! N N X X a a E Xn = EXn n=1 N ≥1 n=1 N ≥1 WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I jest zbieżny. Ponadto, to samo jest prawda, dla !2 !! N N X X a a a E = Var Xn (Xn − EXn ) n=1 n=1 N ≥1 = N ≥1 N X 61 ! Var Xna n=1 . N ≥1 To zaś oznacza teze. , Przyklad: Zalóżmy, że X1 , X2 , . . . jest ciagiem niezależnych zmiennych losowych , takich, że Xn ma rozklad wykladniczy z paramtrem λn . Wyznaczymy warunek na P∞ ciag n=1 Xn . , (λn )n≥0 który jest równoważny zbieżności prawie na pewno szeregu Na mocy twierdzenia Kolmogorowa, zbieżność p.n. ma miejsce wtedy i tylko wtedy, gdy ∞ ∞ X X 1 (1) P(|Xn | > 1) < ∞, czyli e−λn < ∞, n=1 ∞ X (2) n=1 EXn1 < ∞, (3) n=1 Var Xn1 ∞ X 1 − e−λn n=1 n=1 ∞ X czyli < ∞, czyli λn − e−λn < ∞, ∞ X (1 + λn )2 −2λn 1 −λn −e − e < ∞. λ2n λ2n n=1 P∞ Zalóżmy teraz, że szereg n=1 Xn jest zbieżny p.n. z (1) mamy λn → P∞ Wówczas 1 ∞, co w polaczeniu z (2) prowadzi to wniosku, iż < ∞. n=1 λn , P∞ 1 < ∞ jest dostateczny. Istotnie, wynika z Wykażemy, że warunek P∞n=1 1λn < ∞ (gdyż dla dostatecznie dużych n mamy niego, że λn → ∞, a stad n=1 λ2n , 1 1 1 1 1 −λn −2λn ≤ 1+λn ≤ λn oraz e ≤ λ2 , skad , wynika już λ2n ≤ λn ). Dalej, mamy e n zbieżność wszystkich trzech szeregów w (1), (2) oraz (3). 62 ADAM OSEKOWSKI , 12. Zadania 1. Dany jest ciag , (Xn )n≥1 niezależnych zmiennych losowych o rozkladzie Poissona z parametrem 2. Udowodnić, że ciag , X1 X2 + X2 X3 + . . . + Xn Xn+1 , n + 2009 n = 1, 2, . . . , jest zbieżny p.n. i wyznaczyć jego granice. , 2. Dany jest ciag (X ) niezależnych zmiennych losowych, przy czym dla n n≥1 , n ≥ 1 zmienna Xn ma rozklad jednostajny na przedziale (1/n, 1]. Udowodnić, że ciag , X1 + X2 + . . . + Xn , n = 1, 2, . . . , n jest zbieżny p.n. i wyznaczyć jego granice. , 3. Dany jest ciag (X ) niezależnych nieujemnych zmiennych losowych o tym n n≥1 , samym rozkladzie. Udowodnić, że jeśli EX1 = ∞, to X1 + X2 + . . . + Xn →∞ n prawie na pewno. 4. Dany jest ciag , (An )n≥1 niezależnych zdarzeń, pn = P(An ). Udowodnić, że p1 + p2 + . . . + pn 1A1 + 1A2 + . . . + 1An − →0 n n wedlug prawdopodobieństwa. 5. Dany jest ciag , (Xn )n≥1 niezależnych calkowalnych zmiennych losowych o tym samym rozkladzie. Udowodnić, że ciag , X1 + X2 + . . . + Xn , n n ≥ 1, zbiega w L1 do EX1 . 6. Dany jest ciag , (Nn )n≥1 zmiennych losowych (niekoniecznie niezależnych), przy czym dla n ≥ 1 zmienna Nn ma rozklad Poissona z parametrem n. Wykazać, że Nn /n → 1 w L1 . 7. Zmienne X1 , X2 , . . . sa, niezależne i maja, rozklad jednostajny na [−1, 1]. Czy ciag , X1 + X22 + . . . + Xnn , n = 1, 2, . . . , n jest zbieżny p.n.? 8. Obliczyć granice Z 1Z 1 Z 1 2 1 x1 + x22 + x33 + x44 + . . . + xnn lim n ... dx1 dx2 . . . dxn n→∞ 2 x21 + x22 + . . . + x2n −1 −1 −1 oraz Z 1 Z lim n→∞ 1 Z ... 0 0 1 √ f ( n x1 x2 . . . xn )dx1 dx2 . . . dxn , 0 gdzie f : [0, 1] → R jest ustalona, funkcja, ciag , la. , WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 63 9. Zmienne losowe X1 , X2 , . . . sa, niezależne, przy czym dla n ≥ 1 rozklad Xn zadany jest nastepuj aco: , , 1 1 P(Xn = 0) = 1/2, P(Xn = 1) = 1/2 − 2 , P(Xn = n) = 2 . 4n 4n Udowodnić, że ciag , X1 + X2 + . . . + Xn n jest zbieżny prawie na pewno i wyznaczyć jego granice. , 10. Zmienne ε1 , ε2 , . . . sa, niezależne i maja, rozklad Rademachera. Dowieść, że dla α > 1/2, ciag , ε1 + ε2 + . . . + εn , n = 1, 2, . . . nα jest zbieżny p.n. 11. Udowodnić nastepuj ace twierdzenie o dwóch szeregach: jeśli (Xn )n≥1 jest , , ciagiem takich niezależnych zmiennych losowych calkowalnych z kwadratem, że sz, eregi liczbowe ∞ ∞ X X EXn , Var Xn n=1 P∞ n=1 sa, zbieżne, to szereg n=1 Xn jest zbieżny p.n. 12. Dany jest ciag , (Xn )n≥1 niezależnych zmiennych losowych takich, że 2 1 P(Xn = −n) = P(Xn = n) = 3 , P(Xn = 0) = 1 − 3 . n n P∞ Udowodnić, że n=1 Xn jest zbieżny p.n. 13. Dany jest ciag , (εn )n≥1 niezależnych P∞ zmiennych Rademachera. Jaki warunek musi spelniać ciag (a ) , by szereg n n≥1 n=1 an εn byl zbieżny p.n.? , 14. Dany jest ciag , (Xn ) niezależnych zmiennych losowych takich, że dla n ≥ 1 zmienna Xn ma rozklad jednostajny na odcinku [−n, n]. Dla jakich wartości parametru p > 0 szereg ∞ X Xn np n=1 jest zbieżny p.n.? 64 ADAM OSEKOWSKI , 13. Twierdzenie de Moivre’a-Laplace’a Zajmiemy sie, teraz niezwykle ważnym i użytecznym faktem, pozwalajacym przy, bliżać rozklad Bernoulliego B(n, p) przez rozklad normalny. Znaczne uogólnienie poniższych wyników bedzie podane na wykladzie z Rachunku Prawdopodobieństwa , II, przy okazji tzw. Centralnego Twierdzenia Granicznego. Zalóżmy, że Φ : R → [0, 1] jest dystrybuanta, a, , a g jest gestości , standardowego , rozkladu normalnego: Z t 2 1 g(x)dx. g(x) = √ e−x /2 , Φ(t) = 2π −∞ Ponadto, bedziemy zakladać, że p jest ustalona, liczba, z przedzialu (0, 1), q = 1 − p , oraz Sn jest zmienna, losowa, o rozkladzie B(n, p). Twierdzenie 13.1. Zalóżmy, że k jest liczba, calkowita, taka, , że |k − np| · (∗) Wówczas P(Sn = k) = √ max(p, q) ≤ 1/2. npq (k − np)2 1 exp − + R(n, k) , 2npq 2πnpq gdzie R(n, k) ≤ 3|k − np| |k − np|3 1 + + . 4npq 3n2 p2 q 2 3npq Dowód. Stosujac , wzór Stirlinga √ n! = 2πnnn e−n+θn /(12n) , 0 < θn < 1, dostajemy np k nq n−k n θn θk θn−k · · exp − − 2kπ(n − k) k n−k 12n 12k 12(n − k) = I · II · III. r P(Sn = k) = Zbadajmy po kolei czynniki I, II oraz III. Mamy −1/2 −1/2 1 k − np k − np 1 I=√ · 1+ ·q 1− ·p =√ · eR1 (n,k) . npq npq 2πnpq 2πnpq Dla dowolnego x ≥ −1/2 zachodzi oszacowanie | log(1 + x) − x| ≤ x2 , skad , wynika, że 1 k − np k − np log 1 + · q + log 1 − ·p 2 npq npq 1 (p − q)(k − np) = + R10 (n, k), 2 npq R1 (n, k) = − gdzie |R10 (n, k)| ≤ 12 (p2 +q 2 )(k−np)2 /(n2 p2 q 2 ) ≤ |k−np|/(4npq), na mocy zalożenia (*). W konsekwencji, 3|k − np| |R1 (n, k)| ≤ . 4npq WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 65 Nastepnie, mamy , nq log II = k log + (n − k) log k n−k k k n−k n−k = −np · log − nq · log np np nq nq k − np k − np = −np · 1 + log 1 + np np k − np k − np − nq · 1 − log 1 − . nq nq np Korzystamy teraz z nierówności 2 (1 + x) log(1 + x) − x − x ≤ 1 |x|3 , 2 3 prawdziwej dla x ≥ −1/2: jeśli (*) jest spelniona, to 2 ! k − np 1 k − np log II = −np + np 2 np 2 ! k − np 1 k − np + + R20 (n, k) − nq − nq 2 nq =− 1 (k − np)2 + R20 (n, k), 2 npq gdzie |R20 (n, k)| 1 ≤ 3 ! k − np 3 k − np 3 |k − np|3 2 |k − np|3 + nq np = (p + q 2 ) ≤ . 2 2 2 np nq 3n p q 3n2 p2 q 2 Wreszcie, mamy III = eR3 (n,k) , gdzie 1 1 1 − + < R3 (n, k) < . 12k 12(n − k) 12n Równoważnie, − 1 12npq −1 −1 k − np k − np 1 1+ ·q 1− ·p < R3 (n, k) < , npq npq 12n skad, na mocy (*), wynika oszacowanie , |R3 (n, k)| ≤ 1 . 3npq Lacz , ac , otrzymane wyżej nierówności dla Ri (n, k), dostajemy teze. , Kolejne twierdzenie, tzw. integralne twierdzenie de Moivre’a-Laplace’a, pozwala przybliżać prawdopodobieństwo, że liczba sukcesów należy do ustalonego przedzialu. Twierdzenie 13.2. Zalóżmy, że a, b ≥ 0 spelniaja, warunek (∗) |a − np| · max(p, q) ≤ 1/2, npq |b − np| · max(p, q) ≤ 1/2. npq 66 ADAM OSEKOWSKI , Wówczas b − np + 21 a − np − 21 P (a ≤ Sn ≤ b) = Φ −Φ eD(n,a,b) , √ √ npq npq gdzie |D(n, a, b)| ≤ max k∈{a,b} 1 5 |k − np| 1 |k − np|3 1 + + + . 4 npq 3 n2 p 2 q 2 3npq 8npq Dowód. Przypomnijmy, że g oznacza gestość standardowego rozkladu normalnego. , Oznaczmy k − np 1 xk = √ , h= √ . npq npq Z twierdzenia o wartości średniej mamy, iż Φ (xk + h/2) − Φ (xk − h/2) = hg(ξk ), gdzie ξk ∈ (xk − h/2, xk + h/2). Innymi slowy, mamy hg (xk ) 1 2 = exp (ξk − x2k ) Φ (xk + h/2) − Φ (xk − h/2) . 2 2 2 Dalej, |ξk − xk | = |ξk + xk | · |ξk − xk | ≤ 21 h 2|xk | + 12 h = h|xk | + 14 h2 , a zatem hg(xk ) = erk [Φ(xk + h/2) − Φ(xk − h/2)] , gdzie |rk | ≤ 21 h|xk | + 18 h2 . W polaczeniu z poprzednim twierdzeniem, otrzymujemy , zatem P(Sn = k) = erk +R(n,k) [Φ(xk + h/2) − Φ(xk − h/2)] . Niech d = maxk∈{a,a+1,...,b} |rk + R(n, k)|; dostajemy zatem e−d [Φ(xk + h/2) − Φ(xk − h/2)] ≤ P(Sn = k) ≤ ed [Φ(xk + h/2) − Φ(xk − h/2)] . Piszac , te nierówności dla k = a, a + 1, . . . , b i sumujac, , dostajemy teze. , Na zakończenie, sformulujemy (bez dowodu) fakt, który zawiera wygodne oszacowanie na blad , przybliżenia w twierdzeniu de Moivre’a-Laplace’a. Twierdzenie 13.3. Przy oznaczeniach jak wyżej, mamy p2 + q 2 Sn − np sup P ≤ t − Φ(t) ≤ √ . √ npq npq t∈R WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 67 14. Zadania 1. Prawdopodobieństwo urodzenia chlopca wynosi 0, 517. Jakie jest prawdopodobieństwo tego, że wśród n = 10000 noworodków liczba chlopców nie przewyższy liczby dziewczat? , 2. Rzucamy symetryczna, moneta, aż do momentu, gdy wyrzucimy 200 orlów (lacznie, niekoniecznie pod rzad). Jakie jest przybliżone prawdopodobieństwo tego, , , że rzucimy wiecej niż 440 razy? , 3. Do sklepu meblowego przywieziono 150 biurek I rodzaju oraz 75 biurek II rodzaju. Wiadomo, że biurka I rodzaju ciesza, sie, dwukrotnie wiekszym powodze, niem (tzn. prawdopodobieństwo tego, że klient kupujacy biurko zdecyduje sie, na , biurko I rodzaju, wynosi 2/3). Jakie jest przybliżone prawdopodobieństwo tego, że któryś z pierwszych 200 klientów kupujacych biurka nie dostanie takiego modelu, , jaki chce? 4. Stwierdzono, iż przecietnie 30% spośród ogólnej liczby studentów przyjetych , , na studia kończy je w terminie. Ile osób trzeba przyjać , na pierwszy rok, aby z prawdopodobieństwem co najmniej 0, 9 co najmniej 50 osób skończylo studia w terminie? 5. W pewnym doświadczeniu prawdopodobieństwo zajścia zdarzenia A wynosi 0, 7. Ile razy trzeba powtórzyć to doświadczenie, żeby z prawdopodobieństwem 0, 9 czestość zajścia zdarzenia A nie różnila sie, od 0, 7 o wiecej niż 0, 1? Czy można , , coś powiedzieć o potrzebnej liczbie powtórzeń, jeśli nie znamy prawdopodobieństwa zdarzenia A? 6. a) Rzucamy 4500 razy kostka, , dla której prawdopodobieństwo wypadniecia , szóstki wynosi 1/6. Obliczyć przybliżone prawdopodobieństwo tego, że liczba wyrzuconych szóstek przekroczy 450. b) Zalóżmy, że prawdopodobieństwo wypadniecia szóstki wynosi 1/1000. Jakie , jest przybliżone prawdopodobieństwo tego, że liczba wyrzuconych szóstek przekroczy 2? 7. Dany jest ciag , (εn )n≥1 niezależnych zmiennych losowych Rademachera. Dowieść, że ciag , ε1 + ε2 + . . . + εn √ , n = 1, 2, . . . , n nie jest zbieżny prawie na pewno. 68 ADAM OSEKOWSKI , 15. Warunkowa wartość oczekiwana Warunkowa wartość oczekiwana jest jednym z kluczowych pojeć , w teorii prawdopodobieństwa. Zacznijmy od sytuacji gdy warunkujemy wzgledem zdarzenia. , Definicja 15.1. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, oraz B jest zdarzeniem o dodatnim prawdopodobieństwie. Niech X bedzie calkowalna, zmienna, , losowa. Warunkow a wartości a oczekiwan a X pod warunkiem B nazywamy liczbe, , , , Z , E(X|B) = X(ω)P(dω|B). Ω Twierdzenie 15.1. Przy zalożeniach jak wyżej, Z 1 XdP. (∗) E(X|B) = P(B) B Dowód: Stosujemy standardowa, metode, komplikacji zmiennej X. 1. Zalóżmy najpierw, że X = 1A , gdzie A ∈ F. Wówczas Z P(A ∩ B) 1 E(X|B) = P(A|B) = = 1A dP. P(B) P(B) B 2. Z liniowości, dowodzona równość zachodzi także dla zmiennych prostych (kombinacji liniowych indykatorów zdarzeń). 3. Teraz jeśli X jest nieujemna, zmienna, losowa, ciag , to bierzemy niemalejacy , , (Xn )n≥1 zmiennych prostych zbieżny prawie na pewno do X. Piszac (*) dla Xn , i zbiegajac , z n → ∞ dostajemy (*) dla X, na mocy twierdzenia Lebesgue’a o monotonicznym przejściu do granicy pod znakiem calki. 4. Jeśli X jest dowolna, zmienna, losowa, , to rozważamy rozbicie X = X+ − X− i stosujemy (*) dla X+ oraz X− ; po odjeciu stronami dostajemy (*) dla X. , Rozważmy teraz nastepuj acy przyklad. Przypuśćmy, że {Bi }i=1,2,...,n jest rozbi, , ciem Ω na zdarzenia o dodatniej mierze. Niech X bedzie calkowalna, zmienna, losowa, , i zdefiniujmy zmienna, η wzorem η(ω) = E(X|Bi ) jeśli ω ∈ Bi , i = 1, 2, . . . , n. Zmienna, η interpretujemy jako średnia, wartość X jeśli wiemy wszystko o zdarzeniach z σ-ciala generowanego przez rozbicie {Bi }. Zmienna η posiada nastepuj ace , , wlasności: 1) η jest mierzalna wzgledem σ(B1 , B2 , . . . , Bn ) - gdyż jest stala na dowolnym , zdarzeniu Bi , 2) Dla każdego i = 1, 2, . . . , n mamy Z Z ηdP = E(X|Bi ) · P(Bi ) = XdP, Bi skad , wynika, iż Bi Z Z ηdP = B XdP B dla dowolnego B ∈ σ(B1 , B2 , . . . , Bn ). Prowadzi to do definicji warunkowej wartości oczekiwanej wzgledem σ-ciala. , Definicja 15.2. Zalóżmy, że (Ω, F, P) jest przestrzenia, probabilistyczna, , M jest pod-σ-cialem F, a X jest calkowalna, zmienna, losowa. Warunkow a wartości a, oczeki, , wana, X pod warunkiem M nazywamy taka, zmienna, losowa, η, że sa, spelnione nastepuj ace dwa warunki. , , 1) η jest mierzalna wzgledem M. , WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 69 2) Dla każdego B ∈ M, Z Z ηdP = B XdP. B Oznaczenie: E(X|M). W szczególności gdy X = 1A , A ∈ F, to definiujemy prawdopodobieństwo warunkowe zdarzenia A pod warunkiem M poprzez P(A|M) = E(1A |M). Twierdzenie 15.2. Zalóżmy, że X jest calkowalna, zmienna, losowa, , a M jest podσ-cialem F. Wówczas warunkowa wartość oczekiwana istnieje i jest wyznaczona jednoznacznie z dokladnościa, do równości p.n. R Dowód: Dla dowolnego B ∈ M definiujemy ν(B) = B XdP. Funkcja ν : M → R jest przeliczalnie addytywna, funkcja, zbioru. Ponadto jeśli P(B) = 0, to ν(B) = 0 (jest to tzw. absolutna ciag P). Na mocy twierdzenia Radona, lość ν wzgledem , Nikodyma istnieje M-mierzalna zmienna losowa η bed gestości a, ν wzgledem P, , , aca , , tzn. taka, że dla wszystkich B ∈ M, Z Z XdP = ν(B) = ηdP. B B Jednoznaczność jest oczywista: jeśli η1 , η2 sa, zmiennymi losowymi spelniajacymi 1) , R R oraz 2), to w szczególności, dla każdego B ∈ M, B η1 dP = B η2 dP, skad , η1 = η2 p.n. Przechodzimy do pojecia warunkowej wartości oczekiwanej wzgledem zmiennej , , losowej. Bedziemy potrzebować nast epuj acego pomocniczego faktu. , , , Lemat 15.1. Zalóżmy, że Y jest zmienna, losowa. , Wówczas każda zmienna losowa X mierzalna wzgledem σ(Y ) ma postać f (Y ) dla pewnej funkcji borelowskiej f . , Dowód: Ponownie stosujemy metode, komplikacji zmiennej. 1. Zalóżmy, że X = 1A , gdzie A ∈ σ(Y ). Wówczas A = {Y ∈ B} dla pewnego B, skad , X = 1B (Y ), czyli jako f możemy wziać , indykator 1B . 2. Jeśli X jest zmienna, prosta, to jako f bierzemy kombinacje, liniowa, odpowied, nich indykatorów (patrz poprzedni punkt). 3. Zalóżmy, że X jest nieujemna, zmienna, losowa. ciag , Istnieje niemalejacy , , (Xn ) prostych, σ(Y )-mierzalnych zmiennych losowych zbieżny do X. Na mocy 2), mamy Xn = fn (Y ) dla pewnego ciagu funkcyjnego (fn ). Jak latwo sprawdzić, wystarczy , wziać , ( limn→∞ fn (x) jeśli granica istnieje, f (x) = 0 jeśli granica nie istnieje. 4. Jeśli teraz X jest dowolna, zmienna, losowa, , to mamy X = X+ − X− = f+ (Y ) − f− (Y ) = f (Y ), gdzie f+ , f− to funkcje borelowskie odpowiadajace σ(Y ), mierzalnym X+ oraz X− . Definicja 15.3. Zalóżmy, że X, Y sa, zmiennymi losowymi, przy czym X jest calkowalna. Definiujemy warunkowa, wartość oczekiwana, X pod warunkiem Y jako E(X|Y ) = E(X|σ(Y )). Uwaga: Na mocy lematu mamy E(X|Y ) = f (Y ) dla pewnej funkcji borelowskiej f . Liczbe, f (y) możemy interpretować jako E(X|Y = y). 70 ADAM OSEKOWSKI , Przyklady: 1. Zalóżmy, że X, Y posiadaja, rozklady skokowe. Oznaczmy PY (y) = P(Y = y) oraz P(X,Y ) (x, y) = P(X = x, Y = y). 1 Jeśli h jest dowolna, funkcja, borelowska, taka, , że h(X) ∈ L , to X E(h(X)|Y ) = h(x) x∈SX P(X,Y ) (x, Y ) . PY (Y ) Aby to wykazać, należy sprawdzić, iż prawa strona (oznaczana dalej przez η) spelnia wlasności 1) i 2) z definicji E(h(X)|σ(Y )). Pierwszy warunek jest jasny - η, jako funkcja Y , jest σ(Y )-mierzalna. Zajmijmy sie, zatem drugim warunkiem. Niech B ∈ σ(Y ). Ponieważ Y ma rozklad dyskretny, B jest co najwyżej przeliczalna, suma, zdarzeń postaci {Y = y} oraz zdarzenia o prawdopodobieństwie 0. Wystarczy wiec , sprawdzić 2) dla zbiorów B postaci {Y = y}. Mamy Z Z X X PX,Y (x, y) dP = h(x)PX,Y (x, y) ηdP = h(x) PY (y) {Y =y} {Y =y} x∈SX x∈SX oraz Z X h(X)dP = {Y =y} x∈SX Z h(x) 1{X=x} dP = {Y =y} X h(x)PX,Y (x, y). x∈SX 2. Konkretny przyklad. Zalóżmy, że X, Y sa, niezależnymi zmiennymi losowymi o rozkladzie Poissona z parametrami λ, µ, odpowiednio. Wyznaczymy E(X|X +Y ). Wiadomo, że X + Y ma rozklad Poissona z parametrem λ + µ. Stad , PX+Y (k) = (λ + µ)k −(λ+µ) e , k! k = 0, 1, 2, . . . . Ponadto, jeśli k ≥ ` ≥ 0, to PX,X+Y (`, k) = P(X = `, X + Y = k) = P(X = `)P(Y = k − `) = λ` −λ µk−` −µ e · e `! (k − `)! i PX,X+Y (`, k) k!λ` µk−` = = PX+Y (k) `!(k − `)!(λ + µ)k ` k−` k λ λ 1− . ` λ+µ λ+µ Stad , E(X|X + Y ) = λ (X + Y ). λ+µ 3. Zalóżmy, że (X, Y ) ma rozklad z gestości a, g i niech gY (y) = , bedzie g estości a zmiennej Y . Zdefiniujmy g estość warunkowa, wzorem , , , , ( g(x,y) jeśli gY (y) 6= 0, gX|Y (x|y) = gY (y) 0 jeśli gY (y) = 0. R R g(x, y)dx Wówczas dla dowolnej funkcji borelowskiej h : R → R takiej, że h(X) ∈ L1 mamy Z (∗) E(h(X)|Y ) = h(x)gX|Y (x|Y )dx. R WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 71 Istotnie, sprawdzimy, że prawa strona spelnia warunki 1) i 2) z definicji E(h(X)|Y ). Oczywiście warunek 1) jest spelniony - prawa strona jest funkcja, od Y . Przejdźmy do 2). Dla dowolnego B ∈ σ(Y ) mamy, iż B = {Y ∈ A} dla pewnego A ∈ R oraz Z Z Z h(X)dP = 1{Y ∈A} h(X)dP = 1{y∈A} h(x)g(x, y)dxdy B R2 ZΩ Z Z Z = 1{y∈A} gY (y) h(x)gX|Y (x|y)dxdy = h(x)gX|Y (x|Y )dxdP. R B R R 4. Konkretny przyklad. Zalóżmy, że (X, Y ) ma rozklad jednostajny na trójkacie , D = {(x, y) : 0 ≤ x ≤ y ≤ 1}. Obliczymy E(X|Y ) oraz P(X ≤ 1/2|Y ). Mamy g(x, y) = 21{0≤x≤y≤1} oraz Z gY (y) = g(x, y)dx = 2y1[0,1] (y). R Wobec tego, gestość warunkowa gX|Y zadana jest wzorem , ( 1 1[0,y] (x) jeśli y ∈ (0, 1], gX|Y (x|y) = y 0 dla pozostalych y. Stad , Z 1 E(X|Y ) = xgX|Y (x|Y )dx = Y R Z Y xdx = 0 Y 2 oraz P(X ≤ 1/2|Y ) = E[1(−∞,1/2] (X)|Y ] Z = 1(−∞,1/2] (x)gX|Y (x|Y )dx R 1 = Y ( = Z Y 1(−∞,1/2] (x)1[0,Y ] (x)dx 0 1 1/(2Y ) jeśli Y ≤ 1/2, jeśli Y > 1/2. Wlasności warunkowej wartości oczekiwanej Zalóżmy, że (Ω, F, P) jest ustalona, przestrzenia, probabilistyczna, i niech M bedzie pewnym pod-σ-cialem F. Ponadto, o wszystkich zmiennych losowych warunk, owanych zakladamy, że sa, calkowalne. 0. Mamy E(E(X|M)) = EX. Wynika to natychmiast z 2), jeśli weźmiemy B = Ω. Przyklad: Liczba wypadków danego dnia w pewnym mieście ma rozklad Poissona z parametrem 5. Wysokość szkody powstalej w wypadku ma rozklad jednostajny na przedziale [2, 10]. Niech X oznacza laczn a, szkode, danego dnia. Wyznaczyć , EX. Rozwiazanie: Wprowadźmy zmienna, losowa, Y , zadana, jako liczbe, wypadków , danego dnia. Zmienna Y ma rozklad Poissona z parametrem 5, ponadto, z warunków 72 ADAM OSEKOWSKI , zadania, E(X|Y ) = 6Y . Istotnie, średnia wysokość szkody powstalej w pojedynczym wypadku wynosi 6, a wiec , jeśli bylo Y wypadków, to średnia szkoda wynosi 6Y . Zatem, korzystajac z w lasności 0., , EX = E(E(X|Y )) = E6Y = 30. 1. Niech α, β ∈ R. Wówczas E(αX1 + βX2 |M) = αE(X1 |M) + βE(X2 |M). Istotnie: sprawdzimy, że prawa strona (oznaczana dalej przez R) spelnia warunki 1) i 2) z definicji E(αX1 + βX2 |M). Pierwszy warunek jest oczywisty. Aby sprawdzić drugi zauważmy, że dla dowolnego B ∈ M, Z Z Z Z Z RdP = α E(X1 |M)dP + β E(X2 |M)dP = α X1 dP + β X2 dP B B B B Z B = αX1 + βX2 dP. B 2. Jeśli X jest nieujemna, zmienna, losowa, , to E(X|M) ≥ 0 p.n. Istotnie, niech B = {E(X|M) < 0}. Wówczas B ∈ M i Z Z E(X|M)dP = XdP. B B Widzimy, że gdyby zdarzenie B mialo dodatnie prawdopodobieństwo, to lewa strona bylaby ujemna, a prawa - nieujemna. 3. Mamy |E(X|M)| ≤ E(|X||M) (∗) p.n. Istotnie, na mocy 1. oraz 2. mamy, iż nierówność X ≤ Y p.n. pociaga za soba, , E(X|M) ≤ E(Y |M). Stad, z prawdopodobieństwem 1, , E(X1 |M) ≤ E(|X1 ||M) i −E(X1 |M) ≤ E(|X1 ||M). Uwaga: Biorac wartość oczekiwan a, obu stron w (*) dostajemy, na mocy 0., , E(|E(X|M)|) ≤ E|X|. Innymi slowy, operator liniowy E(·|M) : L1 (Ω, F, P) → L1 (Ω, F, P) jest kontrakcja. , 4. Warunkowa wersja twierdzenia Lebesgue’a o monotonicznym przejściu do granicy. Zalóżmy, że Xn jest niemalejacym ciagiem nieujemnych zmiennych losowych , , zbieżnych p.n. do X ∈ L1 . Wówczas E(Xn |M) ↑ E(X|M) p.n. Aby to wykazać, zacznijmy od obserwacji iż na mocy 1. i 2., ciag , (E(Xn |M)) jest z prawdopodobieństwem 1 niemalejacy, a wi ec w szczególności zbieżny. Oznaczmy , , jego granice, przez η, E(X1 |M) ≤ η ≤ ∞. Niech teraz B ∈ M. Mamy, na mocy 2) oraz bezwarunkowego twierdzenia Lebesgue’a, Z Z Z Z X = lim Xn = lim E(Xn |M) = η. B n→∞ B n→∞ B B Ponieważ η jest M-mierzalna, to z powyższej równości wynika, iż η = E(X|M). 5. Analogicznie dowodzimy warunkowe wersje twierdzenia Lebesgue’a o zmajoryzowanym przejściu do granicy pod znakiem calki oraz lematu Fatou. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 73 6. Zalóżmy, że X1 jest mierzalna wzgledem M. Wówczas , E(X1 X2 |M) = X1 E(X2 |M) (+) p.n. W szczególności, biorac , X2 ≡ 1, dostajemy, iż E(X1 |M) = X1 . Sprawdzamy, że prawa strona spelnia warunki 1) oraz 2) z definicji E(X1 X2 |M). Warunek 1) jest oczywisty, pozostaje wiec , sprawdzić drugi. Zastosujemy metode, komplikacji zmiennej X1 . a) Jeśli X1 = 1A , gdzie A ∈ M, to dla dowolnego B ∈ M, Z Z Z Z X1 E(X2 |M)dP = E(X2 |M)dP = X2 dP = X1 X2 dP. B A∩B A∩B B b) Jeśli X1 jest zmienna, prosta, , to wzór (+) dostajemy na mocy a) oraz liniowości warunkowych wartości oczekiwanych. c) Jeśli X1 jest nieujemna, zmienna, losowa, ciag , to istnieje niemalejacy , , (Yn ) Mmierzalnych zmiennych prostych, zbieżny p.n. do X1 . Rozbijmy X2 = X2+ − X2− i zastosujmy b) do zmiennych Yn oraz X2+ : E(Yn X2+ |M) = Yn E(X2+ |M). Zbiegajac , z n → ∞ i korzystajac , z warunkowej wersji twierdzenia Lebesgue’a (wlasność 4.), dostajemy E(X1 X2+ |M) = X1 E(X2+ |M). + − Zastepuj ac , X2 przez X2 i powtarzajac , rozumowanie, dostajemy , E(X1 X2− |M) = X1 E(X2− |M) i po odjeciu stronami dostajemy (+). , + − d) Jeśli X1 jest dowolna, zmienna, losowa, , to rozbijamy ja, na różnice, X1 − X1 , + − stosujemy c) do zmiennych X1 , X2 , oraz X1 , X2 , i odejmujemy stronami uzyskane równości. 7. Jeśli M1 ⊂ M2 sa, pod-σ-cialami F, to (=) E(X|M1 ) = E(E(X|M2 )|M1 ) = E(E(X|M1 )|M2 ). Zacznijmy od obserwacji, iż wyrażenia stojace po skrajnych stronach sa, równe. , Wynika to natychmiast z poprzedniej wlasności: zmienna losowa E(X|M1 ) jest mierzalna wzgledem M2 . Wystarczy wiec , , udowodnić, że pierwsze dwa wyrazy w (=) sa, równe. Weźmy B ∈ M1 . Mamy B ∈ M2 , a wiec Z Z Z Z , E(X|M1 ) = X= E(X|M2 ) = E(E(X|M2 )|M1 ), B B B B skad , teza. 8. Zalóżmy, że X jest niezależna od M. Wówczas E(X|M) = EX. Istotnie, sprawdzimy, że EX spelnia warunki 1) i 2) w definicji E(X|M). Warunek 1) jest oczywisty: EX jest zmienna, losowa, stala, każdego σ, a wiec , mierzalna, wzgledem , ciala. Niech teraz B ∈ M. Mamy na mocy niezależności 1B oraz X, Z Z EXdP = E1B EX = E(1B X) = XdP. B B 9. Nierówność Jensena. Zalóżmy, że f : R → R jest funkcja, wypukla, taka, , że f (X) jest zmienna, calkowalna. Wówczas , E(f (X)|M) ≥ f (E(X|M)). 74 ADAM OSEKOWSKI , Bedzie nam potrzebny nastepuj acy prosty fakt. , , , proste ćwiczenie. Dowód pozostawiamy jako Lemat 15.2. Zalóżmy, że f : R → R jest funkcja, wypukla. , Wówczas istnieja, ciagi , (an ), (bn ) takie, że dla dowolnego x ∈ R, f (x) = sup(an x + bn ). n Powróćmy do dowodu 9. Dla ciagów (an ), (bn ), gwarantowanych przez powyższy , lemat, mamy f (X) ≥ an X + bn dla każdego n. Stad, na mocy 1. oraz 2., z , prawdopodobieństwem 1, E(f (X)|M) ≥ an E(X|M) + bn . Poniweaż ciagi (an ), (bn ) sa, przeliczalne, to możemy wziać , , supremum po n po prawej stronie i dalej nierówność bedzie zachodzi la z prawdopodobieństwem 1: , E(f (X)|M) ≥ sup(an E(X|M) + bn ) = f (E(X|M)). n Uwaga: Jako wniosek, dostajemy, iż dla p ≥ 1 i X ∈ Lp (Ω, F, P), E(|X|p |M) ≥ [E(|X||M)]p . Stad wartości oczekiwanej obu stron, E(|E(X|M)|p ) ≤ E|X|p , czyli , po wzieciu , ||E(X|M)||p ≤ ||X||p . Zatem warunkowa wartość oczekiwana E(·|M) jest kontrakcja, w Lp . Na zakończenie zajmiemy sie, zagadnieniem regresji nieliniowej. Zalóżmy, że X, Y sa, zmiennymi losowymi calkowalnymi z kwadratem. Obserwujemy zmienna, Y i za pomoca, tych danych chcemy najlepiej przybliżyć X (w sensie średniokwadratowym) zmienna, postaci h(Y ). Ściślej, szukamy funkcji borelowskiej f takiej, że E(X − f (Y ))2 = min E(X − h(Y ))2 . h W przypadku, gdy zawezimy sie, do klasy funkcji liniowych, prowadzi to do zagad, nienia regresji liniowej, rozważanej wcześniej. Twierdzenie 15.3. Rozwiazaniem powyższego zagadnienia jest f (Y ) = E(X|Y ). , Dowód. Weźmy dowolna, funkcje, borelowska, h. Mamy E(X − h(Y ))2 = E(X − f (Y ) + f (Y ) − h(Y ))2 = E(X − f (Y ))2 + 2E(X − f (Y ))(f (Y ) − h(Y )) + E(f (Y ) − h(Y ))2 . Ale zmienna f (Y ) − h(Y ) jest mierzalna wzgledem σ(Y ). Zatem korzystajac , z , wlasności 0., 1. oraz 6., E(X − f (Y ))(f (Y ) − h(Y )) = E E (X − f (Y ))(f (Y ) − h(Y ))|Y = E (f (Y ) − h(Y ))E(X − f (Y )|Y ) = 0. Wobec tego czlon środkowy w poprzednim ciagu równości znika i otrzymujemy , E(X − h(Y ))2 ≥ E(X − f (Y ))2 . Stad , teza. WYKLAD Z RACHUNKU PRAWDOPODOBIEŃSTWA I 75 16. Zadania 1. Zmienne losowe ε1 , ε2 , ε3 sa, niezależne i maja, ten sam rozklad P(εi = −1) = P(εi = 1) = 1/2, i = 1, 2, 3. Obliczyć E(ε1 |ε1 + ε2 + ε3 ) oraz E(ε1 ε2 |e1 + e2 e3 ). 2. Zmienne losowe X, Y sa, niezależne, przy czym X ma rozklad Bernoulliego B(n, p), a Y ma rozklad Bernoulliego B(m, p). Wyznaczyć E(X + Y |X) oraz E(X|X + Y ). 3. Rzucono kostka, rzucono nia, tyle razy, ile oczek wypadlo w , a nastepnie , pierwszym rzucie. Obliczyć wartość oczekiwana, liczby wyrzuconych trójek. 4. W urnie znajduje sie, a kul bialych, b kul czarnych i c kul czerownych (a, b, c sa, dodatnimi liczbami calkowitymi). Losujemy ze zwracaniem po jednej kuli aż do momentu wyciagni ecia kuli czerwonej. Wyznaczyć wartość oczekiwana, liczby , , losowań w których wyciagni eto biala, kule. , , , 5. Wiadomo, że p procent monet stanowia, monety falszywe, z orlem po obu stronach. Losujemy ze zwracaniem n monet i każda, z nich wykonujemy rzut. Niech F oznacza liczbe, losowań, w wyniku których wyciagni eto monete, falszywa, , , O , 2p O. liczba wyrzuconych orlów. Udowodnić, że E(F |O) = 100+p 6. Zmienna losowa (X, Y ) ma gestość , x3 −x(y+1) e 1{x>0, y>0} . 2 Wyznaczyć E(Y |X), E(Y 2 |X 2 ) oraz P(Y > 1|X 3 + 1). 7. Zmienne losowe X, Y sa, niezależne i maja, rozklad wykladniczy z parametrem 1. Obliczyć P(X ∈ B|X + Y ) (dla B ∈ B(R)) oraz E(sin X|X + Y ). 8. Zmienna losowa X ma rozklad wykladniczy z parametrem 1, zaś Y jest zmienna, losowa, taka, , że jeśli X = x, to Y ma rozklad wykladniczy z parametrem x. a) Wyznaczyć rozklad Y . b) Obliczyć P(X > r|Y ). 9. Zmienna losowa (X, Y ) ma rozklad normalny o wartości oczekiwanej 0, VarX = σ12 , VarY = σ22 , Cov(X, Y ) = c. Obliczyć P(Y ∈ B|X) (dla B ∈ B(R)) oraz E(Y |X). 10. Zmienne X1 , X2 , . . ., Xn sa, niezależne i maja, ten sam rozklad o skończonej wartości oczekiwanej. Obliczyć E(X1 |X1 + X2 + . . . + Xn ). 11. Zalóżmy, że X, Y sa, zmiennymi losowymi a G jest σ-cialem takim, że X jest mierzalne wzgledem G, a Y jest niezależne od G. Niech φ : R2 → R bedzie funkcja, , , borelowska, taka, że φ(X, Y ) jest ca lkowaln a zmienn a losow a. Udowodnić, że , , , , g(x, y) = E[φ(X, Y )|G] = Φ(X), gdzie Φ(x) = Eφ(x, Y ). 12. Zalóżmy, że X jest calkowalna, zmienna, losowa, , a σ-cialo G jest niezależne od X oraz od σ-ciala M. Udowodnić, że E(X|σ(G, M)) = E(X|M). 13. Zmienne X, Y , Z sa, niezależne, przy czym X ma standardowy rozklad normalny, Y jest nieujemna, zmienna, ograniczona, , a Z ma rozklad Rademachera. Obliczyć E(eXY |Y ) oraz E(eXY |Y Z). 76 ADAM OSEKOWSKI , 14. Zmienne N , X1 , X2 , . . . sa, niezależne, przy czym N ma rozklad Poissona z parametrem 3, a Xn ma rozklad jednostajny na [0, 1], n = 1, 2, . . .. Obliczyć E(X1 + X2 + . . . + XN +1 ).