Wykład 1: Funkcje tworzące Dokończenie poprzedniego wykładu
Transkrypt
Wykład 1: Funkcje tworzące Dokończenie poprzedniego wykładu
RAP 412 24 października 2008 Wykład 1: Funkcje tworzące Wykładowca: Andrzej Ruciński Pisarz:Krzysztof Krzywdziński i Paweł Wawrzyniak Dokończenie poprzedniego wykładu Załóżmy, że S0 = 0, p = 12 , T2n − czas ostatniej wizyty w punkcie 0, w ciągu pierwszych 2n kroków. Ponadto oznaczmy α2n (2k) = P (T2n = 2k). Twierdzenie 1 (Prawo arcusa sinusa dla ostatniej wizyty w zerze). α2n (2k) = P (S2k = 0) · P (S2n−2k = 0) = u2k · u2n−2k . Przed rozpoczęciem dowodu zauważmy, że √ 2k 2k 1 4πk · (2k)2k · e−2k 1 u2k = ∼ √ =√ , k −k 2 2k k 2 ( 2πk · k · e ) · 2 πk zatem dla dużych k i n − k mamy 1 α2n (2k) ∼ p . π k(n − k) Ponadto zauważmy, że T2n F T2n (x) = P ≤ x = P (T2n ≤ 2nx) 2n 2n X 1 p ∼ π k(n − k) k≤xn Z xn dk p ∼ π k(n − k) 0 √ 2 = arcsin ( x). π Jeśli przeformułujemy problem na język orłów i reszek, to mogą zadziwić nas następujące „zaskoczątka”: 1) Intuicja podpowiada, że ostatnie zrównanie się liczby orłów i liczby reszek powinno mieć miejsce pod koniec eksperymentu, ale α2n (2k) = α2n (2n − 2k). Dla przykładu mamy: 9 2n = P T2n ≥ (2n) P T2n ≤ 10 10 oraz P (T2n ≤ n) = P (T2n ≥ n). 1-1 2) Intuicyjnie również powinno być dużo zrównań liczby orłów i reszek podczas eksperymentu, ale r ! 1 2n 2 1 1 P (T2n ≤ n) = , P T2n ≤ ∼ arcsin ≈ . 2 10 π 10 5 Przejdźmy teraz do dowodu powyższego twierdzenia. Dowód. α2n (2k) = P (T2n = 2k) = P (S2k = 0, S2k+1 · . . . · S2n 6= 0) = P (S2k = 0) · P (S1 · . . . · S2n−2k 6= 0) (ZD2−9) = 1 P (S2k = 0) · P (S2n−2k = 0). Funkcje tworzące P ai si nazywamy funkcją tworzącą Definicja 1 (Funkcja tworząca). Funkcję Ga (s) = ∞ P∞ i=0 i dla danego ciągu a = (a0 , a1 , ...). Funkcję Ea (s) = i=0 aii!s nazywamy wykładniczą funkcją tworzącą dla danego ciągu a. Definicja 2 (Konwolucja (splot)). Splotem danych dwóch ciągów a i b nazywamy taki ciąg P c = a ∗ b, że cn = ni=0 ai bn−i . Ponadto jest jasne, że Gc = Ga · Gb . Przykład 1. Niech dane są takie dwa skończone ciągi a i b, że ai = bi = ni = an−i , dla 2 P i = 0, 1, ..., n. Niech też c = a ∗ a, a zatem ck = ki=0 ni dla k = 0, 1, ..., n. Mamy wtedy n 2 2 2n Gc (s) = (Ga (s)) = ((1 + s) ) = (1 + s) n X 2n i = s, i i=0 czyli z definicji splotu X k 2n n n ck = = , k i k−i i=0 dla każdego k = 0, 1, ..., n. Definicja 3 (Funkcja tworząca prawdopodobieństwo dyskretnej zmiennej losowej X). Niech X ∈ Z będzie zmienną losową. Wówczas funkcję X X GX (s) = E(sX ) = si P (X = i) = si pi = Gp (s) i i nazywamy funkcją tworzącą prawdopodobieństwo zmiennej losowej X. Przykład 2. Dla rozkładu Poissona G(s) = eλ(s−1) , dla rozkładu geometrycznego G(s) = ps 1−s(1−p) . 1-2 1.1 Liczenie momentów Okazuje się, że funkcje tworzące są bardzo przydatne w liczeniu momentów zmiennych a! losowych dyskretnych. Niech (a)k oznacza spadający iloczyn (a−k)! . Wartość E ((X)k ) będziemy nazywali k-tym momentem silniowym zmiennej losowej X. W terminach momentów silniowych można na przykład z łatwością opisać wariancję: V ar(X) = E ((X)2 ) + E(X) − (E(X))2 . Twierdzenie 2. Niech X będzie dyskretną zmienną losową o funkcji tworzącej G(s), wtedy E ((X)k ) = G(k) (1), gdzie G(k) (1) jest skrótem od wyrażenia lims→1 G(k) (s), gdy promień zbieżności szeregu jest równy 1. Dowód. Niech s < 1. Po obliczeniu k-tej pochodnej mamy: X G(k) (s) = si−k (i)k pi = E(sX−k (X)k ) i Dla s → 1 mamy więc z twierdzenia Abela dla szeregów nieskończonych G(k) (1) = lim G(k) (s) = E ((X)k ) . s→1 1.2 Sumy zmiennych niezależnych Funkcje tworzące ułatwiają także określanie rozkładów sum niezależnych zmiennych losowych. A to dzięki prostej zależności opisanej w poniższym twierdzeniu. Twierdzenie 3. Niech X, Y będą niezależnymi dyskretnymi zmiennymi losowymi. Wtedy zachodzi równość GX+Y (s) = GX (s)GY (s). Dowód. Z niezależności X i Y zmienne losowe sX i sY są niezależne, więc E(sX sY ) = E(sX )E(sY ). Przykład 3. Niech P Sn będzie zmienną losową o rozkładzie dwumianowym Bin(n, p). Wtedy oczywiście Sn = ni=1 Xi , gdzie Xi są niezależnymi zmiennymi losowymi zero–jedynkowymi przyjmującymi wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem q = 1 − p. Czyli dla dowolnego i mamy GXi = s0 q + s1 p = q + ps. Ostatecznie, korzystając z twierdzenia 3: GSn (s) = (GX1 (s))n = (q + ps)n . A co jeśli zmienna losowa jest sumą losowej liczby niezależnych zmiennych losowych? 1-3 Twierdzenie 4. Niech X1 , X2 , . . . będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie. Oznaczmy GXi = G dla i = 1, 2 . . .. Niech N ∈ {0, 1, 2, . . .} będzie zmienną losową niezależną od X1 , X2 , . . . oraz S = X1 + X2 + . . . + XN . Przy tych oznaczeniach zachodzi równość GS (s) = GN (G(s)) . Dowód. GS (s) = E(sS ) = E E sS |N . Czyli z niezależności zmiennych N i X1 , X2 , . . . oraz definicji wartości oczekiwanej: X GS (s) = E sS Pr(N = n) n = X = X = X E sX1 +X2 +...+Xn Pr(N = n) n E sX1 . . . E sXn Pr(N = n) n (G (S))n Pr(N = n) n = GN (G (s)) . Ostatnia równość wynika z definicji funkcji tworzącej zmiennej losowej. Przykład 4. Kura znosi N jaj, gdzie N jest zmienną losową o rozkładzie Poissona P o(λ). Ze zniesionych jaj z prawdopodobieństwem p wykluwa się kurczak, natomiast z prawdopodobieństwem q = 1 − p nie wykluwa się nic. Można P zadać pytanie: „Ile wykluje się kurcząt?”. Będzie to pytanie o rozkład zmiennej losowej S = N i=1 Xi . Skoro: GN (s) = ∞ −λ i X e λ i=0 i! si = eλ(s−1) oraz GXi (s) = G(s) = q + ps, więc z twierdzenia 4 GS (s) = GN (G (s)) = eλ(q+ps−1) = eλp(s−1) . Czyli ostatecznie S ma rozkład Poissona P o(λp). 1.3 Zastosowanie dla spacerów losowych „Po obfitej jajecznicy możemy wyjść na spacer”. W spacerze losowym o punkcie początkowym w zerze (S0 = 0), zdefiniujmy czas po którym po raz pierwszy wrócimy do punktu wyjścia, czyli: T0 = min {Sn = 0 : n ≥ 1}. Oczywiście T0 ∈ {2, 4, . . .} ∪ {∞}. Chcemy znaleźć rozkład tej zmiennej losowej. Wprowadźmy następujące oznaczenia: f0 (0) = 0 f0 (n) = Pr(T0 = n) = Pr(S1 , . . . , Sn − 1 6= 0, Sn = 0), dla n ≥ 1 p0 (n) = Pr(Sn = 0) 1-4 Przy tych oznaczeniach zmienne losowe T0 i Sn mają funkcje tworzące: P0 (s) = F0 (s) = ∞ X n=0 ∞ X p0 (n)sn f0 (n)sn n=0 Twierdzenie 5. Przy oznaczeniach wprowadzonych powyżej: a) P0 = 1 + P0 F0 b) P0 (s) = √ 1 1−4pqs2 c) F0 (s) = 1 − p 1 − 4pqs2 Dowód. Udowodnijmy najpierw punkt a) twierdzenia. Zauważmy, że dla dowolnego n ≥ 1 p0 (n) = n X f0 (k)p0 (n − k), k=1 gdyż, jeśli w k-tej chwili jesteśmy w punkcie wyjściowym, to tak, jak byśmy zaczynali spacer od nowa. Czyli, mówiąc nieformalnie, sumujemy po wszytskich momentach bycia wcześniej w zerze po raz pierwszy a potem „resetujemy” czas. Korzystając z operacji splotu, definicji funkcji tworzących P0 i F0 oraz pamiętając, że p0 (0) = 1 i f0 (0) = 0 mamy: P0 (s) − 1 = = = ∞ X n=0 ∞ X n p0 (n)s − 1 = ∞ X p0 (n)sn = n=1 n X n=1 k=1 ∞ X ! f0 (k)p0 (n − k) sn = ! f0 (m1 )s m1 =1 m1 ∞ X ! p0 (m2 )s m2 = F0 (s)P0 (s). m2 =0 Punkt b) twierdzenia wynika z tego, iż p0 (n) = rozwiązania zadania domowego mamy: n n/2 1 p0 (s) = p 1 − 4pqs2 Punkt c), po prostych przeliczeniach, wynika z a) i b). Wniosek 1. 1-5 n (pq) 2 . Ostatecznie, korzystając z • Jeśli p = q = 12 , to z prawdopodobieństwem 1 wrócimy do punktu wyjścia, gdyż: ∞ X f0 (n) = F0 (1) = 1 − p p 1 − 4pq = 1 − (p − q)2 = 1 − |p − q| n=1 • Dla p = 1 2 wartość oczekiwana czasu powrotu jest nieskończona, gdyż skoro: lim s→1− 1− 0 p 1 − 4pqs2 = lim s→1− 2s = ∞, 2 1 − s2 √ więc E(T0 ) = F00 (1) = ∞. 1-6