Wykład 1: Funkcje tworzące Dokończenie poprzedniego wykładu

Transkrypt

Wykład 1: Funkcje tworzące Dokończenie poprzedniego wykładu
RAP 412
24 października 2008
Wykład 1: Funkcje tworzące
Wykładowca: Andrzej Ruciński
Pisarz:Krzysztof Krzywdziński i Paweł Wawrzyniak
Dokończenie poprzedniego wykładu
Załóżmy, że S0 = 0, p = 12 , T2n − czas ostatniej wizyty w punkcie 0, w ciągu pierwszych 2n
kroków. Ponadto oznaczmy α2n (2k) = P (T2n = 2k).
Twierdzenie 1 (Prawo arcusa sinusa dla ostatniej wizyty w zerze).
α2n (2k) = P (S2k = 0) · P (S2n−2k = 0) = u2k · u2n−2k .
Przed rozpoczęciem dowodu zauważmy, że
√
2k
2k
1
4πk · (2k)2k · e−2k
1
u2k =
∼ √
=√ ,
k
−k
2
2k
k
2
( 2πk · k · e ) · 2
πk
zatem dla dużych k i n − k mamy
1
α2n (2k) ∼ p
.
π k(n − k)
Ponadto zauważmy, że
T2n
F T2n (x) = P
≤ x = P (T2n ≤ 2nx)
2n
2n
X
1
p
∼
π k(n − k)
k≤xn
Z xn
dk
p
∼
π k(n − k)
0
√
2
= arcsin ( x).
π
Jeśli przeformułujemy problem na język orłów i reszek, to mogą zadziwić nas następujące
„zaskoczątka”:
1) Intuicja podpowiada, że ostatnie zrównanie się liczby orłów i liczby reszek powinno
mieć miejsce pod koniec eksperymentu, ale
α2n (2k) = α2n (2n − 2k).
Dla przykładu mamy:
9
2n
= P T2n ≥ (2n)
P T2n ≤
10
10
oraz
P (T2n ≤ n) = P (T2n ≥ n).
1-1
2) Intuicyjnie również powinno być dużo zrównań liczby orłów i reszek podczas eksperymentu, ale
r !
1
2n
2
1
1
P (T2n ≤ n) = ,
P T2n ≤
∼ arcsin
≈ .
2
10
π
10
5
Przejdźmy teraz do dowodu powyższego twierdzenia.
Dowód.
α2n (2k) = P (T2n = 2k) = P (S2k = 0, S2k+1 · . . . · S2n 6= 0)
= P (S2k = 0) · P (S1 · . . . · S2n−2k 6= 0)
(ZD2−9)
=
1
P (S2k = 0) · P (S2n−2k = 0).
Funkcje tworzące
P
ai si nazywamy funkcją tworzącą
Definicja 1 (Funkcja tworząca). Funkcję Ga (s) = ∞
P∞ i=0
i
dla danego ciągu a = (a0 , a1 , ...). Funkcję Ea (s) = i=0 aii!s nazywamy wykładniczą funkcją
tworzącą dla danego ciągu a.
Definicja 2 (Konwolucja
(splot)). Splotem danych dwóch ciągów a i b nazywamy taki ciąg
P
c = a ∗ b, że cn = ni=0 ai bn−i . Ponadto jest jasne, że Gc = Ga · Gb .
Przykład 1. Niech dane są takie dwa skończone ciągi a i b, że ai = bi = ni = an−i , dla
2
P
i = 0, 1, ..., n. Niech też c = a ∗ a, a zatem ck = ki=0 ni dla k = 0, 1, ..., n. Mamy wtedy
n 2
2
2n
Gc (s) = (Ga (s)) = ((1 + s) ) = (1 + s)
n X
2n i
=
s,
i
i=0
czyli z definicji splotu
X
k 2n
n
n
ck =
=
,
k
i
k−i
i=0
dla każdego k = 0, 1, ..., n.
Definicja 3 (Funkcja tworząca prawdopodobieństwo dyskretnej zmiennej losowej X). Niech
X ∈ Z będzie zmienną losową. Wówczas funkcję
X
X
GX (s) = E(sX ) =
si P (X = i) =
si pi = Gp (s)
i
i
nazywamy funkcją tworzącą prawdopodobieństwo zmiennej losowej X.
Przykład 2. Dla rozkładu Poissona G(s) = eλ(s−1) , dla rozkładu geometrycznego G(s) =
ps
1−s(1−p) .
1-2
1.1
Liczenie momentów
Okazuje się, że funkcje tworzące są bardzo przydatne w liczeniu momentów
zmiennych
a!
losowych dyskretnych. Niech (a)k oznacza spadający iloczyn (a−k)! . Wartość E ((X)k )
będziemy nazywali k-tym momentem silniowym zmiennej losowej X. W terminach momentów silniowych można na przykład z łatwością opisać wariancję:
V ar(X) = E ((X)2 ) + E(X) − (E(X))2 .
Twierdzenie 2. Niech X będzie dyskretną zmienną losową o funkcji tworzącej G(s), wtedy
E ((X)k ) = G(k) (1),
gdzie G(k) (1) jest skrótem od wyrażenia lims→1 G(k) (s), gdy promień zbieżności szeregu jest
równy 1.
Dowód. Niech s < 1. Po obliczeniu k-tej pochodnej mamy:
X
G(k) (s) =
si−k (i)k pi = E(sX−k (X)k )
i
Dla s → 1 mamy więc z twierdzenia Abela dla szeregów nieskończonych
G(k) (1) = lim G(k) (s) = E ((X)k ) .
s→1
1.2
Sumy zmiennych niezależnych
Funkcje tworzące ułatwiają także określanie rozkładów sum niezależnych zmiennych losowych.
A to dzięki prostej zależności opisanej w poniższym twierdzeniu.
Twierdzenie 3. Niech X, Y będą niezależnymi dyskretnymi zmiennymi losowymi. Wtedy
zachodzi równość GX+Y (s) = GX (s)GY (s).
Dowód. Z niezależności X i Y zmienne losowe sX i sY są niezależne, więc E(sX sY ) =
E(sX )E(sY ).
Przykład 3. Niech
P Sn będzie zmienną losową o rozkładzie dwumianowym Bin(n, p). Wtedy
oczywiście Sn = ni=1 Xi , gdzie Xi są niezależnymi zmiennymi losowymi zero–jedynkowymi
przyjmującymi wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem q =
1 − p. Czyli dla dowolnego i mamy GXi = s0 q + s1 p = q + ps. Ostatecznie, korzystając z
twierdzenia 3:
GSn (s) = (GX1 (s))n = (q + ps)n .
A co jeśli zmienna losowa jest sumą losowej liczby niezależnych zmiennych losowych?
1-3
Twierdzenie 4. Niech X1 , X2 , . . . będą niezależnymi zmiennymi losowymi o jednakowym
rozkładzie. Oznaczmy GXi = G dla i = 1, 2 . . .. Niech N ∈ {0, 1, 2, . . .} będzie zmienną
losową niezależną od X1 , X2 , . . . oraz S = X1 + X2 + . . . + XN . Przy tych oznaczeniach
zachodzi równość
GS (s) = GN (G(s)) .
Dowód. GS (s) = E(sS ) = E E sS |N . Czyli z niezależności zmiennych N i X1 , X2 , . . .
oraz definicji wartości oczekiwanej:
X
GS (s) =
E sS Pr(N = n)
n
=
X
=
X
=
X
E sX1 +X2 +...+Xn Pr(N = n)
n
E sX1 . . . E sXn Pr(N = n)
n
(G (S))n Pr(N = n)
n
= GN (G (s)) .
Ostatnia równość wynika z definicji funkcji tworzącej zmiennej losowej.
Przykład 4. Kura znosi N jaj, gdzie N jest zmienną losową o rozkładzie Poissona P o(λ).
Ze zniesionych jaj z prawdopodobieństwem p wykluwa się kurczak, natomiast z prawdopodobieństwem q = 1 − p nie wykluwa się nic. Można P
zadać pytanie: „Ile wykluje się kurcząt?”. Będzie
to pytanie o rozkład zmiennej losowej S = N
i=1 Xi . Skoro:
GN (s) =
∞ −λ i
X
e λ
i=0
i!
si = eλ(s−1)
oraz
GXi (s) = G(s) = q + ps,
więc z twierdzenia 4
GS (s) = GN (G (s)) = eλ(q+ps−1) = eλp(s−1) .
Czyli ostatecznie S ma rozkład Poissona P o(λp).
1.3
Zastosowanie dla spacerów losowych
„Po obfitej jajecznicy możemy wyjść na spacer”. W spacerze losowym o punkcie początkowym
w zerze (S0 = 0), zdefiniujmy czas po którym po raz pierwszy wrócimy do punktu wyjścia, czyli: T0 = min {Sn = 0 : n ≥ 1}. Oczywiście T0 ∈ {2, 4, . . .} ∪ {∞}. Chcemy znaleźć
rozkład tej zmiennej losowej. Wprowadźmy następujące oznaczenia:
f0 (0) = 0
f0 (n) = Pr(T0 = n) = Pr(S1 , . . . , Sn − 1 6= 0, Sn = 0), dla n ≥ 1
p0 (n) = Pr(Sn = 0)
1-4
Przy tych oznaczeniach zmienne losowe T0 i Sn mają funkcje tworzące:
P0 (s) =
F0 (s) =
∞
X
n=0
∞
X
p0 (n)sn
f0 (n)sn
n=0
Twierdzenie 5. Przy oznaczeniach wprowadzonych powyżej:
a) P0 = 1 + P0 F0
b) P0 (s) = √
1
1−4pqs2
c) F0 (s) = 1 −
p
1 − 4pqs2
Dowód. Udowodnijmy najpierw punkt a) twierdzenia. Zauważmy, że dla dowolnego n ≥ 1
p0 (n) =
n
X
f0 (k)p0 (n − k),
k=1
gdyż, jeśli w k-tej chwili jesteśmy w punkcie wyjściowym, to tak, jak byśmy zaczynali spacer
od nowa. Czyli, mówiąc nieformalnie, sumujemy po wszytskich momentach bycia wcześniej
w zerze po raz pierwszy a potem „resetujemy” czas.
Korzystając z operacji splotu, definicji funkcji tworzących P0 i F0 oraz pamiętając, że
p0 (0) = 1 i f0 (0) = 0 mamy:
P0 (s) − 1 =
=
=
∞
X
n=0
∞
X
n
p0 (n)s − 1 =
∞
X
p0 (n)sn =
n=1
n
X
n=1 k=1
∞
X
!
f0 (k)p0 (n − k) sn =
!
f0 (m1 )s
m1 =1
m1
∞
X
!
p0 (m2 )s
m2
= F0 (s)P0 (s).
m2 =0
Punkt b) twierdzenia wynika z tego, iż p0 (n) =
rozwiązania zadania domowego mamy:
n
n/2
1
p0 (s) = p
1 − 4pqs2
Punkt c), po prostych przeliczeniach, wynika z a) i b).
Wniosek 1.
1-5
n
(pq) 2 . Ostatecznie, korzystając z
• Jeśli p = q = 12 , to z prawdopodobieństwem 1 wrócimy do punktu wyjścia, gdyż:
∞
X
f0 (n) = F0 (1) = 1 −
p
p
1 − 4pq = 1 − (p − q)2 = 1 − |p − q|
n=1
• Dla p =
1
2
wartość oczekiwana czasu powrotu jest nieskończona, gdyż skoro:
lim
s→1−
1−
0
p
1 − 4pqs2 = lim
s→1−
2s
= ∞,
2 1 − s2
√
więc
E(T0 ) = F00 (1) = ∞.
1-6

Podobne dokumenty