Proces Poissona
Transkrypt
Proces Poissona
Wykład 4 Proces Poissona 4.1 Proces zliczajacy ˛ Proces stochastyczny {Nt ; t ≥ 0} nazywamy zliczajacym, ˛ gdy Nt jest równe całkowitej ilości ’zdarzeń’ które zdarzyły sie˛ do momentu t. Przekładami procesów zliczajacych ˛ Nt sa:˛ 1. ilość osób, które weszły do pewnego magazynu przed lub w momencie t; Nt oznacza tu wówczas ilość osób które weszły do magazynu, 2. ilość osób które sie˛ urodziły przed lub w określonym czasie t, Nt oznacza wówczas ilość urodzeń do momentu t. 3. ilość bramek które zgromadził dany piłkarz itd. Zauważmy, że każdy proces zliczajacy ˛ musi spełniać nastepuj ˛ ace ˛ warunki (i) Nt ≥ 0, (ii) wartościami Nt sa˛ liczby całkowite (iii) dla s < t , Nt −Ns równa sie˛ ilości ’zdarzeń’ które zdarzyły sie˛ w przedziale czasu (s, t > . Uwaga 4.1.1 Procesy zliczajace ˛ sa˛ czasem nazywane strumieniami zgłoszeń. Proces zliczajacy ˛ nazywa sie˛ procesem o przyrostach niezależnych, jeśli w rozłacznych ˛ przedziałach czasu przyrosty procesu sa˛ niezależne. Uwaga 4.1.2 W przekładzie 1. prawdopodobnie spełnione jest założenie niezależno´sci przyrostów procesu. Natomiast w przykładzie 2. wydaje sie, ˛ ze nie jest. Je´sli bowiem Nt jest duże to mamy dużo ludzi a to znaczy, że w nastepnych ˛ chwilach winno by´c dużo urodzeń czyli warto´s´c Nt+s − Nt byłaby duża je´sli Nt jest duże (brak niezależno´sci od Nt ). Proces zliczajacy ˛ ma stacjonarne przyrosty, gdy ilość ’zdarzeń’ które zdarzyły sie˛ w przedziale czasu (s, t > zależy tylko od długości tego przedziału tj. od wielkości t − s. Proces zliczajacy ˛ {Nt ; t ≥ 0} nazywa sie˛ pojedynczym jeśli a) ∀t > s ≥ 0 :P (Nt − Ns = 1) = λ (t − s)+o (|t − s|) , b) ∀t > s ≥ 0 :P (Nt − Ns ≥ 2) = o (|t − s|) . 21 WYKŁAD 4. PROCES POISSONA 22 Definicja 4.1.3 Proces zliczajacy ˛ {Nt ; t ≥ 0} nazywa sie, ˛ procesem Poissona z intensywno´scia˛ λ, gdy: i) N0 = 0, ii) ma niezależne i stacjonarne przyrosty iii) ilo´s´c ’zdarzeń’ w przedziale o długo´sci t ma rozkład Poissona z parametrem λt, tzn. (λt)k . ∀t, s ≥ 0 : P (Nt+s − Ns = k) = e−λt k! Twierdzenie 4.1.4 Proces zliczajacy, ˛ pojedynczy o stacjonarnych, niezależnych przyrostach jest procesem Poissona. Dowód. Oznaczmy g(t) = E exp (−vNt ) . Mamy: g(t + h) = E exp (−vNt+h ) = E exp (−vNt ) E exp(−v (Nt+t − Nt )) = g (t) E exp (−vNh ) . Wykorzystaliśmy tu niezależność przyrostów i stacjonarność. Mamy dalej: E exp (−vNh ) = E (exp (−vNh ) |Nh = 0) P (Nh = 0) +E (exp (−vNh ) |Nh = 1) P (Nh = 1) +E (exp (−vNh ) |Nh ≥ 2) P (Nh ≥ 2) = 1 − λh + o1 (h) + e−v (λh + o2 (h)) + o3 (h) = 1 − λh + λhe−v + o (h) . Zatem o (h) g (t + h) − g (t) = g (t) λ e−v − 1 + . h h Niech h → 0. Dostaniemy wówczas: g′ (t) = g (t) λ e−v − 1 . Stad ˛ już łatwo dostać: g (t) = exp λt e−v − 1 . Jest to transformata Laplace’a rozkładu Poissona z parametrem λt. 4.2 Okresy miedzy ˛ zgłoszeniami Niech dany b edzie ˛ proces Poissona {Nt ; t ≥ 0} i niech T1 bedzie ˛ momentem pierwszego zdarzenia. Dalej niech dla n > 0 Tn oznacza czas jaki upłynał ˛ miedzy ˛ n − 1 ym a n -tym zdarzeniem. Ciag ˛ {Ti }i≥1 nazywa sie˛ ciagiem ˛ czasów miedzy ˛ zgłoszeniami (przybyciami). Zauważmy, że {T1 > t} = {Nt = 0} P (T1 > t) = P (Nt = 0) = exp (−λt) . 4.3. SUMOWANIE PROCESÓW POISSONA 23 Podobnie mamy: P (T2 > t) = E (P (T2 > t|T1 )) . Ale P (T2 > t|T1 = s) = P (brak zdarzeń w przedziale (s, s + t > |T1 = s) = P (brak zdarzeń w przedziale (s, s + t >) = exp(−λt). W ostatnich równościach wykorzystaliśmy niezależność i stacjonarność. przyrostów. Mamy wiec: ˛ Stwierdzenie 4.2.1 Ciag ˛ {Tn }n≥1 czasów miedzy ˛ przybyciami stanowia˛ niezależne zmienne losowe o jednakowych rozkładach wykładniczych ze ´srednia˛ λ1 . Dalej oznaczmy przez Sn czas przybycie n− tego zgłoszenia lub inaczej czas oczekiwania na n− te zgłoszenie. Łatwo wydedukować, że Sn = n Ti , i=1 a wiec, ˛ że Sn ma rozkład gamma z parametrami n i λ. Innymi słowy, że rozkład Sn ma gestoś ˛ ć równa:˛ fSn (t) = λ exp(−λt) (λt)n−1 ; t ≥ 0. (n − 1)! Powyższa˛ gestość ˛ można było otrzymać zauważajac, ˛ że n− te zgłoszenie sie˛ zdarzy przed momentem t wtedy i tylko wtedy, gdy ilość zdarzeń przed momentem t była przynajmniej n. Tzn. Nt ≥ n ⇐⇒ Sn ≤ t, a wiec ˛ FSn (t+ ) = P (Sn ≤ t) = P (Nt ≥ n) = ∞ e−λt j=n Stad ˛ różniczkujac ˛ po t dostaniemy: fSn (t) = −λ ∞ j=n = λe−λt 4.3 (λt)j . j! ∞ e−λt j−1 (λt)j −λt (λt) + λe j! (j − 1)! j=n (λt)n−1 . (n − 1)! Sumowanie procesów Poissona Niech dany bedzie ˛ proces Poissona {Nt ; t ≥ 0} z intensywnościa˛ λ. i przypuśćmy, że każde zdarzenie (zgłoszenie) jest klasyfikowane jako I badź ˛ II typu. Załóżmy dalej, że zgłoszenie jest klasyfikowane jako typu I lub II z prawdopodobieństwami odpowiednio p i 1 − p niezależnie od innych zdarzeń (zgłoszeń). (Na przykład załóżmy, że klienci przebywaja˛ do sklepu i każdy z nich okazuje sie˛ być me˛ żczyzna˛ z prawdopodobieństwem 1/2 badź ˛ kobieta˛ z prawdopodobieństwem 1/2. Niech Nt(1) i Nt(2) oznaczaja˛ odpowiednio ilości zdarzeń odpowiednio typu (1) (2) I badź ˛ II w czasie [0, t]. Zauważmy, że Nt = Nt + Nt . Mamy nastepuj ˛ ace ˛ stwierdzenie: WYKŁAD 4. PROCES POISSONA 24 (1) (2) Stwierdzenie 4.3.1 Nt i Nt sa˛ oba procesami Poissona o intensywno´sciach odpowiednio λp i λ (1 − p) . Ponadto procesy te sa˛ niezależne. Dowód. Policzymy prawdopodobieństwo łaczne: ˛ (1) (2) P Nt = n, Nt = m = ∞ k=0 (1) (2) P Nt = n, Nt = m|Nt = k P (Nt = k) . Zauważmy, że po pierwsze aby mogło być n zdarzeń typu I i m zdarzeń typu II winno być łacznie ˛ n + m zdarzeń a zatem (1) (2) P Nt = n, Nt = m (λt)n+m . = P Nt(1) = n, Nt(2) = m|Nt = n + m e−λt (n + m)! Zauważmy teraz, że jeśli zdarzyło sie˛ łacznie ˛ n + m zdarzeń to ilość zdarzeń typu I miała rozkład dwumianowy (ilość sukcesów w ciagu ˛ n + m doświadczeń Bernoulli’ego). Zatem n + m (1) (2) P Nt = n, Nt = m|Nt = n + m = pn (1 − p)m . n A wiec ˛ n+m n (λt)n+m (1) (2) P Nt = n, Nt = m = p (1 − p)m e−λt n (n + m)! n (λpt) (λ (1 − p) t)m e−λ(1−p)t . = e−λpt n! m! Ponadto mamy (1) P Nt = n = ∞ m=0 (1) (2) P Nt = n, Nt = m = e−λpt = e−λpt ∞ (λpt)n −λ(1−p)t (λ (1 − p) t)m e n! m=0 m! (λpt)n . n! Widać zatem, że Nt(1) i Nt(2) sa˛ niezależnymi procesami Poissona. Uwaga 4.3.2 To, że procesy N 1 i N 2 sa˛ Poissonowskie nie jest zbyt zastanawiajace. ˛ Można było sie˛ tego spodziewa´c. Niespodziewany wydaje sie˛ być fakt, że procesy te sa˛ niezależne. 4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA 4.4 25 Rozkład warunkowy czasów przybycia Zacznijmy od czasu przybycia pierwszego zgłoszenia pod warunkiem, że wiadomo , że na odcinku czasu [0, t] było jedno. Innymi słowy wyznaczymy P (T1 < s|Nt = 1) . Dostaniemy wówczas: P (T1 < s|Nt = 1) = = = = P (T1 < s, Nt = 1) P (Nt = 1) P (1 zgłoszenie na (0, s) i 0 zgłoszeń na [s, t]) P (Nt = 1) P (1 zgłoszenie na (0, s)) P ( 0 zgłoszeń na [s, t]) P (Nt = 1) λse−λs e−λ(t−s) s = . λte−λt t A wiec ˛ rozkład ten jest jednostajny na odcinku < 0, t >. Wynik ten może być uogólniony. Aby jednak to zrobić trzeba wprowadzić poj˛ecie statystyk pozycyjnych. Definicja 4.4.1 Niech {X1 , . . . , Xn } bedzie ˛ próba losowa.˛ Wektor losowy {Y1 , . . . , Yn } spełniajacy ˛ warunki Y1 ≤ Y2 ≤, . . . , ≤ Yn z prawdopodobieństwem jeden i okre´slony nastepuj ˛ aco: ˛ Yi = i -ta co do wielko´sci warto´s´c {X1 , . . . , Xn } nazywamy wektorem statystyk pozycyjnych wektora {X1 , . . . , Xn } . Uwaga 4.4.2 Warto´sci współrzednych ˛ wektora {Y1 , . . . , Yn } oznaczamy tradycyjnie {X1:n , . . . , Xn:n } . Potrzebujemy także nastepuj ˛ acych ˛ dwu prostych lematów Lemat 4.4.3 Je´sli próba {X1 , . . . , Xn } jest prosta (zmienne losowe {Xi }ni=1 sa˛ niezależne i o jednakowych rozkładach) i gesto ˛ ´s´c X1 jest równa f (x) , to gesto ˛ ´s´c łaczna ˛ wektora statystyk pozycyjnych {X1:n , . . . , Xn:n } jest równa: g (y1 , . . . , yn ) = n! n f (yi ) , i=1 dla y1 ≤ y2 ≤ . . . ≤ yn . Dowód. Zauwa X1:n = y1 , . . . , Xn:n = yn dowolna żmy, że aby zaobserwować z n! permutacji X(1) , . . . , X(n) zmiennych {X1 , . . . , Xn } przyj˛eła wartości odpowiednio {y1 , . . . , yn } . Ponadto P X(1) ∈ (y1 , y1 + dy1 ) , . . . , X(n) ∈ (yn , yn + dyn ) n ≃ f (yi ) dy1 , . . . dyn . i=1 WYKŁAD 4. PROCES POISSONA 26 Lemat 4.4.4 Niech zmienne losowe S1 , . . . , Sn sa˛ i.i.d i maja rozkład U (0, t) -jednostajny na odcinku< 0, t > . Wówczas rozkład łaczny ˛ wektora statystyk pozycyjnych (S1:n , . . . , Sn:n ) ma gesto ˛ ´sć równa:˛ g (y1 , . . . , yn ) = n! , tn (4.4.1) dla y1 ≤ y2 ≤ . . . ≤ yn . Teraz możemy już udowodnić naste˛ pujace ˛ twierdzenie: Twierdzenie 4.4.5 Pod warunkiem, że N (t) = n tj. wiadomo iż na odcinku < 0, t > było n zgłoszeń, momenty zgłoszeń (S1 , . . . , Sn ) sa˛ rozłożone tak jak statystyki porzadkowe ˛ rozkładu łacznego ˛ n niezależnych zmiennych losowych o jednakowych rozkładach jednostajnych na odcinku < 0, t >, tj. fS1 ,...,Sn (s1 , . . . , sn ) = n! ; dla 0 < s1 < . . . , < sn < t. tn Dowód. Aby dostać g˛estość łaczn ˛ a˛ wektora (S1 , . . . , Sn ) przy warunku N (t) = n zauważmy, że dla 0 < s1 <, . . . , < sn < t zdarzenie S1 = s1 , S2 = s2 , . . . , Sn = sn , N (t) = n znaczy, że pierwszych n + 1 czasów miedzy ˛ zgłoszeniami spełnia T1 = s1 , T2 = s2 − s2 , . . . , Tn = sn − sn−1 , Tn+1 > t − sn . A wiec ˛ korzystajac ˛ z niezależności czasów miedzy ˛ zgłoszeniami mamy f (s1 , . . . , sn |n) = = = P (T1 = s1 , . . . , Tn = sn − sn−1 , Tn > t − sn ) P (N (t) = n) λe−λs1 λe−λ(s2 −s1 ) . . . λe−λ(sn −sn−1 ) e−λ(t−sn ) e−λt (λt)n /n! n! . tn Uwaga 4.4.6 Wynik ten można wyrazi´c także w nastepuj ˛ acy ˛ sposób: Pod warunkiem, że było ich n, momenty zgłoszeń rozpatrywanie jako nieuporzadkowane ˛ zmienne losowe sa˛ niezależne i maja˛ takie same rozkłady jednostajne na odcinku < 0, t > . Twierdzenie powyższe może służyć do nastepuj ˛ acego ˛ uogólnienia Stwierdzenia 4.3.1. załóżmy teraz, że po przybyciu każde zdarzenie jest klasyfikowane jako bed ˛ ace ˛ jednego z k typów, przy czym jeśli zgłoszenie nastapiło ˛ wchwili y to bedzie ˛ zakwalifikowane jako typu i z prawdopodobieństwem Pi (y) , ki=1 Pi (y) = 1. Mamy nastepuj ˛ ace: ˛ Twierdzenie 4.4.7 Niech Nti ; t ≥ 0, i = 1, . . . , k oznacza ilo´s´c elementów typu i które zgłosiły sie˛ w czasie < 0, t > . Wówczas Nti sa˛ niezależnymi zmiennymi Poissona z warto´sciami oczekiwanymi odpowiednio: ENti = λ 0 t Pi (s) ds. 4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA 27 Dowód. Obliczmy łaczne ˛ prawdopodobieństwo P Nt1 = n1 , . . . , Ntk = nk . Mamy P Nt1 = n1 , . . . , Ntk = nk k k 1 k = P Nt = n1 , . . . , Nt = nk |Nt = ni × P Nt = ni . i=1 i=1 Rozważmy teraz dowolne zgłoszenie, które zdarzyło sie˛ w momencie < 0, t > . Jeśli zdarzyło sie˛ w momencie s, wówczas prawdopodobieństwo, że byłoby typu i wynosiło by Pi (s) . Zatem na podstawie twierdzenia 4.4.7 wynika, że zgłoszenie to przybyłoby w jednostajnie rozłożonym na odcinku < 0, t > momencie s. A wiec ˛ prawdopodobieństwo, że zdarzenie to bedzie ˛ typu i wynosi: 1 t pi = Pi (s) ds, t 0 niezależnie od innych zdarzeń. A wiec ˛ Nt1 P = n1 , . . . , Ntk = nk |Nt = k i=1 ni ma rozkład wielomianowy z ni elementami typu i i prawdopodobieństwami zajścia p1 , . . . , pk , . czyli k k k n ! i i=1 1 k ni = k P Nt = n1 , . . . , Nt = nk |Nt = pni i i=1 i=1 ni ! i=1 A wiec ˛ P Nt1 = n1 , . . . , Ntk = nk k k k n ! i=1 ni i i=1 ni −λt (λt) = pi e k k n ! i n i=1 i=1 i=1 i ! = k n (λtpi ) i e−λtpi . ni ! i=1 To twierdzenie zilustrujemy ciekawym nietypowym przykładem. Przykład 4.4.8 (Minimalizacja liczby wyprzedzeń): Załóżmy, że samochody wjeżdżaja˛ na jednokierunkowa˛ droge˛ zgodnie z rozkładem Poissona o intensywno´sci λ.Wjeżdżaja˛ one w punkcie a a wyjeżdżaja˛ w punkcie b. Każdy samochód jedzie ze stała˛ predko ˛ ´scia˛ ustalana˛ niezależnie dla każdego samochodu zgodnie z rozkładem G. Gdy szybszy samochód spotyka wolniejszy wyprzedza go bez starty czasu. Je´sli samochód wjeżdża na rozważana˛ droge˛ w momencie s i ty masz możliwo´sć wybrania predko ˛ ´sci, to jaka predko´ ˛ s´c by´s wybrał aby zminimalizowa´c ´srednia˛ liczbe˛ spodziewanych spotkań z innym samochodami. Przez spotkanie rozumiemy wydarzenie gdy nasz samochód wyprzedza bad ˛ ´z jest wyprzedzany przez inny samochód. WYKŁAD 4. PROCES POISSONA 28 Rozwiazanie: ˛ Pokażemy, że dla dużych s, predko ˛ ´scia˛ która minimalizuje spodziewana ilo´sć spotkań jest mediana rozkładu G. Aby to zobaczy´c przypu´s´cmy, że wybrali´smy predko ˛ ´s´c x.Niech d = b − a oznacza długo´s´c drogi. W momencie wyboru predko ˛ ´sci x, wynika, że twój samochód wjedzie na droge˛ w momencie s a wyjedzie w momencie s + t0 , gdzie t0 = d/x jest czasem podróży. Przypominamy, że inne samochody wjeżdżaja˛ na droge˛ zgodnie z rozkładem Poissona o intensywno´sci λ. Każdy z nich wybiera predko ˛ ´s´c X zgodnie z rozkładem G. Skutkuje to czasem przejazdu T = d/X. Nie F oznacza rozkład czasu podróży T . Tzn. F (t) = P (T < t) = P (d/X < t) = P (X > d/t) = Ḡ (d/t) . (gdzie oznaczyli´smy przez F̄ (t) = 1 − F (t) ogon rozkładu F ) Powiemy, ze zdarzenie zdarzyło sie˛ w momencie t je´sli samochód wjeżdża na droge˛ w momencie t. Podobnie powiemy, że zdarzenie jest typu 1 je´sli w wyniku zdarzy sie˛ spotkanie z twoim samochodem. Twój samochód wjeżdża w momencie s i wyjedzie w momencie s + t0 . Zatem samochód spotka twój samochód je´sli wjedzie przed momentem s a wyjedzie po s + t0 (w tym ostatnim przypadku twój samochód wyprzedzi ten samochód na drodze) lub je´sli wjedzie po momencie s ale wyjedzie przed momentem s + t0 (w tym wypadku ten samochód wyprzedzi twój). W rezultacie samochód który wjeżdża na droge˛ w momencie t spotka twój samochód je´sli jego czas podróży T jest taki, że t + T > s + t0 t + T < s + t0 gdy gdy t<s s < t < s + t0 Z poprzednich rozważań widzimy, że w momencie t bedzie, ˛ niezależnie od innych wydarzeń, bedzie ˛ typu 1 z prawdopodobieństwem p(t) danym przez: t<s P (t + T > s + t0 ) = F̄ (s + t0 − t) gdy p (t) = P (t + T < s + t0 ) = F (s + t0 − t) gdy s < t < s + t0 0 gdy t > s > t0 Zakładajac, ˛ że zdarzenia (tzn. samochody wjeżdżajace ˛ na droge) ˛ zdarzaja˛ sie˛ zgodnie z rozkładem Poissona to wnioskujemy, że, stosujac ˛ Twierdzenie 4.4.7, że całkowita liczba wydarzeń typu 1 które sie˛ zdarzyły ma też rozkład Poissona o ´sredniej ∞ s s+t0 p (t) dt = λ F̄ (s + t0 − t) dt + λ F (s + t0 − t) dt λ 0 0 0 t0 s+t0 F̄ (y) dy + λ F (y) dy = λ t0 0 Aby wybra´c warto´sć t0 która minimalizuje powyższa˛ wielko´s´c zróżniczkujmy ja.˛ Dostaniemy wówczas s+t0 t0 d λ F̄ (y) dy + λ F (y) dy = λ F̄ (s + t0 ) − F̄ (t0 ) + F (t0 ) . dt0 t0 0 Przyrównujac ˛ te˛ wielko´s´c do 0, i wykorzystujac, ˛ że F (s +t0 ) ≡ 0 gdy s jest duże, widzimy, że optymalny czas przejazdu t0 dany jest zależno´scia˛ F (t0 ) = F̄ (t0 ) = 1 − F (t0 ) 4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA lub 29 1 F (t0 ) = . 2 Zatem optymalny czas przejazdu jest mediana˛ rozkładu czasu przejazdu. Skoro predko ˛ ´s´c X jest równa odległo´sci d podzielonej przez czas przejazdu T , wnosimy stad że optymalna predko ˛ ´s´c x0 = d/t0 jest taka, że F (d/x0) = 12 . Skoro F (d/x0 ) = Ḡ(x0 ) ˛ optymalna predko ˛ ´s´c jest mediana˛ rozkładu pred˛ widzimy że G(x0 ) = 21 , a wiec ko´sci. Podsumowujac ˛ wykazali´smy, że dla dowolnej predko ˛ ´sci x ilo´s´c spotkań z innymi samochodami ma rozkład Poissona, a ´srednia tego rozkładu bedzie ˛ równa najmniejsza˛ gdy predko´ ˛ s´c s została wybrana tak aby była mediana˛ rozkładu G.