Proces Poissona

Transkrypt

Proces Poissona
Wykład 4
Proces Poissona
4.1
Proces zliczajacy
˛
Proces stochastyczny {Nt ; t ≥ 0} nazywamy zliczajacym,
˛
gdy Nt jest równe
całkowitej ilości ’zdarzeń’ które zdarzyły sie˛ do momentu t. Przekładami procesów zliczajacych
˛
Nt sa:˛
1. ilość osób, które weszły do pewnego magazynu przed lub w momencie t;
Nt oznacza tu wówczas ilość osób które weszły do magazynu,
2. ilość osób które sie˛ urodziły przed lub w określonym czasie t, Nt oznacza
wówczas ilość urodzeń do momentu t.
3. ilość bramek które zgromadził dany piłkarz itd.
Zauważmy, że każdy proces zliczajacy
˛ musi spełniać nastepuj
˛ ace
˛ warunki
(i) Nt ≥ 0,
(ii) wartościami Nt sa˛ liczby całkowite
(iii) dla s < t , Nt −Ns równa sie˛ ilości ’zdarzeń’ które zdarzyły sie˛ w przedziale
czasu (s, t > .
Uwaga 4.1.1 Procesy zliczajace
˛ sa˛ czasem nazywane strumieniami zgłoszeń.
Proces zliczajacy
˛ nazywa sie˛ procesem o przyrostach niezależnych, jeśli w
rozłacznych
˛
przedziałach czasu przyrosty procesu sa˛ niezależne.
Uwaga 4.1.2 W przekładzie 1. prawdopodobnie spełnione jest założenie niezależno´sci przyrostów procesu. Natomiast w przykładzie 2. wydaje sie,
˛ ze nie jest.
Je´sli bowiem Nt jest duże to mamy dużo ludzi a to znaczy, że w nastepnych
˛
chwilach winno by´c dużo urodzeń czyli warto´s´c Nt+s − Nt byłaby duża je´sli Nt
jest duże (brak niezależno´sci od Nt ).
Proces zliczajacy
˛ ma stacjonarne przyrosty, gdy ilość ’zdarzeń’ które zdarzyły
sie˛ w przedziale czasu (s, t > zależy tylko od długości tego przedziału tj. od
wielkości t − s.
Proces zliczajacy
˛ {Nt ; t ≥ 0} nazywa sie˛ pojedynczym jeśli a) ∀t > s ≥ 0
:P (Nt − Ns = 1) = λ (t − s)+o (|t − s|) , b) ∀t > s ≥ 0 :P (Nt − Ns ≥ 2) =
o (|t − s|) .
21
WYKŁAD 4. PROCES POISSONA
22
Definicja 4.1.3 Proces zliczajacy
˛ {Nt ; t ≥ 0} nazywa sie,
˛ procesem Poissona z
intensywno´scia˛ λ, gdy:
i) N0 = 0,
ii) ma niezależne i stacjonarne przyrosty
iii) ilo´s´c ’zdarzeń’ w przedziale o długo´sci t ma rozkład Poissona z parametrem λt, tzn.
(λt)k
.
∀t, s ≥ 0 : P (Nt+s − Ns = k) = e−λt
k!
Twierdzenie 4.1.4 Proces zliczajacy,
˛ pojedynczy o stacjonarnych, niezależnych
przyrostach jest procesem Poissona.
Dowód. Oznaczmy
g(t) = E exp (−vNt ) .
Mamy:
g(t + h) = E exp (−vNt+h )
= E exp (−vNt ) E exp(−v (Nt+t − Nt ))
= g (t) E exp (−vNh ) .
Wykorzystaliśmy tu niezależność przyrostów i stacjonarność.
Mamy dalej:
E exp (−vNh ) = E (exp (−vNh ) |Nh = 0) P (Nh = 0)
+E (exp (−vNh ) |Nh = 1) P (Nh = 1)
+E (exp (−vNh ) |Nh ≥ 2) P (Nh ≥ 2)
= 1 − λh + o1 (h) + e−v (λh + o2 (h)) + o3 (h)
= 1 − λh + λhe−v + o (h) .
Zatem
o (h)
g (t + h) − g (t)
= g (t) λ e−v − 1 +
.
h
h
Niech h → 0. Dostaniemy wówczas:
g′ (t) = g (t) λ e−v − 1 .
Stad
˛ już łatwo dostać:
g (t) = exp λt e−v − 1 .
Jest to transformata Laplace’a rozkładu Poissona z parametrem λt.
4.2
Okresy miedzy
˛
zgłoszeniami
Niech dany b edzie
˛
proces Poissona {Nt ; t ≥ 0} i niech T1 bedzie
˛
momentem
pierwszego zdarzenia. Dalej niech dla n > 0 Tn oznacza czas jaki upłynał
˛
miedzy
˛
n − 1 ym a n -tym zdarzeniem. Ciag
˛ {Ti }i≥1 nazywa sie˛ ciagiem
˛
czasów
miedzy
˛
zgłoszeniami (przybyciami). Zauważmy, że {T1 > t} = {Nt = 0}
P (T1 > t) = P (Nt = 0) = exp (−λt) .
4.3. SUMOWANIE PROCESÓW POISSONA
23
Podobnie mamy: P (T2 > t) = E (P (T2 > t|T1 )) . Ale
P (T2 > t|T1 = s) = P (brak zdarzeń w przedziale (s, s + t > |T1 = s)
= P (brak zdarzeń w przedziale (s, s + t >) = exp(−λt).
W ostatnich równościach wykorzystaliśmy niezależność i stacjonarność. przyrostów. Mamy wiec:
˛
Stwierdzenie 4.2.1 Ciag
˛ {Tn }n≥1 czasów miedzy
˛
przybyciami stanowia˛ niezależne zmienne losowe o jednakowych rozkładach wykładniczych ze ´srednia˛ λ1 .
Dalej oznaczmy przez Sn czas przybycie n− tego zgłoszenia lub inaczej czas
oczekiwania na n− te zgłoszenie. Łatwo wydedukować, że
Sn =
n
Ti ,
i=1
a wiec,
˛ że Sn ma rozkład gamma z parametrami n i λ. Innymi słowy, że rozkład
Sn ma gestoś
˛
ć równa:˛
fSn (t) = λ exp(−λt)
(λt)n−1
; t ≥ 0.
(n − 1)!
Powyższa˛ gestość
˛
można było otrzymać zauważajac,
˛ że n− te zgłoszenie sie˛
zdarzy przed momentem t wtedy i tylko wtedy, gdy ilość zdarzeń przed momentem t była przynajmniej n. Tzn.
Nt ≥ n ⇐⇒ Sn ≤ t,
a wiec
˛
FSn (t+ ) = P (Sn ≤ t) = P (Nt ≥ n) =
∞
e−λt
j=n
Stad
˛ różniczkujac
˛ po t dostaniemy:
fSn (t) = −λ
∞
j=n
= λe−λt
4.3
(λt)j
.
j!
∞
e−λt
j−1
(λt)j −λt (λt)
+
λe
j!
(j − 1)!
j=n
(λt)n−1
.
(n − 1)!
Sumowanie procesów Poissona
Niech dany bedzie
˛
proces Poissona {Nt ; t ≥ 0} z intensywnościa˛ λ. i przypuśćmy,
że każde zdarzenie (zgłoszenie) jest klasyfikowane jako I badź
˛ II typu. Załóżmy
dalej, że zgłoszenie jest klasyfikowane jako typu I lub II z prawdopodobieństwami odpowiednio p i 1 − p niezależnie od innych zdarzeń (zgłoszeń). (Na
przykład załóżmy, że klienci przebywaja˛ do sklepu i każdy z nich okazuje sie˛ być
me˛ żczyzna˛ z prawdopodobieństwem 1/2 badź
˛ kobieta˛ z prawdopodobieństwem
1/2.
Niech Nt(1) i Nt(2) oznaczaja˛ odpowiednio ilości zdarzeń odpowiednio typu
(1)
(2)
I badź
˛ II w czasie [0, t]. Zauważmy, że Nt = Nt + Nt . Mamy nastepuj
˛ ace
˛
stwierdzenie:
WYKŁAD 4. PROCES POISSONA
24
(1)
(2)
Stwierdzenie 4.3.1 Nt i Nt sa˛ oba procesami Poissona o intensywno´sciach
odpowiednio λp i λ (1 − p) . Ponadto procesy te sa˛ niezależne.
Dowód. Policzymy prawdopodobieństwo łaczne:
˛
(1)
(2)
P Nt = n, Nt = m
=
∞
k=0
(1)
(2)
P Nt = n, Nt = m|Nt = k P (Nt = k) .
Zauważmy, że po pierwsze aby mogło być n zdarzeń typu I i m zdarzeń typu II
winno być łacznie
˛
n + m zdarzeń a zatem
(1)
(2)
P Nt = n, Nt = m
(λt)n+m
.
= P Nt(1) = n, Nt(2) = m|Nt = n + m e−λt
(n + m)!
Zauważmy teraz, że jeśli zdarzyło sie˛ łacznie
˛
n + m zdarzeń to ilość zdarzeń
typu I miała rozkład dwumianowy (ilość sukcesów w ciagu
˛ n + m doświadczeń
Bernoulli’ego). Zatem
n + m (1)
(2)
P Nt = n, Nt = m|Nt = n + m =
pn (1 − p)m .
n
A wiec
˛
n+m n
(λt)n+m
(1)
(2)
P Nt = n, Nt = m
=
p (1 − p)m e−λt
n
(n + m)!
n
(λpt)
(λ
(1
− p) t)m
e−λ(1−p)t
.
= e−λpt
n!
m!
Ponadto mamy
(1)
P Nt = n
=
∞
m=0
(1)
(2)
P Nt = n, Nt = m
= e−λpt
= e−λpt
∞
(λpt)n −λ(1−p)t (λ (1 − p) t)m
e
n! m=0
m!
(λpt)n
.
n!
Widać zatem, że Nt(1) i Nt(2) sa˛ niezależnymi procesami Poissona.
Uwaga 4.3.2 To, że procesy N 1 i N 2 sa˛ Poissonowskie nie jest zbyt zastanawiajace.
˛
Można było sie˛ tego spodziewa´c. Niespodziewany wydaje sie˛ być fakt, że
procesy te sa˛ niezależne.
4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA
4.4
25
Rozkład warunkowy czasów przybycia
Zacznijmy od czasu przybycia pierwszego zgłoszenia pod warunkiem, że wiadomo
, że na odcinku czasu [0, t] było jedno. Innymi słowy wyznaczymy P (T1 < s|Nt = 1) .
Dostaniemy wówczas:
P (T1 < s|Nt = 1) =
=
=
=
P (T1 < s, Nt = 1)
P (Nt = 1)
P (1 zgłoszenie na (0, s) i 0 zgłoszeń na [s, t])
P (Nt = 1)
P (1 zgłoszenie na (0, s)) P ( 0 zgłoszeń na [s, t])
P (Nt = 1)
λse−λs e−λ(t−s)
s
= .
λte−λt
t
A wiec
˛ rozkład ten jest jednostajny na odcinku < 0, t >. Wynik ten może
być uogólniony.
Aby jednak to zrobić trzeba wprowadzić poj˛ecie statystyk pozycyjnych.
Definicja 4.4.1 Niech {X1 , . . . , Xn } bedzie
˛
próba losowa.˛ Wektor losowy {Y1 , . . . , Yn }
spełniajacy
˛ warunki Y1 ≤ Y2 ≤, . . . , ≤ Yn z prawdopodobieństwem jeden i okre´slony
nastepuj
˛ aco:
˛
Yi = i -ta co do wielko´sci warto´s´c {X1 , . . . , Xn }
nazywamy wektorem statystyk pozycyjnych wektora {X1 , . . . , Xn } .
Uwaga 4.4.2 Warto´sci współrzednych
˛
wektora {Y1 , . . . , Yn } oznaczamy tradycyjnie {X1:n , . . . , Xn:n } .
Potrzebujemy także nastepuj
˛ acych
˛
dwu prostych lematów
Lemat 4.4.3 Je´sli próba {X1 , . . . , Xn } jest prosta (zmienne losowe {Xi }ni=1 sa˛
niezależne i o jednakowych rozkładach) i gesto
˛ ´s´c X1 jest równa f (x) , to gesto
˛ ´s´c
łaczna
˛
wektora statystyk pozycyjnych {X1:n , . . . , Xn:n } jest równa:
g (y1 , . . . , yn ) = n!
n
f (yi ) ,
i=1
dla y1 ≤ y2 ≤ . . . ≤ yn .
Dowód. Zauwa
X1:n = y1 , . . . , Xn:n = yn dowolna
żmy, że aby zaobserwować
z n! permutacji X(1) , . . . , X(n) zmiennych {X1 , . . . , Xn } przyj˛eła wartości
odpowiednio {y1 , . . . , yn } . Ponadto
P X(1) ∈ (y1 , y1 + dy1 ) , . . . , X(n) ∈ (yn , yn + dyn )
n
≃
f (yi ) dy1 , . . . dyn .
i=1
WYKŁAD 4. PROCES POISSONA
26
Lemat 4.4.4 Niech zmienne losowe S1 , . . . , Sn sa˛ i.i.d i maja rozkład U (0, t)
-jednostajny na odcinku< 0, t > . Wówczas rozkład łaczny
˛
wektora statystyk
pozycyjnych (S1:n , . . . , Sn:n ) ma gesto
˛ ´sć równa:˛
g (y1 , . . . , yn ) =
n!
,
tn
(4.4.1)
dla y1 ≤ y2 ≤ . . . ≤ yn .
Teraz możemy już udowodnić naste˛ pujace
˛ twierdzenie:
Twierdzenie 4.4.5 Pod warunkiem, że N (t) = n tj. wiadomo iż na odcinku
< 0, t > było n zgłoszeń, momenty zgłoszeń (S1 , . . . , Sn ) sa˛ rozłożone tak jak
statystyki porzadkowe
˛
rozkładu łacznego
˛
n niezależnych zmiennych losowych o
jednakowych rozkładach jednostajnych na odcinku < 0, t >, tj.
fS1 ,...,Sn (s1 , . . . , sn ) =
n!
; dla 0 < s1 < . . . , < sn < t.
tn
Dowód. Aby dostać g˛estość łaczn
˛ a˛ wektora (S1 , . . . , Sn ) przy warunku
N (t) = n zauważmy, że dla 0 < s1 <, . . . , < sn < t zdarzenie S1 = s1 , S2 = s2 ,
. . . , Sn = sn , N (t) = n znaczy, że pierwszych n + 1 czasów miedzy
˛
zgłoszeniami
spełnia T1 = s1 , T2 = s2 − s2 , . . . , Tn = sn − sn−1 , Tn+1 > t − sn . A wiec
˛
korzystajac
˛ z niezależności czasów miedzy
˛
zgłoszeniami mamy
f (s1 , . . . , sn |n) =
=
=
P (T1 = s1 , . . . , Tn = sn − sn−1 , Tn > t − sn )
P (N (t) = n)
λe−λs1 λe−λ(s2 −s1 ) . . . λe−λ(sn −sn−1 ) e−λ(t−sn )
e−λt (λt)n /n!
n!
.
tn
Uwaga 4.4.6 Wynik ten można wyrazi´c także w nastepuj
˛ acy
˛ sposób: Pod warunkiem, że było ich n, momenty zgłoszeń rozpatrywanie jako nieuporzadkowane
˛
zmienne losowe sa˛ niezależne i maja˛ takie same rozkłady jednostajne na odcinku
< 0, t > .
Twierdzenie powyższe może służyć do nastepuj
˛ acego
˛
uogólnienia Stwierdzenia
4.3.1. załóżmy teraz, że po przybyciu każde zdarzenie jest klasyfikowane jako
bed
˛ ace
˛ jednego z k typów, przy czym jeśli zgłoszenie nastapiło
˛
wchwili y to
bedzie
˛
zakwalifikowane jako typu i z prawdopodobieństwem Pi (y) , ki=1 Pi (y) =
1. Mamy nastepuj
˛ ace:
˛
Twierdzenie 4.4.7 Niech Nti ; t ≥ 0, i = 1, . . . , k oznacza ilo´s´c elementów typu
i które zgłosiły sie˛ w czasie < 0, t > . Wówczas Nti sa˛ niezależnymi zmiennymi
Poissona z warto´sciami oczekiwanymi odpowiednio:
ENti = λ
0
t
Pi (s) ds.
4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA
27
Dowód. Obliczmy łaczne
˛
prawdopodobieństwo P Nt1 = n1 , . . . , Ntk = nk .
Mamy
P Nt1 = n1 , . . . , Ntk = nk
k
k
1
k
= P Nt = n1 , . . . , Nt = nk |Nt =
ni × P Nt =
ni .
i=1
i=1
Rozważmy teraz dowolne zgłoszenie, które zdarzyło sie˛ w momencie < 0, t > .
Jeśli zdarzyło sie˛ w momencie s, wówczas prawdopodobieństwo, że byłoby typu i
wynosiło by Pi (s) . Zatem na podstawie twierdzenia 4.4.7 wynika, że zgłoszenie
to przybyłoby w jednostajnie rozłożonym na odcinku < 0, t > momencie s. A
wiec
˛ prawdopodobieństwo, że zdarzenie to bedzie
˛
typu i wynosi:
1 t
pi =
Pi (s) ds,
t 0
niezależnie od innych zdarzeń. A wiec
˛
Nt1
P
=
n1 , . . . , Ntk
= nk |Nt =
k
i=1
ni
ma rozkład wielomianowy z ni elementami typu i i prawdopodobieństwami zajścia p1 , . . . , pk , . czyli
k
k
k
n
!
i
i=1
1
k
ni = k
P Nt = n1 , . . . , Nt = nk |Nt =
pni i
i=1
i=1 ni ! i=1
A wiec
˛
P Nt1 = n1 , . . . , Ntk = nk
k
k
k
n
!
i=1 ni
i
i=1
ni −λt (λt)
=
pi e
k
k
n
!
i
n
i=1
i=1
i=1 i !
=
k n (λtpi ) i
e−λtpi
.
ni !
i=1
To twierdzenie zilustrujemy ciekawym nietypowym przykładem.
Przykład 4.4.8 (Minimalizacja liczby wyprzedzeń): Załóżmy, że samochody
wjeżdżaja˛ na jednokierunkowa˛ droge˛ zgodnie z rozkładem Poissona o intensywno´sci λ.Wjeżdżaja˛ one w punkcie a a wyjeżdżaja˛ w punkcie b. Każdy samochód
jedzie ze stała˛ predko
˛ ´scia˛ ustalana˛ niezależnie dla każdego samochodu zgodnie z
rozkładem G. Gdy szybszy samochód spotyka wolniejszy wyprzedza go bez starty
czasu. Je´sli samochód wjeżdża na rozważana˛ droge˛ w momencie s i ty masz
możliwo´sć wybrania predko
˛ ´sci, to jaka predko´
˛ s´c by´s wybrał aby zminimalizowa´c
´srednia˛ liczbe˛ spodziewanych spotkań z innym samochodami. Przez spotkanie
rozumiemy wydarzenie gdy nasz samochód wyprzedza bad
˛ ´z jest wyprzedzany przez
inny samochód.
WYKŁAD 4. PROCES POISSONA
28
Rozwiazanie:
˛
Pokażemy, że dla dużych s, predko
˛ ´scia˛ która minimalizuje
spodziewana ilo´sć spotkań jest mediana rozkładu G. Aby to zobaczy´c przypu´s´cmy,
że wybrali´smy predko
˛ ´s´c x.Niech d = b − a oznacza długo´s´c drogi. W momencie
wyboru predko
˛ ´sci x, wynika, że twój samochód wjedzie na droge˛ w momencie s
a wyjedzie w momencie s + t0 , gdzie t0 = d/x jest czasem podróży.
Przypominamy, że inne samochody wjeżdżaja˛ na droge˛ zgodnie z rozkładem Poissona o intensywno´sci λ. Każdy z nich wybiera predko
˛ ´s´c X zgodnie z rozkładem
G. Skutkuje to czasem przejazdu T = d/X. Nie F oznacza rozkład czasu podróży
T . Tzn.
F (t) = P (T < t) = P (d/X < t) = P (X > d/t) = Ḡ (d/t) .
(gdzie oznaczyli´smy przez F̄ (t) = 1 − F (t) ogon rozkładu F )
Powiemy, ze zdarzenie zdarzyło sie˛ w momencie t je´sli samochód wjeżdża na
droge˛ w momencie t. Podobnie powiemy, że zdarzenie jest typu 1 je´sli w wyniku
zdarzy sie˛ spotkanie z twoim samochodem. Twój samochód wjeżdża w momencie
s i wyjedzie w momencie s + t0 . Zatem samochód spotka twój samochód je´sli
wjedzie przed momentem s a wyjedzie po s + t0 (w tym ostatnim przypadku twój
samochód wyprzedzi ten samochód na drodze) lub je´sli wjedzie po momencie s
ale wyjedzie przed momentem s + t0 (w tym wypadku ten samochód wyprzedzi
twój). W rezultacie samochód który wjeżdża na droge˛ w momencie t spotka twój
samochód je´sli jego czas podróży T jest taki, że
t + T > s + t0
t + T < s + t0
gdy
gdy
t<s
s < t < s + t0
Z poprzednich rozważań widzimy, że w momencie t bedzie,
˛
niezależnie od innych
wydarzeń, bedzie
˛
typu 1 z prawdopodobieństwem p(t) danym przez:

t<s
 P (t + T > s + t0 ) = F̄ (s + t0 − t) gdy
p (t) =
P (t + T < s + t0 ) = F (s + t0 − t) gdy s < t < s + t0

0
gdy
t > s > t0
Zakładajac,
˛ że zdarzenia (tzn. samochody wjeżdżajace
˛ na droge)
˛ zdarzaja˛ sie˛
zgodnie z rozkładem Poissona to wnioskujemy, że, stosujac
˛ Twierdzenie 4.4.7,
że całkowita liczba wydarzeń typu 1 które sie˛ zdarzyły ma też rozkład Poissona
o ´sredniej
∞
s
s+t0
p (t) dt = λ
F̄ (s + t0 − t) dt + λ
F (s + t0 − t) dt
λ
0
0
0
t0
s+t0
F̄ (y) dy + λ
F (y) dy
= λ
t0
0
Aby wybra´c warto´sć t0 która minimalizuje powyższa˛ wielko´s´c zróżniczkujmy ja.˛
Dostaniemy wówczas
s+t0
t0
d
λ
F̄ (y) dy + λ
F (y) dy = λ F̄ (s + t0 ) − F̄ (t0 ) + F (t0 ) .
dt0
t0
0
Przyrównujac
˛ te˛ wielko´s´c do 0, i wykorzystujac,
˛ że F (s +t0 ) ≡ 0 gdy s jest duże,
widzimy, że optymalny czas przejazdu t0 dany jest zależno´scia˛
F (t0 ) = F̄ (t0 ) = 1 − F (t0 )
4.4. ROZKŁAD WARUNKOWY CZASÓW PRZYBYCIA
lub
29
1
F (t0 ) = .
2
Zatem optymalny czas przejazdu jest mediana˛ rozkładu czasu przejazdu. Skoro
predko
˛ ´s´c X jest równa odległo´sci d podzielonej przez czas przejazdu T , wnosimy
stad że optymalna predko
˛ ´s´c x0 = d/t0 jest taka, że F (d/x0) = 12 . Skoro
F (d/x0 ) = Ḡ(x0 )
˛ optymalna predko
˛ ´s´c jest mediana˛ rozkładu pred˛
widzimy że G(x0 ) = 21 , a wiec
ko´sci.
Podsumowujac
˛ wykazali´smy, że dla dowolnej predko
˛ ´sci x ilo´s´c spotkań z innymi samochodami ma rozkład Poissona, a ´srednia tego rozkładu bedzie
˛
równa
najmniejsza˛ gdy predko´
˛ s´c s została wybrana tak aby była mediana˛ rozkładu G.

Podobne dokumenty