Teoria Kolejek - Politechnika Warszawska

Transkrypt

Teoria Kolejek - Politechnika Warszawska
Teoria Kolejek
dr inż. Piotr Gajowniczek
Instutut Telekomunikacji
Politechnika Warszawska
WPROWADZENIE
Wprowadzenie
• Systemy masowej obsługi
– obsługa dużej ilości klientów przez system o ograniczonych
zasobach
• Modele pokazujące zależności między zasobami
systemu a jakością jego działania
– analiza istniejących systemów
– synteza systemów o określonych parametrach
– badanie wpływu inwestycji na wydajność systemu (planowanie
strategiczne, długookresowe)
• Podstawowe obszary zastosowań
– systemy produkcyjne i magazynowe
– transport i komunikacja
– systemy przetwarzania informacji (systemy komputerowe)
– telekomunikacja
Probabilistyka – zmienne losowe i rozkłady
• Momenty zmiennej losowej
– wartość oczekiwana (moment zwykły I rzędu)
∞
∫ x ⋅ f (x)dx
E[ X ] = X =
E[ X ] =
∑x
i
−∞
i
⋅ pi
∞
ogólnie : E[X ] =
∫ xdF (x)
−∞
– własności wartości oczekiwanej:
E [c ⋅ X ] = c ⋅ E [ X ]
c = const .
n
⎡ n
⎤
E ⎢∑ X j ⎥ = ∑ E[X j ]
j =1
⎣ j =1
⎦
X , Y niezal . ⇒ E [ X ⋅ Y ] = E [ X ] ⋅ E [Y ]
Probabilistyka – zmienne losowe i rozkłady
• Momenty zwykłe n-tego rzędu
E[ X n ] =
∞
∫x
n
⋅ f (x )dx
−∞
E[ X n ] =
∑ xi ⋅ pi
n
i
• Wariancja
– moment centralny II rzędu
[
]
V [ X ] = σ 2 = E ( X − X )2 = E [ X 2 ] − E [ X ]2
V [c ⋅ X ] = c 2 ⋅ V [ X ]
⎡ n
⎤
V ⎢∑ X j ⎥ =
⎣ j =1
⎦
n
∑ V [X
j =1
j
c = const .
] ⇔ X i niezal .
Probabilistyka – rozkłady dyskretne
• Funkcja tworząca prawdopodobieństwa
X – dyskretna zmienna losowa, przyjmująca wartości nieujemne,
całkowite, pi = P (X=i)
∞
Gx ( z ) = ∑ pi ⋅ z i = E ⎣⎡ z X ⎦⎤
z ≤1
i =0
• „rejestruje” wartości rozkładu w jednym wyrażeniu algebraicznym
• ułatwia obliczanie momentów zmiennych losowych
Probabilistyka – rozkłady dyskretne
• Obliczanie momentów rozkładu
d
G ( z ) = E ⎡⎣ X ⋅ z X −1 ⎤⎦ = E[ X ]
z =1
dz
z =1
d d
z G ( z ) = E ⎡⎣ X 2 ⋅ z X −1 ⎤⎦ = E[ X 2 ]
z =1
dz dz
z =1
i −1
d ⎛ d ⎞
E ⎡⎣ X i ⎤⎦ = ⎜ z ⎟ G ( z )
dz ⎝ dz ⎠
i
⎛ d ⎞
= ⎜ z ⎟ G( z)
⎝ dz ⎠
z =1
z =1
• Funkcja tworząca sumy zmiennych losowych
X, Y niezależne, dyskretne, pi = P(X=i), qj = P(Y=j)
k
P{ X + Y = k} = ( p ⊗ q )k = ∑ pi ⋅ qk −i
i =0
GX +Y ( z ) = E ⎡⎣ z X +Y ⎤⎦ = E ⎡⎣ z X ⋅ z Y ⎤⎦ =
= E[ z X ] ⋅ E[ z Y ] = GX ( z ) ⋅ GY ( z )
Probabilistyka – rozkłady dyskretne
• Rozkład geometryczny, X~Geo(p)
pi = P(X=i) = p(1-p)i-1 i=1, 2, ...
- liczba prób do pierwszego sukcesu w schemacie
Bernoulliego
- jedyny rozkład dyskretny, który ma własność
bezpamięciowości
P( X > i + j | X > i) =
∞
=
∑
p ⋅ (1 − p) k −1
k =i + j +1
∞
∑
k =i +1
p ⋅ (1 − p ) k −1
P( X > i + j, X > i) P( X > i + j )
=
=
P( X > i)
P( X > i)
(1 − p)i + j
j
=
=
(1
−
)
= P( X > j )
p
i
(1 − p )
Probabilistyka – rozkłady dyskretne
• Rozkład dwumianowy,
X~Bin(n,p)
– prawdopodobieństwo i sukcesów w n-próbach Bernoulli’ego
⎛n⎞ i
pi = P{ X = i} = ⎜ ⎟ ⋅ p ⋅ (1 − p ) n −i
⎝i⎠
E[ X ] = np
V [ X ] = np (1 − p )
• Rozkład Poissona, X~Poiss(a)
ai − a
pi = P( X = i ) = e
i!
E[ X ] = V [ X ] = a
i = 0,1, 2...
Aproksymacja rozkładu Poissona przez dwumianowy
• Rozkład Poissona aproksymacja
Gdy n→∞ i p→0, dla
np=λ=const rozkład
dwumianowy dąży do
rozkładu Poissona z
parametrem λ
⎛n⎞ k
P( X = k ) = ⎜ ⎟ p (1 − p ) n − k
⎝k ⎠
(n − k + 1)...(n − 1)n ⎛ λ ⎞ ⎛ λ ⎞
=
⋅ ⎜ ⎟ ⎜1 − ⎟
k!
⎝n⎠ ⎝ n⎠
(n − k + 1)...(n − 1)n
⎯⎯⎯
→1
n →∞
nk
k
⎛ λ⎞
−λ
e
→
⎜1 − ⎟ ⎯⎯⎯
n →∞
⎝ n⎠
n
⎛ λ⎞
→1
⎜1 − ⎟ ⎯⎯⎯
n →∞
n
⎝
⎠
k
P( X = k ) ⎯⎯⎯
→e
n →∞
−λ
λk
k!
n−k
Probabilistyka – rozkłady ciągłe
• Transformata Laplace’a
– X≥0
nieujemna zmienna losowa
∞
f * ( s ) = ∫ e − st ⋅ f (t )dt = E ⎡⎣e − sX ⎤⎦
0
– L-transformata dla funkcji gęstości pełni taką samą rolę, jak funkcja
tworząca dla rozkładu dyskretnego
– jeśli X jest zmienną dyskretną, nieujemną, wówczas:
f * (s) = G ( e− s )
• Transformata sumy
– X, Y niezależne
f * X +Y ( s ) = E ⎡⎣e − s ( X +Y ) ⎤⎦ = E ⎡⎣e − sX ⋅ e − sY ⎤⎦ =
= E ⎡⎣e − sX ⎤⎦ ⋅ E ⎡⎣ e − sY ⎤⎦ = f X* ( s ) ⋅ fY* ( s )
Probabilistyka – rozkłady ciągłe
• Momenty zmiennych losowych ciągłych
d
E ⎡⎣e − sX ⎤⎦ = E ⎡⎣ − X ⋅ e − sX ⎤⎦
ds
dn
*( n )
f ( s ) = n E ⎡⎣e − sX ⎤⎦ = E ⎡⎣(− X ) n ⋅ e − sX ⎤⎦
ds
*'
f ( s) =
dla s = 0 :
*'
E[ X ] = − f (0)
*"
E[ X ] = + f (0)
2
M
(n)
E[ X n ] = (−1) n ⋅ f * (0)
Probabilistyka – rozkłady ciągłe
• Rozkład wykładniczy, X~Exp(λ)
fX(x) = λe-λx
FX(x) = P{X≤x} = 1-e-λx
Cx(x) = 1- FX(x) = e-λx
x≥0
x≥0
x≥0
∞
λ
f * ( s ) = ∫ e − st λ e − λt dt =
s+λ
0
λ
*'
E[ X ] = − f (0) =
*"
(λ + s )
E[ X ] = + f (0) =
2
s =0
2λ
(λ + s ) 3
V [ X ] = E[ X ] − E[ X ] =
2
=
2
2
1
λ
=
s =0
1
λ2
2
λ2
Probabilistyka – rozkłady ciągłe
• Rozkład wykładniczy – bezpamięciowość
– jedyny rozkład ciągły o takiej własności
P( X > t + x | X > t ) =
P ( X > t + x, X > t ) P ( X > t + x )
=
=
P( X > t )
P( X > t )
H (t + x) e − λ (t + x )
=
= − λt = e − λ x = P( X > x)
H (t )
e
– interpretacja: niech X~Exp(μ) opisuje czas trwania rozmowy
telefonicznej; jakie jest prawdopodobieństwo, że rozmowa będzie trwała
co najmniej x, jeśli wiemy, że trwa już przez czas t ?
• bezpamięciowość rozkładu wykładniczego ⇒ rozkład czasu pozostałego do
zakończenia rozmowy (resztowego czasu rozmowy) nie zależy od tego, jak
dawno temu rozmowa się zaczęła
• rozkład resztowego czasu rozmowy (ogólniej: resztowego czasu obsługi) jest
taki sam, jak rozkład czasu rozmowy w ogóle
Probabilistyka – rozkłady ciągłe
• Rozkład Erlanga
– X = X1+...+Xn
Xi~Exp(μ) i.i.d.
– X ma n-stopniowy rozkład Erlanga, X~Erl(n,μ)
(t
n
e − μt
)
*
=
n!
(s + μ )n +1
μ
n
μ
⎛ μ ⎞
(n − 1)!
1
⎟⎟ = μ n
f *(s) =
⋅K⋅
= ⎜⎜
s+μ
s + μ ⎝s + μ⎠
(s + μ )n (n − 1)!
144
42444
3
n×
f (t ) =
μn
(n − 1)!
t
n −1
⋅e
− μt
=
μ (μt )n −1
(n − 1)!
⋅ e − μt
Probabilistyka – rozkłady ciągłe
• Modelowanie czasu obsługi rozkładem Erlanga
μ
f(x)=μe-μx, E[X]=1/μ, V[X]=1/μ2
X~Exp(μ)
2μ
2μ
f(x)=2μe-2μx, E[Xi]=1/2μ, V[Xi]=1/(2μ)2
μ
Xi~Exp(2 )
f(x), E[Xi], V[Xi]
B*(s)=(2μ)2/(s+2μ)2 ⇒ b(x)=2μ(2μx)e-2μx
E[X] = 2E[Xi] = 1/μ
X~Erl(2, 2μ)
b(x), E[X], V[X]
V[X] = 2V[Xi] = 1/2μ2
r
rμ
.....
μ
X1~Exp(r )
f(x), E[Xi], V[Xi]
X~Erl(r, rμ)
b(x), E[X], V[X]
rμ
f(x)=rμe-rμx, E[Xi]=1/rμ, V[Xi]=1/(rμ)2
B*(s)=(rμ)r/(s+rμ)r ⇒ b(x)=rμ(rμx)r-1e-rμ x/(r-1)!
E[X] = rE[Xi] = 1/μ
V[X] = rV[Xi] = 1/rμ2
Rozkład Erlanga
MODEL SYSTEMU KOLEJKOWEGO
Podstawowy model systemu kolejkowego
Kolejka
Napływ
Serwer(y)
Obsługa
• System taki modeluje „stację obsługi”:
– z jednym lub wieloma urządzeniami obsługującymi (serwer, łącze,
CPU ...)
– z kolejką
• Klienci (pakiety, zgłoszenia, zadania ...) napływają
w celu obsługi
– klient, dla którego nie ma wolnego urządzenia obsługującego
oczekuje w kolejce
– klient nadchodzący, gdy system jest pełny, jest odrzucany
Opis systemu kolejkowego
b
m
• m – liczba urządzeń obsługi (1 do ∞)
• b – rozmiar kolejki
• Dyscyplina kolejki - FIFO, LIFO itp.
• Proces napływu A(t)
• Proces obsługi S(t)
Proces stochastyczny
• Model eksperymentu losowego, który zmienia się w
czasie i tworzy sekwencję wartości numerycznych
– każda wartość w sekwencji jest wyznaczana przez zmienną
losową
⇒ proces stochastyczny jest ciągiem zmiennych losowych
X = (Xt | t∈I)
I⊂R – zbiór parametrów
•
rozkład stacjonarny
lim P ( X t ≤ x)
t →0
•
ergodyczność
Proces napływu
n −1
n
τn
n +1
tn
t
• τ n : zmienna losowa opisująca czas między
zgłoszeniem n i n+1
•
{τ n , n ≥ 1} :
jest to proces stochastyczny
• Zakładamy, że kolejne odstępy między
zgłoszeniami mają taki sam rozkład
E[τ n ] = E [τ ] = 1/ λ
λ – tzw. intensywność napływu
Proces obsługi
n −1
n +1
n
sn
n
n −1
t
• sn : czas obsługi zgłoszenia n w urządzeniu
obsługującym
•
{ s n , n ≥ 1} jest procesem stochastycznym
• zakładamy, że czasy obsługi dla wszystkich
klientów mają identyczny rozkład
E [ sn ] = E [ s ] = μ
μ – tzw. intensywność obsługi
PROCES POISSONA
Proces Poissona z intensywnością λ
• {A(t): t≥0} – proces napływu zgłoszeń
– A(t) określa liczbę zgłoszeń, które napłynęły od chwili 0 do t
– A(t)-A(s) jest liczbą zgłoszeń w przedziale (s, t]
• Liczby zgłoszeń w rozłącznych odcinkach czasu są
niezależne
• Liczba zgłoszeń w dowolnym odcinku czasu (t, t+τ]
o długości τ
– zależy wyłącznie od czasu τ
– ma rozkład Poissona z parametrem λτ
P{ A(t + τ ) − A(t ) = n} = e
− λτ
(λτ ) n
, n = 0,1,...
n!
λt jest średnią liczbą zgłoszeń w czasie t
λ jest intensywnością napływu zgłoszeń
Alternatywne definicje
• Proces Poissona jest procesem czystych urodzin: w
nieskończenie małym odcinku czasu Δt może nadejść
tylko jedno zgłoszenie z prawdopodobieństwem λΔt,
niezależnie od zgłoszeń poza tym odcinkiem
• Liczba zgłoszeń N(t) w skończonym odcinku czasu o
długości t ma rozkład Poissona z parametrem λt a
N(t1,t2) i N(t3,t4) dla rozłącznych odcinków t1-t2 i t3-t4
są niezależne
• Czasy między zgłoszeniami są niezależne, a ich długość
jest opisana zmienną losową o rozkładzie Exp(λ)
Czas między zgłoszeniami w procesie Poissona
• Odstępy między zgłoszeniami w procesie Poissona są
niezależne a ich długość opisana jest rozkładem
wykładniczym z parametrem λ
• tn: czas nadejścia n-tego zgłoszenia; τn=tn+1-tn: n-ty
odstęp między zgłoszeniami
P{τ n ≤ s} = 1 − e − λ s , s ≥ 0
FT (t ) = P(T ≤ t ) = 1 − P(T > t ) =
= 1 − P(0, t ) = 1 − e − λt
~ Exp(λ )
Prawdopodobieństwo zgłoszenia w δ
• Jeśli napływ jest procesem Poissona, to intensywność
napływu zgłoszeń jest stała (prawdopodobieństwo
nadejścia zgłoszenia jest w każdej chwili czasu takie
samo)
• Odcinek (t, t+Δt] o długości Δt
( λ Δt ) 2
P{ A(t + Δt ) − A(t ) = 0} = e
= 1 − λ Δt +
= 1 − λΔ t + ο ( Δ t )
2
⎛
( λ Δt ) 2 ⎞
− λΔt
P{ A(t + Δt ) − A(t ) = 1} = e λΔt = λΔt ⎜1 − λΔt +
⎟ = λΔ t + ο ( Δ t )
2 ⎠
⎝
− λ Δt
1
P{ A(t + Δt ) − A(t ) ≥ 2} = 1 − ∑ P{ A(t + Δt ) − A(t ) = k} =
k =0
= 1 − (1 − λΔt + ο (Δt )) − (λΔt + ο (Δt )) = ο (Δt )
Aproksymacja przez proces Bernoulli’ego
• Proces Bernoulli’ego
– ciąg zmiennych losowych o rozkładzie dwupunktowym
• Dzielimy przedział (0,τ) na n=τ/Δt przedziałów o
długości Δt
• Prob {nadejdzie 1 zgłoszenie w przedziale Δt→0} = λΔt
• sukces = nadejście zgłoszenia w Δt
Prob {k zgłoszeń w τ} =
Prob (k sukcesów w n próbach Bernoulli’ego} =
⎛n⎞ k
= ⎜ ⎟ p (1 − p ) n − k
⎝k ⎠
(λτ ) k − λτ
e
→
k!
n →∞
Δt →∞
np = λτ
Proces Poissona – napływ czysto losowy
α1
β1
α2
αk-1
β2
βk
αk
T
0
t
• A) proces Poissona
P( zgloszenia w α1...k | k zgloszen) =
P( zgloszenia w α1...k ∧ k zgloszen)
=
P (k zgloszen)
(λα1e − λα1 ) ⋅ (λα 2 e− λα 2 ) ⋅ K ⋅ (λα k e − λα k ) ⋅ e − λβ1 ⋅ e − λβ 2 ⋅ K ⋅ e − λβk −1
=
=
k
(λT ) − λT
e
k!
λ k e − λ (α1 + β1 +...+ βk +α k ) ⋅ (α1 ⋅ α 2 ⋅ K ⋅ α k ) ⋅ k ! (α1 ⋅ α 2 ⋅ K ⋅ α k ) ⋅ k !
=
=
k − λT
(λT ) e
Tk
• B) rozkład równomierny w (0,T)
⎛α
⎛ α ⎞⎛ α ⎞
P( punkty w α1...k | k punktów) = ⎜ 1 ⎟⎜ 2 ⎟ ⋅ K ⋅ ⎜ k
⎝ T ⎠⎝ T ⎠
⎝T
(α1 ⋅ α 2 ⋅ K ⋅ α k )
⎞
⋅
=
k
!
⎟
T k ⋅k!
⎠
Złożenie i rozdział procesu Poissona
λ1
λp
p
λ
λ1+ λ 2
1-p
λ(1-p)
λ2
• A1,…, Ak – niezależne
procesy Poissona z
intensywnościami λ1,…, λk
• Złożone w jeden proces
A= A1+…+ Ak
A jest procesem Poissona z
intensywnością
λ= λ1+…+ λk
•
A: proces Poissona z
intensywnością λ
•
Rozdzielony na procesy A1 i A2
niezależnie, z
prawdopodobieństwami p i (1-p)
A1 - proc. Poissona(λ1= λp)
A2 - proc. Poissona(λ2= λ(1-p))
Modelowanie procesów napływu
• Proces Poissona w modelowaniu napływu zgłoszeń
– szeroki zakres wykorzystania
• sieci z komutacją kanałów
• aproksymacje w sieciach z komutacją pakietów i sieciach komórkowych
• Bardzo dobry model napływu zgłoszeń z wielu
niezależnych źródeł
– np. ruch telefoniczny do centrali
– n źródeł ruchu, dla których odstęp międzyzgłoszeniowy jest IID
(Independent Identically Distributed) z dystr. F(s)
– intensywność napływu z każdego źródła - λ/n
– gdy n→∞, strumień łączny może być aproksymowany procesem
Poissona pod słabymi warunkami na F(s): F(0)=0, F’(0)>0
• Modele z napływem Poissona ułatwiają podejście
analityczne
NOTACJA KENDALLA
Notacja Kendalla
• Notacja Kendalla - wzorzec: A/S/m/k
• A – proces napływu
– dla procesu Poissona używa się symbolu M (Markovian /
Memoryless)
• B – proces obsługi (rozkład czasu obsługi)
– M: wykładniczy
– D: deterministyczny (jednopunktowy)
– G: dowolny (general)
• m – liczba serwerów
• k – liczba miejsc w systemie (łącznie: stanowiska
obsługi + kolejka)
– jeśli jest nieskończona, to często pomija się ją w zapisie
Notacja Kendalla - przykłady
• M/M/1
– napływ jest procesem Poissona, rozkład czasu obsługi jest
wykładniczy, jeden serwer, nieskończona kolejka
• M/M/m
– m serwerów
• M/M/m/m
– m serwerów, brak kolejki
• M/G/1
– napływ Poissona, rozkład czasu obsługi jest dowolny (możemy
znać np. tylko jego momenty), jeden serwer, nieskończona
kolejka
• M/D/1
– stały czas obsługi
WIĄZKA ERLANGA –
system M/M/m/m
System M/M/c/c – wiązka Erlanga
• Napływ jest procesem Poissona, czas obsługi
wykładniczy
– bezpamięciowość
– zmiany stanu systemu następują w chwilach przyjść oraz wyjść
klientów
Prob (Xt+Δt=j | Xt=i) = ?
Pomocniczo:
a) jeśli X,Y~Exp(μ) iid, to
Z = min( X , Y ) ~ Exp(2 μ )
⇒ jeśli k łączy jest zajętych, to czas do wyjścia najbliższego klienta ma
rozkład Exp(kμ)
b) jeśli X~Exp(λ), Y~Exp(μ), niezależne, to
P( X < Y ) =
λ
λ+μ
⇒ jeśli k łączy jest zajętych (w stanie k) czas do najbliższego zdarzenia
(przyjście lub wyjście klienta) ~ Exp(kμ+λ)
System M/M/c/c – wiązka Erlanga
• Prawdopodobieństwo zmiany stanu w czasie Δt
PΔS = P{ X t +Δt ≠ k | X t = k} = (λ + k μ )Δt + ο (Δt )
1 − PΔS
⎧k = j
jμ
⎪ k = j −1
λ + j μ PΔS
⎪
Pjk (Δt ) = P{ X t +Δt ≠ k | X t = j} = ⎨
λ
k
=
j
+
1
λ + j μ PΔS
⎪
⎪ | k − j |≥ 2 ο (Δt )
⎩
1 − ( λ + j μ ) Δt + ο ( Δ t )
⎧k = j
⎪ k = j −1
j μδ + ο (Δt )
⎪
=⎨
⎪ k = j + 1 λΔt + ο (Δt )
⎪⎩ | k − j |≥ 2 ο (Δt )
System M/M/c/c – wiązka Erlanga
• Prawdopodobieństwo, że w chwili t system jest w
stanie k: pk(t)
m
pk (t + Δt ) = ∑ pk (t ) ⋅ p jk (Δt ) = [ λΔt + ο (Δt ) ] ⋅ pk −1 (t ) +
j =0
+ [ μ (k + 1)Δt + ο (Δt )] ⋅ pk +1 (t ) + [1 − (λ + k μ )Δt + ο (Δt )] ⋅ pk (t ) +
⎛
⎞
+ ⎜ ∑ pi (t ) ⎟ ⋅ ο (Δt )
⎝ i∉{k −1,k ,k +1}
⎠
⇒
pk (t + Δt ) − pk (t )
ο ( Δt )
pk −1 (t ) + (k + 1) μ pk +1 (t ) +
= λ pk −1 (t ) +
Δt
Δt
ο (Δt )
ο (Δt )
ο (Δt )
pk +1 (t ) − (λ + k μ ) pk (t ) +
+
pk (t ) +
Δt
Δt
Δt
System M/M/m/m – wiązka Erlanga
• Równania „dynamiki” prawdopodobieństwa stanu
systemu
Δt → 0
dpk (t )
= λ pk −1 (t ) + (k + 1) μ pk +1 (t ) − (λ + k μ ) pk (t )
dt
λ
0
λ
1
λ
2μ
3μ
(m − 1) μ
• Rozkład graniczny
∀k
m
m-1
2
μ
λ
λ
pk (t ) ⎯⎯⎯
→ pk
t →∞
mμ
∀k
System M/M/m/m – wiązka Erlanga
• Równania równowagi
0 = λ pk −1 (t ) + (k + 1) μ pk +1 (t ) − (λ + k μ ) pk (t )
∀k
λ pk −1 (t ) + (k + 1) μ pk +1 (t ) = (λ + k μ ) pk (t )
∀k
λ
λ
k
kμ
(k + 1) μ
System M/M/m/m – wiązka Erlanga
• Rozwiązanie:
k =0
p0
k =1
λ p0 = μ p1
k = 2 (λ + μ ) p1 = λ p0
K
Ak
pk =
p0
k!
k = 1, 2 K m
• Równanie normalizujące
c
∑p
k =0
k
=1
⇒
⎛ c Ak ⎞
p0 = ⎜ ∑
⎟
!
k
0
k
=
⎝
⎠
−1
λ
p0 = Ap0
μ
→
p1 =
→
A2
p2 =
p0
2
System M/M/m/m – wzór Erlanga
• Prawdopodobieństwa stacjonarne stanów:
pk =
Ak
k!
c
∑
i =0
Ai
i!
Ak − A
⎯⎯⎯
→
e
c →∞
k!
• Wzór B-Erlanga
pc = E (c, A) =
Ac
c!
c
∑
i =0
Ai
i!
time congestion = Prob{wszystkie łącza zajęte} = E(c,A)
call congestion = Prob{wszystkie łącza zajęte | przychodzi zgłoszenie} = B
− W ogólnym przypadku
E≠B
− Dla M/M/c/c
E=B
Ruch telekomunikacyjny
• Ruch oferowany
– A=λ/μ [Erl]
średnia liczba zgłoszeń przychodzących w
średnim czasie obsługi
– ruch, który byłby przeniesiony przez wiązkę nieskończoną
• Ruch przenoszony
– (średnia) liczba zajętych urządzeń obsługi
A
c
Ao
Ac
Ac = A(1-B)
Ruch telekomunikacyjny
PROCESY URODZIN I ŚMIERCI
Procesy urodzin i śmierci (Birth & Death Process)
λ0
λ1
0
1
μ1
λn −1
2
μ2
S
Sc
λn
n
μn
n+1
μn +1
• Przejścia tylko między stanami sąsiednimi
• Równania dynamiki:
k >0
k =0
d
pk (t ) = λk −1 pk −1 (t ) + μ k +1 pk +1 (t ) − (λk + μ k ) pk (t )
dt
d
p0 (t ) = μ1 p1 (t ) − λ0 p0 (t )
dt
Procesy urodzin i śmierci w stanie równowagi
• Równanie równowagi dla węzła (S)
λk −1 pk −1 + μk +1 pk +1 = (λk + μk ) pk
λk −1 pk −1 − μk pk = λk pk − μk +1 pk +1
f k = λk pk − μ k +1 pk +1 ⇒ f k −1 = f k = const.
f 0 = λ0 p0 − μ1 p1 = 0 ⇒ f k = 0
• Równanie równowagi dla przekroju (Sc)
λk pk = μk +1 pk +1
Procesy urodzin i śmierci w stanie równowagi
• Prawdopodobieństwa stacjonarne w procesie
urodzin i śmierci:
μn pn = λn −1 pn −1 ⇒
n −1
λn −1
λn −1 λn − 2
λn −1λn − 2 L λ0
λi
pn =
pn −1 =
pn − 2 = ... =
p0 = p0 ∏
μn
μn μn −1
μn μn −1 L μ1
i = 0 μi +1
−1
∞ n −1
⎡
⎡
λi ⎤
λi ⎤
λi
=
⇔
+
=
⇔
=
+
<∞
p
1
p
1
1
p
1
,
if
∑
∑
∑
∏
∏
⎥
⎢ ∑∏
⎥
n
0 ⎢
0
n =0
n =1 i = 0 μi +1
⎣ n =1 i =0 μi +1 ⎦
⎣ n =1 i =0 μi +1 ⎦
∞
∞
n −1
∞
n −1
Przykład: proces Poissona
λ
0
λ
1
λ
2
d
po (t ) = −λ p0 (t ) → p0 (t ) = e− λt
dt
d
pk (t ) = λ pk −1 (t ) − λ pk (t )
dt
dp1 (t )
= λ e − λt − λ p1 (t )
k =1
dt
→
p1 (t ) = λ te − λt
przez rekursję:
(λ t ) k − λ t
pk (t ) =
e
k!
Przykład: system M/M/1
• Charakterystyka systemu:
– napływ: proces Poissona z intensywnością λ
– czas obsługi: rozkład wykładniczy z parametrem µ
– procesy napływu i obsługi są niezależne
– pojedyncze urządzenie obsługujące
– nieskończona kolejka
• N(t): stan systemu (liczba klientów) w chwili t
λ
0
λ
1
μ
λ
2
μ
λ
n
μ
n+1
μ
Przykład: system M/M/1
λ
0
λ
1
μ
λ
2
μ
λ
n
μ
n+1
μ
• Proces urodzin i śmierci; w równowadze:
μ pn = λ pn −1 ⇒
λ
pn = pn −1 = ρ pn −1 = ... = ρ n p0
μ
• P0 obliczamy z warunku normalizującego:
∞
∞
⎡
n⎤
=
⇔
+
p
1
p
1
ρ
∑
∑
n
0 ⎢
⎥ = 1 ⇔ p0 = 1 − ρ , if ρ < 1
n =0
⎣ n =1 ⎦
• Rozkład stacjonarny dla stanu systemu:
pn = ρ n (1 − ρ ), n = 0,1,...
WZÓR LITTLE’A
Wzór Little’a
N
λ
T
λ: intensywność napływu zgłoszeń
• N: średnia liczba klientów w systemie
• T: średni czas przebywania klienta w systemie
• Twierdzenie Little’a: dla systemu w stanie ustalonym
N = λT
Wartości chwilowe
α(t)
N(t)
β(t)
t
N(t) : liczba klientów w systemie w chwili t
α(t) : liczba zgłoszeń, które nadeszły do chwili t
β(t) : liczba zgłoszeń obsłużonych do chwili t
Ti
: czas, jaki i-te zgłoszenie przebywało w systemie
Wartości średnie
• Średnie w przedziale [0,t], dla stanu ustalonego
Nt
λt
Tt
δt
1 t
= ∫ N ( s )ds
t 0
a (t )
=
t
1 a(t )
=
Ti
∑
a (t ) i =1
β (t )
=
t
N = lim N t
t →∞
λ = lim λt
t →∞
T = lim Tt
t →∞
δ = lim δ t
t →∞
• Wzór Little’a ma zastosowanie dla dowolnego systemu
kolejkowego, jeśli:
– granice T, λ i δ istnieją
– λ= δ
Dowód dla kolejki FIFO
α(t)
•
N(t) = α(t)- β(t)
N(t)
i
FIFO, N(0)=0
Ti
Pole między funkcjami:
β(t)
t
T1
S (t ) = ∫ N ( s )ds
T2
0
t
• Założenie: N(t)=0, nieskończenie często. Dla każdego takiego t
1 t
α (t ) ∑ 1 Ti
=
⇒
=
⇒ N t = λtTt
N
(
s
)
ds
T
N
(
s
)
ds
∑
i
∫0
∫
0
t
t α (t )
i =1
t
α (t )
α (t)
Jeśli granice Nt→N, Tt→T, λt→λ istnieją, twierdzenie Little’a jest
prawdziwe
Dowód dla kolejki FIFO (relaksacja)
α(t)
N(t)
i
Ti
β(t)
T1
T2
• Bardziej ogólnie (nawet jeśli kolejka nie opróżnia się
nieskończenie często) :
β (t ) ∑ T 1 t
α (t ) ∑ T
≤
≤
⇒
≤
≤
T
N
(
s
)
ds
T
N
(
s
)
ds
∑
∑
i
i
∫
0
t
β (t )
t ∫0
t α (t )
i =1
i =1
⇒ δ tTt ≤ N t ≤ λtTt
β (t )
t
α (t )
β (t)
1
α (t)
i
• Założenia: granice Tt →T, λt→λ, i δt→δ istnieją i λ=δ
1
i
WŁASNOŚĆ PASTA
Własność PASTA (Poisson Arrivals See Time Averages)
• Rozważmy system ze stanami Ej i napływem Poissona z
intensywnością λ
– dwa różne prawdopodobieństwa związane ze stanem Ej
• pj - prawdopodobieństwo, że system jest w stanie Ej w losowo
wybranej chwili czasu
• p*j - prawdopodobieństwo, że system jest w stanie Ej tuż przed
nadejściem (losowo wybranego) zgłoszenia
– w ogólności
p j ≠ p*j
– dla napływu opisanego przez proces Poissona
p j = p*j
Własność PASTA
• Dowód
– pk(t) : prawdopodobieństwo, że system jest w stanie k w chwili t
– p*k(t) : prawdopodobieństwo, że zgłoszenie przychodzące w chwili t
zastanie system w stanie k
– A(t, t+Δt) : zdarzenie nadejścia zgłoszenia w przedziale Δt
– N(t) : stan systemu w chwili t
pk* (t ) = lim P { N (t ) = k | A(t , t + Δt )} =
Δt →0
P { A(t , t + Δt ) | N (t ) = k} ⋅ P { N (t ) = k}
= lim
Δt → 0
P { A(t , t + Δt )}
– ze względu na bezpamięciowośc procesu napływu zgłoszeń A(t,t+Δt) jest
niezależne od stanu systemu N(t), zatem
pk* (t ) = lim P { N (t ) = k )} = pk (t )
Δt → 0
– PASTA nie zachodzi, jeśli intensywność napływu zależy od stanu systemu
SYSTEMY STRATNE
(Loss Systems)
M/M/c/c (oraz M/M/∞) jako proces urodzin i śmierci
λ
λ
0
1
μ
λ
2
n
nμ
2μ
λ
n+1
(n + 1)μ
• Rozwiązanie równań dla stanu równowagi:
k −1
λi
(λ μ ) p
λ
λk
pk = p0 ∏
= p0 ∏
=
p
=
0
0
k!
1⋅ 2L k ⋅ μ k
i = 0 μi +1
i = 0 (i + 1) μ
k
k −1
• Warunek normalizujący:
⎡ c (λ / μ ) k ⎤
p0 = ⎢ ∑
⎥
⎣ k =0 k ! ⎦
−1
⎡ ∞ (λ / μ ) k ⎤
p0 = ⎢ ∑
⎥
!
k
0
=
k
⎣
⎦
−1
dla M/M/c/c
= e−λ / μ
dla M/M/c/∞
Wiązka Erlanga: system M/M/c/c
λ
λ
0
λ
1
2
μ
c
cμ
2μ
• Rozkład stacjonarny:
−1
(λ / μ ) n ⎡ c (λ / μ ) k ⎤
pn =
, n = 0,1,..., c
∑
n ! ⎢⎣ k =0 k ! ⎥⎦
• Prawdopodobieństwo blokady (PASTA) – wzór
Erlanga-B
pc =
(λ / μ ) ⎡ (λ / μ ) ⎤
∑
c ! ⎢⎣ k =0 k ! ⎥⎦
c
c
k
−1
• Niewrażliwość na rozkład czasu obsługi: można
wykazać, że obowiązuje dla M/G/c/c
Wiązka nieskończona: system M/M/∞
λ
0
λ
λ
1
2
μ
λ
n
nμ
2μ
n+1
(n + 1)μ
• Nieskończona liczba urządzeń obsługi – nie ma
kolejkowania
• Rozkład stacjonarny:
(λ / μ ) n − λ / μ
pn =
e
, n = 0,1,...
n!
– rozkład Poissona z parametrem λ/μ
• Średnia liczba klientów w systemie i średni czas
przejścia przez system:
N=
λ
,
μ
T=
N
λ
=
1
μ
• Wynik ten obowiązuje dla M/G/∞
System Engseta: M/M/c/c/[N]
• System z ograniczoną liczbą źródeł zgłoszeń N
(0 ≤ c ≤ N)
– zachowanie pojedynczego źródła zgłoszeń:
• źródło jest naprzemiennie w stanie nieaktywnym (wygenerowane
zgłoszenie jest właśnie obsługiwane przez jeden z c serwerów i nie
generuje nowych zgłoszeń) lub w stanie aktywnym, którego czas
trwania ma rozkład wykładniczy Exp(ϕ) i kończy się
wygenerowaniem zgłoszenia do obsługi
• odrzucenie zgłoszenia (blokada) powoduje rozpoczęcie kolejnego
okresu aktywności
– stan systemu N(t) jest procesem urodzin i śmierci
• w stanie N(t)=k czas do wygenerowania następnego zgłoszenia
~Exp((N-k)ϕ)
– prawdopodobieństwo przejścia do stanu k+1 na jednostkę czasu
(intensywność przejścia) wynosi λj=(N-k)ϕ i zależy od stanu systemu
• w stanie N(t)=k czas do zakończenia obsługi najbliższego zgłoszenia
~Exp(kμ)
System Engseta: M/M/c/c/[N]
• Współczynniki procesu urodzin i śmierci
⎧λk = ( N − k )ϕ
⎨
⎩ μk = k μ
• Prawdopodobieństwa stacjonarne
⎛N⎞ k
( N − i )ϕ
pk = p0 ∏
= p0 ⎜ ⎟ a
i = 0 (i + 1) μ
⎝k⎠
⎛N⎞ k
⎜ ⎟a
k⎠
ϕ
⎝
pk = c
k = 0,..., c a =
μ
⎛N⎞ i
a
∑
⎜ ⎟
i =0 ⎝ i ⎠
k −1
• Obowiązuje dla M/G/c/c/[N]
Time congestion vs Call congestion
• Time congestion
⎛N⎞ c
⎜ ⎟a
c⎠
ϕ
⎝
, a=
pc = EN (c, a ) = c
N
μ
⎛ ⎞ i
a
∑
⎜ ⎟
i =0 ⎝ i ⎠
• Call congestion ≠ Time congestion
– proces napływu nie jest procesem Poissona
Call congestion
• Prawdopodobieństwa stanów w chwili najdejścia
losowego zgłoszenia
pk* =
λk p k
c
∑λ
j =0
j
pj
• Dowód (intuicyjny)
– rozważmy dostatecznie długi okres T
– średnio, system znajduje się w stanie k przez czas pk·T
– w tym czasie średnio przychodzi λj·pj·T zgłoszeń (tyle zgłoszeń
zastaje system w stanie k)
c
– całkowita średnia liczba zgłoszeń w T wynosi T ⋅ ∑ λ j p j [N]
j =0
– wzór pokazuje proporcję zgłoszeń, które zastają system w stanie
k do wszystkich zgłoszeń, czyli prawdopodobieństwo stanu k
„widziane” przez nadchodzące zgłoszenia
Call congestion
• Po podstawieniu λk otrzymujemy wzór na blokadę:
⎛ N − 1⎞ c
⎜⎜
⎟⎟α
c ⎠
⎝
*
B(c, α) = pc = c
= pc [N − 1]
⎛ N − 1⎞ k
⎜⎜
⎟⎟α
∑
c ⎠
k =0 ⎝
– blokada w systemie Engseta z populacją (liczbą źródeł) N jest
równa prawdopodobieństwu stanu c (zajętości wszystkich łączy)
w systemie z populacją N-1
SYSTEMY Z OCZEKIWANIEM
(Waiting Systems)
System M/M/1
• Średnia liczba klientów w systemie (stan systemu):
∞
∞
∞
N = ∑ kpk = (1 − ρ )∑ k ρ =(1 − ρ ) ρ ∑ k ρ k −1
k
k =0
k =0
⇒ N = ρ (1 − ρ )
k =0
1
ρ
λ
=
=
(1 − ρ ) 2 1 − ρ μ − λ
• Ze wzoru Little’a otrzymujemy średni czas przejścia
przez system:
T=
N
λ
=
1
λ
λ μ −λ
=
1
μ −λ
• Analogicznie, średni czas oczekiwania i stan kolejki:
1
ρ
ρ2
oraz N Q = λW =
W =T − =
1− ρ
μ μ −λ
System M/M/1
• Współczynnik wykorzystania: ρ=λ/μ
– procent czasu zajętości serwera; prawdopodobieństwo, że
serwer jest zajęty: ρ=1-p0 (obowiązuje dla M/G/1)
– warunek stabilności: ρ<1 (inaczej kolejka rośnie do ∞)
10
8
N
6
4
2
0
0
0.2
0.4
0.6
ρ
0.8
1
M/M/1 : rozkład czasu przejścia
• Załóżmy, że nadchodzące zgłoszenie zastaje n klientów
w systemie
– z własności rozkładu wykładniczego wiemy, że czas pozostały do
zakończenia obsługi aktualnie obsługiwanego zgłoszenia ma
rozkład wykładniczy Exp(μ)
– czas przejścia tego zgłoszenia przez system jest zatem sumą
n+1 niezależnych zmiennych losowych o rozkładzie Exp(μ)
Tn = X1+X2+...+Xn+Xn+1
⇒ T ma rozkład Erl(n+1,μ)
⇒ zatem gęstość rozkładu Tn ma postać: fTn
n
(
μt ) − μ t
(t ) = μ
e
n!
• Sumując po wszystkich możliwych stanach systemu,
jakie może zastać nadchodzące zgłoszenie, mamy:
fT (t ) =
∞
∑f
n =0
Tn
(t ) ⋅ P{N = n} =
∞
∑
n =0
= (μ − λ )e −( μ − λ )t ~ Exp(μ − λ )
n
(
μt ) − μt
μ
e ⋅ (1 − ρ )ρ n
n!
=μ (1 − ρ )e − μ (1− ρ )t =
M/M/1 : proces wyjściowy
• D*(s) – L-transformata gęstości rozkładu czasu między
wyjściami klientów
D ( s )|serwer zaj. =
*
μ
D ( s )|serwer wolny =
*
s+μ
λ
⋅
μ
s+λ s+μ
D* ( s ) = D* ( s )|serwer wolny ⋅ P{serwer wolny} + D* ( s )|serwer zajety ⋅ P{serwer zajety} =
λ
μ
μ
μ ⎡
λ ⎤
ρ + (1 − ρ ) ⋅
=
⋅
⋅ (1 − ρ ) +
⋅ρ =
=
⎢
⎥
s+λ s+μ
s+μ
s+μ ⎣
s+λ⎦
μ s ρ + λρ + λ − λρ
μ sρ + λ
=
⋅
=
⋅
=
s+μ
s+λ
s+μ s+λ
λ
sλ + λμ
=
=
( s + μ )( s + λ ) s + λ
System Erlanga z oczekiwaniem: M/M/c
λ
0
λ
λ
1
μ
2
λ
c
cμ
cμ
2μ
⎧nμ , 1 ≤ n ≤ c
n≥c
⎩ cμ ,
μn = ⎨
c+1
• Z równań dla procesu urodzin i śmierci:
1≤ n ≤ c :
n > c:
n
λ
1 ⎛λ⎞
(c ρ ) n
λ
pn = p0 ∏
p0 ,
ρ≡
= ⎜ ⎟ p0 =
n! ⎝ μ ⎠
n!
cμ
i = 0 (i + 1) μ
c
n −c
n
c −1
n −1
⎛λ⎞ 1⎛ λ ⎞
λ
λ
cc ⎛ λ ⎞
cc ρ n
pn = p0 ∏
p0
= p0 ⎜ ⎟
∏
⎜
⎟ = ⎜
⎟ p0 =
c ! ⎝ cμ ⎠
c!
i = 0 (i + 1) μ i = c c μ
⎝ μ ⎠ c ! ⎝ cμ ⎠
n −1
• Obliczenie p0
⎡
(c ρ ) (c ρ )
=
⇒
=
+
p
1
p
1
∑
n
0
⎢ ∑ k ! + c!
n=0
⎣ k =1
∞
c −1
k
c
−1
⎡ (c ρ ) (c ρ ) 1 ⎤
k −c ⎤
=
ρ
∑
⎥
⎢∑ k ! + c ! 1 − ρ ⎥
k =c
⎦
⎣ k =0
⎦
∞
c −1
k
c
−1
System Erlanga z oczekiwaniem: M/M/c
• Prawdopodobieństwo, że zgłoszenie będzie czekać
(wzór Erlanga-C)
∞
(cρ)c ∞ n−c (cρ)c 1
PQ = ∑ pn = p0
p0
ρ =
∑
c! n=c
c! 1− ρ
n=c
• Średni stan kolejki
(cρ )c
N Q = ∑ n =c ( n − c ) pn = p0
c!
∞
= PQ (1 − ρ )
∑
∞
n =c
(n − c)ρ
n −c
ρ
ρ
=
P
Q
(1 − ρ ) 2
1− ρ
• Średni czas oczekiwania
• Średni czas w systemie
• Średni stan systemu
W=
NQ
λ
T =W +
(cρ )c
ρ
= p0
c ! (1 − ρ ) 2
= PQ
1
μ
ρ
λ (1 − ρ )
= PQ
ρ
+
1
λ (1 − ρ ) μ
ρ
N = λT = PQ
+ cρ
(1 − ρ )
M/M/c : rozkład czasu oczekiwania
P{W > t} = P{W > t | N < c} ⋅ P{N < c} + P{W > t | N ≥ c} ⋅ P{N ≥ c} =
= 0 ⋅ P{N < c} + P{W > t | N ≥ c} ⋅ PQ
Dla N≥c system zachowuje się jak kolejka M/M/1 z
intensywnością obsługi cμ, stąd:
P{W > t | N ≥ c} ~ Exp(cμ − λ ) ⇒
P{W > t} = PQ ⋅ e − ( cμ −λ )t = PQ ⋅ e − cμ (1− ρ )t
M/M/c: rozkład czasu przejścia
B – czas obsługi (zmienna losowa)
∞
P{T > t} = P{W + B > t} =
∫
P{W + x > t} ⋅μ e − μ x dx =
x =0
t
=
∫
P{W > t − x} ⋅μ e − μ x dx +
x =0
t
=
∫
∞
∫
μ e − μ x dx =
x =t
PQ e − cμ (1− ρ )(t − x ) μ e− μ x dx + μ e − μt =
x =0
=
PQ
1 − c(1 − ρ )
− c μ (1− ρ ) t
− μt
− μt
e
−
e
+
μ
e
(
)
DYSKRETNE ŁAŃCUCHY MARKOWA
Dyskretne łańcuchy Markowa
• Proces stochastyczny z czasem dyskretnym
{Xn: n = 0,1,2,…}
• Przyjmuje wartości ze zbioru {0,1,2,…}
• Własność bezpamięciowości (Markowa):
P{ X n +1 = j | X n = i, X n −1 = in −1 ,..., X 0 = i0 } = P{ X n +1 = j | X n = i}
pij = P{ X n +1 = j | X n = i}
• Prawdopodobieństwa przejść między stanami pij
pij ≥ 0,
∞
∑p
j =0
ij
=1
• Prawdopodobieństwa przejść można zapisać w postaci
macierzy P=[pij]
Równania Chapmana-Kołmogorowa
• Prawdopodobieństwa przejść w n krokach
pijn = P{ X n + m = j | X m = i},
n, m ≥ 0, i, j ≥ 0
• Równania Chapmana-Kołmogorowa
n+m
ij
p
∞
= ∑ pikn pkjm ,
n, m ≥ 0, i, j ≥ 0
k =0
pijn jest elementem (i, j) w macierzy Pn
• Umożliwiają rekursywne obliczenia
prawdopodobieństwa stanów
Rozkład stacjonarny prawdopodobieństwa stanów
• Prawdopodobieństwa stanów (zależne od czasu)
π nj = P{ X n = j},
π n = (π 0n , π1n ,...)
∞
∞
P{ X n = j} = ∑ P{ X n −1 = i}P{ X n = j | X n −1 = i} ⇒ π = ∑ π in −1 pij
i =0
• W zapisie macierzowym:
n
j
i =0
π n = π n −1P = π n −2 P 2 = ... = π 0 P n
• Jeśli istnieje rozkład graniczny, to:
π = lim π n
n→∞
jest rozkładem stacjonarnym prawdopodobieństwa stanów,
dla którego
π = πP
• Istnienie rozkładu stacjonarnego zależy od struktury
łańcucha Markowa
Klasyfikacja stanów
Nieredukowalność:
Nieokresowość:
• Stany i, j komunikują się:
• Stan i jest okresowy:
∃ d > 1: piin > 0 ⇒ n = α d
∃n, m : pijn > 0, p mji > 0
• W łańcuchu
nieredukowalnym
wszystkie stany się
komunikują
1
• W łańcuchu nieokresowym
żaden stan nie jest
okresowy
2
1
2
0
0
3
4
3
4
Twierdzenia graniczne
• Twierdzenie 1. W nieredukowalnym, nieokresowym
łańcuchu Markowa:
Dla każdego stanu j istnieje granica
π j = lim P{ X n = j | X 0 = i}, i = 0,1, 2,...
n →∞
niezależnie od stanu początkowego
Nj(k): liczba „odwiedzin” stanu
N j (k )
⎧
P ⎨ π j = lim
k →∞
k
⎩
i
j do chwili k
⎫
X0 = i⎬ = 1
⎭
πj: częstotliwość z jaką proces „odwiedza” stan
j
Rozkład stacjonarny
• Twierdzenie 2. W nieredukowalnym i nieokresowym
łańcuchu Markowa:
πj = 0, dla wszystkich stanów j →
nie istnieje rozkład
stacjonarny
lub
πj > 0, dla wszystkich stanów j →
istnieje
jednoznacznie
określony
rozkład
stacjonarny
π j = lim P{ X n = j | X 0 = i} = lim pijn
n →∞
n →∞
Równania równowagi
•
π j p ji określa częstotliwość przejść z j do i
⎛ Frequency of ⎞ ⎛ Frequency of ⎞
⎜
⎟=⎜
⎟
transitions
out
of
j
transitions
into
j
⎝
⎠ ⎝
⎠
∞
π j = ∑ π i pij oraz
∞
i =0
∞
∞
∑p
i =0
ji
=1 ⇒
π j ∑ p ji = ∑ π i pij ⇔ π j ∑ p ji = ∑ π i pij
i =0
i =0
i≠ j
i≠ j
Obliczanie rozkładu stacjonarnego
• Rozwiązać układ równań liniowych
m
π j = ∑ π i pij ,
j = 0,1,..., m
i =0
m
∑π
i =0
i
=1
• Obliczyć numerycznie z Pn, która dąży do macierzy,
gdzie wszystkie wiersze są równe
π
1
0
2
1− p
1− p
p
1− p
1
0
⎡ 0
1− p
P=⎢ 0
⎢
p
⎢⎣1 − p
1⎤
p⎥
⎥
0 ⎥⎦
⎧ π 0 = (1 − p )π 2
⎪ π = (1 − p )π + pπ
⎧ π = πP
1− p
1
1
⎪ 1
1
2
π
,
π
,
π
⇔
⇔
=
=
=
⎨
⎨
0
1
2
π
1
=
p
π
π
π
=
+
p
3
3
3− p
−
−
p
∑
0
1
⎩ i i
⎪ 2
⎪⎩ π 0 + π1 + π 2 = 1
Włożony łańcuch Markowa
• Proces dyskretny „wbudowany” w proces ciągły w
czasie
– przykład: wiązka Erlanga M/M/c/c
c
t
0
1
2
3
4
5 6
7
– chwile nadejścia zgłoszeń wyznaczają proces dyskretny
„zanurzony” w procesie ciągłym
pj(n) = Prob{ X=j w chwili przyjścia n-tego zgłoszenia}
pc(n) = Prob{ n-te zgłoszenie będzie odrzucone }
pc (n) ⎯⎯
⎯
⎯→ pc = B
n→∞
SYSTEM M/G/1
Prawdopodobieństwa stacjonarne
• Prawdopodobieństwa stacjonarne
d n = lim P{ X (t + ) = n | wyjscie w t}
t →∞
an = lim P{ X (t − ) = n | przyjscie w t}
t →∞
pn = lim P{ X (t ) = n}
t →∞
• Przy słabych założeniach:
– N(t) ma przyrosty jednostkowe
– granice an i dn istnieją
an = dn
n = 0,1,…
• Z własności PASTA wynika, że
an = pn
n = 0,1,…
• Zatem:
an = pn = dn
n = 0,1,…
System M/G/1
• Notacja
– Wi
czas oczekiwania i-tego zgłoszenia
– Xi
czas obsługi i-tego zgłoszenia
– Ri
resztowy czas obsługi zgłoszenia obsługiwanego w
chwili nadejścia zgłoszenia i
– Qi
stan kolejki w chwili nadejścia i-tego zgłoszenia
• Dowolny rozkład czasu obsługi
– fX(t)
gęstość rozkłądu
– E[X] =m1
pierwszy moment (średni czas obsługi)
– E[X2]=m2
drugi moment
Wzór Pollaczka-Chińczyna
• Czas oczekiwania i-tego klienta na obsługę
Wi = Ri + X 1 + X 2 + L + X Qi = Ri + ∑ j =1 X j
Qi
• Przy i→∞
Q
E[Wi ] = E[ Ri ] + E ⎡ ∑ j =i 1 X j ⎤ = E[ Ri ] + E[ X ]E[Qi ] ⇒
⎣
⎦
E[W ] = E[ R] + E[ X ]E[Q]
• Z własności PASTA wynika, że średnie widziane w
chwilach przyjść klientów są takie same, jak średnie w
dowolnych chwilach czasu
• Ze wzoru Little’a
E [Q ] = λE [W ]
E[ R ]
E [W ] = E [ R ] + λE[ X ] ⋅ E[W ] = R + ρE[W ] ⇒ E[W ] =
1− ρ
Średni resztowy czas obsługi
R (t )
X1
X2
t
X1
X D(t )
• Średni resztowy czas obsługi:
lim t
t →∞
−1
∫
t
0
R( s)ds
• Załóżmy R(0)=R(t)=0
2
X
1 t
1
1 D(t ) ∑ i =1 X i
R( s )ds = ∑
= ⋅
⋅
⇒
∫
0
t
t i =1 2
D (t )
2 t
D(t )
D(t )
2
i
2
X
D (t )
1
1
∑
i
⋅ lim i =1
lim ∫ R( s )ds = ⋅ lim
t →∞ t 0
2 t →∞ t t →∞ D(t )
D(t )
t
• Jeśli proces jest ergodyczny:
1 t
R ( s )ds
t →∞ t ∫0
E [ R ] = lim E [ Ri ] = lim
i →∞
Średni resztowy czas obsługi
D (t )
=λ
t →∞
t
• W stanie stacjonarnym
lim
• Z prawa wielkich liczb
∑
lim
t →∞
D(t )
i =1
X i2
D (t )
∑
= lim
n →∞
n
2
X
i
i =1
n
= E[ X 2 ]
• Średni resztowy czas obsługi
1
λ E[ X 2 ]
2
• Wzór Pollaczka-Chińczyna (średni czas oczekiwania na
obsługę)
E[ R ] =
E [ R ] λE [ X 2 ]
E[W ] =
=
1 − ρ 2(1 − ρ)
P-K Formula
• Średni czas przejścia przez system
1 λE [ X 2 ]
E[T ] = E[ X ] + E[W ] = +
μ 2(1 − ρ)
• Średnia liczba klientów w kolejce
λ 2 E[ X 2 ]
E[Q ] = λE[W ] =
2(1 − ρ)
• Średnia liczba klientów w systemie
λ 2 E[ X 2 ]
E[ N ] = λE[T ] = ρ +
2(1 − ρ)
• Wartości średnie E[W], E[T], E[Q], E[N] zależą tylko
od dwóch pierwszych momentów rozkładu czasu
obsługi
M/G/1 - przykłady
• M/D/1
E[ X ] =
1
,
μ
E[ X 2 ] =
1
μ2
λE [ X 2 ]
ρ
λ 2 E[ X 2 ]
ρ2
E[W ] =
=
=
, E[Q ] =
2(1 − ρ) 2μ(1 − ρ)
2(1 − ρ) 2(1 − ρ)
1 λE [ X 2 ] 1
ρ
2−ρ
ρ(2 − ρ)
E[T ] = +
= +
=
, E[ N ] = λE[T ] =
μ 2(1 − ρ) μ 2μ(1 − ρ) 2μ(1 − ρ)
2(1 − ρ)
• M/M/1
E[ X ] =
1
,
μ
E[ X 2 ] =
2
μ2
λE [ X 2 ]
ρ
λ 2 E[ X 2 ]
ρ2
E[W ] =
=
=
, E[Q ] =
2(1 − ρ) μ(1 − ρ)
2(1 − ρ) (1 − ρ)
1 λE [ X 2 ] 1
ρ
1
λ
E[T ] = +
= +
=
, E[ N ] = λE[T ] =
μ 2(1 − ρ) μ μ(1 − ρ) μ − λ
μ−λ