Teoria Kolejek - Politechnika Warszawska
Transkrypt
Teoria Kolejek - Politechnika Warszawska
Teoria Kolejek dr inż. Piotr Gajowniczek Instutut Telekomunikacji Politechnika Warszawska WPROWADZENIE Wprowadzenie • Systemy masowej obsługi – obsługa dużej ilości klientów przez system o ograniczonych zasobach • Modele pokazujące zależności między zasobami systemu a jakością jego działania – analiza istniejących systemów – synteza systemów o określonych parametrach – badanie wpływu inwestycji na wydajność systemu (planowanie strategiczne, długookresowe) • Podstawowe obszary zastosowań – systemy produkcyjne i magazynowe – transport i komunikacja – systemy przetwarzania informacji (systemy komputerowe) – telekomunikacja Probabilistyka – zmienne losowe i rozkłady • Momenty zmiennej losowej – wartość oczekiwana (moment zwykły I rzędu) ∞ ∫ x ⋅ f (x)dx E[ X ] = X = E[ X ] = ∑x i −∞ i ⋅ pi ∞ ogólnie : E[X ] = ∫ xdF (x) −∞ – własności wartości oczekiwanej: E [c ⋅ X ] = c ⋅ E [ X ] c = const . n ⎡ n ⎤ E ⎢∑ X j ⎥ = ∑ E[X j ] j =1 ⎣ j =1 ⎦ X , Y niezal . ⇒ E [ X ⋅ Y ] = E [ X ] ⋅ E [Y ] Probabilistyka – zmienne losowe i rozkłady • Momenty zwykłe n-tego rzędu E[ X n ] = ∞ ∫x n ⋅ f (x )dx −∞ E[ X n ] = ∑ xi ⋅ pi n i • Wariancja – moment centralny II rzędu [ ] V [ X ] = σ 2 = E ( X − X )2 = E [ X 2 ] − E [ X ]2 V [c ⋅ X ] = c 2 ⋅ V [ X ] ⎡ n ⎤ V ⎢∑ X j ⎥ = ⎣ j =1 ⎦ n ∑ V [X j =1 j c = const . ] ⇔ X i niezal . Probabilistyka – rozkłady dyskretne • Funkcja tworząca prawdopodobieństwa X – dyskretna zmienna losowa, przyjmująca wartości nieujemne, całkowite, pi = P (X=i) ∞ Gx ( z ) = ∑ pi ⋅ z i = E ⎣⎡ z X ⎦⎤ z ≤1 i =0 • „rejestruje” wartości rozkładu w jednym wyrażeniu algebraicznym • ułatwia obliczanie momentów zmiennych losowych Probabilistyka – rozkłady dyskretne • Obliczanie momentów rozkładu d G ( z ) = E ⎡⎣ X ⋅ z X −1 ⎤⎦ = E[ X ] z =1 dz z =1 d d z G ( z ) = E ⎡⎣ X 2 ⋅ z X −1 ⎤⎦ = E[ X 2 ] z =1 dz dz z =1 i −1 d ⎛ d ⎞ E ⎡⎣ X i ⎤⎦ = ⎜ z ⎟ G ( z ) dz ⎝ dz ⎠ i ⎛ d ⎞ = ⎜ z ⎟ G( z) ⎝ dz ⎠ z =1 z =1 • Funkcja tworząca sumy zmiennych losowych X, Y niezależne, dyskretne, pi = P(X=i), qj = P(Y=j) k P{ X + Y = k} = ( p ⊗ q )k = ∑ pi ⋅ qk −i i =0 GX +Y ( z ) = E ⎡⎣ z X +Y ⎤⎦ = E ⎡⎣ z X ⋅ z Y ⎤⎦ = = E[ z X ] ⋅ E[ z Y ] = GX ( z ) ⋅ GY ( z ) Probabilistyka – rozkłady dyskretne • Rozkład geometryczny, X~Geo(p) pi = P(X=i) = p(1-p)i-1 i=1, 2, ... - liczba prób do pierwszego sukcesu w schemacie Bernoulliego - jedyny rozkład dyskretny, który ma własność bezpamięciowości P( X > i + j | X > i) = ∞ = ∑ p ⋅ (1 − p) k −1 k =i + j +1 ∞ ∑ k =i +1 p ⋅ (1 − p ) k −1 P( X > i + j, X > i) P( X > i + j ) = = P( X > i) P( X > i) (1 − p)i + j j = = (1 − ) = P( X > j ) p i (1 − p ) Probabilistyka – rozkłady dyskretne • Rozkład dwumianowy, X~Bin(n,p) – prawdopodobieństwo i sukcesów w n-próbach Bernoulli’ego ⎛n⎞ i pi = P{ X = i} = ⎜ ⎟ ⋅ p ⋅ (1 − p ) n −i ⎝i⎠ E[ X ] = np V [ X ] = np (1 − p ) • Rozkład Poissona, X~Poiss(a) ai − a pi = P( X = i ) = e i! E[ X ] = V [ X ] = a i = 0,1, 2... Aproksymacja rozkładu Poissona przez dwumianowy • Rozkład Poissona aproksymacja Gdy n→∞ i p→0, dla np=λ=const rozkład dwumianowy dąży do rozkładu Poissona z parametrem λ ⎛n⎞ k P( X = k ) = ⎜ ⎟ p (1 − p ) n − k ⎝k ⎠ (n − k + 1)...(n − 1)n ⎛ λ ⎞ ⎛ λ ⎞ = ⋅ ⎜ ⎟ ⎜1 − ⎟ k! ⎝n⎠ ⎝ n⎠ (n − k + 1)...(n − 1)n ⎯⎯⎯ →1 n →∞ nk k ⎛ λ⎞ −λ e → ⎜1 − ⎟ ⎯⎯⎯ n →∞ ⎝ n⎠ n ⎛ λ⎞ →1 ⎜1 − ⎟ ⎯⎯⎯ n →∞ n ⎝ ⎠ k P( X = k ) ⎯⎯⎯ →e n →∞ −λ λk k! n−k Probabilistyka – rozkłady ciągłe • Transformata Laplace’a – X≥0 nieujemna zmienna losowa ∞ f * ( s ) = ∫ e − st ⋅ f (t )dt = E ⎡⎣e − sX ⎤⎦ 0 – L-transformata dla funkcji gęstości pełni taką samą rolę, jak funkcja tworząca dla rozkładu dyskretnego – jeśli X jest zmienną dyskretną, nieujemną, wówczas: f * (s) = G ( e− s ) • Transformata sumy – X, Y niezależne f * X +Y ( s ) = E ⎡⎣e − s ( X +Y ) ⎤⎦ = E ⎡⎣e − sX ⋅ e − sY ⎤⎦ = = E ⎡⎣e − sX ⎤⎦ ⋅ E ⎡⎣ e − sY ⎤⎦ = f X* ( s ) ⋅ fY* ( s ) Probabilistyka – rozkłady ciągłe • Momenty zmiennych losowych ciągłych d E ⎡⎣e − sX ⎤⎦ = E ⎡⎣ − X ⋅ e − sX ⎤⎦ ds dn *( n ) f ( s ) = n E ⎡⎣e − sX ⎤⎦ = E ⎡⎣(− X ) n ⋅ e − sX ⎤⎦ ds *' f ( s) = dla s = 0 : *' E[ X ] = − f (0) *" E[ X ] = + f (0) 2 M (n) E[ X n ] = (−1) n ⋅ f * (0) Probabilistyka – rozkłady ciągłe • Rozkład wykładniczy, X~Exp(λ) fX(x) = λe-λx FX(x) = P{X≤x} = 1-e-λx Cx(x) = 1- FX(x) = e-λx x≥0 x≥0 x≥0 ∞ λ f * ( s ) = ∫ e − st λ e − λt dt = s+λ 0 λ *' E[ X ] = − f (0) = *" (λ + s ) E[ X ] = + f (0) = 2 s =0 2λ (λ + s ) 3 V [ X ] = E[ X ] − E[ X ] = 2 = 2 2 1 λ = s =0 1 λ2 2 λ2 Probabilistyka – rozkłady ciągłe • Rozkład wykładniczy – bezpamięciowość – jedyny rozkład ciągły o takiej własności P( X > t + x | X > t ) = P ( X > t + x, X > t ) P ( X > t + x ) = = P( X > t ) P( X > t ) H (t + x) e − λ (t + x ) = = − λt = e − λ x = P( X > x) H (t ) e – interpretacja: niech X~Exp(μ) opisuje czas trwania rozmowy telefonicznej; jakie jest prawdopodobieństwo, że rozmowa będzie trwała co najmniej x, jeśli wiemy, że trwa już przez czas t ? • bezpamięciowość rozkładu wykładniczego ⇒ rozkład czasu pozostałego do zakończenia rozmowy (resztowego czasu rozmowy) nie zależy od tego, jak dawno temu rozmowa się zaczęła • rozkład resztowego czasu rozmowy (ogólniej: resztowego czasu obsługi) jest taki sam, jak rozkład czasu rozmowy w ogóle Probabilistyka – rozkłady ciągłe • Rozkład Erlanga – X = X1+...+Xn Xi~Exp(μ) i.i.d. – X ma n-stopniowy rozkład Erlanga, X~Erl(n,μ) (t n e − μt ) * = n! (s + μ )n +1 μ n μ ⎛ μ ⎞ (n − 1)! 1 ⎟⎟ = μ n f *(s) = ⋅K⋅ = ⎜⎜ s+μ s + μ ⎝s + μ⎠ (s + μ )n (n − 1)! 144 42444 3 n× f (t ) = μn (n − 1)! t n −1 ⋅e − μt = μ (μt )n −1 (n − 1)! ⋅ e − μt Probabilistyka – rozkłady ciągłe • Modelowanie czasu obsługi rozkładem Erlanga μ f(x)=μe-μx, E[X]=1/μ, V[X]=1/μ2 X~Exp(μ) 2μ 2μ f(x)=2μe-2μx, E[Xi]=1/2μ, V[Xi]=1/(2μ)2 μ Xi~Exp(2 ) f(x), E[Xi], V[Xi] B*(s)=(2μ)2/(s+2μ)2 ⇒ b(x)=2μ(2μx)e-2μx E[X] = 2E[Xi] = 1/μ X~Erl(2, 2μ) b(x), E[X], V[X] V[X] = 2V[Xi] = 1/2μ2 r rμ ..... μ X1~Exp(r ) f(x), E[Xi], V[Xi] X~Erl(r, rμ) b(x), E[X], V[X] rμ f(x)=rμe-rμx, E[Xi]=1/rμ, V[Xi]=1/(rμ)2 B*(s)=(rμ)r/(s+rμ)r ⇒ b(x)=rμ(rμx)r-1e-rμ x/(r-1)! E[X] = rE[Xi] = 1/μ V[X] = rV[Xi] = 1/rμ2 Rozkład Erlanga MODEL SYSTEMU KOLEJKOWEGO Podstawowy model systemu kolejkowego Kolejka Napływ Serwer(y) Obsługa • System taki modeluje „stację obsługi”: – z jednym lub wieloma urządzeniami obsługującymi (serwer, łącze, CPU ...) – z kolejką • Klienci (pakiety, zgłoszenia, zadania ...) napływają w celu obsługi – klient, dla którego nie ma wolnego urządzenia obsługującego oczekuje w kolejce – klient nadchodzący, gdy system jest pełny, jest odrzucany Opis systemu kolejkowego b m • m – liczba urządzeń obsługi (1 do ∞) • b – rozmiar kolejki • Dyscyplina kolejki - FIFO, LIFO itp. • Proces napływu A(t) • Proces obsługi S(t) Proces stochastyczny • Model eksperymentu losowego, który zmienia się w czasie i tworzy sekwencję wartości numerycznych – każda wartość w sekwencji jest wyznaczana przez zmienną losową ⇒ proces stochastyczny jest ciągiem zmiennych losowych X = (Xt | t∈I) I⊂R – zbiór parametrów • rozkład stacjonarny lim P ( X t ≤ x) t →0 • ergodyczność Proces napływu n −1 n τn n +1 tn t • τ n : zmienna losowa opisująca czas między zgłoszeniem n i n+1 • {τ n , n ≥ 1} : jest to proces stochastyczny • Zakładamy, że kolejne odstępy między zgłoszeniami mają taki sam rozkład E[τ n ] = E [τ ] = 1/ λ λ – tzw. intensywność napływu Proces obsługi n −1 n +1 n sn n n −1 t • sn : czas obsługi zgłoszenia n w urządzeniu obsługującym • { s n , n ≥ 1} jest procesem stochastycznym • zakładamy, że czasy obsługi dla wszystkich klientów mają identyczny rozkład E [ sn ] = E [ s ] = μ μ – tzw. intensywność obsługi PROCES POISSONA Proces Poissona z intensywnością λ • {A(t): t≥0} – proces napływu zgłoszeń – A(t) określa liczbę zgłoszeń, które napłynęły od chwili 0 do t – A(t)-A(s) jest liczbą zgłoszeń w przedziale (s, t] • Liczby zgłoszeń w rozłącznych odcinkach czasu są niezależne • Liczba zgłoszeń w dowolnym odcinku czasu (t, t+τ] o długości τ – zależy wyłącznie od czasu τ – ma rozkład Poissona z parametrem λτ P{ A(t + τ ) − A(t ) = n} = e − λτ (λτ ) n , n = 0,1,... n! λt jest średnią liczbą zgłoszeń w czasie t λ jest intensywnością napływu zgłoszeń Alternatywne definicje • Proces Poissona jest procesem czystych urodzin: w nieskończenie małym odcinku czasu Δt może nadejść tylko jedno zgłoszenie z prawdopodobieństwem λΔt, niezależnie od zgłoszeń poza tym odcinkiem • Liczba zgłoszeń N(t) w skończonym odcinku czasu o długości t ma rozkład Poissona z parametrem λt a N(t1,t2) i N(t3,t4) dla rozłącznych odcinków t1-t2 i t3-t4 są niezależne • Czasy między zgłoszeniami są niezależne, a ich długość jest opisana zmienną losową o rozkładzie Exp(λ) Czas między zgłoszeniami w procesie Poissona • Odstępy między zgłoszeniami w procesie Poissona są niezależne a ich długość opisana jest rozkładem wykładniczym z parametrem λ • tn: czas nadejścia n-tego zgłoszenia; τn=tn+1-tn: n-ty odstęp między zgłoszeniami P{τ n ≤ s} = 1 − e − λ s , s ≥ 0 FT (t ) = P(T ≤ t ) = 1 − P(T > t ) = = 1 − P(0, t ) = 1 − e − λt ~ Exp(λ ) Prawdopodobieństwo zgłoszenia w δ • Jeśli napływ jest procesem Poissona, to intensywność napływu zgłoszeń jest stała (prawdopodobieństwo nadejścia zgłoszenia jest w każdej chwili czasu takie samo) • Odcinek (t, t+Δt] o długości Δt ( λ Δt ) 2 P{ A(t + Δt ) − A(t ) = 0} = e = 1 − λ Δt + = 1 − λΔ t + ο ( Δ t ) 2 ⎛ ( λ Δt ) 2 ⎞ − λΔt P{ A(t + Δt ) − A(t ) = 1} = e λΔt = λΔt ⎜1 − λΔt + ⎟ = λΔ t + ο ( Δ t ) 2 ⎠ ⎝ − λ Δt 1 P{ A(t + Δt ) − A(t ) ≥ 2} = 1 − ∑ P{ A(t + Δt ) − A(t ) = k} = k =0 = 1 − (1 − λΔt + ο (Δt )) − (λΔt + ο (Δt )) = ο (Δt ) Aproksymacja przez proces Bernoulli’ego • Proces Bernoulli’ego – ciąg zmiennych losowych o rozkładzie dwupunktowym • Dzielimy przedział (0,τ) na n=τ/Δt przedziałów o długości Δt • Prob {nadejdzie 1 zgłoszenie w przedziale Δt→0} = λΔt • sukces = nadejście zgłoszenia w Δt Prob {k zgłoszeń w τ} = Prob (k sukcesów w n próbach Bernoulli’ego} = ⎛n⎞ k = ⎜ ⎟ p (1 − p ) n − k ⎝k ⎠ (λτ ) k − λτ e → k! n →∞ Δt →∞ np = λτ Proces Poissona – napływ czysto losowy α1 β1 α2 αk-1 β2 βk αk T 0 t • A) proces Poissona P( zgloszenia w α1...k | k zgloszen) = P( zgloszenia w α1...k ∧ k zgloszen) = P (k zgloszen) (λα1e − λα1 ) ⋅ (λα 2 e− λα 2 ) ⋅ K ⋅ (λα k e − λα k ) ⋅ e − λβ1 ⋅ e − λβ 2 ⋅ K ⋅ e − λβk −1 = = k (λT ) − λT e k! λ k e − λ (α1 + β1 +...+ βk +α k ) ⋅ (α1 ⋅ α 2 ⋅ K ⋅ α k ) ⋅ k ! (α1 ⋅ α 2 ⋅ K ⋅ α k ) ⋅ k ! = = k − λT (λT ) e Tk • B) rozkład równomierny w (0,T) ⎛α ⎛ α ⎞⎛ α ⎞ P( punkty w α1...k | k punktów) = ⎜ 1 ⎟⎜ 2 ⎟ ⋅ K ⋅ ⎜ k ⎝ T ⎠⎝ T ⎠ ⎝T (α1 ⋅ α 2 ⋅ K ⋅ α k ) ⎞ ⋅ = k ! ⎟ T k ⋅k! ⎠ Złożenie i rozdział procesu Poissona λ1 λp p λ λ1+ λ 2 1-p λ(1-p) λ2 • A1,…, Ak – niezależne procesy Poissona z intensywnościami λ1,…, λk • Złożone w jeden proces A= A1+…+ Ak A jest procesem Poissona z intensywnością λ= λ1+…+ λk • A: proces Poissona z intensywnością λ • Rozdzielony na procesy A1 i A2 niezależnie, z prawdopodobieństwami p i (1-p) A1 - proc. Poissona(λ1= λp) A2 - proc. Poissona(λ2= λ(1-p)) Modelowanie procesów napływu • Proces Poissona w modelowaniu napływu zgłoszeń – szeroki zakres wykorzystania • sieci z komutacją kanałów • aproksymacje w sieciach z komutacją pakietów i sieciach komórkowych • Bardzo dobry model napływu zgłoszeń z wielu niezależnych źródeł – np. ruch telefoniczny do centrali – n źródeł ruchu, dla których odstęp międzyzgłoszeniowy jest IID (Independent Identically Distributed) z dystr. F(s) – intensywność napływu z każdego źródła - λ/n – gdy n→∞, strumień łączny może być aproksymowany procesem Poissona pod słabymi warunkami na F(s): F(0)=0, F’(0)>0 • Modele z napływem Poissona ułatwiają podejście analityczne NOTACJA KENDALLA Notacja Kendalla • Notacja Kendalla - wzorzec: A/S/m/k • A – proces napływu – dla procesu Poissona używa się symbolu M (Markovian / Memoryless) • B – proces obsługi (rozkład czasu obsługi) – M: wykładniczy – D: deterministyczny (jednopunktowy) – G: dowolny (general) • m – liczba serwerów • k – liczba miejsc w systemie (łącznie: stanowiska obsługi + kolejka) – jeśli jest nieskończona, to często pomija się ją w zapisie Notacja Kendalla - przykłady • M/M/1 – napływ jest procesem Poissona, rozkład czasu obsługi jest wykładniczy, jeden serwer, nieskończona kolejka • M/M/m – m serwerów • M/M/m/m – m serwerów, brak kolejki • M/G/1 – napływ Poissona, rozkład czasu obsługi jest dowolny (możemy znać np. tylko jego momenty), jeden serwer, nieskończona kolejka • M/D/1 – stały czas obsługi WIĄZKA ERLANGA – system M/M/m/m System M/M/c/c – wiązka Erlanga • Napływ jest procesem Poissona, czas obsługi wykładniczy – bezpamięciowość – zmiany stanu systemu następują w chwilach przyjść oraz wyjść klientów Prob (Xt+Δt=j | Xt=i) = ? Pomocniczo: a) jeśli X,Y~Exp(μ) iid, to Z = min( X , Y ) ~ Exp(2 μ ) ⇒ jeśli k łączy jest zajętych, to czas do wyjścia najbliższego klienta ma rozkład Exp(kμ) b) jeśli X~Exp(λ), Y~Exp(μ), niezależne, to P( X < Y ) = λ λ+μ ⇒ jeśli k łączy jest zajętych (w stanie k) czas do najbliższego zdarzenia (przyjście lub wyjście klienta) ~ Exp(kμ+λ) System M/M/c/c – wiązka Erlanga • Prawdopodobieństwo zmiany stanu w czasie Δt PΔS = P{ X t +Δt ≠ k | X t = k} = (λ + k μ )Δt + ο (Δt ) 1 − PΔS ⎧k = j jμ ⎪ k = j −1 λ + j μ PΔS ⎪ Pjk (Δt ) = P{ X t +Δt ≠ k | X t = j} = ⎨ λ k = j + 1 λ + j μ PΔS ⎪ ⎪ | k − j |≥ 2 ο (Δt ) ⎩ 1 − ( λ + j μ ) Δt + ο ( Δ t ) ⎧k = j ⎪ k = j −1 j μδ + ο (Δt ) ⎪ =⎨ ⎪ k = j + 1 λΔt + ο (Δt ) ⎪⎩ | k − j |≥ 2 ο (Δt ) System M/M/c/c – wiązka Erlanga • Prawdopodobieństwo, że w chwili t system jest w stanie k: pk(t) m pk (t + Δt ) = ∑ pk (t ) ⋅ p jk (Δt ) = [ λΔt + ο (Δt ) ] ⋅ pk −1 (t ) + j =0 + [ μ (k + 1)Δt + ο (Δt )] ⋅ pk +1 (t ) + [1 − (λ + k μ )Δt + ο (Δt )] ⋅ pk (t ) + ⎛ ⎞ + ⎜ ∑ pi (t ) ⎟ ⋅ ο (Δt ) ⎝ i∉{k −1,k ,k +1} ⎠ ⇒ pk (t + Δt ) − pk (t ) ο ( Δt ) pk −1 (t ) + (k + 1) μ pk +1 (t ) + = λ pk −1 (t ) + Δt Δt ο (Δt ) ο (Δt ) ο (Δt ) pk +1 (t ) − (λ + k μ ) pk (t ) + + pk (t ) + Δt Δt Δt System M/M/m/m – wiązka Erlanga • Równania „dynamiki” prawdopodobieństwa stanu systemu Δt → 0 dpk (t ) = λ pk −1 (t ) + (k + 1) μ pk +1 (t ) − (λ + k μ ) pk (t ) dt λ 0 λ 1 λ 2μ 3μ (m − 1) μ • Rozkład graniczny ∀k m m-1 2 μ λ λ pk (t ) ⎯⎯⎯ → pk t →∞ mμ ∀k System M/M/m/m – wiązka Erlanga • Równania równowagi 0 = λ pk −1 (t ) + (k + 1) μ pk +1 (t ) − (λ + k μ ) pk (t ) ∀k λ pk −1 (t ) + (k + 1) μ pk +1 (t ) = (λ + k μ ) pk (t ) ∀k λ λ k kμ (k + 1) μ System M/M/m/m – wiązka Erlanga • Rozwiązanie: k =0 p0 k =1 λ p0 = μ p1 k = 2 (λ + μ ) p1 = λ p0 K Ak pk = p0 k! k = 1, 2 K m • Równanie normalizujące c ∑p k =0 k =1 ⇒ ⎛ c Ak ⎞ p0 = ⎜ ∑ ⎟ ! k 0 k = ⎝ ⎠ −1 λ p0 = Ap0 μ → p1 = → A2 p2 = p0 2 System M/M/m/m – wzór Erlanga • Prawdopodobieństwa stacjonarne stanów: pk = Ak k! c ∑ i =0 Ai i! Ak − A ⎯⎯⎯ → e c →∞ k! • Wzór B-Erlanga pc = E (c, A) = Ac c! c ∑ i =0 Ai i! time congestion = Prob{wszystkie łącza zajęte} = E(c,A) call congestion = Prob{wszystkie łącza zajęte | przychodzi zgłoszenie} = B − W ogólnym przypadku E≠B − Dla M/M/c/c E=B Ruch telekomunikacyjny • Ruch oferowany – A=λ/μ [Erl] średnia liczba zgłoszeń przychodzących w średnim czasie obsługi – ruch, który byłby przeniesiony przez wiązkę nieskończoną • Ruch przenoszony – (średnia) liczba zajętych urządzeń obsługi A c Ao Ac Ac = A(1-B) Ruch telekomunikacyjny PROCESY URODZIN I ŚMIERCI Procesy urodzin i śmierci (Birth & Death Process) λ0 λ1 0 1 μ1 λn −1 2 μ2 S Sc λn n μn n+1 μn +1 • Przejścia tylko między stanami sąsiednimi • Równania dynamiki: k >0 k =0 d pk (t ) = λk −1 pk −1 (t ) + μ k +1 pk +1 (t ) − (λk + μ k ) pk (t ) dt d p0 (t ) = μ1 p1 (t ) − λ0 p0 (t ) dt Procesy urodzin i śmierci w stanie równowagi • Równanie równowagi dla węzła (S) λk −1 pk −1 + μk +1 pk +1 = (λk + μk ) pk λk −1 pk −1 − μk pk = λk pk − μk +1 pk +1 f k = λk pk − μ k +1 pk +1 ⇒ f k −1 = f k = const. f 0 = λ0 p0 − μ1 p1 = 0 ⇒ f k = 0 • Równanie równowagi dla przekroju (Sc) λk pk = μk +1 pk +1 Procesy urodzin i śmierci w stanie równowagi • Prawdopodobieństwa stacjonarne w procesie urodzin i śmierci: μn pn = λn −1 pn −1 ⇒ n −1 λn −1 λn −1 λn − 2 λn −1λn − 2 L λ0 λi pn = pn −1 = pn − 2 = ... = p0 = p0 ∏ μn μn μn −1 μn μn −1 L μ1 i = 0 μi +1 −1 ∞ n −1 ⎡ ⎡ λi ⎤ λi ⎤ λi = ⇔ + = ⇔ = + <∞ p 1 p 1 1 p 1 , if ∑ ∑ ∑ ∏ ∏ ⎥ ⎢ ∑∏ ⎥ n 0 ⎢ 0 n =0 n =1 i = 0 μi +1 ⎣ n =1 i =0 μi +1 ⎦ ⎣ n =1 i =0 μi +1 ⎦ ∞ ∞ n −1 ∞ n −1 Przykład: proces Poissona λ 0 λ 1 λ 2 d po (t ) = −λ p0 (t ) → p0 (t ) = e− λt dt d pk (t ) = λ pk −1 (t ) − λ pk (t ) dt dp1 (t ) = λ e − λt − λ p1 (t ) k =1 dt → p1 (t ) = λ te − λt przez rekursję: (λ t ) k − λ t pk (t ) = e k! Przykład: system M/M/1 • Charakterystyka systemu: – napływ: proces Poissona z intensywnością λ – czas obsługi: rozkład wykładniczy z parametrem µ – procesy napływu i obsługi są niezależne – pojedyncze urządzenie obsługujące – nieskończona kolejka • N(t): stan systemu (liczba klientów) w chwili t λ 0 λ 1 μ λ 2 μ λ n μ n+1 μ Przykład: system M/M/1 λ 0 λ 1 μ λ 2 μ λ n μ n+1 μ • Proces urodzin i śmierci; w równowadze: μ pn = λ pn −1 ⇒ λ pn = pn −1 = ρ pn −1 = ... = ρ n p0 μ • P0 obliczamy z warunku normalizującego: ∞ ∞ ⎡ n⎤ = ⇔ + p 1 p 1 ρ ∑ ∑ n 0 ⎢ ⎥ = 1 ⇔ p0 = 1 − ρ , if ρ < 1 n =0 ⎣ n =1 ⎦ • Rozkład stacjonarny dla stanu systemu: pn = ρ n (1 − ρ ), n = 0,1,... WZÓR LITTLE’A Wzór Little’a N λ T λ: intensywność napływu zgłoszeń • N: średnia liczba klientów w systemie • T: średni czas przebywania klienta w systemie • Twierdzenie Little’a: dla systemu w stanie ustalonym N = λT Wartości chwilowe α(t) N(t) β(t) t N(t) : liczba klientów w systemie w chwili t α(t) : liczba zgłoszeń, które nadeszły do chwili t β(t) : liczba zgłoszeń obsłużonych do chwili t Ti : czas, jaki i-te zgłoszenie przebywało w systemie Wartości średnie • Średnie w przedziale [0,t], dla stanu ustalonego Nt λt Tt δt 1 t = ∫ N ( s )ds t 0 a (t ) = t 1 a(t ) = Ti ∑ a (t ) i =1 β (t ) = t N = lim N t t →∞ λ = lim λt t →∞ T = lim Tt t →∞ δ = lim δ t t →∞ • Wzór Little’a ma zastosowanie dla dowolnego systemu kolejkowego, jeśli: – granice T, λ i δ istnieją – λ= δ Dowód dla kolejki FIFO α(t) • N(t) = α(t)- β(t) N(t) i FIFO, N(0)=0 Ti Pole między funkcjami: β(t) t T1 S (t ) = ∫ N ( s )ds T2 0 t • Założenie: N(t)=0, nieskończenie często. Dla każdego takiego t 1 t α (t ) ∑ 1 Ti = ⇒ = ⇒ N t = λtTt N ( s ) ds T N ( s ) ds ∑ i ∫0 ∫ 0 t t α (t ) i =1 t α (t ) α (t) Jeśli granice Nt→N, Tt→T, λt→λ istnieją, twierdzenie Little’a jest prawdziwe Dowód dla kolejki FIFO (relaksacja) α(t) N(t) i Ti β(t) T1 T2 • Bardziej ogólnie (nawet jeśli kolejka nie opróżnia się nieskończenie często) : β (t ) ∑ T 1 t α (t ) ∑ T ≤ ≤ ⇒ ≤ ≤ T N ( s ) ds T N ( s ) ds ∑ ∑ i i ∫ 0 t β (t ) t ∫0 t α (t ) i =1 i =1 ⇒ δ tTt ≤ N t ≤ λtTt β (t ) t α (t ) β (t) 1 α (t) i • Założenia: granice Tt →T, λt→λ, i δt→δ istnieją i λ=δ 1 i WŁASNOŚĆ PASTA Własność PASTA (Poisson Arrivals See Time Averages) • Rozważmy system ze stanami Ej i napływem Poissona z intensywnością λ – dwa różne prawdopodobieństwa związane ze stanem Ej • pj - prawdopodobieństwo, że system jest w stanie Ej w losowo wybranej chwili czasu • p*j - prawdopodobieństwo, że system jest w stanie Ej tuż przed nadejściem (losowo wybranego) zgłoszenia – w ogólności p j ≠ p*j – dla napływu opisanego przez proces Poissona p j = p*j Własność PASTA • Dowód – pk(t) : prawdopodobieństwo, że system jest w stanie k w chwili t – p*k(t) : prawdopodobieństwo, że zgłoszenie przychodzące w chwili t zastanie system w stanie k – A(t, t+Δt) : zdarzenie nadejścia zgłoszenia w przedziale Δt – N(t) : stan systemu w chwili t pk* (t ) = lim P { N (t ) = k | A(t , t + Δt )} = Δt →0 P { A(t , t + Δt ) | N (t ) = k} ⋅ P { N (t ) = k} = lim Δt → 0 P { A(t , t + Δt )} – ze względu na bezpamięciowośc procesu napływu zgłoszeń A(t,t+Δt) jest niezależne od stanu systemu N(t), zatem pk* (t ) = lim P { N (t ) = k )} = pk (t ) Δt → 0 – PASTA nie zachodzi, jeśli intensywność napływu zależy od stanu systemu SYSTEMY STRATNE (Loss Systems) M/M/c/c (oraz M/M/∞) jako proces urodzin i śmierci λ λ 0 1 μ λ 2 n nμ 2μ λ n+1 (n + 1)μ • Rozwiązanie równań dla stanu równowagi: k −1 λi (λ μ ) p λ λk pk = p0 ∏ = p0 ∏ = p = 0 0 k! 1⋅ 2L k ⋅ μ k i = 0 μi +1 i = 0 (i + 1) μ k k −1 • Warunek normalizujący: ⎡ c (λ / μ ) k ⎤ p0 = ⎢ ∑ ⎥ ⎣ k =0 k ! ⎦ −1 ⎡ ∞ (λ / μ ) k ⎤ p0 = ⎢ ∑ ⎥ ! k 0 = k ⎣ ⎦ −1 dla M/M/c/c = e−λ / μ dla M/M/c/∞ Wiązka Erlanga: system M/M/c/c λ λ 0 λ 1 2 μ c cμ 2μ • Rozkład stacjonarny: −1 (λ / μ ) n ⎡ c (λ / μ ) k ⎤ pn = , n = 0,1,..., c ∑ n ! ⎢⎣ k =0 k ! ⎥⎦ • Prawdopodobieństwo blokady (PASTA) – wzór Erlanga-B pc = (λ / μ ) ⎡ (λ / μ ) ⎤ ∑ c ! ⎢⎣ k =0 k ! ⎥⎦ c c k −1 • Niewrażliwość na rozkład czasu obsługi: można wykazać, że obowiązuje dla M/G/c/c Wiązka nieskończona: system M/M/∞ λ 0 λ λ 1 2 μ λ n nμ 2μ n+1 (n + 1)μ • Nieskończona liczba urządzeń obsługi – nie ma kolejkowania • Rozkład stacjonarny: (λ / μ ) n − λ / μ pn = e , n = 0,1,... n! – rozkład Poissona z parametrem λ/μ • Średnia liczba klientów w systemie i średni czas przejścia przez system: N= λ , μ T= N λ = 1 μ • Wynik ten obowiązuje dla M/G/∞ System Engseta: M/M/c/c/[N] • System z ograniczoną liczbą źródeł zgłoszeń N (0 ≤ c ≤ N) – zachowanie pojedynczego źródła zgłoszeń: • źródło jest naprzemiennie w stanie nieaktywnym (wygenerowane zgłoszenie jest właśnie obsługiwane przez jeden z c serwerów i nie generuje nowych zgłoszeń) lub w stanie aktywnym, którego czas trwania ma rozkład wykładniczy Exp(ϕ) i kończy się wygenerowaniem zgłoszenia do obsługi • odrzucenie zgłoszenia (blokada) powoduje rozpoczęcie kolejnego okresu aktywności – stan systemu N(t) jest procesem urodzin i śmierci • w stanie N(t)=k czas do wygenerowania następnego zgłoszenia ~Exp((N-k)ϕ) – prawdopodobieństwo przejścia do stanu k+1 na jednostkę czasu (intensywność przejścia) wynosi λj=(N-k)ϕ i zależy od stanu systemu • w stanie N(t)=k czas do zakończenia obsługi najbliższego zgłoszenia ~Exp(kμ) System Engseta: M/M/c/c/[N] • Współczynniki procesu urodzin i śmierci ⎧λk = ( N − k )ϕ ⎨ ⎩ μk = k μ • Prawdopodobieństwa stacjonarne ⎛N⎞ k ( N − i )ϕ pk = p0 ∏ = p0 ⎜ ⎟ a i = 0 (i + 1) μ ⎝k⎠ ⎛N⎞ k ⎜ ⎟a k⎠ ϕ ⎝ pk = c k = 0,..., c a = μ ⎛N⎞ i a ∑ ⎜ ⎟ i =0 ⎝ i ⎠ k −1 • Obowiązuje dla M/G/c/c/[N] Time congestion vs Call congestion • Time congestion ⎛N⎞ c ⎜ ⎟a c⎠ ϕ ⎝ , a= pc = EN (c, a ) = c N μ ⎛ ⎞ i a ∑ ⎜ ⎟ i =0 ⎝ i ⎠ • Call congestion ≠ Time congestion – proces napływu nie jest procesem Poissona Call congestion • Prawdopodobieństwa stanów w chwili najdejścia losowego zgłoszenia pk* = λk p k c ∑λ j =0 j pj • Dowód (intuicyjny) – rozważmy dostatecznie długi okres T – średnio, system znajduje się w stanie k przez czas pk·T – w tym czasie średnio przychodzi λj·pj·T zgłoszeń (tyle zgłoszeń zastaje system w stanie k) c – całkowita średnia liczba zgłoszeń w T wynosi T ⋅ ∑ λ j p j [N] j =0 – wzór pokazuje proporcję zgłoszeń, które zastają system w stanie k do wszystkich zgłoszeń, czyli prawdopodobieństwo stanu k „widziane” przez nadchodzące zgłoszenia Call congestion • Po podstawieniu λk otrzymujemy wzór na blokadę: ⎛ N − 1⎞ c ⎜⎜ ⎟⎟α c ⎠ ⎝ * B(c, α) = pc = c = pc [N − 1] ⎛ N − 1⎞ k ⎜⎜ ⎟⎟α ∑ c ⎠ k =0 ⎝ – blokada w systemie Engseta z populacją (liczbą źródeł) N jest równa prawdopodobieństwu stanu c (zajętości wszystkich łączy) w systemie z populacją N-1 SYSTEMY Z OCZEKIWANIEM (Waiting Systems) System M/M/1 • Średnia liczba klientów w systemie (stan systemu): ∞ ∞ ∞ N = ∑ kpk = (1 − ρ )∑ k ρ =(1 − ρ ) ρ ∑ k ρ k −1 k k =0 k =0 ⇒ N = ρ (1 − ρ ) k =0 1 ρ λ = = (1 − ρ ) 2 1 − ρ μ − λ • Ze wzoru Little’a otrzymujemy średni czas przejścia przez system: T= N λ = 1 λ λ μ −λ = 1 μ −λ • Analogicznie, średni czas oczekiwania i stan kolejki: 1 ρ ρ2 oraz N Q = λW = W =T − = 1− ρ μ μ −λ System M/M/1 • Współczynnik wykorzystania: ρ=λ/μ – procent czasu zajętości serwera; prawdopodobieństwo, że serwer jest zajęty: ρ=1-p0 (obowiązuje dla M/G/1) – warunek stabilności: ρ<1 (inaczej kolejka rośnie do ∞) 10 8 N 6 4 2 0 0 0.2 0.4 0.6 ρ 0.8 1 M/M/1 : rozkład czasu przejścia • Załóżmy, że nadchodzące zgłoszenie zastaje n klientów w systemie – z własności rozkładu wykładniczego wiemy, że czas pozostały do zakończenia obsługi aktualnie obsługiwanego zgłoszenia ma rozkład wykładniczy Exp(μ) – czas przejścia tego zgłoszenia przez system jest zatem sumą n+1 niezależnych zmiennych losowych o rozkładzie Exp(μ) Tn = X1+X2+...+Xn+Xn+1 ⇒ T ma rozkład Erl(n+1,μ) ⇒ zatem gęstość rozkładu Tn ma postać: fTn n ( μt ) − μ t (t ) = μ e n! • Sumując po wszystkich możliwych stanach systemu, jakie może zastać nadchodzące zgłoszenie, mamy: fT (t ) = ∞ ∑f n =0 Tn (t ) ⋅ P{N = n} = ∞ ∑ n =0 = (μ − λ )e −( μ − λ )t ~ Exp(μ − λ ) n ( μt ) − μt μ e ⋅ (1 − ρ )ρ n n! =μ (1 − ρ )e − μ (1− ρ )t = M/M/1 : proces wyjściowy • D*(s) – L-transformata gęstości rozkładu czasu między wyjściami klientów D ( s )|serwer zaj. = * μ D ( s )|serwer wolny = * s+μ λ ⋅ μ s+λ s+μ D* ( s ) = D* ( s )|serwer wolny ⋅ P{serwer wolny} + D* ( s )|serwer zajety ⋅ P{serwer zajety} = λ μ μ μ ⎡ λ ⎤ ρ + (1 − ρ ) ⋅ = ⋅ ⋅ (1 − ρ ) + ⋅ρ = = ⎢ ⎥ s+λ s+μ s+μ s+μ ⎣ s+λ⎦ μ s ρ + λρ + λ − λρ μ sρ + λ = ⋅ = ⋅ = s+μ s+λ s+μ s+λ λ sλ + λμ = = ( s + μ )( s + λ ) s + λ System Erlanga z oczekiwaniem: M/M/c λ 0 λ λ 1 μ 2 λ c cμ cμ 2μ ⎧nμ , 1 ≤ n ≤ c n≥c ⎩ cμ , μn = ⎨ c+1 • Z równań dla procesu urodzin i śmierci: 1≤ n ≤ c : n > c: n λ 1 ⎛λ⎞ (c ρ ) n λ pn = p0 ∏ p0 , ρ≡ = ⎜ ⎟ p0 = n! ⎝ μ ⎠ n! cμ i = 0 (i + 1) μ c n −c n c −1 n −1 ⎛λ⎞ 1⎛ λ ⎞ λ λ cc ⎛ λ ⎞ cc ρ n pn = p0 ∏ p0 = p0 ⎜ ⎟ ∏ ⎜ ⎟ = ⎜ ⎟ p0 = c ! ⎝ cμ ⎠ c! i = 0 (i + 1) μ i = c c μ ⎝ μ ⎠ c ! ⎝ cμ ⎠ n −1 • Obliczenie p0 ⎡ (c ρ ) (c ρ ) = ⇒ = + p 1 p 1 ∑ n 0 ⎢ ∑ k ! + c! n=0 ⎣ k =1 ∞ c −1 k c −1 ⎡ (c ρ ) (c ρ ) 1 ⎤ k −c ⎤ = ρ ∑ ⎥ ⎢∑ k ! + c ! 1 − ρ ⎥ k =c ⎦ ⎣ k =0 ⎦ ∞ c −1 k c −1 System Erlanga z oczekiwaniem: M/M/c • Prawdopodobieństwo, że zgłoszenie będzie czekać (wzór Erlanga-C) ∞ (cρ)c ∞ n−c (cρ)c 1 PQ = ∑ pn = p0 p0 ρ = ∑ c! n=c c! 1− ρ n=c • Średni stan kolejki (cρ )c N Q = ∑ n =c ( n − c ) pn = p0 c! ∞ = PQ (1 − ρ ) ∑ ∞ n =c (n − c)ρ n −c ρ ρ = P Q (1 − ρ ) 2 1− ρ • Średni czas oczekiwania • Średni czas w systemie • Średni stan systemu W= NQ λ T =W + (cρ )c ρ = p0 c ! (1 − ρ ) 2 = PQ 1 μ ρ λ (1 − ρ ) = PQ ρ + 1 λ (1 − ρ ) μ ρ N = λT = PQ + cρ (1 − ρ ) M/M/c : rozkład czasu oczekiwania P{W > t} = P{W > t | N < c} ⋅ P{N < c} + P{W > t | N ≥ c} ⋅ P{N ≥ c} = = 0 ⋅ P{N < c} + P{W > t | N ≥ c} ⋅ PQ Dla N≥c system zachowuje się jak kolejka M/M/1 z intensywnością obsługi cμ, stąd: P{W > t | N ≥ c} ~ Exp(cμ − λ ) ⇒ P{W > t} = PQ ⋅ e − ( cμ −λ )t = PQ ⋅ e − cμ (1− ρ )t M/M/c: rozkład czasu przejścia B – czas obsługi (zmienna losowa) ∞ P{T > t} = P{W + B > t} = ∫ P{W + x > t} ⋅μ e − μ x dx = x =0 t = ∫ P{W > t − x} ⋅μ e − μ x dx + x =0 t = ∫ ∞ ∫ μ e − μ x dx = x =t PQ e − cμ (1− ρ )(t − x ) μ e− μ x dx + μ e − μt = x =0 = PQ 1 − c(1 − ρ ) − c μ (1− ρ ) t − μt − μt e − e + μ e ( ) DYSKRETNE ŁAŃCUCHY MARKOWA Dyskretne łańcuchy Markowa • Proces stochastyczny z czasem dyskretnym {Xn: n = 0,1,2,…} • Przyjmuje wartości ze zbioru {0,1,2,…} • Własność bezpamięciowości (Markowa): P{ X n +1 = j | X n = i, X n −1 = in −1 ,..., X 0 = i0 } = P{ X n +1 = j | X n = i} pij = P{ X n +1 = j | X n = i} • Prawdopodobieństwa przejść między stanami pij pij ≥ 0, ∞ ∑p j =0 ij =1 • Prawdopodobieństwa przejść można zapisać w postaci macierzy P=[pij] Równania Chapmana-Kołmogorowa • Prawdopodobieństwa przejść w n krokach pijn = P{ X n + m = j | X m = i}, n, m ≥ 0, i, j ≥ 0 • Równania Chapmana-Kołmogorowa n+m ij p ∞ = ∑ pikn pkjm , n, m ≥ 0, i, j ≥ 0 k =0 pijn jest elementem (i, j) w macierzy Pn • Umożliwiają rekursywne obliczenia prawdopodobieństwa stanów Rozkład stacjonarny prawdopodobieństwa stanów • Prawdopodobieństwa stanów (zależne od czasu) π nj = P{ X n = j}, π n = (π 0n , π1n ,...) ∞ ∞ P{ X n = j} = ∑ P{ X n −1 = i}P{ X n = j | X n −1 = i} ⇒ π = ∑ π in −1 pij i =0 • W zapisie macierzowym: n j i =0 π n = π n −1P = π n −2 P 2 = ... = π 0 P n • Jeśli istnieje rozkład graniczny, to: π = lim π n n→∞ jest rozkładem stacjonarnym prawdopodobieństwa stanów, dla którego π = πP • Istnienie rozkładu stacjonarnego zależy od struktury łańcucha Markowa Klasyfikacja stanów Nieredukowalność: Nieokresowość: • Stany i, j komunikują się: • Stan i jest okresowy: ∃ d > 1: piin > 0 ⇒ n = α d ∃n, m : pijn > 0, p mji > 0 • W łańcuchu nieredukowalnym wszystkie stany się komunikują 1 • W łańcuchu nieokresowym żaden stan nie jest okresowy 2 1 2 0 0 3 4 3 4 Twierdzenia graniczne • Twierdzenie 1. W nieredukowalnym, nieokresowym łańcuchu Markowa: Dla każdego stanu j istnieje granica π j = lim P{ X n = j | X 0 = i}, i = 0,1, 2,... n →∞ niezależnie od stanu początkowego Nj(k): liczba „odwiedzin” stanu N j (k ) ⎧ P ⎨ π j = lim k →∞ k ⎩ i j do chwili k ⎫ X0 = i⎬ = 1 ⎭ πj: częstotliwość z jaką proces „odwiedza” stan j Rozkład stacjonarny • Twierdzenie 2. W nieredukowalnym i nieokresowym łańcuchu Markowa: πj = 0, dla wszystkich stanów j → nie istnieje rozkład stacjonarny lub πj > 0, dla wszystkich stanów j → istnieje jednoznacznie określony rozkład stacjonarny π j = lim P{ X n = j | X 0 = i} = lim pijn n →∞ n →∞ Równania równowagi • π j p ji określa częstotliwość przejść z j do i ⎛ Frequency of ⎞ ⎛ Frequency of ⎞ ⎜ ⎟=⎜ ⎟ transitions out of j transitions into j ⎝ ⎠ ⎝ ⎠ ∞ π j = ∑ π i pij oraz ∞ i =0 ∞ ∞ ∑p i =0 ji =1 ⇒ π j ∑ p ji = ∑ π i pij ⇔ π j ∑ p ji = ∑ π i pij i =0 i =0 i≠ j i≠ j Obliczanie rozkładu stacjonarnego • Rozwiązać układ równań liniowych m π j = ∑ π i pij , j = 0,1,..., m i =0 m ∑π i =0 i =1 • Obliczyć numerycznie z Pn, która dąży do macierzy, gdzie wszystkie wiersze są równe π 1 0 2 1− p 1− p p 1− p 1 0 ⎡ 0 1− p P=⎢ 0 ⎢ p ⎢⎣1 − p 1⎤ p⎥ ⎥ 0 ⎥⎦ ⎧ π 0 = (1 − p )π 2 ⎪ π = (1 − p )π + pπ ⎧ π = πP 1− p 1 1 ⎪ 1 1 2 π , π , π ⇔ ⇔ = = = ⎨ ⎨ 0 1 2 π 1 = p π π π = + p 3 3 3− p − − p ∑ 0 1 ⎩ i i ⎪ 2 ⎪⎩ π 0 + π1 + π 2 = 1 Włożony łańcuch Markowa • Proces dyskretny „wbudowany” w proces ciągły w czasie – przykład: wiązka Erlanga M/M/c/c c t 0 1 2 3 4 5 6 7 – chwile nadejścia zgłoszeń wyznaczają proces dyskretny „zanurzony” w procesie ciągłym pj(n) = Prob{ X=j w chwili przyjścia n-tego zgłoszenia} pc(n) = Prob{ n-te zgłoszenie będzie odrzucone } pc (n) ⎯⎯ ⎯ ⎯→ pc = B n→∞ SYSTEM M/G/1 Prawdopodobieństwa stacjonarne • Prawdopodobieństwa stacjonarne d n = lim P{ X (t + ) = n | wyjscie w t} t →∞ an = lim P{ X (t − ) = n | przyjscie w t} t →∞ pn = lim P{ X (t ) = n} t →∞ • Przy słabych założeniach: – N(t) ma przyrosty jednostkowe – granice an i dn istnieją an = dn n = 0,1,… • Z własności PASTA wynika, że an = pn n = 0,1,… • Zatem: an = pn = dn n = 0,1,… System M/G/1 • Notacja – Wi czas oczekiwania i-tego zgłoszenia – Xi czas obsługi i-tego zgłoszenia – Ri resztowy czas obsługi zgłoszenia obsługiwanego w chwili nadejścia zgłoszenia i – Qi stan kolejki w chwili nadejścia i-tego zgłoszenia • Dowolny rozkład czasu obsługi – fX(t) gęstość rozkłądu – E[X] =m1 pierwszy moment (średni czas obsługi) – E[X2]=m2 drugi moment Wzór Pollaczka-Chińczyna • Czas oczekiwania i-tego klienta na obsługę Wi = Ri + X 1 + X 2 + L + X Qi = Ri + ∑ j =1 X j Qi • Przy i→∞ Q E[Wi ] = E[ Ri ] + E ⎡ ∑ j =i 1 X j ⎤ = E[ Ri ] + E[ X ]E[Qi ] ⇒ ⎣ ⎦ E[W ] = E[ R] + E[ X ]E[Q] • Z własności PASTA wynika, że średnie widziane w chwilach przyjść klientów są takie same, jak średnie w dowolnych chwilach czasu • Ze wzoru Little’a E [Q ] = λE [W ] E[ R ] E [W ] = E [ R ] + λE[ X ] ⋅ E[W ] = R + ρE[W ] ⇒ E[W ] = 1− ρ Średni resztowy czas obsługi R (t ) X1 X2 t X1 X D(t ) • Średni resztowy czas obsługi: lim t t →∞ −1 ∫ t 0 R( s)ds • Załóżmy R(0)=R(t)=0 2 X 1 t 1 1 D(t ) ∑ i =1 X i R( s )ds = ∑ = ⋅ ⋅ ⇒ ∫ 0 t t i =1 2 D (t ) 2 t D(t ) D(t ) 2 i 2 X D (t ) 1 1 ∑ i ⋅ lim i =1 lim ∫ R( s )ds = ⋅ lim t →∞ t 0 2 t →∞ t t →∞ D(t ) D(t ) t • Jeśli proces jest ergodyczny: 1 t R ( s )ds t →∞ t ∫0 E [ R ] = lim E [ Ri ] = lim i →∞ Średni resztowy czas obsługi D (t ) =λ t →∞ t • W stanie stacjonarnym lim • Z prawa wielkich liczb ∑ lim t →∞ D(t ) i =1 X i2 D (t ) ∑ = lim n →∞ n 2 X i i =1 n = E[ X 2 ] • Średni resztowy czas obsługi 1 λ E[ X 2 ] 2 • Wzór Pollaczka-Chińczyna (średni czas oczekiwania na obsługę) E[ R ] = E [ R ] λE [ X 2 ] E[W ] = = 1 − ρ 2(1 − ρ) P-K Formula • Średni czas przejścia przez system 1 λE [ X 2 ] E[T ] = E[ X ] + E[W ] = + μ 2(1 − ρ) • Średnia liczba klientów w kolejce λ 2 E[ X 2 ] E[Q ] = λE[W ] = 2(1 − ρ) • Średnia liczba klientów w systemie λ 2 E[ X 2 ] E[ N ] = λE[T ] = ρ + 2(1 − ρ) • Wartości średnie E[W], E[T], E[Q], E[N] zależą tylko od dwóch pierwszych momentów rozkładu czasu obsługi M/G/1 - przykłady • M/D/1 E[ X ] = 1 , μ E[ X 2 ] = 1 μ2 λE [ X 2 ] ρ λ 2 E[ X 2 ] ρ2 E[W ] = = = , E[Q ] = 2(1 − ρ) 2μ(1 − ρ) 2(1 − ρ) 2(1 − ρ) 1 λE [ X 2 ] 1 ρ 2−ρ ρ(2 − ρ) E[T ] = + = + = , E[ N ] = λE[T ] = μ 2(1 − ρ) μ 2μ(1 − ρ) 2μ(1 − ρ) 2(1 − ρ) • M/M/1 E[ X ] = 1 , μ E[ X 2 ] = 2 μ2 λE [ X 2 ] ρ λ 2 E[ X 2 ] ρ2 E[W ] = = = , E[Q ] = 2(1 − ρ) μ(1 − ρ) 2(1 − ρ) (1 − ρ) 1 λE [ X 2 ] 1 ρ 1 λ E[T ] = + = + = , E[ N ] = λE[T ] = μ 2(1 − ρ) μ μ(1 − ρ) μ − λ μ−λ