1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek

Transkrypt

1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek
1. Systemy obsługi masowej – stracony czas
1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek, 1974)
1.1.
Stracony czas
Czekanie w kolejkach jest dziś powszechnym zjawiskiem codziennego życia, i to zjawiskiem
wcale nie przyjemnym. Każdy z nas co dzień na coś czeka: na tramwaj, na połączenie
telefoniczne, przed kasą na bilet do kina, u lekarza lub fryzjera, na obsługę w restauracji. Czas
spędzony przy czekaniu bywa zazwyczaj naprawdę stracony; codziennie w ten sposób
marnujemy sporą część życia.
Podobne straty czasowe powstają nie tylko w indywidualnej skali człowieka. Tak
samo czekają pociągi przed stacją na wolny tor, samochody w stacjach benzynowych na
tankowanie, sklepy na dostawę towaru z magazynów, maszyny w warsztatach na naprawę.
Nie byłoby słuszne twierdzić, że kolejki i czekanie są zawsze i wszędzie jedynie
przejawem niedoskonałej lub zgoła chybionej organizacji, a całkiem iluzorycznym byłby
postulat kompletnej likwidacji tego zjawiska. W konsekwencji wymagałoby to dokładnego
zaplanowania każdego najdrobniejszego fragmentu naszego życia oraz wszystkich czynności,
i to bez najmniejszej rezerwy czasowej. Z całego świata musiałaby zniknąć jakakolwiek
przypadkowość, a wszystko przebiegałoby w sposób ściśle zdeterminowany.
Jest to oczywiście niemożliwe, bo nigdy nie potrafimy zapobiec zewnętrznym
wpływom zaburzającym (tzw. „trudnościom obiektywnym”, „vis maior” itp.). A także,
przecież taki bezbłędny, precyzyjnie sterowany system byłby oczywiście nieekonomiczny:
nakłady związane z wprowadzeniem i utrzymaniem dokładnego porządku i sztywnego
rozkładu czasowego przewyższyłby znacznie straty spowodowane „zbędnym” oczekiwaniem
w luźniejszym systemie, dopuszczającym losowe odchylenia od idealnego przebiegu.
Musimy się więc pogodzić z tym, że nigdy się nie uwolnimy od czekania w kolejkach.
Ta choroba naszego wieku jest złem koniecznym, daniną, którą musimy zapłacić osiągniętej
nowoczesności i przeludnionemu światu.
Te „smętne” perspektywy wcale jednak nie oznaczają, że jesteśmy całkowicie
bezbronni wobec zjawisk losowych. Chodzi właśnie o to, aby umieć opanować przypadek i
wykorzystać go. Jeżeli nie można w pełni uwolnić się od czekania, należy się starać
ograniczyć je do minimum, utrzymując w rozsądnych granicach wynikające stąd straty. W
prostych sytuacjach życiowych wystarczy nam zwykły rozsądek, w przypadkach bardziej
skomplikowanych potrzebna jest głębsza analiza danego procesu.
Z historii początków tak zwanych badań operacyjnych, z okresu drugiej wojny
światowej znany jest anegdotyczny już przykład (patrz Zubrzycki, 1961), który wskazuje , jak
nawet najprostsze środki mogą łatwo spowodować istotną poprawę sytuacji.
Po obiedzie w kuchni polowej żołnierze myli swoje menażki przy dwu kranach z
ciepłą wodą, a potem je płukali przy następnych dwu kranach z zimną wodą. Przy myciu
tworzyły się długie kolejki. Oficer operacyjny, który lustrował tę jednostkę, zauważył, że
mycie menażki trwa średnio trzy razy dłużej niż jej płukanie i zarządził, aby ciepła woda do
mycia płynęła z trzech kranów, a woda zimna do płukania tylko z jednego kranu. To proste
zarządzenie pozwoliło prawie całkowicie wyeliminować kolejki.
Nie zawsze jednak sytuacja jest taka prosta i oprócz dobrych pomysłów oraz
doświadczenia praktycznego potrzebujemy także głębszych studiów teoretycznych procesów
tego typu. Teoria obsługi masowej - zwana także teorią kolejek (1 Ta nazwa, choć krótsza i, jak się wydaje, bardziej atrakcyjna, nie oddaje jednak dokładnie zakresu teorii. Istnieją także
takie sytuacje, w których nigdy nie tworzą się kolejki; dokładniej opiszemy taki system w
paragrafie III.5.) bada modele matematyczne takich właśnie rzeczywistych procesów, w
których zdarzają się przestoje, czekanie, kolejki i straty. Jest to jedna z dziedzin zastosowań
rachunku prawdopodobieństwa. W niniejszym wstępnym rozdziale książki spróbujemy
scharakteryzować ogólnie systemy obsługi masowej będące przedmiotem badań teorii
kolejek. Wprowadzimy tu też stopniowo niektóre podstawowe pojęcia i terminy, których
będziemy używali w następnych rozdziałach.
TPR1-11
1
1. Systemy obsługi masowej – stracony czas
1. 2. Systemy obsługi
Systemy obsługi masowej można opisać - ogólnie, choć nie całkiem dokładnie - jak
następuje. Do ustalonego urządzenia świadczącego usługi określonego typu zgłaszają się
klienci, którzy chcą być obsłużeni (2 Chodzi tu zawsze o większą liczbę klientów, o obsługę
masową, a nie o jednorazowe obsłużenie pojedynczego klienta.). Jeśli nie są oni obsłużeni
niezwłocznie, to mogą (ale nie muszą) czekać na obsługę. Po zakończeniu obsługi obsłużony
klient opuszcza system i wtedy może się rozpocząć (natychmiast lub po pewnej przerwie)
obsługa innego klienta, który już czekał w systemie lub dopiero się zgłosi
Wszystkie wprowadzone tu pojęcia należy rozumieć bardzo ogólnie i szeroko:
mówimy o klientach także wtedy, gdy nie są nimi ludzie, obsługa nie musi polegać na
wykonaniu jakiejś czynności w zwykłym sensie tego słowa, a może ją prowadzić albo
specjalny pracownik, albo martwe urządzenie - będziemy je nazywali ogólnie kanałem
obsługi (używa się także terminu linia obsługi). Podamy tu kilka poglądowych przykładów
dla wskazania, jak różne mogą być konkretne systemy obsługi masowej:
klient
kanał
obsługa
samolot
pas startowy
lądowanie
pacjent
lekarz
badanie
kupujący
kasa sklepu samoobsługowego płacenie należności
abonent telefoniczny
centrala
połączenie
maszyna
konserwator
naprawa
pasażer
taksówka
jazda
przechodzień
światła uliczne
przejście ulicy
wagon
stacja
rozrządzanie
Do specyfikacji każdego systemu obsługi masowej należy przede wszystkim
informacja o trzech głównych składnikach jego struktury, a mianowicie:
(a) o zgłoszeniach klientów do systemu;
(b) o ich losie w przypadku, gdy nie mogą być niezwłocznie obsłużeni;
(c) o liczbie kanałów i przebiegu samej obsługi.
Rys. 1.1 przedstawia schemat działania systemu masowej obsługi, który czasem
nazywamy systemem kolejkowym.
Proces zgłoszeń
klientów
Kolejka do
obsługi
Obsługa przez n
kanałów
równoległych
Wyjście
Rys. 1.1. Schemat działania systemu masowej obsługi (systemu kolejkowego)
Proces zgłoszeń klientów do systemu obsługi jest jedną z najważniejszych
charakterystyk systemu. Rozróżniamy różne rodzaje systemów w zależności od tego, czy
klienci wchodzą regularnie (np. produkty automatu do opakowania), losowo (zgłoszenia do
centrali telefonicznej) lub może według ustalonego wcześniej planu z ewentualnymi
odchyleniami (samoloty, zarejestrowani pacjenci); czy przychodzą pojedynczo (samoloty,
pacjenci), czy w grupach (wagony), przy czym wielkość grup może znów być stała albo
zmienna - regularnie lub losowo; czy całkowita liczba wszystkich potencjalnych klientów jest
TPR1-12
1
1. Systemy obsługi masowej – stracony czas
ograniczona (maszyny w hali fabrycznej przydzielone jednemu konserwatorowi), czy w
zasadzie nieograniczona (kupujący w sklepie, przechodnie na skrzyżowaniu). W przypadku
losowych zgłoszeń interesują nas następnie charakterystyki procesu zgłoszeń: średnia liczba
klientów wchodzących w jednostce czasu, prawdopodobieństwo tego, że w określonym
przedziale czasowym nie zgłosi się żaden nowy klient średnia liczba klientów w grupie (przy
zgłoszeniach grupowych) i wiele innych, łącznie z informacją o tym, jak te charakterystyki
zmieniają się z upływem czasu.
Także losy klientów, których obsługa nie może się rozpocząć natychmiast po ich
zgłoszeniu do systemu (zazwyczaj dlatego, że kanał obsługi jest jeszcze zajęty przez innego
klienta), mogą być bardzo zróżnicowane. W najczęstszym przypadku klasycznej kolejki
klienci czekają na obsługę w kolejności zgłoszeń (kasa w teatrze), mogą jednak także
rezygnować z obsługi i odchodzić z kolejki (pacjenci u dentysty, pasażerowie czekający na
taksówkę lub tramwaj) i to natychmiast po zgłoszeniu (z powodu zbyt długiej kolejki) lub po
pewnym czasie czekania na próżno. Taka decyzja może mieć charakter losowy albo
zdeterminowany, np. aktualną długością kolejki lub inną informacją o stanie systemu, a są
także i takie systemy, w których decyzja o czekaniu na obsługę nie zależy od klienta (systemy
z ograniczoną kolejką), w szczególności systemy, w których wcale się nie czeka, a klienci,
którzy nie mogą być obsługiwani i odchodzą z systemu (np. rozmowy telefoniczne). Po
zwolnieniu kanału następny klient do obsługi może być wzięty z kolejki także według innych
kryteriów niż kolejność zgłoszenia, np. w porządku całkowicie odwrotnym (3 Na pierwszy
rzut oka takie kryterium wygląda paradoksalnie, a jednak bywa również stosowane w
praktyce. Można np. wyobrazić sobie, że w magazynie przechowuje się pewien towar (w
workach lub beczkach), przy czym zapasu używa się do bieżącej produkcji i jednocześnie go
uzupełnia. Tutaj klient - worek - który czeka w kolejce - magazynie - na ostatnim miejscu,
leży na wierzchu i do obsługi - zużycia - będzie wzięty jako pierwszy. Warunkiem
(koniecznym) jest, by towar się nie starzał, bo ostatni, najstarszy worek zużyty będzie dopiero
przy całkowitym opróżnieniu magazynu.) lub też losowo (rozmowy telefoniczne w małej
centrali). Niektórzy klienci mogą mieć także specjalne priorytety, uprawniające do obsługi
przed klientami bez priorytetu (ostre przypadki u lekarza, samoloty określonego typu przy
lądowaniu); przy czym obsługa klienta bez priorytetu może być dokończona (samoloty),
czasowo przerwana lub nawet przedwcześnie zakończona, jeśli w czasie jej trwania zgłosi się
klient z priorytetem (np. przerwanie rozmowy miejscowej w momencie zgłoszenia centrali
międzymiastowej).
Obsługa klientów może być prowadzona w jednym lub w kilku równoległych
kanałach obsługi (kasy w sklepie samoobsługowym), jej długość może być ustalona i
jednakowa dla wszystkich klientów (regulacja i kontrolny przegląd maszyn) lub losowa
(rozmowy telefoniczne); czasem także zależna od typu klienta (lądowanie samolotów) lub od
przydzielonego kanału obsługi, jeśli dostępne kanały mają różne prędkości obsługi. Interesują
więc nas znowu probabilistyczne charakterystyki czasu trwania obsługi (średni czas
potrzebny na obsługę jednego klienta, rozkład prawdopodobieństwa czasu obsługi), które
mogą być stałe lub zmienne w czasie, a niekiedy także zależne od stanu, w którym system
aktualnie się znajduje (np. jeśli długość kolejki wpływa na przyśpieszenie pracy kanału
obsługi). Kanały mogą wszystkie wykonywać tę samą obsługę lub też niektóre z nich mogą
być wyspecjalizowane na obsługę określonej grupy klientów (pasy startowe różnej długości)
albo na określone żądania specjalne, które mogą zgłaszać klienci (np. w warsztatach
naprawczych). Klienci mogą być także obsługiwani nie pojedynczo , lecz w grupach (winda,
przechodnie na skrzyżowaniu), przy czym wielkość grupy może być znów losowa
(przechodnie), ograniczona z góry (winda) lub ściśle określona i stała. W końcu, kanał
obsługi może być dostępny dla klientów zawsze lub z przerwami, które także mogą być
regularne (cykl dzienny) lub losowe (awarie).
TPR1-13
1
1. Systemy obsługi masowej – stracony czas
1. 3. Cele teorii obsługi masowej
Jak widzimy, można sobie wyobrazić najróżniejsze kombinacje omówionych wariantów
każdej składowej systemu. Nie należy więc oczekiwać, że w naszej niewielkiej książeczce
potrafimy omówić wszystkie możliwe typy systemów obsługi masowej, tym bardziej, że lista
takich możliwości nie jest nawet ostatecznie zamknięta. Chociaż światową literaturę z
dziedziny obsługi masowej już dziś można ocenić na tysiące publikacji, to nadal nie słabnie
dopływ nowych prac, które nie tylko pogłębiają naszą wiedzę o systemach już znanych, lecz
przynoszą także opisy dalszych nowych typów systemów obsługi masowej.
Ograniczymy się więc tutaj jedynie do kilku podstawowych sytuacji, jakie mogą
wystąpić w systemach obsługi masowej. Nie będziemy się starali, aby podać gotowy model
matematyczny dla każdego systemu, który można zaobserwować w praktyce; naszym celem
będzie przede wszystkim pokazanie czytelnikowi ogólnych zarysów takich modeli, by mógł
sobie uświadomić, gdzie i jak może być przydatna matematyczna teoria obsługi masowej.
Jakie są właściwie cele tej teorii? Przede wszystkim chodzi tu o teoretyczne poznanie
własności systemów obsługi masowej i praw, którym te systemy podlegają. pierwszym
zadaniem jest określenie racjonalnego kompletu informacji, które musimy mieć o każdym z
badanych systemów. Matematyczna teoria obsługi masowej pozwoli nam zorientować się - na
podstawie tych informacji - o możliwym zachowaniu się systemu w przyszłości (abyśmy
mogli je przewidywać). Stosowane w tej teorii metody postaramy się wyjaśnić w dalszych
rozdziałach.
Do tego należy jeszcze dodać, jakie praktyczne cele stawia sobie teoria obsługi
masowej, jak mogą wpłynąć jej teoretyczne wyniki na naszą praktyczną działalność. Tu
trzeba uwzględnić, z jakiego punktu widzenia patrzymy na badany system: użytkownika
systemu, tj. klienta, który chce być sprawnie obsłużony, czy zarządzającego systemem.
Z punktu widzenia klienta znajomość struktury i własności systemu może nam przede
wszystkim dopomóc do powzięcia decyzji co do postępowania w systemie obsługi masowej.
Klienci mogą mieć różne możliwości wywierania wpływu na swój indywidualny czas, jaki
spędzą w systemie, na straty lub nakłady (finansowe, czasowe lub inne), które się z tym
wiążą, a mówiąc ogólnie, na warunki, w jakich realizowana jest ich obsługa. Można to
osiągnąć np. przez odpowiedni wybór (indywidualny) momentu zgłoszenia do systemu
(idziemy na zakupy, gdy w sklepie nie ma tłoku) lub wybór obsługującego (kasy w sklepie
samoobsługowym lub na dworcu); niekiedy za określoną dopłatą można sobie zapewnić
pierwszeństwo przed innymi klientami (pilne telegramy), a kiedy indziej warto będzie
całkiem opuścić system i szukać w innym systemie zastępczej obsługi (tramwaj - taksówka).
W pewnych przypadkach można wreszcie w czasie obsługi wpływać na obsługującego lub na
zarządzającego systemem, aby poprawił warunki, w jakich obsługa przebiega, zwiększył jej
tempo lub zmienił kryteria wyboru klientów do obsługi.
Z punktu widzenia zarządzającego systemem celem badania bywa najczęściej
poszukiwanie możliwości usprawnienia pracy systemu, np. przez dodanie nowego kanału
obsługi (otwarcie nowej kasy) albo przez odpowiednią reorganizację (specjalizacja kanałów,
inna organizacja kolejki). Innym sposobem usprawnienia może być np. zmiana polityki cen,
pozwalająca skrócić czas czekania klientów (a tym samym podnieść atrakcyjność systemu)
lub na odwrót, zmniejszyć przestoje kanałów, zwiększyć przepustowość systemu, tj. liczbę
klientów, których system potrafi obsłużyć w rozsądnym czasie , lub, ogólnie, obniżyć koszty
operacyjne systemu.
Ponadto wyniki teorii obsługi masowej stosuje się także przy projektowaniu nowych
systemów, gdy chcemy ustalić parametry projektowanego systemu tak, aby jak najlepiej
zaspokoić popyt przyszłych klientów uwzględniając jednocześnie interesy zarządzającego
systemem.
Trzeba tu jeszcze podkreślić, że same straty czasowe nie zawsze są jedynym, ani też
rozstrzygającym kryterium przy ocenie jakości systemu obsługi masowej. W znacznie
większej mierze stosuje się tu kryteria ekonomiczne: oblicza się koszty operacyjne oraz ceny
TPR1-14
1
1. Systemy obsługi masowej – stracony czas
płacone przez klientów za obsługę, a warunki obsługi szacuje się ze względu na ich
minimizację. Chodzi tu w zasadzie znowu - podobnie jak w wielu innych zastosowaniach
matematyki do zagadnień ekonomii - o optymizację systemów ekonomicznych określonego
typu. Chociaż nakłady finansowe związane z uruchomieniem lub z eksploatacją systemu nie
są dotychczas w teorii obsługi masowej dostatecznie uwzględniane, to jednak nie ma żadnych
wątpliwości co do tego, że właśnie ekonomiczny punkt widzenia gra w praktyce rolę
pierwszorzędnej wagi.
TPR1-15
1
1. Systemy obsługi masowej – stracony czas
1.4. Procesy stochastyczne
Zadaniem tego rozdziału jest zaznajomienie czytelnika z aparatem matematycznym, którego
to przede wszystkim używa się przy rozwiązywaniu zagadnień obsługi masowej, a
mianowicie z pewnymi stosunkowo prostymi partiami teorii procesów stochastycznych. Cały
rozdział ma charakter przeważnie teoretyczny; znaczenie i sposób zastosowania procesów
stochastycznych w teorii obsługi masowej będą dokładniej wyjaśnione w następnych
rozdziałach.
1.4. 1. Kilka przykładów
Zaczniemy od konkretnych przykładów. Przy automatycznej produkcji - np. w fabryce
tekstylnej - pewien układ automatów - np. warsztatów tkackich - podlega jednemu
robotnikowi, którego zadaniem jest kontrola ich pracy i usuwanie drobnych przeszkód:
zasadniczą robotę maszyny wykonują same. Są one przy tym urządzone tak, że ilekroć nastąpi
awaria, która spowodowałaby wadliwość dalszej produkcji, same się zatrzymują. Awarie
pojawiają się niespodziewanie - nie są oczywiście uprzednio zaplanowane. Jeśli będziemy
przez pewien czas śledzili pracę jednego automatu, to otrzymamy dane obserwacyjne o
występowaniu awarii i o długości okresów działania bezawaryjnego. Każdy taki okres
zaczyna się w momencie uruchomienia maszyny po usunięciu skutków poprzedniej awarii, a
kończy w momencie wystąpienia następnej awarii.
Jeśli na niezbyt obciążonej szosie obserwujemy ruch samochodowy w ustalonym
kierunku, to możemy zarejestrować momenty czasowe, w których mijają nas pojazdy
określonego typu, np. auta osobowe. Także tutaj momenty przejazdu kolejnych aut będą
następować po sobie dość nieregularnie: auta na szosie nie jeżdżą według ustalonego rozkładu
jazdy, tak jak pociągi lub tramwaje.
Z codziennej praktyki znamy liczne podobne przykłady, gdy powtarza się stale ta
sama sytuacja: obserwujemy przebieg pewnego procesu, w którym od czasu do czasu
następują określone wydarzenia, które rejestrujemy. Charakter obserwowanego procesu i
rejestrowanych wydarzeń może być rozmaity: praca maszyny i pojawianie się awarii, ruch
drogowy w danym miejscu i przejazd pojazdu, a także np. wejście kolejnego pacjenta do
poczekalni lekarskiej, występowanie wypadków drogowych lub pożarów w określonym
rejonie, trafienia cząsteczek promieniowania kosmicznego do urządzenia rejestrującego,
urodzenia czworaczków w Czechosłowacji itp.
We wszystkich takich przypadkach otrzymujemy w wyniku obserwacji ciąg
zarejestrowanych momentów czasowych
t1 , t 2 , ... , t n , ... ,
(1.4.1)
w których nastąpiło badane zjawisko. Czas mierzymy przy tym od początku obserwacji t0 =
0.
Jeśli obserwowany proces jest w pewien sposób zdeterminowany, kierowany lub
podporządkowany (np. rozkładowi jazdy lub innemu bezpośredniemu sterowaniu jego
przebiegu), to i wciągu (1.4.1) wystąpią pewne regularności lub prawidłowości wynikające z
„rozkładu jazdy” procesu: w szczególności, momenty t1 , t 2 , ... , t n , ... , mogą być zawczasu
całkowicie określone. W większości przypadków, które będą nas tutaj interesowały, sytuacja
będzie odmienna, a momenty t1 , t 2 ,..., t n ,..., będą następowały po sobie nieregularnie,
przypadkowo. Taki proces nazywamy losowym albo stochastycznym (1 Zaznaczmy zaraz, że
chodzi nam tutaj jedynie o pewien typ procesów stochastycznych. Ogólna definicja procesu
stochastycznego w teorii prawdopodobieństwa obejmuje również liczne inne typy procesów,
z którymi w tej książce nie będziemy mieli wcale do czynienia, jak np. podają Gichman,
TPR1-16
1
1. Systemy obsługi masowej – stracony czas
Skorochod, 1968). Możemy tu pytać jedynie o prawdopodobieństwa, że liczby tn, n = 1, 2, ...,
lub pewne ich funkcje spełniają określone warunki.
1.4. 2. Zapis procesu
Podstawowe informacje zawarte w ciągu (1.4.1) w konkretnych przypadkach można uzyskać
na różne sposoby: pokażemy je znowu na przykładzie obserwacji ruchu drogowego. Przede
wszystkim można oczywiście mierzyć i zapisywać same liczby tn, n = 1, 2, ...: w chwili t0 = 0
uruchamiamy zegar (stoper) i każdorazowo, gdy pojazd mija punkt obserwacyjny, zapisujemy
czas aktualnie wskazywany na zegarze (istnieją oczywiście także możliwości automatycznego
zapisu). Rezultatem takiego sposobu rejestracji będzie właśnie ciąg momentów (1.4.1).
Inny sposób polega na mierzeniu odstępów czasowych między kolejnymi przejazdami
pojazdów, tj. między momentami tn. Używamy jak poprzednio stopera, z tym jednak, że przy
każdym przejeździe jednocześnie z zapisem czasu wracamy do wyjściowego stanu zerowego,
od którego zaczyna się następny pomiar. Czas mierzymy więc oddzielnie dla każdego
pojazdu. Wynikiem tego sposobu pomiaru jest ciąg liczb τ i i = 0, 1, 2, ..., określonych
związkami
τ i = t i +1 − t i , i = 0, 1, 2,...,
(1.4.2)
gdzie z t0 = 0 wynika τ0 = t1 .
Oba opisane sposoby rejestracji są z teoretycznego punktu widzenia całkowicie
równoważne. Wynika to z faktu, że znajomość rezultatów jednego sposobu rejestracji
pozwala odtworzyć odpowiednie rezultaty według drugiego sposobu zapisu. Korzystamy przy
tym z zależności (1.4.2) lub z zależności odwrotnych
n −1
tn = ∑τ i ,
n = 1, 2, 3,...
(1.4.3)
i =0
Istnieje jeszcze inny, pozornie bardziej skomplikowany, sposób rejestracji. Ten trzeci
sposób polega na ciągłym liczeniu i rejestrowaniu liczby wszystkich pojazdów, które minęły
punkt obserwacyjny od początku obserwacji, tj. od chwili t0 = 0. Dla każdego momentu t ≥ t0
dostaniemy w ten sposób określoną liczbę N(t) - jest to liczba pojazdów zaobserwowanych w
ciągu przedziału czasowego (0, t 〉 . Wynikiem zapisu jest więc w tym przypadku funkcja N(t),
określona dla t ≥ 0. Jest ona oczywiście niemalejąca (liczba zaobserwowanych pojazdów
może tylko wzrastać) i przyjmuje jedynie wartości całkowite nieujemne; dla t = 0 jest zawsze
N(0) = 0. Wykres funkcji tego typu jest dla przykładu na rysunku 1.2
Funkcja N(t) zmienia swą wartość (przyrasta skokowo o liczbę naturalną) zawsze w
chwili przejazdu pojazdu, tj. w każdym z momentów tn , n = 1, 2, ..., tworzących ciąg (1.4.2)
(por. rys. 2.1). Liczby t są więc punktami nieciągłości funkcji N(t); w przedziałach między
nimi N(t) ma zawsze wartość stałą. Dla ustalonego t wartość N(t) jest równa liczbie tych chwil
ti,
i= 1, 2, ..., które są mniejsze lub co najwyżej równe t; dla n = 0, 1, 2, ... jest więc
N (t) = n
wtedy i tylko wtedy , gdy
t n ≤ t < t n +1 .
(1.4.4)
Widzimy stąd, że także trzeci sposób zapisu jest całkowicie równoważny ze sposobem
pierwszym (a więc także i z drugim): znajomość wyników trzeciego sposobu zapisu pozwala
całkowicie jednoznacznie odtworzyć wyniki, które uzyskalibyśmy stosując pierwszy lub
drugi sposób, a także na odwrót.
TPR1-17
1
1. Systemy obsługi masowej – stracony czas
N (t )
6
5
4
3
2
1
0
t1
t2
t3 t4
t5
t6
t
Rys. 1.2. Wykres funkcji N (t )
Oprócz trzeciego sposobu zapisu możemy w końcu rozpatrzyć jeszcze sposób
czwarty, będący prostą modyfikacją sposobu trzeciego. Zamiast ciągłej obserwacji całkowitej
liczby pojazdów zarejestrowanych od początku t0 = 0 do chwili t (t ≥ 0), możemy prowadzić
podobną rejestrację w dowolnych innych przedziałach. Oznaczmy ogólnie symbolem N(s, t)
liczbę tych pojazdów, które minęły punkt kontrolny podczas przedziału czasowego o długości
t i zaczynającego się w momencie s ≥ 0, tj. w przedziale (s, s + t 〉. Łatwo się przekonamy, że
znajomość funkcji N(t) z metody trzeciej jest całkowicie równoważna znajomości wartości
funkcji N(s,t) (dwu zmiennych rzeczywistych!) dla wszystkich s ≥ 0, t ≥ 0, wartości
którejkolwiek z tych funkcji można wyznaczyć za pomocą wartości drugiej.
Zachodzi oczywisty związek
N ( s, t ) = N ( s + t ) − N ( s)
(1.4.5)
oraz
N ( t ) = N ( 0, t ) .
(1.4.6)
Funkcja N(s,t) ma ze względu na argument t podobne własności jak i funkcja N(t): jest
niemalejąca, przyjmuje jedynie całkowite nieujemne wartości, które zmienia tylko w
momentach tn - s, gdzie tn (≥ s) są wyrazami ciągu (1.4.1); przy tym N(s,0)=0 dla każdego s ≥
0.
Widzimy więc, że trzeci i czwarty sposób zapisu są znowu całkowicie równoważne;
trzeci sposób możemy przy tym traktować jako specjalny przypadek sposobu czwartego.
Z wartości funkcji N(s, t) można więc także uzyskać liczby tn , n = 1, 2, ..., i na odwrót. Przy
danych s ≥ 0 i t ≥ 0 wartość N(s, t) jest liczbą tych tk, które spełniają nierówności s < tk ≤ s+t,
a stąd dla n = 1, 2, ... równość N(s, t)=n zachodzi wtedy i tylko wtedy, gdy dla pewnej liczby
naturalnej i jest
t i −1 ≤ s < t i ≤ t i + n −1 ≤ s + t < t i + n ,
(1.4.7)
natomiast N(s, t)=0 wtedy i tylko wtedy, gdy dla każdej naturalnej i jest albo ti ≤ s, albo
ti > s + t.
TPR1-18
1
1. Systemy obsługi masowej – stracony czas
W końcu trzeba jeszcze nadmienić, że a priori nie jest wyłączony przypadek, gdy
jednocześnie kilka pojazdów minie punkt kontrolny w dokładnie tej samej chwili. Takie
zdarzenie przy pierwszym sposobie zapisu przejawi się tym, że w ciągu (1.4.1) kilka
kolejnych wyrazów będzie miało te same wartości, tak np. ti = ti+1 = ... = ti+l = t’ oznacza, że
kolejne pojazdy: i-ty, (i + 1)-szy, ... , (i + j)-ty, a więc łącznie i + j pojazdów, przejechały w
tym samym momencie t’. Odpowiednie różnice τi, τi+1, ... , τi+j-1 przy drugim sposobie zapisu
(por. (1.4.2)) w takim przypadku będą oczywiście zerami (na odwrót, występowanie zer w
ciągu liczb τi, i = 0, 1, ... , oznacza, że takie jednoczesne przejazdy miały miejsce). Przy
trzecim sposobie zapisu ten przypadek przejawi się tym, że funkcja N(t) będzie miała w
punkcie t’ skok o wielkości nie 1, lecz j + 1. To samo dotyczy również funkcji N(s, t), jeśli
tylko s < t’.
Tak więc dysponujemy czterema różnymi sposobami zapisu przebiegu badanego
procesu, a wszystkie z nich są wzajemnie równoważne. To jednak wcale nie oznacza, że jest
całkiem obojętne, którego z nich użyjemy albo że wszystkie cztery są zawsze jednakowo
przydatne i wygodne. Jak zobaczymy dalej, każdy z tych sposobów ma swe specyficzne
zalety: określone własności badanego procesu stochastycznego przy odpowiednim wyborze
sposobu zapisu dają się w sposób naturalny formułować i badać, podczas gdy przy innym
zapisie odpowiednie sformułowania byłyby znacznie bardziej skomplikowane. Ponieważ
jednak wszystkie cztery sposoby są wzajemnie równoważne, więc w każdym konkretnym
przypadku będziemy zawsze mogli wybrać ten, który nam właśnie najbardziej odpowiada. Z
tej możliwości będziemy często korzystali w dalszych paragrafach, przy czym nie będziemy
już za każdym razem przypominali, jak trzeba przekształcić uzyskane wyniki przy przejściu
do innego sposobu zapisu.
1.4.3. Probabilistyczne charakterystyki procesu
Przyjrzyjmy się najpierw funkcjom N(t) i N(s, t) tj. zapisowi procesu według trzeciego lub
czwartego sposobu. Dla każdego ustalonego t wartość funkcji N(t) oznacza liczbę
zarejestrowanych wydarzeń w przedziale czasowym (0, t〉; w przypadku procesu losowego
także N(t) jest zmienną losową. Podobnie ma się rzecz z wartościami funkcji N(s,t) dla
danych s i t. Możemy więc pytać o odpowiednie rozkłady tych zmiennych losowych, tj. o
prawdopodobieństwa
rn (t ) = P( N (t ) = n ),
n = 0,1,...
(1.4.8)
(2 Symbolem P(A) oznaczamy tu (i wszędzie dalej) prawdopodobieństwo zdarzenia losowego
A.)
lub
rn (s, t ) = P( N (s, t ) = n ),
n = 0,1,...
(1.4.9)
Zmienne losowe N(t) i N(s, t) przyjmują jedynie wartości całkowite nieujemne, więc dla
wszystkich t ≥ 0, s ≥ 0 spełnione są warunki
∞
∞
∑ rn (t ) = 1,
∑ r (s , t ) = 1 .
n=0
n=0
n
(1.4.10)
Aby zawczasu uniknąć możliwych nieporozumień, zaznaczmy wyraźnie, że
prawdopodobieństwa
rn(s, t) dotyczą ustalonych a priori przedziałów (s, s + t 〉 , a nie
przedziałów, których położenie mogłoby zależeć od realizacji obserwowanego procesu.
Rozbieżność między takimi dwoma różnymi interpretacjami przypomnimy jeszcze w
paragrafie 4.
TPR1-19
1
1. Systemy obsługi masowej – stracony czas
Za pomocą prawdopodobieństw (1.4.8) i (1.4.9) możemy określić następną ważną
charakterystykę procesu, a mianowicie wartość średnią (3 W polskiej literaturze
probabilistycznej częściej używa się terminu wartość oczekiwana. Ze względu jednak na fakt,
że w teorii obsługi masowej słowo „oczekiwanie” może być rozumiane w sensie potocznym
(czekanie w kolejce), w tłumaczeniu książki używa się terminu wartość średnia zmiennych
losowych N(s,t), to znaczy średnią liczbę wydarzeń (np. przejeżdżających pojazdów lub
awarii w pracy maszyny) zarejestrowanych w przedziale (s, s + t 〉. (4 Z rygorystycznego
punktu widzenia teorii matematycznej trzeba tu dodać, że milcząco przyjmujemy założenie
(w praktyce zazwyczaj spełnione) o istnieniu definiowanych wartości średnich, tj. że są one
skończone. Podobnie będziemy również postępować i w innych miejscach.) Jest
∞
E ( N (s, t )) = ∑ nrn (s, t )
(1.4.11)
n=0
oraz
∞
E ( N (t )) = ∑ nrn (t ) .
(1.4.12)
n=0
Zgodnie ze znanymi własnościami wartości średniej dla dowolnych nieujemnych s, t, u
spełnione są równości
E ( N (s, t + u )) = E ( N (s, t )) + E ( N (s + t , u ))
(1.4.13)
E ( N (t + u )) = E ( N (t )) + E ( N (t , u ))
(1.4.14)
lub
oraz inne podobne.
Za pomocą prawdopodobieństw (1.4.8) i (1.4.9) można także wyrazić jeszcze inne
probabilistyczne charakterystyki procesu, np. rozrzut zmiennych losowych N(s, t) itp. Mimo
tego należy sobie uświadomić, że prawdopodobieństwa (1.4.8) i (1.4.9) nie wystarczą do
opisu wszystkich reguł probabilistycznych, którym podlegają zmienne losowe N(s, t) i N(t);
nic nam np. nie mówią o wzajemnej zależności tych wielkości.
Wróćmy teraz do innych sposobów zapisu procesu stochastycznego rozważanego
typu. Przy drugim sposobie zapisu otrzymujemy jako wynik ciąg τ0 , τ1, τ2, ... długości
odstępów czasowych między poszczególnymi wydarzeniami. Gdy proces jest stochastyczny,
także i te wielkości są losowe. Tak jak przy probabilistycznej charakteryzacji wielkości N(t) i
N(s, t) wyszliśmy od prawdopodobieństw (1.4.8) i (1.4.9), podobnie i teraz przy drugim
sposobie rejestracji obierzemy za punkt wyjścia rozkłady prawdopodobieństwa zmiennych
losowych τi, i = 0, 1, ... Do ich opisu użyjemy teraz dystrybuant
Ai ( x ) = P{τ i < x}, i = 0, 1, ... ;
(1.4.15)
przy czym dla pewnych celów wygodniej będzie zdefiniować funkcje
Bi ( x ) = P{τ i ≥ x} = 1 − Ai ( x ),
i = 0, 1, ...
(1.4.16)
Zmienne losowe τi mogą przyjmować dowolne wartości nieujemne; dla ujemnych wartości x
jest więc każda funkcja Ai tożsamościowo równa zeru (a Bi jest wówczas tożsamościowo
równa jedności).W większości przykładów praktycznych można także założyć, że zmienne
TPR1-20
1
1. Systemy obsługi masowej – stracony czas
losowe τi mają rozkłady tak zwanego typu ciągłego, to znaczy, że istnieją pochodne ai(x)
funkcji Ai(x)
a i ( x ) = Ai' ( x ) = − Bi' ( x ) ,
(1.4.17)
tak, że
x
Ai (x ) = ∫ a i (u )du
(1.4.18)
0
lub ogólnej
y
P{x < τ i < y} = ∫ a i (u )du .
(1.4.19)
x
Jeśli dla pewnego i wartość Ai(0) jest dodatnia, to wnioskujemy stąd, że odstęp między
i - tym i (i + 1)-ym wydarzeniem może mieć - z dodatnim prawdopodobieństwem Ai(0) długość zerową, to znaczy, że oba te wydarzenia mogą nastąpić jednocześnie w tej samej
chwili.
Za pomocą funkcji Ai, Bi, ai możemy następnie określić wartość średnią zmiennej
losowej, to jest przeciętny czas, jaki upłynie między i - tym i (i + 1)-ym wydarzeniem
(zakładamy tu znowu milcząco istnienie tych wartości średnich - por. notkę (4) na str. 22):
∞
E (τ i ) = ∫ ua i (u )du
i = 0 ,1, ...
(1.4.20)
0
(p.np. Fisz, 1967)
Jeśli używamy drugiego sposobu zapisu procesu stochastycznego, to musimy sobie
uświadomić, że pierwszy, początkowy przedział τ0 ma swą specyfikę, która go różni wyraźnie
od następnych przedziałów τi, i = 1, 2, ... Różnica polega na tym, że następne przedziały
zaczynają się zawsze w momencie, gdy rejestrujemy jedno z wydarzeń, podczas gdy w
początkowej chwili t0 naszej obserwacji procesu wcale tak być nie musi. Na odwrót,
będziemy zwykle zakładali, że chwila początkowa była - z punktu widzenia badanego procesu
- wybrana losowo, tj. niezależnie od jego przebiegu. Na tym założeniu będą się także opierały
odpowiednie charakterystyki probabilistyczne.
W praktyce - np. właśnie przy studium ruchu drogowego, ale także i w innych
sytuacjach - początkowego przedziału niekiedy nie bierze się wcale pod uwagę, tak że
rejestracja zaczyna się dopiero w momencie, gdy występuje pierwsze wydarzenie. To
upraszcza nieco studium badanego procesu. W jednym - bardzo ważnym w teorii przypadku, który poznamy bliżej w paragrafie II.5, wybór początku obserwacji t0 nie ma
żadnego wpływu, a w procesach tego typu τ0 zachowuje się tak samo jak następne przedziały.
Do wielkości τk i opartych na nich charakterystykach procesu stosuje się naturalnie ta
sama uwaga, którą wypowiedzieliśmy przy okazji charakterystyk wywodzących się z N(s, t):
rozkłady prawdopodobieństwa (1.8) i (1.9) same przez się nie dają jeszcze pełnego obrazu
procesu, a zwłaszcza nie mówią nic o wzajemnej zależności wielkości τk. Uwagę tę można
jeszcze dalej uogólnić. Jak już mówiliśmy w poprzednim paragrafie, wprowadzone tu
sposoby zapisu procesu są wzajemnie równoważne. Moglibyśmy więc oczekiwać, że
probabilistyczne charakterystyki procesu stochastycznego odpowiadające jednemu sposobowi
zapisu pozwolą wyznaczyć charakterystyki odpowiadające innym sposobom. Taki wniosek
byłby prawdziwy, gdybyśmy w danym przypadku dysponowali rzeczywiście wszystkimi
TPR1-21
1
1. Systemy obsługi masowej – stracony czas
charakterystykami, określającymi całkowicie zachowanie się procesu. Dotychczas jednak
rozpatrywaliśmy tylko najbardziej elementarne informacje o rozkładach pojedynczych
zmiennych losowych N(s, t) i τk, nie uwzględniając np. wzajemnych zależności. Nawet jednak
znając wszystkie charakterystyki przy jednym ze sposobów zapisu nie zawsze łatwym
zadaniem byłoby przetłumaczenie ich na inny sposób zapisu. (Aby się o tym przekonać, niech
czytelnik pomyśli, jak by było można za pomocą probabilistycznych charakterystyk
zmiennych losowych N(s, t) wyrazić np. informację zawartą w równości A5(0)= 1/2). Właśnie
dlatego wygodnie jest rónolegle używać różnych sposobów zapisu procesu; każdy z nich
uwypukla inne aspekty procesu, co przy właściwym wyborze zapisu pozwala nam wyrazić
wiele ważnych własności procesu za pomocą stosunkowo prostych charakterystyk
probabilistycznych. Konkretne tego przykłady poznamy już w następnym paragrafie.
Nawet między elementarnymi charakterystykami, które wprowadziliśmy dotychczas,
istnieją także pewne proste związki, które można niekiedy wyzyskać przy przejściu od
jednego sposobu zapisu do innego. Tak np. można łatwo wyrazić rozkład zmiennej losowej τ0
za pomocą prawdopodobieństwa (1.4.8): jest przecież jasne, że nierówność τ0 > t oznacza, iż
do chwili t nie zarejestrowano żadnego wydarzenia, czyli właśnie N(t) = 0. Równoznaczne
zdarzenia losowe mają także równe prawdopodobieństwa, a stąd
B0 (t ) = P{τ 0 ≥ t } = P{N (t ) = 0} = r0 (t ) .
(1.4.21)
Przypomnijmy tu jeszcze raz, że do prawdziwości (1.4.21) jest istotnie potrzebne
założenie o niezależnym od przebiegu procesu wyborze punktu początkowego t0 przedziału
τ0. Dla pozostałych przedziałów τi, i = 1, 2, 3, ..., nie możemy już otrzymać bez dalszych
założeń tak prostego związku między Bi(t) i prawdopodobieństwami (1.4.9): nie można
napisać po prostu Bi(t)= r0(t0,, t), choć tak by sugerowała powierzchowna analogia. Punkt ti
zależy od realizacji procesu (nie jest ustalony pierwotnie) i nawet sam symbol r0 (ti, ,t) nie ma
właściwie określonego sensu.
Wróćmy jeszcze do pierwszego sposobu zapisu i do probabilistycznych charakterystyk
liczb ti z ciągu (1.4.1). Rozkłady zmiennych losowych tn, n = 1, 2, ..., uzyskamy łatwo z
prawdopodobieństw (1.4.8) za pomocą związku (1.4.4). Nierówność tn ≤ t oznacza, że n-te
wydarzenie było zarejestrowane najpóźniej w chwili t; a to z kolei znaczy, że w chwili t było
już zarejestrowanych przynajmniej n wydarzeń, czyli N(t) ≥ n. Dla dystrybuant Un(t)
wielkości tn, n = 1, 2, ..., zachodzi więc równość
∞
∞
j =n
j =n
U n (t ) = P{N (t ) ≥ n} = ∑ P{N (t ) = j} = ∑ r j (t ) .
(1.4.22)
Dla n = 1 otrzymamy (zgodnie z (1.4.21), (1.4.4) i (1.4.10))
∞
U 1 (t ) = ∑ r j (t ) = 1 − r0 (t ) = A0 (t ) .
(1.4.23)
j =1
ponieważ t1= τ0.
Wartosci średnie zmiennych losowych tn możemy teraz wyrazić albo bezpośrednio z
(1.4.22) jako
E (t n ) = ∫ Rn (t )dt ,
gdzie
TPR1-22
1
(1.4.24)
1. Systemy obsługi masowej – stracony czas
n −1
Rn (t ) = 1 − U n (t ) = ∑ r j (t ) ,
(1.4.25)
j =0
albo za pomocą wartości średnich (1.4.14). Z (1.3) widzimy, że wielkości tn są sumami
wielkości τi, więc (z addytywności wartości średniej) ich wartość średnia jest suma wartości
średnich wielkości τi. W ten sposób otrzymujemy równość
E (t n ) = ∑ E (τ i ) ,i = 1, 2,...
(1.4.26)
Jeśli teraz porównamy (1.4.19), (1.4.23) i (1.4.25) kolejno dla n = 1, 2, ...., to zauważymy, że
oprócz (1.4.19) zachodzi także
∞
∞
∫ r (t )dt = ∫ B (t )dt = E (τ ),
i
0
i
i
i = 0, 1, ... .
(1.4.27)
0
Dla i = 0 wzór (1.4.26) jest tylko trywialnym wnioskiem z równości (1.4.20).
Same rozkłady zmiennych losowych tn i τi zależą od siebie w sposób znacznie bardziej
złożony, przynajmniej w przypadku ogólnym, dopóki się nic nie zakłada o wzajemnej
zależności zmiennych losowych τi (por. następny paragraf).
1.4.4. Podstawowe klasy procesów
W tym paragrafie, korzystając z wprowadzonych już podstawowych charakterystyk
probabilistycznych procesu, określimy niektóre ważne typy procesów i własności, które
ułatwią dalsze studium ich teorii.
Czytelnik, który studiował już kiedyś uważniej dowolny podręcznik rachunku
prawdopodobieństwa, zwrócił z pewnością uwagę na to, jak często zakłada się w tej teorii
niezależność losowych prób, zdarzeń i zmiennych losowych. Znaczna część znanych
wyników rachunku prawdopodobieństwa opiera się właśnie na niezależności i gdybyśmy to
założenie odrzucili, to w większości przypadków nie moglibyśmy otrzymać pozytywnych
wyników albo też ich sformułowanie i wyprowadzenie uległoby znacznym komplikacjom.
Nie inaczej jest także w tej partii teorii procesów stochastycznych, którą tu
omawiamy. Przypomnijmy najpierw, jak należy dokładnie rozumieć niezależność (5 Chodzi tu
o niezależność w sensie rachunku prawdopodobieństwa; dla podkreślenia tego faktu
nazywamy ją także stochastyczną niezależnością.) zmiennych losowych. Dane zmienne
losowe X1, X2 , ..., Xn są niezależne, jeżeli dla dowolnie ustalonych liczb x1, x2, ..., xn
prawdopodobieństwo jednoczesnego spełnienia nierówności X1 < x1, X2 < x2, ... ,Xn < xn jest
zawsze równe iloczynowi prawdopodobieństw spełnienia pojedynczych nierówności
P{X 1 < x1 , X 2 < x 2 ,..., X n < x n } = P{X 1 < x1 }P{X 2 < x 2 }...P{X n < x n } .
(1.4.28)
Oznacza to również, że określone tymi nierównościami zdarzenia losowe są niezależne oraz
zachodzi dla nich prawo mnożenia prawdopodobieństw. Jest to podstawowe prawo
probabilistyki, co przedstawia Tab. 1.1.
Tab. 1.1 Podstawowe pojęcie probabilistyki
Prawdopodobieństwo n zdarzeń równe jest iloczynowi
prawdopodobieństw tych zdarzeń ⇔ są niezależne.
TPR1-23
1
1. Systemy obsługi masowej – stracony czas
Z pojęciem stochastycznej niezależności można też związać następującą, dość
poglądową interpretację: znajomość rozkładu pewnej zmiennej losowej X dostarcza nam
określonej informacji o tej zmiennej; ilość tej informacji nie ulegnie zmianie (to jest nie
zwiększy się), jeśli dołączymy do niej znajomość wartości przyjętych przez inne zmienne
losowe, niezależnie od X.
Pojęcie niezależności będziemy teraz stosowali w naszej teorii procesów
stochastycznych. W zależności od tego, jaką formą zapisu się posługujemy, w naturalny
sposób dojdziemy do dwu podstawowych postaci warunku niezależności.
Dany proces stochastyczny N(t) nazywamy procesem o przyrostach niezależnych (6 Ta
nazwa wynika z faktu, że wielkości N(s, t) są rzeczywiście przyrostami funkcji N(t) - por.
(1.4..4).), jeśli zmienne losowe N(s1, t1), N(s2, t2 ), ...,N(si, ti) są zawsze stochastyczne
niezalżne (dla dowolnego i = 2, 3, ...), gdy tylko odpowiednie przedziały
( s1 , s1 + t1 〉, ( s 2 , s 2 + t 2 〉,..., ( s i , s i + t i 〉 są wzajemnie rozłączne (to znaczy żadne dwa z nich nie
mają części wspólnej).
Inny sposób wprowadzenia warunku stochastycznej niezależności wywodzi się z
drugiej formy zapisu procesu. Powiemy, że dany proces stochastyczny jest regeneratywny,
jeżeli zmienne losowe τi, i = 0, 1, ...., są stochastycznie niezależne. Jeśli ponadto wszystkie
zmienne τi, i = 1, 2, ..., mają jednakowy rozkład prawdopodobieństwa, to znaczy, jeśli
Ai(t) = A(t) niezależnie od i (i = 1, 2,...), to powiemy, że proces jest rekurentny.
Wróćmy raz jeszcze do przykładu ruchu drogowego. Założenie niezależności w sensie
pierwszym (niezależność przyrostów) oznacza tu, że liczba pojazdów mijających punkt
kontrolny w określonym przedziale czasowym w żaden sposób nie zależy od liczby
pojazdów, które przejechały lub przejadą w innym rozłącznym przedziale. Niezależność w
sensie drugim (regeneratywność procesu) oznacza natomiast, że czasowe odstępy między
przejazdami kolejnych pojazdów są stochastycznie niezależnymi zmiennymi losowymi.
Właśnie w przypadku ruchu drogowego założenie niezależności na ogół nie jest spełnione.
Wynika to z faktu, że poszczególne pojazdy na szosie wzajemnie oddziaływują na siebie (np.
z powodu trudności wyprzedzania). Wykonane nieraz pomiary ruchu na szosach wskazują na
to, że mamy tu do czynienia z procesami innego typu, chyba że nasilenie ruchu jest bardzo
małe i można zaniedbać wzajemne oddziaływanie z rzadka jadących pojazdów.
W przeciwieństwie do sytuacji w ruchu drogowym znane są z praktyki liczne
przykłady konkretnych procesów (np. procesy obserwowane w centrali telefonicznej,
klasycznym obiekcie zastosowań teorii masowej), dla których założenie niezależności jest
całkiem do przyjęcia. Wyniki, uzyskane dla procesów o przyrostach niezależnych i procesów
regeneratywnych lub rekurentnych, mają więc duże znaczenie, choć oczywiście nie wszędzie
nam wystarczą. Trzeba tu sobie uświadomić, że ogólna teoria procesów, które nie spełniają
żadnego z wprowadzonych tu warunków niezależności, jest znacznie bardziej
skomplikowana, a także wciąż jeszcze nie całkiem opracowana. Tym bardziej więc będziemy
się starali unikać tych trudniejszych sytuacji w naszej książce, chcąc w niej utrzymać
elementarny charakter wykładu. Będziemy więc nadal zakładali ogólnie, że badany proces
zawsze spełnia któryś z wprowadzonych warunków niezależności.
Jak się już można tego domyślać z różnicy nazw, dwa wprowadzone tu warunki
niezależności nie są wzajemnie równoważne. Istotnie, nietrudno jest podać przykłady
procesów, które są np. rekurentne, ale nie mają niezależnych przyrostów (takie procesy
poznamy w paragrafie II.9). Istnieją także, na odwrót, procesy o przyrostach niezależnych,
które nie są regeneratywne (patrz np. Chinczyn, 1966, § 13 lub Beutler, Leneman, 1966).
W definicji procesu rekurentnego nie nałożyliśmy żadnego warunku na rozkład
długości pierwszego przedziału τ0: rozkład ten nie musi być taki sam jak rozkłady długości
pozostałych przedziałów τi, i = 1, 2,.... Można by więc przypuszczać, że rozkład τ0 można
wybrać całkiem dowolnie. W rzeczywistości jednak, w przypadku procesu rekurentnego,
TPR1-24
1
1. Systemy obsługi masowej – stracony czas
rozkład długości τ0 jest w pełni określony przez wspólny rozkład długości następnych
przedziałów. Wprowadzimy teraz związek, jaki zachodzi między wspólną dystrybuantą A(t)
przedziałów τi, i = 1, 2, ..., lub odpowiednią funkcją B(t) = 1- A(t), a dystrybuantą A0(t)
pierwszego przedziału τ0. Przy okazji wyjaśnimy również znaczenie postulatu, o którym
mówiliśmy już w poprzednim paragrafie, że początek obserwacji t0 ma być wybrany
niezależnie od przebiegu procesu. Trzecim celem tego rozumowania będzie nabycie pewnej
wprawy w operowaniu prawdopodobieństwami warunkowymi oraz w stosowaniu prawa
wielkich liczb.
Dla prostoty będziemy zakładali, że istnieje skończona wartość średnia T długości
przedziału τi, i = 1, 2, ...,
∞
T = E (τ i ) = ∫ B(t )dt
(1.4.29)
0
(por. (1.4.26)) oraz że A(0) = 0.
Wyobraźmy sobie najpierw - co jest na ogół dość realistyczne - że dany rekurentny
proces przebiegał niezależnie od naszej obserwacji już przez pewien czas zanim
rozpoczęliśmy eksperyment. Dla obserwatora, który zacząłby obserwację wcześniej od nas,
początek naszego eksperymentu t0 byłby punktem, który nie ma nic wspólnego z realizacją
procesu (moment t0 był wybrany losowo i niezależnie od przebiegu procesu), punktem, który
trafił gdzieś do tej realizacji, to jest do któregoś z przedziałów między kolejnymi
wydarzeniami rejestrowanymi w tym procesie. Jaka jest prawdopodobna długość tego
„istniejącego obiektywnie” przedziału, do którego trafił początek naszej obserwacji t0 ? Jest
jasne, że większe są szanse trafienia do przedziału dłuższego niż krótszego, trzeba tu jednak
uwzględnić także rozkład długości tych przedziałów. Rozkład ten jest właśnie dany wspólną
dystrybuantą A(t); przy czym przedziały zerowej długości (do których trudno by było trafić),
w konsekwencji przyjętego założenia A(0) = 0, nie mogą wystąpić.
Wyobraźmy sobie teraz, że dla wyboru t0 mamy do dyspozycji pewną wielką liczbę M
takich przedziałów, których długości są niezależnymi zmiennymi losowymi z jednakową
dystrybuantą A(t). Łączna długość, którą te odcinki pokrywają, jest (z dostateczną
dokładnością względną przy dużym M) jest równa MT. Prawdopodobieństwo, że początek
obserwacji t0 trafi do przedziału o określonej długości, jest proporcjonalne do całkowitej
długości pokrytej takimi właśnie przedziałami. Niech h będzie małą liczbą dodatnią. Dla
każdego t ≥ 0 w przybliżeniu M[A(t + h)-A(t)] spośród naszych M przedziałów ma długość d
z zakresu od t do t + h; t < d ≤ t + h, to jest w przybliżeniu równą t + h (dokładność tej oceny
jest tym większa, im mniejsze jest h, a większe M). Całkowita długość, którą te przedziały
pokrywają, jest więc w przybliżeniu równa (t + h) M[A(t + h) - A(t)]. Stosunek tej długości
do całkowitej długości MT wszystkich przedziałów jest w przybliżeniu równy
t+h
A( t + h) − A( t ) .
T
[
]
Jest to jednocześnie (z dostateczną dokładnością przy małym h, a dużym M)
prawdopodobieństwo tego, że początek t0 trafi do przedziału o długości w przybliżeniu t + h
lub od t do t + h.
Jeśli jednak t0 trafi do przedziału o długości d, to wielkość τ0 będzie równa długości
odcinka czasowego od t0 do końca trafionego przedziału i musi spełniać warunek τ0 ≤ d. Przy
tym prawdopodobieństwo tego, że τ0 będzie co najwyżej równe liczbie , dla 0 ≤ τ ≤ d, jest
proporcjonalne do τ, to jest równe τ/d, czyli stosunkowi długości tej części trafionego
przedziału; w której musimy wybrać t0 , aby reszta przedziału nie była większa niż τ, do
długości całego przedziału. Dla τ > d nierówność τ0 ≤ τ jest prostą konsekwencją nierówności
τ0 ≤ d, a stąd wynika, że prawdopodobieństwo nierówności τ0 ≤ τ jest w tym przypadku
TPR1-25
1
1. Systemy obsługi masowej – stracony czas
jednością. W obu przypadkach chodzi oczywiście o prawdopodobieństwo warunkowe
nierówności τ0 ≤ τ przy ustalonym d.
Iloczyn
τ
t+h
τ
A( t + h) − A( t ) =
B ( t ) − B ( t + h) ,
t+h T
T
[
⋅
]
[
]
(1.4.30)
lub
1
t+h
t+h
A( t + h) − A( t ) =
B ( t ) − B ( t + h)
T
T
[
]
[
]
(1.4.31)
jest więc prawdopodobieństwem tego, że jednocześnie:
1° długość d „trafionego” przedziału jest t < d ≤ t + h;
2° spełniona jest nierówność τ0 ≤ τ;
przy czym (1.4.30) dotyczy przypadku τ ≤ t, a (4.4) przypadku τ > t.
Ograniczymy się teraz do takich wartości τ, które są całkowitymi wielokrotnościami
liczby h. (Czym mniejsze jest h, tym mniejszy błąd popełniamy biorąc zamiast dowolnej
wartości τ najbliższą wielokrotność liczby h). Zdarzenie losowe określone nierównością
τ0 ≤ mh (m całkowite) można rozłożyć na ciąg rozłącznych zdarzeń losowych,
zdefiniowanych jednoczesnym spełnieniem dwu nierówności: τ0 ≤ mh oraz ih < d ≤ (i + 1)h,
dla i = 1, 2, ... Prawdopodobieństwa tych zdarzeń znamy już z (1.4.29) i (1.4.30), a przez ich
zsumowanie otrzymamy prawdopodobieństwo nierówności τ0 ≤ mh:
m −1
P{τ 0 ≤ mh} = ∑
(i + 1)h [B(ih ) − B(ih + h )] +
i =0
T
∞
mh
[B(ih ) − B(ih + h )] =
i=m T
∑
m −1


= T −1 ∑ (ih + h )B(ih ) − ∑ (ih + h )B(ih + h + mhB(mh )) =
i =0
 i =0

m −1
m −1
= T −1 ∑ hB(ih ) .
i =0
τ
Ostatnia suma nie jest niczym innym jak tylko przybliżonym wyrażeniem całki
∫ B( t )dt
z
0
dokładnością znowu zależną od h. W miarę zmniejszania h wszystkie h nasze obliczenia będą
coraz dokładniejsze, a w granicy, przy h → 0, otrzymamy szukany związek ( 7 Krótsze, lecz
nie tak elementarne wyprowadzenie tego związku znajdzie czytelnik np. u Riordana (1962), §
2.3.)
τ
A0 (τ ) = T
−1
∫ B( t )dt ,
τ ≥ 0.
(1.4.32)
0
Gdy założenie A(0) = 0 nie jest spełnione, wówczas przyjmiemy A*(x) = [A(x) - A(0)]/[1A(0)]. Funkcja A* jest dystrybuantą długości niezerowych odstępów, czyli że A*(x) jest
warunkowym prawdopodobieństwem nierówności τk < x przy założeniu, że τk > 0. Przy
wyborze początku t0 trafiamy z prawdopodobieństwem 1 - to jest, praktycznie zawsze - do
przedziału o długości niezerowej, ponieważ trafienie w przedział zerowy oznaczałoby wybór
początku obserwacji właśnie w momencie pojawienia się jednego z obserwowanych
wydarzeń, a to jest mozliwe tylko z prawdopodobieństwem 0. Dystrybuantę A0(t) pierwszego
przedziału τ0 uzyskamy więc i w tym przypadku z wzoru (1.4.31), jeśli w nim zastąpimy
TPR1-26
1
1. Systemy obsługi masowej – stracony czas
funkcję B(t) funkcją B*(t)=1 - A*(t), a zamiast T danego wzorem (1.4.28) weźmiemy
∞
T * = ∫ B *(t )dt .
0
Zdefiniujmy teraz dalszą ważną klasę procesów stochastycznych, a mianowicie tak
zwane procesy jednorodne. Proces stochastyczny nazywamy jenorodnym, jeżeli
prawdopodobieństwa (1.4.9) zależą jedynie od t, to jest, tylko od długości odpowiedniego
przedziału, a nie od jego położenia określonego punktem początkowym s. Dla procesów
jednorodnych zaciera się więc całkiem różnica między trzecim i czwartym sposobem zapisu:
zmienna losowa N(s, t) ma przy dowolnym s zawsze ten sam rozkład prawdopodobieństwa,
co i N(t).
Jest przy tym jasne, że wraz z prawdopodobieństwami (1.18) niezależne od s będą
rónież i inne charakterystyki procesu, które są określone przez te prawdopodobieństwa.
Zauważmy jednak przy tym, że w przypadku całkiem ogólnego procesu stochastycznego
podane tu sformułowanie warunku jednorodności mogłoby być niewystarczające.
Musielibyśmy wtedy postulować, że nie tylko rozkłady pojedynczych wielkości N(s, t), ale i
dowolnych układów takich wielkości są niezależne od sztywnego przesunięcia w czasie;
dopiero wtedy wszystkie charakterystyki procesu byłyby w taki sposób niezależne od czasu.
Dla procesów o przyrostach niezależnych, którymi będziemy się tu interesowali przede
wszystkim, zupełnie wystarcza pierwotne prostsze sformułowanie.
Dla procesów jednorodnych można bezpośrednio wprowadzić prostą, lecz ważną
charakterystykę liczbową. Ze związku (1.4.23) uzyskamy mianowicie, w specjalnym
przypadku procesu jednorodnego, równość (patrz także notkę (3Stracony czas) na str. 22):
E ( N (t + u )) = E (N (t )) + E ( N (u )) ,
(1.4.32)
a stąd
E ( N (t )) = tE (1) = tµ .
(1.4.33)
Stałą µ = E(N(1)), to jest średnią liczbę wydarzeń zarejestrowanych w jednostce czasu,
nazywamy gęstością procesu.
Będziemy się tu zajmowali jedynie takimi przypadkami, gdy gęstość procesu jest
dodatnia i skończona. Procesy o gęstości zerowej nie są interesujące, bo rejestrowane w nich
wydarzenia praktycznie nigdy nie występują (to tak, jak gdybyśmy chcieli na naszych szosach
obserwować ruch karawan wielbłądów). Także drugi przypadek ekstremalny procesu z
nieskończoną gęstością, choć sam w sobie niewątpliwie ciekawszy, dla uproszczenia
wyłączymy z naszych rozważań.
Procesy jednorodne mają także znacznie prostszą strukturę niż ogólne procesy
niejednorodne. W praktycznych zastosowaniach przyjmiemy więc założenie jednorodności
badanego procesu zawsze tam, gdzie jest ono możliwe; nawet wtedy, gdy w pewnych
przypadkach musimy przez to ograniczyć czas ważności uzyskanych wyników. Tak np. przy
badaniu ruchu drogowego średnia liczba przejeżdżających pojazdów w jednostce czasu
będzie się w ciągu dnia istotnie zmieniała: w istocie jest to więc proces niejednorodny. Jeżeli
jednak ograniczymy się do krótszego okresu czasu, np. do jednej godziny, to założenie
stałości charakterystyk procesu będzie już łatwiejsze do przyjęcia. Zazwyczaj dużo łatwiej
jest rozpatrzyć oddzielnie kilka częściowych przypadków przy założeniu jednorodności,
aniżeli usiłować ująć cały proces we wszystkich jego fazach jednym skomplikowanym
modelem.
Procesy jednorodne mają jeszcze jedną ważną własność, która prowadzi do definicji
dalszej charakterystyki procesu. Prawdopodobieństwo r0(t) jest oczywiście nierosnącą funkcją
argumentu t: im dłużej prowadzimy obserwację, tym mniejsze jest prawdopodobieństwo, że
TPR1-27
1
1. Systemy obsługi masowej – stracony czas
nie zarejestrujemy żadnego wydarzenia. Możemy znowu przyjąć r0(0) = 1: w przedziale o
zerowej długości nic nie zarejestrujemy. Jak można udowodnić (szczegółowy, dość długi
dowód znajdzie czytelnik u Chinczyna, 1966, §7), dla każdego procesu jednorodnego istnieje
granica
lim
t →∞
1 − r0 (t )
=λ ≥0;
t
(1.4.34)
jest to w istocie pochodna (prawostronna) funkcji r0(t) w punkcie t = 0, wzięta ze znakiem
∞
przeciwnym. Liczba λ nazywa się parametrem procesu jednorodnego. Ponieważ
∑ r (t ) = 1
j
j =0
oraz rj(t) ≥ 0 dla wszystkich t ≥ 0,
więc
∞
∞
j =0
j =1
1 − r0 (t ) = ∑ r j (t ) ≤ ∑ jr j (t ) = E ( N (t )) = µt .
(1.4.35)
Wynika stąd nierówność λ ≤ µ, ważna dla każdego procesu jednorodnego.
W procesie jednorodnym rozważmy teraz zdarzenie losowe zdefiniowane jak
następuje: w przedziale czasowym o długości h (h < 0) zarejestrujemy przynajmniej jedno
wydarzenie, a następnie w bezpośrednio przylegającym przedziale o długości t (t > 0) nie
zarejestrujemy żadnego wydarzenia. Ponieważ zakładamy, że proces jest jednorodny,
prawdopodobieństwo zdefiniowanego zdarzenia nie zależy od położenia tych przedziałów,
lecz tylko od ich długości h i t; możemy je więc oznaczyć symbolem w(h, t). Im większe jest
t, tym mniejsze jest prawdopodobieństwo, że w drugim przedziale (o długości t) nie pojawi
się żadne wydarzenie: przy h ustalonym w(h, t) jest oczywiście nierosnącą funkcją zmiennej t.
Na
Rys. 1.3. przedstawiono schemat ilustrujący układ tych przedziałów w czasie.
Jedno
zgłoszenie
Brak
zgłoszeń
h
t
Rys. 1.3. Prawdopodobieństwo w(h, t )
Prawdopodobieństwo tego, że w pierwszym przedziale pojawi się przynajmniej jedno
wydarzenie bez względu na liczbę wydarzeń w przedziale drugim, jest równe 1- r0(h), czyli że
dla dowolnego t > 0 spełniona jest nierówność
w(h, t ) ≤ 1 − r0 (h ) .
(1.4.36)
Weźmy następnie inne zdarzenie losowe, które polega na tym, że ani w pierwszym
przedziale o długości h, ani w następnym o długości t, a więc także w całym przedziale o
długości h + t, który uzyskamy przez ich połączenie, nie zarejestrujemy żadnego wydarzenia.
TPR1-28
1
1. Systemy obsługi masowej – stracony czas
To zdarzenie ma prawdopodobieństwo r0(h + t) i jest oczywiście rozłączne ze zdarzeniem
pierwszym. Jeśli jednak w drugim przedziale (o długości t) nie wystąpi żadne wydarzenie, to
jedno z dwu zdefiniowanych zdarzeń zawsze się zrealizuje: albo w pierwszym przedziale
zarejestrujemy przynajmniej jedno wydarzenie - to jest zrealizuje się zdarzenie pierwsze albo nie zarejestrujemy żadnego wydarzenia - a wtedy zrealizuje się zdarzenie drugie.
Zgodnie z regułą dodawania prawdopodobieństw zdarzeń rozłącznych mamy więc
w(h, t ) + r0 (h + t ) = r0 (t ) ,
(1.4.37)
ponieważ r0(t) jest właśnie prawdopodobieństwem tego, że w przedziale o długości t nie
zarejestrujemy żadnego wydarzenia.
W podobny sposób jak się dowodzi istnienia parametru w procesie jednorodnym, tj.
istnienia granicy (1.4.34), można udowodnić (patrz znowu Chinczyn, 1966, §7), ze istnieje
również granica
lim
h →0
r (t ) − r0 (t + h )
w(h, t )
= lim 0
= −r0' (t ) .
h →0
h
h
(1.4.38)
Z nierówności (1.4.36) wynika więc zarówno nierówność - r0(t) ≤ λ , jak i istnienie granicy
lim
h →0
w(h, t )
= ϕ 0 (t ) ≤ 1 .
1 − r0 (h )
(1.4.39)
Zdefiniowaną w ten sposób funkcję ϕ0(t) nazywa się funkcją Palma ϕ0;jest to następna ważna
charakterystyka jednorodnego procesu. Z porównania (1.4.38), (1.4.39) i (1.4.34) otrzymamy
równość
r0' (t ) = λϕ 0 (t ) ;
(1.4.40)
ponieważ zaś r0(0) = 1, więc
t
r0 (t ) = 1 − λ ∫ ϕ 0 (u )du .
(1.4.41)
0
Podobne zależności - tak zwane wzory Palma - można wyprowadzić również dla dalszych
prawdopodobieństw ri(t), i = 1, 2, ...., za pomocą dalszych funkcji Palma ϕi(t), i = 1, 2, ..
(patrz Chinczyn, 1966, §10).
Ponieważ τ0 = t1, więc dla procesu jednorodnego jest także
A0 (t ) = P{τ 0 < t} = P{N (t ) = 0} = 1 − r0 (t ) =
(1.4.42)
t
= λ ∫ ϕ 0 ( u)du ;
0
zmienna losowa τ0 ma więc gęstość rozkładu λϕ0(t). Wzory na dystrybuanty dalszych
przedziałów τi, i = 1, 2, ..., są w ogólnym przypadku bardziej skomplikowane.
Z równości (1.4.42) wynika następnie
TPR1-29
1
1. Systemy obsługi masowej – stracony czas
∞
1 = A0 ( +∞) = λ ∫ ϕ 0 ( u)du ,
(1.4.43)
0
czyli że
∞
∫ ϕ ( u)du = λ
−1
0
.
(1.4.44)
0
Odpowiednik parametru λ można wprowadzić również i dla procesów
niejednorodnych spełniających pewne warunki. W przypadku niejednorodnym parametr
procesu nie jest oczywiście zmienną stałą, lecz funkcją zależną od czasu. Wartość parametru
w chwili s definiujemy podobnie do (1.4.34) jako granicę
λ (s ) = lim
t →∞
1 − r0 (s, t )
,
t
(1.4.45)
jeśli granica ta istnieje: w odróżnieniu od przypadku jednorodnego granica (4.19) dla procesu
niejednorodnego nie musi być określona. Jest znowu λ(s) ≥ 0 dla każdego s ≥ 0, a własności
λ(s) są analogiczne do własności parametru λ w przypadku jednorodnym. Dla
dokładniejszego poznania teorii procesów niejednorodnych i własności parametru procesu w
takim ogólniejszym sensie może się czytelnik zwrócić do szczegółowej literatury przedmiotu,
a w szczególności do prac Fiegera (1964, 1965), Ziteka (1958) i innych.
Wydzielimy teraz jeszcze jedną klasę procesów stochastycznych charakteryzujących
się tym, że nie dochodzi w nich do koincydencji dwu lub więcej wydarzeń w tym samym
momencie. Powiemy, że dany proces stochastyczny jest pojedynczy, jeśli dla każdego s ≥ 0
spełniony jest warunek
lim
t →0
1 − r0 (s, t ) − r1 (s, t )
= 0.
t
(1.4.46)
Spełnienie warunku (1.4.46) dla danego procesu oznacza, że w bardzo krótkim
przedziale czasowym więcej niż jedno wydarzenie pojawić się może tylko z zaniedbywalnie
małym prawdopodobieństwem, rzędu mniejszego niż długość przedziału. Wyłącza to
praktycznie i ten przypadek, gdy dwa lub więcej wydarzenia pojawiają się jednocześnie.
Dla procesów jednorodnych można udowodnić (patrz Cinczyn, 1966, §11), że
pojedynczość procesu jest równoważna równości λ = µ (gęstość procesu jest równa jego
parametrowi) (8 Równość λ = µ jako własność charakterystyczną pojedynczych procesów
można przy określonych założeniach uogólnić także na przypadek procesów niejednorodnych
(por. Fieger, 1965 i Zitek, 1958). Ze związków (1.4.46) i (1.4.34) wynika następnie równość
λ = lim r1 (t ) / t . Stosując symbol o (patrz D.1, str. 155) możemy więc dla t → 0 napisać
t →0
r0 (t ) = 1 − λt + o(t ) ,
r1 (t ) = λt + o(t ) ,
(1.4.47)
U 2 ( t ) = o( t ) .
(Definicja funkcji U2 dana była wzorem (1.4.31)).
W teorii procesów stochastycznych założenie pojedynczości daje znaczne
uproszczenia, między innymi także we wzajemnych powiązaniach między pozostałymi
TPR1-30
1
1. Systemy obsługi masowej – stracony czas
podstawowymi własnościami procesu. Można np. udowodnić (patrz Chinczyn, 1966, str. 54),
że pojedynczy proces o przyrostach niezależnych jest także regeneratywny. Następny
interesujący związek dostaniemy w przypadku procesu regeneratywnego, który jest
pojedynczy i jednorodny. Można wtedy udowodnić (patrz Chinczyn, 1966), że proces taki jest
również rekurentny, a z porównania (1.4.31) i (1.4.42) otrzymamy także równość
B( t ) = λTϕ 0 ( t ) .
(1.4.48)
Jeśli dla pojedynczego procesu jest B(0)=1= ϕ0(0), to z (1.48) wynika prosto, że B(t)= ϕ0(t) i
T=λ-1 (por. Chinczyn, 1966, § 13).
W praktyce nie możemy zawsze ominąć przypadku procesu nie spełniającego warunki
pojedynczości; przy czym ma to miejsce zazwyczaj wtedy, gdy kilka wydarzeń może się
pojawić w jednej chwili. Niekiedy możemy sobie wtedy poradzić w ten sposób, że
obserwowane jednocześnie wydarzenia będziemy rejestrowali kolejno, jako następujące po
sobie w małych, ale dodatnich odstępach czasowych (np. co 1/100 sekundy). W ten formalny
sposób unikniemy nieprzyjemnej koincydencji wydarzeń, ale nie zawsze takie postępowanie
jest właściwe. Aby można było ogólnie stosować wyniki dotyczące jedynie procesów
pojedynczych, można również wprowadzić następującą modyfikację sposobu rejestracji.
Będziemy notowali dwie informacje: momenty, w których zaobserwowaliśmy wydarzenia i
liczby wydarzeń obserwowanych jednocześnie. Zamiast zwykłego ciągu (1.4..1) otrzymamy
teraz ciąg par (ti, li): liczby ti - teraz już bez powtórzeń tych samych wartości - będą oznaczały
momenty rejestracji; a liczby całkowite li - liczby zaobserwowanych wydarzeń w momentach
ti. W większości przypadków spotykanych w praktyce nowy ciąg t0, t1, .... tworzy już zapis
pojedynczego procesu (9Samo zróżnicowanie liczb ti jeszcze nie wystarczy do zapewnienia
pojedynczości procesu; potrzebne jest spełnienie warunku (1.4.46). Trudniejsze badanie
niepojedynczego procesu wyjściowego zredukujemy w ten sposób do badania nowego
prostszego procesu pojedynczego, uzupełnionego oczywiście koniecznym zdobyciem
informacji o liczności grup jednoczesnych wydarzeń. Z podobnym rozkładem procesu na
dwie oddzielne prostsze składowe spotkamy się jeszcze w paragrafie 6. Podsumowanie pojęć
opisujących procesy stochastyczne zawiera Tab. 4.2.
Tab. 1.2 Podstawowe pojęcia procesów stochastycznych
Proces o przyrostach niezależnych (tj. jeżeli dwa rozłączne przedziały są
niezależnymi zmiennymi losowymi);
Proces jednorodny (tj. niezależny od położenia na osi czasu);
Proces rekurentny (tj. odnawiający się)
1.4.5. Proces Poissona
W tym paragrafie poznamy bliżej pewien specjalny, ale o dużym znaczeniu praktycznym, typ
procesu stochastycznego, a mianowicie tak zwany jednorodny proces Poissona. Jest to proces
jednorodny o przyrostach niezależnych scharakteryzowany tym, że zmienne losowe N(s, t)
mają wszystkie rozkład Poissona
rn (s, t ) = P{N (s, t ) = n} = e − λt (λt ) n !,n = 0,1,... ,
n
TPR1-31
1
(1.4.49)
1. Systemy obsługi masowej – stracony czas
gdzie λ jest stałą dodatnią. Niezależność prawdopodobieństwa (1.4.49) od zmiennej losowej
s jest wynikiem zakładanej jednorodności procesu; możemy się więc ograniczyć do badania
wielkości N(t) i odpowiednich prawdopodobieństw rn(t).
Dla n = 0 jest r0(t) = e-λt i z (4.8) widzimy, że liczba jest właśnie parametrem procesu.
Łatwo się też przekonamy, że spełniona jest także równość (1.4.46), a mianowicie
1 − r0 (t ) − r1 (t )
1 − e − λt − λte − λt
= lim
= lim o(t ) t = 0 ,
t →∞
t →0
t →0
t
t
lim
czyli że proces Poissona jest pojedynczy. Z (1.4.40) wynika następnie równość ϕ0(t) = e-λt; a
stąd oraz z (1.4.42) i (1.4.48) otrzymujemy
B( t ) = B 0 ( t ) = e − λt .
(1.4.50)
W procesie Poissona wszystkie przedziały τi, i = 1, 2, ... (łącznie z τ0!) mają jednakowy
rozkład, a mianowicie rozkład wykładniczy (patrz D.4), str. 160) z parametrem λ. Patrz
Rys. 1.4.
Losowy (asynchroniczny)
moment rozpoczęcia
obserwacji
Synchroniczny
moment
obserwacji t0
τ0
τ1
t1
t0
t2
τ 0 ,τ 1 ,...,τ i - odstępy czasu,
t 0 , t1 , t 2 ,..., t i - momenty zgłoszeń
Ponieważ τ 0 < t1 − t 0 , to ogólnie rozkład τ 0 jest inny niż τ
z wyjątkiem procesu Poissona
Rys. 1.4. Wyjaśnienie paradoksu procesu Poissona, w którym rozkład
prawdopodobieństwa τ 0 jest taki sam jak t 1 − t 0 .
W końcu, z (1.4.48) i (1.4.49) wynika
∞
∞
tµ = E ( N (t )) = e − λt ∑ n(λt ) n! = λte − λt ∑ (λt ) n! = λt ,
n
n =1
n
n=0
czyli że liczba λ jest także gęstością procesu (równość µ = λ jest właśnie konsekwencją
pojedynczości procesu - por. str. 37). Wyprowadzone własności są charakterystycznymi
własnościami procesu Poissona; wykażemy teraz, że jednorodny, pojedynczy proces o
przyrostach niezależnych jest zawsze procesem Poissona.
Z założenia jednorodności procesu i niezależności przyrostów wyprowadzimy
najpierw, że dla wszystkich t ≥ 0 i h ≥ 0 zachodzi równość
r0 (t + h ) = r0 (t )r0 (h ) .
TPR1-32
1
(1.4.51)
1. Systemy obsługi masowej – stracony czas
Jest to prosta konsekwencja prawa mnożenia prawdopodobieństw zdarzeń niezależnych: na
to, by żadne wydarzenie nie nastąpiło w przedziale o długości t+h złożonym z dwu sąsiednich
przedziałów o długości t i długości h, potrzeba i wystarcza, by nie wystąpiło żadne
wydarzenie ani w pierwszym, ani w drugim z tych dwu przedziałów. Prostym wnioskiem z
(1.51) jest równość
r0 (t ) = [r0 (t n )] ,
n
(1.4.52)
która zachodzi dla dowolnego naturalnego n i t ≥ 0. Na mocy (1.4.46) - nasz proces z
założenia jest pojedynczy - mamy przy n→ ∞
r0 (t n ) = 1 − λt n + o(1 n ) ,
a więc
lim[r0 (t n )] = lim (1 − λt n ) ,
n
n →∞
n
n →∞
co jest znaną granicą (można ją znaleźć w każdym podręczniku analizy matematycznej).
Przy n → ∞ z (1.4.52) dostajemy więc
r0 (t ) = e − λt
(1.4.53)
dla dowolnego t ≥ 0.
Do wyprowadzenia pozostałych prawdopodobieństw ri(t), i = 1, 2, ...., użyjemy
metody, która przyda się nam jeszcze nieraz w dalszych rozważaniach. Rozpatrzmy dwa
bezpośrednio po sobie następujące przedziały, z których pierwszy ma długość t, a drugi h
( t > 0, h > 0). Wielkość (t + h) jest prawdopodobieństwem zdarzenia polegającego na tym, że
w całym przedziale o długości t + h wystąpi dokładnie i wydarzeń. To zdarzenie możemy
rozłożyć na i+1 szczególnych przypadków, które są wzajemnie rozłączne i charakteryzują się
liczbą wydarzeń występujących w pierwszym przedziale (o długości t). Ta liczba może
przyjmować wartości 0, 1,..., i, przy czym pozostałe wydarzenia (do całkowitej liczby i)
muszą wystąpić w drugim przedziale (o długości h). Ponieważ zakładamy, że proces ma
przyrosty niezależne, więc - znów na podstawie prawa mnożenia prawdopodobieństw prawdopodobieństwa tych szczególnych przypadków są iloczynami
v j (t ) ⋅ vi − j (h ),
j = 0, 1, ..., i .
Stosując regułę dodawania prawdopodobieństw otrzymujemy
ri (t + h ) = ri (t )r0 (h ) + ri −1 (t )r1 (h ) + ... + r0 (t )ri (h ) .
(1.4.54)
czyli
ri (t + h ) − ri (t ) = ri (t )[r0 (h ) − 1] + ri −1 (t )r1 (h ) + ... + r0 (t )ri (h ) .
(1.4.55)
Niech teraz długość drugiego przedziału dąży do zera; z pojedynczości procesu - patrz
(1.4.46) - wynika równość
TPR1-33
1
1. Systemy obsługi masowej – stracony czas
ri' (t ) = lim
h →0
ri (t + h ) − ri (t )
= −λri (t ) + λri −1 (t )
h
i ostatecznie
ri' (t ) = λ [ri −1 (t ) − ri (t )].
(1.4.56)
Przyjmijmy teraz ri(t) = e-λtµi(t); to podstawienie uprości dalsze rachunki. Na mocy (1.4.53)
jest u0(t) = 1, podczas gdy dla i ≥ 1 jest ri(0) = ui(0) = 0.
Podstawiając do (1.4.56) otrzymamy
− λe − λt u i (t ) + e − λt u i' (t ) = λe − λt u i −1 (t ) − λe − λt u i (t ) ,
to jest
u i' (t ) = λu i −1 (t ) .
(1.4.57)
Ponieważ znamy u0(t) i uk(0) dla k ≥ 1, więc z (1.4.57) możemy kolejno obliczyć wszystkie
ui(t): otrzymamy w ten sposób u1(t)= λt, u2(t)= λ2t2 /2, ...i ogólnie
u i (t ) = (λt )i i!, i = 0, 1, ...
(1.4.58)
(wzór (1.4.57) można także łatwo udowodnić metodą indukcji zupełnej). Z (1.4.58) dostajemy
już bezpośrednio szukany wynik
ri (t ) = e − λt (λt ) i!,
i
i = 0, 1, ... ,
(1.59)
zgodny z (1.4.49).
Już w poprzednim paragrafie (patrz str. 38) powiedzieliśmy, że pojedynczy proces o
przyrostach niezależnych musi być także regeneratywny, czyli że wielkości τk są
stochastycznie niezależne. W przypadku jednorodnego procesu Poissona wszystkie τi (łącznie
z τ0) mają zgodnie z (1.50) rozkład wykładniczy. Także ta własność charakteryzuje proces
Poissona: można go zdefiniować jako proces rekurentny, w którym τi mają rozkład
wykładniczy
B(t) = e-λt, λ > 0
Istotnie, ponieważ B(0) = 1, więc z (1.31) wnioskujemy łatwo, że B0(t) = e-λt , a więc
także τ0 ma rozkład wykładniczy z parametrem λ. Zgodnie z (1.4.2) ti jest zmienną losową,
która jest sumą i niezależnych zmiennych losowych o jednakowym rozkładzie wykładniczym.
Z uwagi na to (patrz D.5, str.163) zmienna ti ma rozkład Erlanga z parametrami λ i i. Z
(D.4.6) wynika, że dla t ≥ 0 jest
i −1
P{t i > t } = e − λt ∑ (λt )
j
j! ;
(1.4.60)
j =0
ponieważ zaś (por. (1.4.31))
P{t i > t } = P{N (t ) < i},
TPR1-34
1
(1.4.61)
1. Systemy obsługi masowej – stracony czas
więc z porównania (1.4.60) i (1.4.61) widzimy, że zachodzi również (1.4.49), to znaczy, że
dany proces jest istotnie procesem Poissona.
Nietrudno jest także udowodnić, że proces Poissona może być scharakteryzowany
jako rekurentny, dla którego spełniona jest równość B0(t) = B(t); szczegółowy dowód tego
faktu pozostawiamy czytelnikowi, nie będzie to wcale trudne, jeśli skorzysta ze związku
(1.4.31).
Warto także wspomnieć jeszcze jedną charakterystyczną własność procesu Poissona.
Rozważmy znowu zmienne losowe t1, t2, ... i załóżmy, że znamy już wartość t, jaką przyjęła
zmienna tn. Można udowodnić, że zmienne losowe t1, t2, ..., tn-1 - przy znanym tn - są
rozłożone jednostajnie (patrz D.4, str. 160) w przedziale (0,t)(10 Mówiąc dokładniej, należy to
rozumieć jak następuje: zmienne losowe t1 , t2 , ..., tn-1 mają (n - 1) wymiarowy rozkład
prawdopodobieństwa taki sam, jak układ zmiennych losowych Y1 , Y2 , ...., Yn-1 , których
wartościami są ustawione w porządku niemalejącym wartości niezależnych zmiennych
losowych X1 , X2 , ..., Xn-1 o jednakowym rozkładzie jednostajnym w przedziale (0, t) (Przyp.
tłum.)) w przypadku specjalnym n = 2 zmienna t1 ma, przy znanym t2 = t, rozkład jednostajny
w przedziale (0, t). Wyprowadzenie tej własności procesu Poissona również nie jest trudne.
Wymaga ono jednak znajomości pojęcia warunkowego rozkładu prawdopodobieństwa i
dlatego nie będziemy go tu podawali zadawalając się jedynie odsyłaczem do literatury (np.
Girault, 1959 lub Gniedenko, Kowalenko, 1971), gdzie można znaleźć pełny dowód. Na Rys.
1.3 zamieszczono graficzną ilustrację tej własności rozkładu Poissona wykorzystywaną do
budowy sprawnych generatorów liczb pseudolosowych o rozkładzie wykładniczym,
przesuniętym wykładniczym lub Erlanga z zadaną z góry wartością średnią symulowanych
okresów.
W procesie Poissona zmienne t1 , t 2 ,..., t n −1 są rozłożone jednostajnie na odcinku (0, t n ) .
Powyższy fakt jest wykorzystywany do tworzenia dobrych generatorów odstępów
wykładniczych, przesuniętych wykładniczych, Erlanga, przesuniętych Erlanga o zadanej z
góry dokładnej wartości t n równej 1 dobie, co jest ważnym narzędziem symulacji
komputerowej, systemów kolejkowych jak na rys. 1.5.
t1
t2
tn-1
tn=1 doba
Uporządkowane liczby generatora jednostajnego dają sumę niezależnych zmiennych
wykładniczych o tym samym rozkładzie i stałej wartości średniej t n .
Rys. 1.5. Ilustracja zastosowania generatorów liczb jednostajnych do opisu
rozkładu wykładniczego.
Tak więc proces Poissona można zdefiniować na cztery sposoby równoważne ujęte na
Tab. 1.3.
Tablica 1.3. Proces Poissona
Cztery równoważne definicje procesu Poissona:
1. Rozkład liczby zgłoszeń w jednostce czasu jest rozkładem Poissona
2. Rozkład odstępów między zgłoszeniami ma rozkład wykładniczy
4. Uporządkowane liczby z przedziału
(0, t n ) mają rozkład jednostajnyny na
tym odcinku
TPR1-35
1
3. Proces pojedynczy jednorodny,
bez następstw (bez pamięci)
1. Systemy obsługi masowej – stracony czas
Na zakończenie tego paragrafu wspomnimy jeszcze krótko o pewnym uogólnieniu
procesu Poissona, który właśnie poznaliśmy, a mianowicie o niejednorodnym procesie
Poissona. Nazywamy tak proces stochastyczny o przyrostach niezależnych, dla którego
zamiast (1.4.49) spełniony jest nieco bardziej skomplikowany wzór
rn (s, t ) = e −[Λ ( s +t )− Λ ( s )] [Λ(s + t ) − Λ(s )] n!,n =,1,2,... ,
n
(1.4.62)
gdzie Λ(s) jest nieujemną funkcją niemalejącą, określoną dla s ≥ 0. Oznacza to, że liczba
wydarzeń zarejestrowanych w przedziale czasowym ( s, s + t 〉 jest nadal zmienną losową o
rozkładzie Poissona, jednak parametr tego rozkładu jest teraz funkcją nie tylko długości
badanego przedziału, lecz także jego początku - chwili s. Proces jednorodny, tak jak go
poznaliśmy, odpowiada przypadkowi funkcji liniowej Λ(s)= λs.
W większości przypadków przy badaniu niejednorodnego procesu Poissona zakłada
się istnienie pochodnej
λ ( s) = Λ' ( s) = lim
Λ ( s + t ) − Λ( s)
t→ 0
t
(1.4.63)
tak, że
s
Λ( s) = ∫ λ ( u) du .
(1.4.64)
0
Taki proces możemy interpretować jako proces Poissona ze zmiennym parametrem λ(s),
zależnym od momentu s. Przy λ(s) =λ = const, otrzymamy istotnie Λ(s)= λs, to jest
jednorodny proces Poissona (por. (1.4.45)).
Możliwa jest także jeszcze inna interpretacja niejednorodnego procesu. Niech dany
będzie jednorodny proces Poissona z parametrem równym 1 i rosnąca funkcja f(t) określona
dla t ≥ 0, f(0) = 0. Będziemy znowu rejestrowali wydarzenia w tym procesie, z tym jednak, że
zamiast obserwowanych t1, t2, ...,tn, .... będziemy zapisywali jako rejestrowane wyniki
wielkości s1 = f(t1), s2 = f(t2), ... (tak, jak gdyby odczytywalibyśmy czas na „źle idącym”
zegarze, który za czas od 0 do t „przejdzie” właśnie f(t)). W ten sposób zamiast (1.4.1)
uzyskamy nowy ciąg
0 = s0 , s1 , s2 ,..., sn ,... ,
(1.4.65)
który można traktować jako zapis nowego procesu losowego. Proste rozumowanie
doprowadzi nas do wniosku, że jest to nadal proces stochastyczny o przyrostach niezależnych.
Jakie jest jednak prawdopodobieństwo, że w przedziale ( s, s + t 〉 zarejestrujemy dokładnie n
wydarzeń? Na to, by dokładnie n liczb si z ciągu (1.4.65) spełniało nierówność s < si ≤ s + t
potrzeba (i wystarcza), aby już przed transformacją czasu dokładnie n liczb ti z ciągu (1.4.1)
spełniało nierówność Λ(s) < ti ≤ λ(s + t), gdzie Λ=f -1 jest funkcją odwrotną względem
funkcji f. Prawdopodobieństwo takiego zdarzenia jest równe νn(Λ(s), Λ(s + t) - Λ(s)), co
potrafimy obliczyć na mocy przyjętego założenia, że pierwotny proces jest jednorodnym
procesem Poissona z parametrem 1. Z (1.4.49) dostajemy na to prawdopodobieństwo właśnie
wyrażenia (1.4.62). Niejednorodny proces Poissona okazuje się więc w tym przypadku
procesem jednorodnym obserwowanym w nieliniowo płynącym czasie.
TPR1-36
1
1. Systemy obsługi masowej – stracony czas
Zauważmy jeszcze, że przy f(t) = t/λ, λ > 0, dostaniemy Λ(s)= λs i nowy proces
będzie znów jednorodny, chociaż z parametrem λ zamiast 1. Widzimy więc że wszystkie
jednorodne procesy Poissona możemy uzyskać z procesu o parametrze 1 poprzez prostą
liniową transformację czasu.
Warto również wspomnieć, że warunek istnienia skończonej pochodnej λ(s) z
(1.4.63) zapewnia między innymi także zachowanie własności pojedynczości procesu
Poissona: prawdopodobieństwa (1.4.62) spełniają wtedy warunek (1.4.46).
TPR1-37
1

Podobne dokumenty