1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek
Transkrypt
1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek
1. Systemy obsługi masowej – stracony czas 1. SYSTEMY OBSŁUGI MASOWEJ – STRCONY CZAS (wg Zitek, 1974) 1.1. Stracony czas Czekanie w kolejkach jest dziś powszechnym zjawiskiem codziennego życia, i to zjawiskiem wcale nie przyjemnym. Każdy z nas co dzień na coś czeka: na tramwaj, na połączenie telefoniczne, przed kasą na bilet do kina, u lekarza lub fryzjera, na obsługę w restauracji. Czas spędzony przy czekaniu bywa zazwyczaj naprawdę stracony; codziennie w ten sposób marnujemy sporą część życia. Podobne straty czasowe powstają nie tylko w indywidualnej skali człowieka. Tak samo czekają pociągi przed stacją na wolny tor, samochody w stacjach benzynowych na tankowanie, sklepy na dostawę towaru z magazynów, maszyny w warsztatach na naprawę. Nie byłoby słuszne twierdzić, że kolejki i czekanie są zawsze i wszędzie jedynie przejawem niedoskonałej lub zgoła chybionej organizacji, a całkiem iluzorycznym byłby postulat kompletnej likwidacji tego zjawiska. W konsekwencji wymagałoby to dokładnego zaplanowania każdego najdrobniejszego fragmentu naszego życia oraz wszystkich czynności, i to bez najmniejszej rezerwy czasowej. Z całego świata musiałaby zniknąć jakakolwiek przypadkowość, a wszystko przebiegałoby w sposób ściśle zdeterminowany. Jest to oczywiście niemożliwe, bo nigdy nie potrafimy zapobiec zewnętrznym wpływom zaburzającym (tzw. „trudnościom obiektywnym”, „vis maior” itp.). A także, przecież taki bezbłędny, precyzyjnie sterowany system byłby oczywiście nieekonomiczny: nakłady związane z wprowadzeniem i utrzymaniem dokładnego porządku i sztywnego rozkładu czasowego przewyższyłby znacznie straty spowodowane „zbędnym” oczekiwaniem w luźniejszym systemie, dopuszczającym losowe odchylenia od idealnego przebiegu. Musimy się więc pogodzić z tym, że nigdy się nie uwolnimy od czekania w kolejkach. Ta choroba naszego wieku jest złem koniecznym, daniną, którą musimy zapłacić osiągniętej nowoczesności i przeludnionemu światu. Te „smętne” perspektywy wcale jednak nie oznaczają, że jesteśmy całkowicie bezbronni wobec zjawisk losowych. Chodzi właśnie o to, aby umieć opanować przypadek i wykorzystać go. Jeżeli nie można w pełni uwolnić się od czekania, należy się starać ograniczyć je do minimum, utrzymując w rozsądnych granicach wynikające stąd straty. W prostych sytuacjach życiowych wystarczy nam zwykły rozsądek, w przypadkach bardziej skomplikowanych potrzebna jest głębsza analiza danego procesu. Z historii początków tak zwanych badań operacyjnych, z okresu drugiej wojny światowej znany jest anegdotyczny już przykład (patrz Zubrzycki, 1961), który wskazuje , jak nawet najprostsze środki mogą łatwo spowodować istotną poprawę sytuacji. Po obiedzie w kuchni polowej żołnierze myli swoje menażki przy dwu kranach z ciepłą wodą, a potem je płukali przy następnych dwu kranach z zimną wodą. Przy myciu tworzyły się długie kolejki. Oficer operacyjny, który lustrował tę jednostkę, zauważył, że mycie menażki trwa średnio trzy razy dłużej niż jej płukanie i zarządził, aby ciepła woda do mycia płynęła z trzech kranów, a woda zimna do płukania tylko z jednego kranu. To proste zarządzenie pozwoliło prawie całkowicie wyeliminować kolejki. Nie zawsze jednak sytuacja jest taka prosta i oprócz dobrych pomysłów oraz doświadczenia praktycznego potrzebujemy także głębszych studiów teoretycznych procesów tego typu. Teoria obsługi masowej - zwana także teorią kolejek (1 Ta nazwa, choć krótsza i, jak się wydaje, bardziej atrakcyjna, nie oddaje jednak dokładnie zakresu teorii. Istnieją także takie sytuacje, w których nigdy nie tworzą się kolejki; dokładniej opiszemy taki system w paragrafie III.5.) bada modele matematyczne takich właśnie rzeczywistych procesów, w których zdarzają się przestoje, czekanie, kolejki i straty. Jest to jedna z dziedzin zastosowań rachunku prawdopodobieństwa. W niniejszym wstępnym rozdziale książki spróbujemy scharakteryzować ogólnie systemy obsługi masowej będące przedmiotem badań teorii kolejek. Wprowadzimy tu też stopniowo niektóre podstawowe pojęcia i terminy, których będziemy używali w następnych rozdziałach. TPR1-11 1 1. Systemy obsługi masowej – stracony czas 1. 2. Systemy obsługi Systemy obsługi masowej można opisać - ogólnie, choć nie całkiem dokładnie - jak następuje. Do ustalonego urządzenia świadczącego usługi określonego typu zgłaszają się klienci, którzy chcą być obsłużeni (2 Chodzi tu zawsze o większą liczbę klientów, o obsługę masową, a nie o jednorazowe obsłużenie pojedynczego klienta.). Jeśli nie są oni obsłużeni niezwłocznie, to mogą (ale nie muszą) czekać na obsługę. Po zakończeniu obsługi obsłużony klient opuszcza system i wtedy może się rozpocząć (natychmiast lub po pewnej przerwie) obsługa innego klienta, który już czekał w systemie lub dopiero się zgłosi Wszystkie wprowadzone tu pojęcia należy rozumieć bardzo ogólnie i szeroko: mówimy o klientach także wtedy, gdy nie są nimi ludzie, obsługa nie musi polegać na wykonaniu jakiejś czynności w zwykłym sensie tego słowa, a może ją prowadzić albo specjalny pracownik, albo martwe urządzenie - będziemy je nazywali ogólnie kanałem obsługi (używa się także terminu linia obsługi). Podamy tu kilka poglądowych przykładów dla wskazania, jak różne mogą być konkretne systemy obsługi masowej: klient kanał obsługa samolot pas startowy lądowanie pacjent lekarz badanie kupujący kasa sklepu samoobsługowego płacenie należności abonent telefoniczny centrala połączenie maszyna konserwator naprawa pasażer taksówka jazda przechodzień światła uliczne przejście ulicy wagon stacja rozrządzanie Do specyfikacji każdego systemu obsługi masowej należy przede wszystkim informacja o trzech głównych składnikach jego struktury, a mianowicie: (a) o zgłoszeniach klientów do systemu; (b) o ich losie w przypadku, gdy nie mogą być niezwłocznie obsłużeni; (c) o liczbie kanałów i przebiegu samej obsługi. Rys. 1.1 przedstawia schemat działania systemu masowej obsługi, który czasem nazywamy systemem kolejkowym. Proces zgłoszeń klientów Kolejka do obsługi Obsługa przez n kanałów równoległych Wyjście Rys. 1.1. Schemat działania systemu masowej obsługi (systemu kolejkowego) Proces zgłoszeń klientów do systemu obsługi jest jedną z najważniejszych charakterystyk systemu. Rozróżniamy różne rodzaje systemów w zależności od tego, czy klienci wchodzą regularnie (np. produkty automatu do opakowania), losowo (zgłoszenia do centrali telefonicznej) lub może według ustalonego wcześniej planu z ewentualnymi odchyleniami (samoloty, zarejestrowani pacjenci); czy przychodzą pojedynczo (samoloty, pacjenci), czy w grupach (wagony), przy czym wielkość grup może znów być stała albo zmienna - regularnie lub losowo; czy całkowita liczba wszystkich potencjalnych klientów jest TPR1-12 1 1. Systemy obsługi masowej – stracony czas ograniczona (maszyny w hali fabrycznej przydzielone jednemu konserwatorowi), czy w zasadzie nieograniczona (kupujący w sklepie, przechodnie na skrzyżowaniu). W przypadku losowych zgłoszeń interesują nas następnie charakterystyki procesu zgłoszeń: średnia liczba klientów wchodzących w jednostce czasu, prawdopodobieństwo tego, że w określonym przedziale czasowym nie zgłosi się żaden nowy klient średnia liczba klientów w grupie (przy zgłoszeniach grupowych) i wiele innych, łącznie z informacją o tym, jak te charakterystyki zmieniają się z upływem czasu. Także losy klientów, których obsługa nie może się rozpocząć natychmiast po ich zgłoszeniu do systemu (zazwyczaj dlatego, że kanał obsługi jest jeszcze zajęty przez innego klienta), mogą być bardzo zróżnicowane. W najczęstszym przypadku klasycznej kolejki klienci czekają na obsługę w kolejności zgłoszeń (kasa w teatrze), mogą jednak także rezygnować z obsługi i odchodzić z kolejki (pacjenci u dentysty, pasażerowie czekający na taksówkę lub tramwaj) i to natychmiast po zgłoszeniu (z powodu zbyt długiej kolejki) lub po pewnym czasie czekania na próżno. Taka decyzja może mieć charakter losowy albo zdeterminowany, np. aktualną długością kolejki lub inną informacją o stanie systemu, a są także i takie systemy, w których decyzja o czekaniu na obsługę nie zależy od klienta (systemy z ograniczoną kolejką), w szczególności systemy, w których wcale się nie czeka, a klienci, którzy nie mogą być obsługiwani i odchodzą z systemu (np. rozmowy telefoniczne). Po zwolnieniu kanału następny klient do obsługi może być wzięty z kolejki także według innych kryteriów niż kolejność zgłoszenia, np. w porządku całkowicie odwrotnym (3 Na pierwszy rzut oka takie kryterium wygląda paradoksalnie, a jednak bywa również stosowane w praktyce. Można np. wyobrazić sobie, że w magazynie przechowuje się pewien towar (w workach lub beczkach), przy czym zapasu używa się do bieżącej produkcji i jednocześnie go uzupełnia. Tutaj klient - worek - który czeka w kolejce - magazynie - na ostatnim miejscu, leży na wierzchu i do obsługi - zużycia - będzie wzięty jako pierwszy. Warunkiem (koniecznym) jest, by towar się nie starzał, bo ostatni, najstarszy worek zużyty będzie dopiero przy całkowitym opróżnieniu magazynu.) lub też losowo (rozmowy telefoniczne w małej centrali). Niektórzy klienci mogą mieć także specjalne priorytety, uprawniające do obsługi przed klientami bez priorytetu (ostre przypadki u lekarza, samoloty określonego typu przy lądowaniu); przy czym obsługa klienta bez priorytetu może być dokończona (samoloty), czasowo przerwana lub nawet przedwcześnie zakończona, jeśli w czasie jej trwania zgłosi się klient z priorytetem (np. przerwanie rozmowy miejscowej w momencie zgłoszenia centrali międzymiastowej). Obsługa klientów może być prowadzona w jednym lub w kilku równoległych kanałach obsługi (kasy w sklepie samoobsługowym), jej długość może być ustalona i jednakowa dla wszystkich klientów (regulacja i kontrolny przegląd maszyn) lub losowa (rozmowy telefoniczne); czasem także zależna od typu klienta (lądowanie samolotów) lub od przydzielonego kanału obsługi, jeśli dostępne kanały mają różne prędkości obsługi. Interesują więc nas znowu probabilistyczne charakterystyki czasu trwania obsługi (średni czas potrzebny na obsługę jednego klienta, rozkład prawdopodobieństwa czasu obsługi), które mogą być stałe lub zmienne w czasie, a niekiedy także zależne od stanu, w którym system aktualnie się znajduje (np. jeśli długość kolejki wpływa na przyśpieszenie pracy kanału obsługi). Kanały mogą wszystkie wykonywać tę samą obsługę lub też niektóre z nich mogą być wyspecjalizowane na obsługę określonej grupy klientów (pasy startowe różnej długości) albo na określone żądania specjalne, które mogą zgłaszać klienci (np. w warsztatach naprawczych). Klienci mogą być także obsługiwani nie pojedynczo , lecz w grupach (winda, przechodnie na skrzyżowaniu), przy czym wielkość grupy może być znów losowa (przechodnie), ograniczona z góry (winda) lub ściśle określona i stała. W końcu, kanał obsługi może być dostępny dla klientów zawsze lub z przerwami, które także mogą być regularne (cykl dzienny) lub losowe (awarie). TPR1-13 1 1. Systemy obsługi masowej – stracony czas 1. 3. Cele teorii obsługi masowej Jak widzimy, można sobie wyobrazić najróżniejsze kombinacje omówionych wariantów każdej składowej systemu. Nie należy więc oczekiwać, że w naszej niewielkiej książeczce potrafimy omówić wszystkie możliwe typy systemów obsługi masowej, tym bardziej, że lista takich możliwości nie jest nawet ostatecznie zamknięta. Chociaż światową literaturę z dziedziny obsługi masowej już dziś można ocenić na tysiące publikacji, to nadal nie słabnie dopływ nowych prac, które nie tylko pogłębiają naszą wiedzę o systemach już znanych, lecz przynoszą także opisy dalszych nowych typów systemów obsługi masowej. Ograniczymy się więc tutaj jedynie do kilku podstawowych sytuacji, jakie mogą wystąpić w systemach obsługi masowej. Nie będziemy się starali, aby podać gotowy model matematyczny dla każdego systemu, który można zaobserwować w praktyce; naszym celem będzie przede wszystkim pokazanie czytelnikowi ogólnych zarysów takich modeli, by mógł sobie uświadomić, gdzie i jak może być przydatna matematyczna teoria obsługi masowej. Jakie są właściwie cele tej teorii? Przede wszystkim chodzi tu o teoretyczne poznanie własności systemów obsługi masowej i praw, którym te systemy podlegają. pierwszym zadaniem jest określenie racjonalnego kompletu informacji, które musimy mieć o każdym z badanych systemów. Matematyczna teoria obsługi masowej pozwoli nam zorientować się - na podstawie tych informacji - o możliwym zachowaniu się systemu w przyszłości (abyśmy mogli je przewidywać). Stosowane w tej teorii metody postaramy się wyjaśnić w dalszych rozdziałach. Do tego należy jeszcze dodać, jakie praktyczne cele stawia sobie teoria obsługi masowej, jak mogą wpłynąć jej teoretyczne wyniki na naszą praktyczną działalność. Tu trzeba uwzględnić, z jakiego punktu widzenia patrzymy na badany system: użytkownika systemu, tj. klienta, który chce być sprawnie obsłużony, czy zarządzającego systemem. Z punktu widzenia klienta znajomość struktury i własności systemu może nam przede wszystkim dopomóc do powzięcia decyzji co do postępowania w systemie obsługi masowej. Klienci mogą mieć różne możliwości wywierania wpływu na swój indywidualny czas, jaki spędzą w systemie, na straty lub nakłady (finansowe, czasowe lub inne), które się z tym wiążą, a mówiąc ogólnie, na warunki, w jakich realizowana jest ich obsługa. Można to osiągnąć np. przez odpowiedni wybór (indywidualny) momentu zgłoszenia do systemu (idziemy na zakupy, gdy w sklepie nie ma tłoku) lub wybór obsługującego (kasy w sklepie samoobsługowym lub na dworcu); niekiedy za określoną dopłatą można sobie zapewnić pierwszeństwo przed innymi klientami (pilne telegramy), a kiedy indziej warto będzie całkiem opuścić system i szukać w innym systemie zastępczej obsługi (tramwaj - taksówka). W pewnych przypadkach można wreszcie w czasie obsługi wpływać na obsługującego lub na zarządzającego systemem, aby poprawił warunki, w jakich obsługa przebiega, zwiększył jej tempo lub zmienił kryteria wyboru klientów do obsługi. Z punktu widzenia zarządzającego systemem celem badania bywa najczęściej poszukiwanie możliwości usprawnienia pracy systemu, np. przez dodanie nowego kanału obsługi (otwarcie nowej kasy) albo przez odpowiednią reorganizację (specjalizacja kanałów, inna organizacja kolejki). Innym sposobem usprawnienia może być np. zmiana polityki cen, pozwalająca skrócić czas czekania klientów (a tym samym podnieść atrakcyjność systemu) lub na odwrót, zmniejszyć przestoje kanałów, zwiększyć przepustowość systemu, tj. liczbę klientów, których system potrafi obsłużyć w rozsądnym czasie , lub, ogólnie, obniżyć koszty operacyjne systemu. Ponadto wyniki teorii obsługi masowej stosuje się także przy projektowaniu nowych systemów, gdy chcemy ustalić parametry projektowanego systemu tak, aby jak najlepiej zaspokoić popyt przyszłych klientów uwzględniając jednocześnie interesy zarządzającego systemem. Trzeba tu jeszcze podkreślić, że same straty czasowe nie zawsze są jedynym, ani też rozstrzygającym kryterium przy ocenie jakości systemu obsługi masowej. W znacznie większej mierze stosuje się tu kryteria ekonomiczne: oblicza się koszty operacyjne oraz ceny TPR1-14 1 1. Systemy obsługi masowej – stracony czas płacone przez klientów za obsługę, a warunki obsługi szacuje się ze względu na ich minimizację. Chodzi tu w zasadzie znowu - podobnie jak w wielu innych zastosowaniach matematyki do zagadnień ekonomii - o optymizację systemów ekonomicznych określonego typu. Chociaż nakłady finansowe związane z uruchomieniem lub z eksploatacją systemu nie są dotychczas w teorii obsługi masowej dostatecznie uwzględniane, to jednak nie ma żadnych wątpliwości co do tego, że właśnie ekonomiczny punkt widzenia gra w praktyce rolę pierwszorzędnej wagi. TPR1-15 1 1. Systemy obsługi masowej – stracony czas 1.4. Procesy stochastyczne Zadaniem tego rozdziału jest zaznajomienie czytelnika z aparatem matematycznym, którego to przede wszystkim używa się przy rozwiązywaniu zagadnień obsługi masowej, a mianowicie z pewnymi stosunkowo prostymi partiami teorii procesów stochastycznych. Cały rozdział ma charakter przeważnie teoretyczny; znaczenie i sposób zastosowania procesów stochastycznych w teorii obsługi masowej będą dokładniej wyjaśnione w następnych rozdziałach. 1.4. 1. Kilka przykładów Zaczniemy od konkretnych przykładów. Przy automatycznej produkcji - np. w fabryce tekstylnej - pewien układ automatów - np. warsztatów tkackich - podlega jednemu robotnikowi, którego zadaniem jest kontrola ich pracy i usuwanie drobnych przeszkód: zasadniczą robotę maszyny wykonują same. Są one przy tym urządzone tak, że ilekroć nastąpi awaria, która spowodowałaby wadliwość dalszej produkcji, same się zatrzymują. Awarie pojawiają się niespodziewanie - nie są oczywiście uprzednio zaplanowane. Jeśli będziemy przez pewien czas śledzili pracę jednego automatu, to otrzymamy dane obserwacyjne o występowaniu awarii i o długości okresów działania bezawaryjnego. Każdy taki okres zaczyna się w momencie uruchomienia maszyny po usunięciu skutków poprzedniej awarii, a kończy w momencie wystąpienia następnej awarii. Jeśli na niezbyt obciążonej szosie obserwujemy ruch samochodowy w ustalonym kierunku, to możemy zarejestrować momenty czasowe, w których mijają nas pojazdy określonego typu, np. auta osobowe. Także tutaj momenty przejazdu kolejnych aut będą następować po sobie dość nieregularnie: auta na szosie nie jeżdżą według ustalonego rozkładu jazdy, tak jak pociągi lub tramwaje. Z codziennej praktyki znamy liczne podobne przykłady, gdy powtarza się stale ta sama sytuacja: obserwujemy przebieg pewnego procesu, w którym od czasu do czasu następują określone wydarzenia, które rejestrujemy. Charakter obserwowanego procesu i rejestrowanych wydarzeń może być rozmaity: praca maszyny i pojawianie się awarii, ruch drogowy w danym miejscu i przejazd pojazdu, a także np. wejście kolejnego pacjenta do poczekalni lekarskiej, występowanie wypadków drogowych lub pożarów w określonym rejonie, trafienia cząsteczek promieniowania kosmicznego do urządzenia rejestrującego, urodzenia czworaczków w Czechosłowacji itp. We wszystkich takich przypadkach otrzymujemy w wyniku obserwacji ciąg zarejestrowanych momentów czasowych t1 , t 2 , ... , t n , ... , (1.4.1) w których nastąpiło badane zjawisko. Czas mierzymy przy tym od początku obserwacji t0 = 0. Jeśli obserwowany proces jest w pewien sposób zdeterminowany, kierowany lub podporządkowany (np. rozkładowi jazdy lub innemu bezpośredniemu sterowaniu jego przebiegu), to i wciągu (1.4.1) wystąpią pewne regularności lub prawidłowości wynikające z „rozkładu jazdy” procesu: w szczególności, momenty t1 , t 2 , ... , t n , ... , mogą być zawczasu całkowicie określone. W większości przypadków, które będą nas tutaj interesowały, sytuacja będzie odmienna, a momenty t1 , t 2 ,..., t n ,..., będą następowały po sobie nieregularnie, przypadkowo. Taki proces nazywamy losowym albo stochastycznym (1 Zaznaczmy zaraz, że chodzi nam tutaj jedynie o pewien typ procesów stochastycznych. Ogólna definicja procesu stochastycznego w teorii prawdopodobieństwa obejmuje również liczne inne typy procesów, z którymi w tej książce nie będziemy mieli wcale do czynienia, jak np. podają Gichman, TPR1-16 1 1. Systemy obsługi masowej – stracony czas Skorochod, 1968). Możemy tu pytać jedynie o prawdopodobieństwa, że liczby tn, n = 1, 2, ..., lub pewne ich funkcje spełniają określone warunki. 1.4. 2. Zapis procesu Podstawowe informacje zawarte w ciągu (1.4.1) w konkretnych przypadkach można uzyskać na różne sposoby: pokażemy je znowu na przykładzie obserwacji ruchu drogowego. Przede wszystkim można oczywiście mierzyć i zapisywać same liczby tn, n = 1, 2, ...: w chwili t0 = 0 uruchamiamy zegar (stoper) i każdorazowo, gdy pojazd mija punkt obserwacyjny, zapisujemy czas aktualnie wskazywany na zegarze (istnieją oczywiście także możliwości automatycznego zapisu). Rezultatem takiego sposobu rejestracji będzie właśnie ciąg momentów (1.4.1). Inny sposób polega na mierzeniu odstępów czasowych między kolejnymi przejazdami pojazdów, tj. między momentami tn. Używamy jak poprzednio stopera, z tym jednak, że przy każdym przejeździe jednocześnie z zapisem czasu wracamy do wyjściowego stanu zerowego, od którego zaczyna się następny pomiar. Czas mierzymy więc oddzielnie dla każdego pojazdu. Wynikiem tego sposobu pomiaru jest ciąg liczb τ i i = 0, 1, 2, ..., określonych związkami τ i = t i +1 − t i , i = 0, 1, 2,..., (1.4.2) gdzie z t0 = 0 wynika τ0 = t1 . Oba opisane sposoby rejestracji są z teoretycznego punktu widzenia całkowicie równoważne. Wynika to z faktu, że znajomość rezultatów jednego sposobu rejestracji pozwala odtworzyć odpowiednie rezultaty według drugiego sposobu zapisu. Korzystamy przy tym z zależności (1.4.2) lub z zależności odwrotnych n −1 tn = ∑τ i , n = 1, 2, 3,... (1.4.3) i =0 Istnieje jeszcze inny, pozornie bardziej skomplikowany, sposób rejestracji. Ten trzeci sposób polega na ciągłym liczeniu i rejestrowaniu liczby wszystkich pojazdów, które minęły punkt obserwacyjny od początku obserwacji, tj. od chwili t0 = 0. Dla każdego momentu t ≥ t0 dostaniemy w ten sposób określoną liczbę N(t) - jest to liczba pojazdów zaobserwowanych w ciągu przedziału czasowego (0, t 〉 . Wynikiem zapisu jest więc w tym przypadku funkcja N(t), określona dla t ≥ 0. Jest ona oczywiście niemalejąca (liczba zaobserwowanych pojazdów może tylko wzrastać) i przyjmuje jedynie wartości całkowite nieujemne; dla t = 0 jest zawsze N(0) = 0. Wykres funkcji tego typu jest dla przykładu na rysunku 1.2 Funkcja N(t) zmienia swą wartość (przyrasta skokowo o liczbę naturalną) zawsze w chwili przejazdu pojazdu, tj. w każdym z momentów tn , n = 1, 2, ..., tworzących ciąg (1.4.2) (por. rys. 2.1). Liczby t są więc punktami nieciągłości funkcji N(t); w przedziałach między nimi N(t) ma zawsze wartość stałą. Dla ustalonego t wartość N(t) jest równa liczbie tych chwil ti, i= 1, 2, ..., które są mniejsze lub co najwyżej równe t; dla n = 0, 1, 2, ... jest więc N (t) = n wtedy i tylko wtedy , gdy t n ≤ t < t n +1 . (1.4.4) Widzimy stąd, że także trzeci sposób zapisu jest całkowicie równoważny ze sposobem pierwszym (a więc także i z drugim): znajomość wyników trzeciego sposobu zapisu pozwala całkowicie jednoznacznie odtworzyć wyniki, które uzyskalibyśmy stosując pierwszy lub drugi sposób, a także na odwrót. TPR1-17 1 1. Systemy obsługi masowej – stracony czas N (t ) 6 5 4 3 2 1 0 t1 t2 t3 t4 t5 t6 t Rys. 1.2. Wykres funkcji N (t ) Oprócz trzeciego sposobu zapisu możemy w końcu rozpatrzyć jeszcze sposób czwarty, będący prostą modyfikacją sposobu trzeciego. Zamiast ciągłej obserwacji całkowitej liczby pojazdów zarejestrowanych od początku t0 = 0 do chwili t (t ≥ 0), możemy prowadzić podobną rejestrację w dowolnych innych przedziałach. Oznaczmy ogólnie symbolem N(s, t) liczbę tych pojazdów, które minęły punkt kontrolny podczas przedziału czasowego o długości t i zaczynającego się w momencie s ≥ 0, tj. w przedziale (s, s + t 〉. Łatwo się przekonamy, że znajomość funkcji N(t) z metody trzeciej jest całkowicie równoważna znajomości wartości funkcji N(s,t) (dwu zmiennych rzeczywistych!) dla wszystkich s ≥ 0, t ≥ 0, wartości którejkolwiek z tych funkcji można wyznaczyć za pomocą wartości drugiej. Zachodzi oczywisty związek N ( s, t ) = N ( s + t ) − N ( s) (1.4.5) oraz N ( t ) = N ( 0, t ) . (1.4.6) Funkcja N(s,t) ma ze względu na argument t podobne własności jak i funkcja N(t): jest niemalejąca, przyjmuje jedynie całkowite nieujemne wartości, które zmienia tylko w momentach tn - s, gdzie tn (≥ s) są wyrazami ciągu (1.4.1); przy tym N(s,0)=0 dla każdego s ≥ 0. Widzimy więc, że trzeci i czwarty sposób zapisu są znowu całkowicie równoważne; trzeci sposób możemy przy tym traktować jako specjalny przypadek sposobu czwartego. Z wartości funkcji N(s, t) można więc także uzyskać liczby tn , n = 1, 2, ..., i na odwrót. Przy danych s ≥ 0 i t ≥ 0 wartość N(s, t) jest liczbą tych tk, które spełniają nierówności s < tk ≤ s+t, a stąd dla n = 1, 2, ... równość N(s, t)=n zachodzi wtedy i tylko wtedy, gdy dla pewnej liczby naturalnej i jest t i −1 ≤ s < t i ≤ t i + n −1 ≤ s + t < t i + n , (1.4.7) natomiast N(s, t)=0 wtedy i tylko wtedy, gdy dla każdej naturalnej i jest albo ti ≤ s, albo ti > s + t. TPR1-18 1 1. Systemy obsługi masowej – stracony czas W końcu trzeba jeszcze nadmienić, że a priori nie jest wyłączony przypadek, gdy jednocześnie kilka pojazdów minie punkt kontrolny w dokładnie tej samej chwili. Takie zdarzenie przy pierwszym sposobie zapisu przejawi się tym, że w ciągu (1.4.1) kilka kolejnych wyrazów będzie miało te same wartości, tak np. ti = ti+1 = ... = ti+l = t’ oznacza, że kolejne pojazdy: i-ty, (i + 1)-szy, ... , (i + j)-ty, a więc łącznie i + j pojazdów, przejechały w tym samym momencie t’. Odpowiednie różnice τi, τi+1, ... , τi+j-1 przy drugim sposobie zapisu (por. (1.4.2)) w takim przypadku będą oczywiście zerami (na odwrót, występowanie zer w ciągu liczb τi, i = 0, 1, ... , oznacza, że takie jednoczesne przejazdy miały miejsce). Przy trzecim sposobie zapisu ten przypadek przejawi się tym, że funkcja N(t) będzie miała w punkcie t’ skok o wielkości nie 1, lecz j + 1. To samo dotyczy również funkcji N(s, t), jeśli tylko s < t’. Tak więc dysponujemy czterema różnymi sposobami zapisu przebiegu badanego procesu, a wszystkie z nich są wzajemnie równoważne. To jednak wcale nie oznacza, że jest całkiem obojętne, którego z nich użyjemy albo że wszystkie cztery są zawsze jednakowo przydatne i wygodne. Jak zobaczymy dalej, każdy z tych sposobów ma swe specyficzne zalety: określone własności badanego procesu stochastycznego przy odpowiednim wyborze sposobu zapisu dają się w sposób naturalny formułować i badać, podczas gdy przy innym zapisie odpowiednie sformułowania byłyby znacznie bardziej skomplikowane. Ponieważ jednak wszystkie cztery sposoby są wzajemnie równoważne, więc w każdym konkretnym przypadku będziemy zawsze mogli wybrać ten, który nam właśnie najbardziej odpowiada. Z tej możliwości będziemy często korzystali w dalszych paragrafach, przy czym nie będziemy już za każdym razem przypominali, jak trzeba przekształcić uzyskane wyniki przy przejściu do innego sposobu zapisu. 1.4.3. Probabilistyczne charakterystyki procesu Przyjrzyjmy się najpierw funkcjom N(t) i N(s, t) tj. zapisowi procesu według trzeciego lub czwartego sposobu. Dla każdego ustalonego t wartość funkcji N(t) oznacza liczbę zarejestrowanych wydarzeń w przedziale czasowym (0, t〉; w przypadku procesu losowego także N(t) jest zmienną losową. Podobnie ma się rzecz z wartościami funkcji N(s,t) dla danych s i t. Możemy więc pytać o odpowiednie rozkłady tych zmiennych losowych, tj. o prawdopodobieństwa rn (t ) = P( N (t ) = n ), n = 0,1,... (1.4.8) (2 Symbolem P(A) oznaczamy tu (i wszędzie dalej) prawdopodobieństwo zdarzenia losowego A.) lub rn (s, t ) = P( N (s, t ) = n ), n = 0,1,... (1.4.9) Zmienne losowe N(t) i N(s, t) przyjmują jedynie wartości całkowite nieujemne, więc dla wszystkich t ≥ 0, s ≥ 0 spełnione są warunki ∞ ∞ ∑ rn (t ) = 1, ∑ r (s , t ) = 1 . n=0 n=0 n (1.4.10) Aby zawczasu uniknąć możliwych nieporozumień, zaznaczmy wyraźnie, że prawdopodobieństwa rn(s, t) dotyczą ustalonych a priori przedziałów (s, s + t 〉 , a nie przedziałów, których położenie mogłoby zależeć od realizacji obserwowanego procesu. Rozbieżność między takimi dwoma różnymi interpretacjami przypomnimy jeszcze w paragrafie 4. TPR1-19 1 1. Systemy obsługi masowej – stracony czas Za pomocą prawdopodobieństw (1.4.8) i (1.4.9) możemy określić następną ważną charakterystykę procesu, a mianowicie wartość średnią (3 W polskiej literaturze probabilistycznej częściej używa się terminu wartość oczekiwana. Ze względu jednak na fakt, że w teorii obsługi masowej słowo „oczekiwanie” może być rozumiane w sensie potocznym (czekanie w kolejce), w tłumaczeniu książki używa się terminu wartość średnia zmiennych losowych N(s,t), to znaczy średnią liczbę wydarzeń (np. przejeżdżających pojazdów lub awarii w pracy maszyny) zarejestrowanych w przedziale (s, s + t 〉. (4 Z rygorystycznego punktu widzenia teorii matematycznej trzeba tu dodać, że milcząco przyjmujemy założenie (w praktyce zazwyczaj spełnione) o istnieniu definiowanych wartości średnich, tj. że są one skończone. Podobnie będziemy również postępować i w innych miejscach.) Jest ∞ E ( N (s, t )) = ∑ nrn (s, t ) (1.4.11) n=0 oraz ∞ E ( N (t )) = ∑ nrn (t ) . (1.4.12) n=0 Zgodnie ze znanymi własnościami wartości średniej dla dowolnych nieujemnych s, t, u spełnione są równości E ( N (s, t + u )) = E ( N (s, t )) + E ( N (s + t , u )) (1.4.13) E ( N (t + u )) = E ( N (t )) + E ( N (t , u )) (1.4.14) lub oraz inne podobne. Za pomocą prawdopodobieństw (1.4.8) i (1.4.9) można także wyrazić jeszcze inne probabilistyczne charakterystyki procesu, np. rozrzut zmiennych losowych N(s, t) itp. Mimo tego należy sobie uświadomić, że prawdopodobieństwa (1.4.8) i (1.4.9) nie wystarczą do opisu wszystkich reguł probabilistycznych, którym podlegają zmienne losowe N(s, t) i N(t); nic nam np. nie mówią o wzajemnej zależności tych wielkości. Wróćmy teraz do innych sposobów zapisu procesu stochastycznego rozważanego typu. Przy drugim sposobie zapisu otrzymujemy jako wynik ciąg τ0 , τ1, τ2, ... długości odstępów czasowych między poszczególnymi wydarzeniami. Gdy proces jest stochastyczny, także i te wielkości są losowe. Tak jak przy probabilistycznej charakteryzacji wielkości N(t) i N(s, t) wyszliśmy od prawdopodobieństw (1.4.8) i (1.4.9), podobnie i teraz przy drugim sposobie rejestracji obierzemy za punkt wyjścia rozkłady prawdopodobieństwa zmiennych losowych τi, i = 0, 1, ... Do ich opisu użyjemy teraz dystrybuant Ai ( x ) = P{τ i < x}, i = 0, 1, ... ; (1.4.15) przy czym dla pewnych celów wygodniej będzie zdefiniować funkcje Bi ( x ) = P{τ i ≥ x} = 1 − Ai ( x ), i = 0, 1, ... (1.4.16) Zmienne losowe τi mogą przyjmować dowolne wartości nieujemne; dla ujemnych wartości x jest więc każda funkcja Ai tożsamościowo równa zeru (a Bi jest wówczas tożsamościowo równa jedności).W większości przykładów praktycznych można także założyć, że zmienne TPR1-20 1 1. Systemy obsługi masowej – stracony czas losowe τi mają rozkłady tak zwanego typu ciągłego, to znaczy, że istnieją pochodne ai(x) funkcji Ai(x) a i ( x ) = Ai' ( x ) = − Bi' ( x ) , (1.4.17) tak, że x Ai (x ) = ∫ a i (u )du (1.4.18) 0 lub ogólnej y P{x < τ i < y} = ∫ a i (u )du . (1.4.19) x Jeśli dla pewnego i wartość Ai(0) jest dodatnia, to wnioskujemy stąd, że odstęp między i - tym i (i + 1)-ym wydarzeniem może mieć - z dodatnim prawdopodobieństwem Ai(0) długość zerową, to znaczy, że oba te wydarzenia mogą nastąpić jednocześnie w tej samej chwili. Za pomocą funkcji Ai, Bi, ai możemy następnie określić wartość średnią zmiennej losowej, to jest przeciętny czas, jaki upłynie między i - tym i (i + 1)-ym wydarzeniem (zakładamy tu znowu milcząco istnienie tych wartości średnich - por. notkę (4) na str. 22): ∞ E (τ i ) = ∫ ua i (u )du i = 0 ,1, ... (1.4.20) 0 (p.np. Fisz, 1967) Jeśli używamy drugiego sposobu zapisu procesu stochastycznego, to musimy sobie uświadomić, że pierwszy, początkowy przedział τ0 ma swą specyfikę, która go różni wyraźnie od następnych przedziałów τi, i = 1, 2, ... Różnica polega na tym, że następne przedziały zaczynają się zawsze w momencie, gdy rejestrujemy jedno z wydarzeń, podczas gdy w początkowej chwili t0 naszej obserwacji procesu wcale tak być nie musi. Na odwrót, będziemy zwykle zakładali, że chwila początkowa była - z punktu widzenia badanego procesu - wybrana losowo, tj. niezależnie od jego przebiegu. Na tym założeniu będą się także opierały odpowiednie charakterystyki probabilistyczne. W praktyce - np. właśnie przy studium ruchu drogowego, ale także i w innych sytuacjach - początkowego przedziału niekiedy nie bierze się wcale pod uwagę, tak że rejestracja zaczyna się dopiero w momencie, gdy występuje pierwsze wydarzenie. To upraszcza nieco studium badanego procesu. W jednym - bardzo ważnym w teorii przypadku, który poznamy bliżej w paragrafie II.5, wybór początku obserwacji t0 nie ma żadnego wpływu, a w procesach tego typu τ0 zachowuje się tak samo jak następne przedziały. Do wielkości τk i opartych na nich charakterystykach procesu stosuje się naturalnie ta sama uwaga, którą wypowiedzieliśmy przy okazji charakterystyk wywodzących się z N(s, t): rozkłady prawdopodobieństwa (1.8) i (1.9) same przez się nie dają jeszcze pełnego obrazu procesu, a zwłaszcza nie mówią nic o wzajemnej zależności wielkości τk. Uwagę tę można jeszcze dalej uogólnić. Jak już mówiliśmy w poprzednim paragrafie, wprowadzone tu sposoby zapisu procesu są wzajemnie równoważne. Moglibyśmy więc oczekiwać, że probabilistyczne charakterystyki procesu stochastycznego odpowiadające jednemu sposobowi zapisu pozwolą wyznaczyć charakterystyki odpowiadające innym sposobom. Taki wniosek byłby prawdziwy, gdybyśmy w danym przypadku dysponowali rzeczywiście wszystkimi TPR1-21 1 1. Systemy obsługi masowej – stracony czas charakterystykami, określającymi całkowicie zachowanie się procesu. Dotychczas jednak rozpatrywaliśmy tylko najbardziej elementarne informacje o rozkładach pojedynczych zmiennych losowych N(s, t) i τk, nie uwzględniając np. wzajemnych zależności. Nawet jednak znając wszystkie charakterystyki przy jednym ze sposobów zapisu nie zawsze łatwym zadaniem byłoby przetłumaczenie ich na inny sposób zapisu. (Aby się o tym przekonać, niech czytelnik pomyśli, jak by było można za pomocą probabilistycznych charakterystyk zmiennych losowych N(s, t) wyrazić np. informację zawartą w równości A5(0)= 1/2). Właśnie dlatego wygodnie jest rónolegle używać różnych sposobów zapisu procesu; każdy z nich uwypukla inne aspekty procesu, co przy właściwym wyborze zapisu pozwala nam wyrazić wiele ważnych własności procesu za pomocą stosunkowo prostych charakterystyk probabilistycznych. Konkretne tego przykłady poznamy już w następnym paragrafie. Nawet między elementarnymi charakterystykami, które wprowadziliśmy dotychczas, istnieją także pewne proste związki, które można niekiedy wyzyskać przy przejściu od jednego sposobu zapisu do innego. Tak np. można łatwo wyrazić rozkład zmiennej losowej τ0 za pomocą prawdopodobieństwa (1.4.8): jest przecież jasne, że nierówność τ0 > t oznacza, iż do chwili t nie zarejestrowano żadnego wydarzenia, czyli właśnie N(t) = 0. Równoznaczne zdarzenia losowe mają także równe prawdopodobieństwa, a stąd B0 (t ) = P{τ 0 ≥ t } = P{N (t ) = 0} = r0 (t ) . (1.4.21) Przypomnijmy tu jeszcze raz, że do prawdziwości (1.4.21) jest istotnie potrzebne założenie o niezależnym od przebiegu procesu wyborze punktu początkowego t0 przedziału τ0. Dla pozostałych przedziałów τi, i = 1, 2, 3, ..., nie możemy już otrzymać bez dalszych założeń tak prostego związku między Bi(t) i prawdopodobieństwami (1.4.9): nie można napisać po prostu Bi(t)= r0(t0,, t), choć tak by sugerowała powierzchowna analogia. Punkt ti zależy od realizacji procesu (nie jest ustalony pierwotnie) i nawet sam symbol r0 (ti, ,t) nie ma właściwie określonego sensu. Wróćmy jeszcze do pierwszego sposobu zapisu i do probabilistycznych charakterystyk liczb ti z ciągu (1.4.1). Rozkłady zmiennych losowych tn, n = 1, 2, ..., uzyskamy łatwo z prawdopodobieństw (1.4.8) za pomocą związku (1.4.4). Nierówność tn ≤ t oznacza, że n-te wydarzenie było zarejestrowane najpóźniej w chwili t; a to z kolei znaczy, że w chwili t było już zarejestrowanych przynajmniej n wydarzeń, czyli N(t) ≥ n. Dla dystrybuant Un(t) wielkości tn, n = 1, 2, ..., zachodzi więc równość ∞ ∞ j =n j =n U n (t ) = P{N (t ) ≥ n} = ∑ P{N (t ) = j} = ∑ r j (t ) . (1.4.22) Dla n = 1 otrzymamy (zgodnie z (1.4.21), (1.4.4) i (1.4.10)) ∞ U 1 (t ) = ∑ r j (t ) = 1 − r0 (t ) = A0 (t ) . (1.4.23) j =1 ponieważ t1= τ0. Wartosci średnie zmiennych losowych tn możemy teraz wyrazić albo bezpośrednio z (1.4.22) jako E (t n ) = ∫ Rn (t )dt , gdzie TPR1-22 1 (1.4.24) 1. Systemy obsługi masowej – stracony czas n −1 Rn (t ) = 1 − U n (t ) = ∑ r j (t ) , (1.4.25) j =0 albo za pomocą wartości średnich (1.4.14). Z (1.3) widzimy, że wielkości tn są sumami wielkości τi, więc (z addytywności wartości średniej) ich wartość średnia jest suma wartości średnich wielkości τi. W ten sposób otrzymujemy równość E (t n ) = ∑ E (τ i ) ,i = 1, 2,... (1.4.26) Jeśli teraz porównamy (1.4.19), (1.4.23) i (1.4.25) kolejno dla n = 1, 2, ...., to zauważymy, że oprócz (1.4.19) zachodzi także ∞ ∞ ∫ r (t )dt = ∫ B (t )dt = E (τ ), i 0 i i i = 0, 1, ... . (1.4.27) 0 Dla i = 0 wzór (1.4.26) jest tylko trywialnym wnioskiem z równości (1.4.20). Same rozkłady zmiennych losowych tn i τi zależą od siebie w sposób znacznie bardziej złożony, przynajmniej w przypadku ogólnym, dopóki się nic nie zakłada o wzajemnej zależności zmiennych losowych τi (por. następny paragraf). 1.4.4. Podstawowe klasy procesów W tym paragrafie, korzystając z wprowadzonych już podstawowych charakterystyk probabilistycznych procesu, określimy niektóre ważne typy procesów i własności, które ułatwią dalsze studium ich teorii. Czytelnik, który studiował już kiedyś uważniej dowolny podręcznik rachunku prawdopodobieństwa, zwrócił z pewnością uwagę na to, jak często zakłada się w tej teorii niezależność losowych prób, zdarzeń i zmiennych losowych. Znaczna część znanych wyników rachunku prawdopodobieństwa opiera się właśnie na niezależności i gdybyśmy to założenie odrzucili, to w większości przypadków nie moglibyśmy otrzymać pozytywnych wyników albo też ich sformułowanie i wyprowadzenie uległoby znacznym komplikacjom. Nie inaczej jest także w tej partii teorii procesów stochastycznych, którą tu omawiamy. Przypomnijmy najpierw, jak należy dokładnie rozumieć niezależność (5 Chodzi tu o niezależność w sensie rachunku prawdopodobieństwa; dla podkreślenia tego faktu nazywamy ją także stochastyczną niezależnością.) zmiennych losowych. Dane zmienne losowe X1, X2 , ..., Xn są niezależne, jeżeli dla dowolnie ustalonych liczb x1, x2, ..., xn prawdopodobieństwo jednoczesnego spełnienia nierówności X1 < x1, X2 < x2, ... ,Xn < xn jest zawsze równe iloczynowi prawdopodobieństw spełnienia pojedynczych nierówności P{X 1 < x1 , X 2 < x 2 ,..., X n < x n } = P{X 1 < x1 }P{X 2 < x 2 }...P{X n < x n } . (1.4.28) Oznacza to również, że określone tymi nierównościami zdarzenia losowe są niezależne oraz zachodzi dla nich prawo mnożenia prawdopodobieństw. Jest to podstawowe prawo probabilistyki, co przedstawia Tab. 1.1. Tab. 1.1 Podstawowe pojęcie probabilistyki Prawdopodobieństwo n zdarzeń równe jest iloczynowi prawdopodobieństw tych zdarzeń ⇔ są niezależne. TPR1-23 1 1. Systemy obsługi masowej – stracony czas Z pojęciem stochastycznej niezależności można też związać następującą, dość poglądową interpretację: znajomość rozkładu pewnej zmiennej losowej X dostarcza nam określonej informacji o tej zmiennej; ilość tej informacji nie ulegnie zmianie (to jest nie zwiększy się), jeśli dołączymy do niej znajomość wartości przyjętych przez inne zmienne losowe, niezależnie od X. Pojęcie niezależności będziemy teraz stosowali w naszej teorii procesów stochastycznych. W zależności od tego, jaką formą zapisu się posługujemy, w naturalny sposób dojdziemy do dwu podstawowych postaci warunku niezależności. Dany proces stochastyczny N(t) nazywamy procesem o przyrostach niezależnych (6 Ta nazwa wynika z faktu, że wielkości N(s, t) są rzeczywiście przyrostami funkcji N(t) - por. (1.4..4).), jeśli zmienne losowe N(s1, t1), N(s2, t2 ), ...,N(si, ti) są zawsze stochastyczne niezalżne (dla dowolnego i = 2, 3, ...), gdy tylko odpowiednie przedziały ( s1 , s1 + t1 〉, ( s 2 , s 2 + t 2 〉,..., ( s i , s i + t i 〉 są wzajemnie rozłączne (to znaczy żadne dwa z nich nie mają części wspólnej). Inny sposób wprowadzenia warunku stochastycznej niezależności wywodzi się z drugiej formy zapisu procesu. Powiemy, że dany proces stochastyczny jest regeneratywny, jeżeli zmienne losowe τi, i = 0, 1, ...., są stochastycznie niezależne. Jeśli ponadto wszystkie zmienne τi, i = 1, 2, ..., mają jednakowy rozkład prawdopodobieństwa, to znaczy, jeśli Ai(t) = A(t) niezależnie od i (i = 1, 2,...), to powiemy, że proces jest rekurentny. Wróćmy raz jeszcze do przykładu ruchu drogowego. Założenie niezależności w sensie pierwszym (niezależność przyrostów) oznacza tu, że liczba pojazdów mijających punkt kontrolny w określonym przedziale czasowym w żaden sposób nie zależy od liczby pojazdów, które przejechały lub przejadą w innym rozłącznym przedziale. Niezależność w sensie drugim (regeneratywność procesu) oznacza natomiast, że czasowe odstępy między przejazdami kolejnych pojazdów są stochastycznie niezależnymi zmiennymi losowymi. Właśnie w przypadku ruchu drogowego założenie niezależności na ogół nie jest spełnione. Wynika to z faktu, że poszczególne pojazdy na szosie wzajemnie oddziaływują na siebie (np. z powodu trudności wyprzedzania). Wykonane nieraz pomiary ruchu na szosach wskazują na to, że mamy tu do czynienia z procesami innego typu, chyba że nasilenie ruchu jest bardzo małe i można zaniedbać wzajemne oddziaływanie z rzadka jadących pojazdów. W przeciwieństwie do sytuacji w ruchu drogowym znane są z praktyki liczne przykłady konkretnych procesów (np. procesy obserwowane w centrali telefonicznej, klasycznym obiekcie zastosowań teorii masowej), dla których założenie niezależności jest całkiem do przyjęcia. Wyniki, uzyskane dla procesów o przyrostach niezależnych i procesów regeneratywnych lub rekurentnych, mają więc duże znaczenie, choć oczywiście nie wszędzie nam wystarczą. Trzeba tu sobie uświadomić, że ogólna teoria procesów, które nie spełniają żadnego z wprowadzonych tu warunków niezależności, jest znacznie bardziej skomplikowana, a także wciąż jeszcze nie całkiem opracowana. Tym bardziej więc będziemy się starali unikać tych trudniejszych sytuacji w naszej książce, chcąc w niej utrzymać elementarny charakter wykładu. Będziemy więc nadal zakładali ogólnie, że badany proces zawsze spełnia któryś z wprowadzonych warunków niezależności. Jak się już można tego domyślać z różnicy nazw, dwa wprowadzone tu warunki niezależności nie są wzajemnie równoważne. Istotnie, nietrudno jest podać przykłady procesów, które są np. rekurentne, ale nie mają niezależnych przyrostów (takie procesy poznamy w paragrafie II.9). Istnieją także, na odwrót, procesy o przyrostach niezależnych, które nie są regeneratywne (patrz np. Chinczyn, 1966, § 13 lub Beutler, Leneman, 1966). W definicji procesu rekurentnego nie nałożyliśmy żadnego warunku na rozkład długości pierwszego przedziału τ0: rozkład ten nie musi być taki sam jak rozkłady długości pozostałych przedziałów τi, i = 1, 2,.... Można by więc przypuszczać, że rozkład τ0 można wybrać całkiem dowolnie. W rzeczywistości jednak, w przypadku procesu rekurentnego, TPR1-24 1 1. Systemy obsługi masowej – stracony czas rozkład długości τ0 jest w pełni określony przez wspólny rozkład długości następnych przedziałów. Wprowadzimy teraz związek, jaki zachodzi między wspólną dystrybuantą A(t) przedziałów τi, i = 1, 2, ..., lub odpowiednią funkcją B(t) = 1- A(t), a dystrybuantą A0(t) pierwszego przedziału τ0. Przy okazji wyjaśnimy również znaczenie postulatu, o którym mówiliśmy już w poprzednim paragrafie, że początek obserwacji t0 ma być wybrany niezależnie od przebiegu procesu. Trzecim celem tego rozumowania będzie nabycie pewnej wprawy w operowaniu prawdopodobieństwami warunkowymi oraz w stosowaniu prawa wielkich liczb. Dla prostoty będziemy zakładali, że istnieje skończona wartość średnia T długości przedziału τi, i = 1, 2, ..., ∞ T = E (τ i ) = ∫ B(t )dt (1.4.29) 0 (por. (1.4.26)) oraz że A(0) = 0. Wyobraźmy sobie najpierw - co jest na ogół dość realistyczne - że dany rekurentny proces przebiegał niezależnie od naszej obserwacji już przez pewien czas zanim rozpoczęliśmy eksperyment. Dla obserwatora, który zacząłby obserwację wcześniej od nas, początek naszego eksperymentu t0 byłby punktem, który nie ma nic wspólnego z realizacją procesu (moment t0 był wybrany losowo i niezależnie od przebiegu procesu), punktem, który trafił gdzieś do tej realizacji, to jest do któregoś z przedziałów między kolejnymi wydarzeniami rejestrowanymi w tym procesie. Jaka jest prawdopodobna długość tego „istniejącego obiektywnie” przedziału, do którego trafił początek naszej obserwacji t0 ? Jest jasne, że większe są szanse trafienia do przedziału dłuższego niż krótszego, trzeba tu jednak uwzględnić także rozkład długości tych przedziałów. Rozkład ten jest właśnie dany wspólną dystrybuantą A(t); przy czym przedziały zerowej długości (do których trudno by było trafić), w konsekwencji przyjętego założenia A(0) = 0, nie mogą wystąpić. Wyobraźmy sobie teraz, że dla wyboru t0 mamy do dyspozycji pewną wielką liczbę M takich przedziałów, których długości są niezależnymi zmiennymi losowymi z jednakową dystrybuantą A(t). Łączna długość, którą te odcinki pokrywają, jest (z dostateczną dokładnością względną przy dużym M) jest równa MT. Prawdopodobieństwo, że początek obserwacji t0 trafi do przedziału o określonej długości, jest proporcjonalne do całkowitej długości pokrytej takimi właśnie przedziałami. Niech h będzie małą liczbą dodatnią. Dla każdego t ≥ 0 w przybliżeniu M[A(t + h)-A(t)] spośród naszych M przedziałów ma długość d z zakresu od t do t + h; t < d ≤ t + h, to jest w przybliżeniu równą t + h (dokładność tej oceny jest tym większa, im mniejsze jest h, a większe M). Całkowita długość, którą te przedziały pokrywają, jest więc w przybliżeniu równa (t + h) M[A(t + h) - A(t)]. Stosunek tej długości do całkowitej długości MT wszystkich przedziałów jest w przybliżeniu równy t+h A( t + h) − A( t ) . T [ ] Jest to jednocześnie (z dostateczną dokładnością przy małym h, a dużym M) prawdopodobieństwo tego, że początek t0 trafi do przedziału o długości w przybliżeniu t + h lub od t do t + h. Jeśli jednak t0 trafi do przedziału o długości d, to wielkość τ0 będzie równa długości odcinka czasowego od t0 do końca trafionego przedziału i musi spełniać warunek τ0 ≤ d. Przy tym prawdopodobieństwo tego, że τ0 będzie co najwyżej równe liczbie , dla 0 ≤ τ ≤ d, jest proporcjonalne do τ, to jest równe τ/d, czyli stosunkowi długości tej części trafionego przedziału; w której musimy wybrać t0 , aby reszta przedziału nie była większa niż τ, do długości całego przedziału. Dla τ > d nierówność τ0 ≤ τ jest prostą konsekwencją nierówności τ0 ≤ d, a stąd wynika, że prawdopodobieństwo nierówności τ0 ≤ τ jest w tym przypadku TPR1-25 1 1. Systemy obsługi masowej – stracony czas jednością. W obu przypadkach chodzi oczywiście o prawdopodobieństwo warunkowe nierówności τ0 ≤ τ przy ustalonym d. Iloczyn τ t+h τ A( t + h) − A( t ) = B ( t ) − B ( t + h) , t+h T T [ ⋅ ] [ ] (1.4.30) lub 1 t+h t+h A( t + h) − A( t ) = B ( t ) − B ( t + h) T T [ ] [ ] (1.4.31) jest więc prawdopodobieństwem tego, że jednocześnie: 1° długość d „trafionego” przedziału jest t < d ≤ t + h; 2° spełniona jest nierówność τ0 ≤ τ; przy czym (1.4.30) dotyczy przypadku τ ≤ t, a (4.4) przypadku τ > t. Ograniczymy się teraz do takich wartości τ, które są całkowitymi wielokrotnościami liczby h. (Czym mniejsze jest h, tym mniejszy błąd popełniamy biorąc zamiast dowolnej wartości τ najbliższą wielokrotność liczby h). Zdarzenie losowe określone nierównością τ0 ≤ mh (m całkowite) można rozłożyć na ciąg rozłącznych zdarzeń losowych, zdefiniowanych jednoczesnym spełnieniem dwu nierówności: τ0 ≤ mh oraz ih < d ≤ (i + 1)h, dla i = 1, 2, ... Prawdopodobieństwa tych zdarzeń znamy już z (1.4.29) i (1.4.30), a przez ich zsumowanie otrzymamy prawdopodobieństwo nierówności τ0 ≤ mh: m −1 P{τ 0 ≤ mh} = ∑ (i + 1)h [B(ih ) − B(ih + h )] + i =0 T ∞ mh [B(ih ) − B(ih + h )] = i=m T ∑ m −1 = T −1 ∑ (ih + h )B(ih ) − ∑ (ih + h )B(ih + h + mhB(mh )) = i =0 i =0 m −1 m −1 = T −1 ∑ hB(ih ) . i =0 τ Ostatnia suma nie jest niczym innym jak tylko przybliżonym wyrażeniem całki ∫ B( t )dt z 0 dokładnością znowu zależną od h. W miarę zmniejszania h wszystkie h nasze obliczenia będą coraz dokładniejsze, a w granicy, przy h → 0, otrzymamy szukany związek ( 7 Krótsze, lecz nie tak elementarne wyprowadzenie tego związku znajdzie czytelnik np. u Riordana (1962), § 2.3.) τ A0 (τ ) = T −1 ∫ B( t )dt , τ ≥ 0. (1.4.32) 0 Gdy założenie A(0) = 0 nie jest spełnione, wówczas przyjmiemy A*(x) = [A(x) - A(0)]/[1A(0)]. Funkcja A* jest dystrybuantą długości niezerowych odstępów, czyli że A*(x) jest warunkowym prawdopodobieństwem nierówności τk < x przy założeniu, że τk > 0. Przy wyborze początku t0 trafiamy z prawdopodobieństwem 1 - to jest, praktycznie zawsze - do przedziału o długości niezerowej, ponieważ trafienie w przedział zerowy oznaczałoby wybór początku obserwacji właśnie w momencie pojawienia się jednego z obserwowanych wydarzeń, a to jest mozliwe tylko z prawdopodobieństwem 0. Dystrybuantę A0(t) pierwszego przedziału τ0 uzyskamy więc i w tym przypadku z wzoru (1.4.31), jeśli w nim zastąpimy TPR1-26 1 1. Systemy obsługi masowej – stracony czas funkcję B(t) funkcją B*(t)=1 - A*(t), a zamiast T danego wzorem (1.4.28) weźmiemy ∞ T * = ∫ B *(t )dt . 0 Zdefiniujmy teraz dalszą ważną klasę procesów stochastycznych, a mianowicie tak zwane procesy jednorodne. Proces stochastyczny nazywamy jenorodnym, jeżeli prawdopodobieństwa (1.4.9) zależą jedynie od t, to jest, tylko od długości odpowiedniego przedziału, a nie od jego położenia określonego punktem początkowym s. Dla procesów jednorodnych zaciera się więc całkiem różnica między trzecim i czwartym sposobem zapisu: zmienna losowa N(s, t) ma przy dowolnym s zawsze ten sam rozkład prawdopodobieństwa, co i N(t). Jest przy tym jasne, że wraz z prawdopodobieństwami (1.18) niezależne od s będą rónież i inne charakterystyki procesu, które są określone przez te prawdopodobieństwa. Zauważmy jednak przy tym, że w przypadku całkiem ogólnego procesu stochastycznego podane tu sformułowanie warunku jednorodności mogłoby być niewystarczające. Musielibyśmy wtedy postulować, że nie tylko rozkłady pojedynczych wielkości N(s, t), ale i dowolnych układów takich wielkości są niezależne od sztywnego przesunięcia w czasie; dopiero wtedy wszystkie charakterystyki procesu byłyby w taki sposób niezależne od czasu. Dla procesów o przyrostach niezależnych, którymi będziemy się tu interesowali przede wszystkim, zupełnie wystarcza pierwotne prostsze sformułowanie. Dla procesów jednorodnych można bezpośrednio wprowadzić prostą, lecz ważną charakterystykę liczbową. Ze związku (1.4.23) uzyskamy mianowicie, w specjalnym przypadku procesu jednorodnego, równość (patrz także notkę (3Stracony czas) na str. 22): E ( N (t + u )) = E (N (t )) + E ( N (u )) , (1.4.32) a stąd E ( N (t )) = tE (1) = tµ . (1.4.33) Stałą µ = E(N(1)), to jest średnią liczbę wydarzeń zarejestrowanych w jednostce czasu, nazywamy gęstością procesu. Będziemy się tu zajmowali jedynie takimi przypadkami, gdy gęstość procesu jest dodatnia i skończona. Procesy o gęstości zerowej nie są interesujące, bo rejestrowane w nich wydarzenia praktycznie nigdy nie występują (to tak, jak gdybyśmy chcieli na naszych szosach obserwować ruch karawan wielbłądów). Także drugi przypadek ekstremalny procesu z nieskończoną gęstością, choć sam w sobie niewątpliwie ciekawszy, dla uproszczenia wyłączymy z naszych rozważań. Procesy jednorodne mają także znacznie prostszą strukturę niż ogólne procesy niejednorodne. W praktycznych zastosowaniach przyjmiemy więc założenie jednorodności badanego procesu zawsze tam, gdzie jest ono możliwe; nawet wtedy, gdy w pewnych przypadkach musimy przez to ograniczyć czas ważności uzyskanych wyników. Tak np. przy badaniu ruchu drogowego średnia liczba przejeżdżających pojazdów w jednostce czasu będzie się w ciągu dnia istotnie zmieniała: w istocie jest to więc proces niejednorodny. Jeżeli jednak ograniczymy się do krótszego okresu czasu, np. do jednej godziny, to założenie stałości charakterystyk procesu będzie już łatwiejsze do przyjęcia. Zazwyczaj dużo łatwiej jest rozpatrzyć oddzielnie kilka częściowych przypadków przy założeniu jednorodności, aniżeli usiłować ująć cały proces we wszystkich jego fazach jednym skomplikowanym modelem. Procesy jednorodne mają jeszcze jedną ważną własność, która prowadzi do definicji dalszej charakterystyki procesu. Prawdopodobieństwo r0(t) jest oczywiście nierosnącą funkcją argumentu t: im dłużej prowadzimy obserwację, tym mniejsze jest prawdopodobieństwo, że TPR1-27 1 1. Systemy obsługi masowej – stracony czas nie zarejestrujemy żadnego wydarzenia. Możemy znowu przyjąć r0(0) = 1: w przedziale o zerowej długości nic nie zarejestrujemy. Jak można udowodnić (szczegółowy, dość długi dowód znajdzie czytelnik u Chinczyna, 1966, §7), dla każdego procesu jednorodnego istnieje granica lim t →∞ 1 − r0 (t ) =λ ≥0; t (1.4.34) jest to w istocie pochodna (prawostronna) funkcji r0(t) w punkcie t = 0, wzięta ze znakiem ∞ przeciwnym. Liczba λ nazywa się parametrem procesu jednorodnego. Ponieważ ∑ r (t ) = 1 j j =0 oraz rj(t) ≥ 0 dla wszystkich t ≥ 0, więc ∞ ∞ j =0 j =1 1 − r0 (t ) = ∑ r j (t ) ≤ ∑ jr j (t ) = E ( N (t )) = µt . (1.4.35) Wynika stąd nierówność λ ≤ µ, ważna dla każdego procesu jednorodnego. W procesie jednorodnym rozważmy teraz zdarzenie losowe zdefiniowane jak następuje: w przedziale czasowym o długości h (h < 0) zarejestrujemy przynajmniej jedno wydarzenie, a następnie w bezpośrednio przylegającym przedziale o długości t (t > 0) nie zarejestrujemy żadnego wydarzenia. Ponieważ zakładamy, że proces jest jednorodny, prawdopodobieństwo zdefiniowanego zdarzenia nie zależy od położenia tych przedziałów, lecz tylko od ich długości h i t; możemy je więc oznaczyć symbolem w(h, t). Im większe jest t, tym mniejsze jest prawdopodobieństwo, że w drugim przedziale (o długości t) nie pojawi się żadne wydarzenie: przy h ustalonym w(h, t) jest oczywiście nierosnącą funkcją zmiennej t. Na Rys. 1.3. przedstawiono schemat ilustrujący układ tych przedziałów w czasie. Jedno zgłoszenie Brak zgłoszeń h t Rys. 1.3. Prawdopodobieństwo w(h, t ) Prawdopodobieństwo tego, że w pierwszym przedziale pojawi się przynajmniej jedno wydarzenie bez względu na liczbę wydarzeń w przedziale drugim, jest równe 1- r0(h), czyli że dla dowolnego t > 0 spełniona jest nierówność w(h, t ) ≤ 1 − r0 (h ) . (1.4.36) Weźmy następnie inne zdarzenie losowe, które polega na tym, że ani w pierwszym przedziale o długości h, ani w następnym o długości t, a więc także w całym przedziale o długości h + t, który uzyskamy przez ich połączenie, nie zarejestrujemy żadnego wydarzenia. TPR1-28 1 1. Systemy obsługi masowej – stracony czas To zdarzenie ma prawdopodobieństwo r0(h + t) i jest oczywiście rozłączne ze zdarzeniem pierwszym. Jeśli jednak w drugim przedziale (o długości t) nie wystąpi żadne wydarzenie, to jedno z dwu zdefiniowanych zdarzeń zawsze się zrealizuje: albo w pierwszym przedziale zarejestrujemy przynajmniej jedno wydarzenie - to jest zrealizuje się zdarzenie pierwsze albo nie zarejestrujemy żadnego wydarzenia - a wtedy zrealizuje się zdarzenie drugie. Zgodnie z regułą dodawania prawdopodobieństw zdarzeń rozłącznych mamy więc w(h, t ) + r0 (h + t ) = r0 (t ) , (1.4.37) ponieważ r0(t) jest właśnie prawdopodobieństwem tego, że w przedziale o długości t nie zarejestrujemy żadnego wydarzenia. W podobny sposób jak się dowodzi istnienia parametru w procesie jednorodnym, tj. istnienia granicy (1.4.34), można udowodnić (patrz znowu Chinczyn, 1966, §7), ze istnieje również granica lim h →0 r (t ) − r0 (t + h ) w(h, t ) = lim 0 = −r0' (t ) . h →0 h h (1.4.38) Z nierówności (1.4.36) wynika więc zarówno nierówność - r0(t) ≤ λ , jak i istnienie granicy lim h →0 w(h, t ) = ϕ 0 (t ) ≤ 1 . 1 − r0 (h ) (1.4.39) Zdefiniowaną w ten sposób funkcję ϕ0(t) nazywa się funkcją Palma ϕ0;jest to następna ważna charakterystyka jednorodnego procesu. Z porównania (1.4.38), (1.4.39) i (1.4.34) otrzymamy równość r0' (t ) = λϕ 0 (t ) ; (1.4.40) ponieważ zaś r0(0) = 1, więc t r0 (t ) = 1 − λ ∫ ϕ 0 (u )du . (1.4.41) 0 Podobne zależności - tak zwane wzory Palma - można wyprowadzić również dla dalszych prawdopodobieństw ri(t), i = 1, 2, ...., za pomocą dalszych funkcji Palma ϕi(t), i = 1, 2, .. (patrz Chinczyn, 1966, §10). Ponieważ τ0 = t1, więc dla procesu jednorodnego jest także A0 (t ) = P{τ 0 < t} = P{N (t ) = 0} = 1 − r0 (t ) = (1.4.42) t = λ ∫ ϕ 0 ( u)du ; 0 zmienna losowa τ0 ma więc gęstość rozkładu λϕ0(t). Wzory na dystrybuanty dalszych przedziałów τi, i = 1, 2, ..., są w ogólnym przypadku bardziej skomplikowane. Z równości (1.4.42) wynika następnie TPR1-29 1 1. Systemy obsługi masowej – stracony czas ∞ 1 = A0 ( +∞) = λ ∫ ϕ 0 ( u)du , (1.4.43) 0 czyli że ∞ ∫ ϕ ( u)du = λ −1 0 . (1.4.44) 0 Odpowiednik parametru λ można wprowadzić również i dla procesów niejednorodnych spełniających pewne warunki. W przypadku niejednorodnym parametr procesu nie jest oczywiście zmienną stałą, lecz funkcją zależną od czasu. Wartość parametru w chwili s definiujemy podobnie do (1.4.34) jako granicę λ (s ) = lim t →∞ 1 − r0 (s, t ) , t (1.4.45) jeśli granica ta istnieje: w odróżnieniu od przypadku jednorodnego granica (4.19) dla procesu niejednorodnego nie musi być określona. Jest znowu λ(s) ≥ 0 dla każdego s ≥ 0, a własności λ(s) są analogiczne do własności parametru λ w przypadku jednorodnym. Dla dokładniejszego poznania teorii procesów niejednorodnych i własności parametru procesu w takim ogólniejszym sensie może się czytelnik zwrócić do szczegółowej literatury przedmiotu, a w szczególności do prac Fiegera (1964, 1965), Ziteka (1958) i innych. Wydzielimy teraz jeszcze jedną klasę procesów stochastycznych charakteryzujących się tym, że nie dochodzi w nich do koincydencji dwu lub więcej wydarzeń w tym samym momencie. Powiemy, że dany proces stochastyczny jest pojedynczy, jeśli dla każdego s ≥ 0 spełniony jest warunek lim t →0 1 − r0 (s, t ) − r1 (s, t ) = 0. t (1.4.46) Spełnienie warunku (1.4.46) dla danego procesu oznacza, że w bardzo krótkim przedziale czasowym więcej niż jedno wydarzenie pojawić się może tylko z zaniedbywalnie małym prawdopodobieństwem, rzędu mniejszego niż długość przedziału. Wyłącza to praktycznie i ten przypadek, gdy dwa lub więcej wydarzenia pojawiają się jednocześnie. Dla procesów jednorodnych można udowodnić (patrz Cinczyn, 1966, §11), że pojedynczość procesu jest równoważna równości λ = µ (gęstość procesu jest równa jego parametrowi) (8 Równość λ = µ jako własność charakterystyczną pojedynczych procesów można przy określonych założeniach uogólnić także na przypadek procesów niejednorodnych (por. Fieger, 1965 i Zitek, 1958). Ze związków (1.4.46) i (1.4.34) wynika następnie równość λ = lim r1 (t ) / t . Stosując symbol o (patrz D.1, str. 155) możemy więc dla t → 0 napisać t →0 r0 (t ) = 1 − λt + o(t ) , r1 (t ) = λt + o(t ) , (1.4.47) U 2 ( t ) = o( t ) . (Definicja funkcji U2 dana była wzorem (1.4.31)). W teorii procesów stochastycznych założenie pojedynczości daje znaczne uproszczenia, między innymi także we wzajemnych powiązaniach między pozostałymi TPR1-30 1 1. Systemy obsługi masowej – stracony czas podstawowymi własnościami procesu. Można np. udowodnić (patrz Chinczyn, 1966, str. 54), że pojedynczy proces o przyrostach niezależnych jest także regeneratywny. Następny interesujący związek dostaniemy w przypadku procesu regeneratywnego, który jest pojedynczy i jednorodny. Można wtedy udowodnić (patrz Chinczyn, 1966), że proces taki jest również rekurentny, a z porównania (1.4.31) i (1.4.42) otrzymamy także równość B( t ) = λTϕ 0 ( t ) . (1.4.48) Jeśli dla pojedynczego procesu jest B(0)=1= ϕ0(0), to z (1.48) wynika prosto, że B(t)= ϕ0(t) i T=λ-1 (por. Chinczyn, 1966, § 13). W praktyce nie możemy zawsze ominąć przypadku procesu nie spełniającego warunki pojedynczości; przy czym ma to miejsce zazwyczaj wtedy, gdy kilka wydarzeń może się pojawić w jednej chwili. Niekiedy możemy sobie wtedy poradzić w ten sposób, że obserwowane jednocześnie wydarzenia będziemy rejestrowali kolejno, jako następujące po sobie w małych, ale dodatnich odstępach czasowych (np. co 1/100 sekundy). W ten formalny sposób unikniemy nieprzyjemnej koincydencji wydarzeń, ale nie zawsze takie postępowanie jest właściwe. Aby można było ogólnie stosować wyniki dotyczące jedynie procesów pojedynczych, można również wprowadzić następującą modyfikację sposobu rejestracji. Będziemy notowali dwie informacje: momenty, w których zaobserwowaliśmy wydarzenia i liczby wydarzeń obserwowanych jednocześnie. Zamiast zwykłego ciągu (1.4..1) otrzymamy teraz ciąg par (ti, li): liczby ti - teraz już bez powtórzeń tych samych wartości - będą oznaczały momenty rejestracji; a liczby całkowite li - liczby zaobserwowanych wydarzeń w momentach ti. W większości przypadków spotykanych w praktyce nowy ciąg t0, t1, .... tworzy już zapis pojedynczego procesu (9Samo zróżnicowanie liczb ti jeszcze nie wystarczy do zapewnienia pojedynczości procesu; potrzebne jest spełnienie warunku (1.4.46). Trudniejsze badanie niepojedynczego procesu wyjściowego zredukujemy w ten sposób do badania nowego prostszego procesu pojedynczego, uzupełnionego oczywiście koniecznym zdobyciem informacji o liczności grup jednoczesnych wydarzeń. Z podobnym rozkładem procesu na dwie oddzielne prostsze składowe spotkamy się jeszcze w paragrafie 6. Podsumowanie pojęć opisujących procesy stochastyczne zawiera Tab. 4.2. Tab. 1.2 Podstawowe pojęcia procesów stochastycznych Proces o przyrostach niezależnych (tj. jeżeli dwa rozłączne przedziały są niezależnymi zmiennymi losowymi); Proces jednorodny (tj. niezależny od położenia na osi czasu); Proces rekurentny (tj. odnawiający się) 1.4.5. Proces Poissona W tym paragrafie poznamy bliżej pewien specjalny, ale o dużym znaczeniu praktycznym, typ procesu stochastycznego, a mianowicie tak zwany jednorodny proces Poissona. Jest to proces jednorodny o przyrostach niezależnych scharakteryzowany tym, że zmienne losowe N(s, t) mają wszystkie rozkład Poissona rn (s, t ) = P{N (s, t ) = n} = e − λt (λt ) n !,n = 0,1,... , n TPR1-31 1 (1.4.49) 1. Systemy obsługi masowej – stracony czas gdzie λ jest stałą dodatnią. Niezależność prawdopodobieństwa (1.4.49) od zmiennej losowej s jest wynikiem zakładanej jednorodności procesu; możemy się więc ograniczyć do badania wielkości N(t) i odpowiednich prawdopodobieństw rn(t). Dla n = 0 jest r0(t) = e-λt i z (4.8) widzimy, że liczba jest właśnie parametrem procesu. Łatwo się też przekonamy, że spełniona jest także równość (1.4.46), a mianowicie 1 − r0 (t ) − r1 (t ) 1 − e − λt − λte − λt = lim = lim o(t ) t = 0 , t →∞ t →0 t →0 t t lim czyli że proces Poissona jest pojedynczy. Z (1.4.40) wynika następnie równość ϕ0(t) = e-λt; a stąd oraz z (1.4.42) i (1.4.48) otrzymujemy B( t ) = B 0 ( t ) = e − λt . (1.4.50) W procesie Poissona wszystkie przedziały τi, i = 1, 2, ... (łącznie z τ0!) mają jednakowy rozkład, a mianowicie rozkład wykładniczy (patrz D.4), str. 160) z parametrem λ. Patrz Rys. 1.4. Losowy (asynchroniczny) moment rozpoczęcia obserwacji Synchroniczny moment obserwacji t0 τ0 τ1 t1 t0 t2 τ 0 ,τ 1 ,...,τ i - odstępy czasu, t 0 , t1 , t 2 ,..., t i - momenty zgłoszeń Ponieważ τ 0 < t1 − t 0 , to ogólnie rozkład τ 0 jest inny niż τ z wyjątkiem procesu Poissona Rys. 1.4. Wyjaśnienie paradoksu procesu Poissona, w którym rozkład prawdopodobieństwa τ 0 jest taki sam jak t 1 − t 0 . W końcu, z (1.4.48) i (1.4.49) wynika ∞ ∞ tµ = E ( N (t )) = e − λt ∑ n(λt ) n! = λte − λt ∑ (λt ) n! = λt , n n =1 n n=0 czyli że liczba λ jest także gęstością procesu (równość µ = λ jest właśnie konsekwencją pojedynczości procesu - por. str. 37). Wyprowadzone własności są charakterystycznymi własnościami procesu Poissona; wykażemy teraz, że jednorodny, pojedynczy proces o przyrostach niezależnych jest zawsze procesem Poissona. Z założenia jednorodności procesu i niezależności przyrostów wyprowadzimy najpierw, że dla wszystkich t ≥ 0 i h ≥ 0 zachodzi równość r0 (t + h ) = r0 (t )r0 (h ) . TPR1-32 1 (1.4.51) 1. Systemy obsługi masowej – stracony czas Jest to prosta konsekwencja prawa mnożenia prawdopodobieństw zdarzeń niezależnych: na to, by żadne wydarzenie nie nastąpiło w przedziale o długości t+h złożonym z dwu sąsiednich przedziałów o długości t i długości h, potrzeba i wystarcza, by nie wystąpiło żadne wydarzenie ani w pierwszym, ani w drugim z tych dwu przedziałów. Prostym wnioskiem z (1.51) jest równość r0 (t ) = [r0 (t n )] , n (1.4.52) która zachodzi dla dowolnego naturalnego n i t ≥ 0. Na mocy (1.4.46) - nasz proces z założenia jest pojedynczy - mamy przy n→ ∞ r0 (t n ) = 1 − λt n + o(1 n ) , a więc lim[r0 (t n )] = lim (1 − λt n ) , n n →∞ n n →∞ co jest znaną granicą (można ją znaleźć w każdym podręczniku analizy matematycznej). Przy n → ∞ z (1.4.52) dostajemy więc r0 (t ) = e − λt (1.4.53) dla dowolnego t ≥ 0. Do wyprowadzenia pozostałych prawdopodobieństw ri(t), i = 1, 2, ...., użyjemy metody, która przyda się nam jeszcze nieraz w dalszych rozważaniach. Rozpatrzmy dwa bezpośrednio po sobie następujące przedziały, z których pierwszy ma długość t, a drugi h ( t > 0, h > 0). Wielkość (t + h) jest prawdopodobieństwem zdarzenia polegającego na tym, że w całym przedziale o długości t + h wystąpi dokładnie i wydarzeń. To zdarzenie możemy rozłożyć na i+1 szczególnych przypadków, które są wzajemnie rozłączne i charakteryzują się liczbą wydarzeń występujących w pierwszym przedziale (o długości t). Ta liczba może przyjmować wartości 0, 1,..., i, przy czym pozostałe wydarzenia (do całkowitej liczby i) muszą wystąpić w drugim przedziale (o długości h). Ponieważ zakładamy, że proces ma przyrosty niezależne, więc - znów na podstawie prawa mnożenia prawdopodobieństw prawdopodobieństwa tych szczególnych przypadków są iloczynami v j (t ) ⋅ vi − j (h ), j = 0, 1, ..., i . Stosując regułę dodawania prawdopodobieństw otrzymujemy ri (t + h ) = ri (t )r0 (h ) + ri −1 (t )r1 (h ) + ... + r0 (t )ri (h ) . (1.4.54) czyli ri (t + h ) − ri (t ) = ri (t )[r0 (h ) − 1] + ri −1 (t )r1 (h ) + ... + r0 (t )ri (h ) . (1.4.55) Niech teraz długość drugiego przedziału dąży do zera; z pojedynczości procesu - patrz (1.4.46) - wynika równość TPR1-33 1 1. Systemy obsługi masowej – stracony czas ri' (t ) = lim h →0 ri (t + h ) − ri (t ) = −λri (t ) + λri −1 (t ) h i ostatecznie ri' (t ) = λ [ri −1 (t ) − ri (t )]. (1.4.56) Przyjmijmy teraz ri(t) = e-λtµi(t); to podstawienie uprości dalsze rachunki. Na mocy (1.4.53) jest u0(t) = 1, podczas gdy dla i ≥ 1 jest ri(0) = ui(0) = 0. Podstawiając do (1.4.56) otrzymamy − λe − λt u i (t ) + e − λt u i' (t ) = λe − λt u i −1 (t ) − λe − λt u i (t ) , to jest u i' (t ) = λu i −1 (t ) . (1.4.57) Ponieważ znamy u0(t) i uk(0) dla k ≥ 1, więc z (1.4.57) możemy kolejno obliczyć wszystkie ui(t): otrzymamy w ten sposób u1(t)= λt, u2(t)= λ2t2 /2, ...i ogólnie u i (t ) = (λt )i i!, i = 0, 1, ... (1.4.58) (wzór (1.4.57) można także łatwo udowodnić metodą indukcji zupełnej). Z (1.4.58) dostajemy już bezpośrednio szukany wynik ri (t ) = e − λt (λt ) i!, i i = 0, 1, ... , (1.59) zgodny z (1.4.49). Już w poprzednim paragrafie (patrz str. 38) powiedzieliśmy, że pojedynczy proces o przyrostach niezależnych musi być także regeneratywny, czyli że wielkości τk są stochastycznie niezależne. W przypadku jednorodnego procesu Poissona wszystkie τi (łącznie z τ0) mają zgodnie z (1.50) rozkład wykładniczy. Także ta własność charakteryzuje proces Poissona: można go zdefiniować jako proces rekurentny, w którym τi mają rozkład wykładniczy B(t) = e-λt, λ > 0 Istotnie, ponieważ B(0) = 1, więc z (1.31) wnioskujemy łatwo, że B0(t) = e-λt , a więc także τ0 ma rozkład wykładniczy z parametrem λ. Zgodnie z (1.4.2) ti jest zmienną losową, która jest sumą i niezależnych zmiennych losowych o jednakowym rozkładzie wykładniczym. Z uwagi na to (patrz D.5, str.163) zmienna ti ma rozkład Erlanga z parametrami λ i i. Z (D.4.6) wynika, że dla t ≥ 0 jest i −1 P{t i > t } = e − λt ∑ (λt ) j j! ; (1.4.60) j =0 ponieważ zaś (por. (1.4.31)) P{t i > t } = P{N (t ) < i}, TPR1-34 1 (1.4.61) 1. Systemy obsługi masowej – stracony czas więc z porównania (1.4.60) i (1.4.61) widzimy, że zachodzi również (1.4.49), to znaczy, że dany proces jest istotnie procesem Poissona. Nietrudno jest także udowodnić, że proces Poissona może być scharakteryzowany jako rekurentny, dla którego spełniona jest równość B0(t) = B(t); szczegółowy dowód tego faktu pozostawiamy czytelnikowi, nie będzie to wcale trudne, jeśli skorzysta ze związku (1.4.31). Warto także wspomnieć jeszcze jedną charakterystyczną własność procesu Poissona. Rozważmy znowu zmienne losowe t1, t2, ... i załóżmy, że znamy już wartość t, jaką przyjęła zmienna tn. Można udowodnić, że zmienne losowe t1, t2, ..., tn-1 - przy znanym tn - są rozłożone jednostajnie (patrz D.4, str. 160) w przedziale (0,t)(10 Mówiąc dokładniej, należy to rozumieć jak następuje: zmienne losowe t1 , t2 , ..., tn-1 mają (n - 1) wymiarowy rozkład prawdopodobieństwa taki sam, jak układ zmiennych losowych Y1 , Y2 , ...., Yn-1 , których wartościami są ustawione w porządku niemalejącym wartości niezależnych zmiennych losowych X1 , X2 , ..., Xn-1 o jednakowym rozkładzie jednostajnym w przedziale (0, t) (Przyp. tłum.)) w przypadku specjalnym n = 2 zmienna t1 ma, przy znanym t2 = t, rozkład jednostajny w przedziale (0, t). Wyprowadzenie tej własności procesu Poissona również nie jest trudne. Wymaga ono jednak znajomości pojęcia warunkowego rozkładu prawdopodobieństwa i dlatego nie będziemy go tu podawali zadawalając się jedynie odsyłaczem do literatury (np. Girault, 1959 lub Gniedenko, Kowalenko, 1971), gdzie można znaleźć pełny dowód. Na Rys. 1.3 zamieszczono graficzną ilustrację tej własności rozkładu Poissona wykorzystywaną do budowy sprawnych generatorów liczb pseudolosowych o rozkładzie wykładniczym, przesuniętym wykładniczym lub Erlanga z zadaną z góry wartością średnią symulowanych okresów. W procesie Poissona zmienne t1 , t 2 ,..., t n −1 są rozłożone jednostajnie na odcinku (0, t n ) . Powyższy fakt jest wykorzystywany do tworzenia dobrych generatorów odstępów wykładniczych, przesuniętych wykładniczych, Erlanga, przesuniętych Erlanga o zadanej z góry dokładnej wartości t n równej 1 dobie, co jest ważnym narzędziem symulacji komputerowej, systemów kolejkowych jak na rys. 1.5. t1 t2 tn-1 tn=1 doba Uporządkowane liczby generatora jednostajnego dają sumę niezależnych zmiennych wykładniczych o tym samym rozkładzie i stałej wartości średniej t n . Rys. 1.5. Ilustracja zastosowania generatorów liczb jednostajnych do opisu rozkładu wykładniczego. Tak więc proces Poissona można zdefiniować na cztery sposoby równoważne ujęte na Tab. 1.3. Tablica 1.3. Proces Poissona Cztery równoważne definicje procesu Poissona: 1. Rozkład liczby zgłoszeń w jednostce czasu jest rozkładem Poissona 2. Rozkład odstępów między zgłoszeniami ma rozkład wykładniczy 4. Uporządkowane liczby z przedziału (0, t n ) mają rozkład jednostajnyny na tym odcinku TPR1-35 1 3. Proces pojedynczy jednorodny, bez następstw (bez pamięci) 1. Systemy obsługi masowej – stracony czas Na zakończenie tego paragrafu wspomnimy jeszcze krótko o pewnym uogólnieniu procesu Poissona, który właśnie poznaliśmy, a mianowicie o niejednorodnym procesie Poissona. Nazywamy tak proces stochastyczny o przyrostach niezależnych, dla którego zamiast (1.4.49) spełniony jest nieco bardziej skomplikowany wzór rn (s, t ) = e −[Λ ( s +t )− Λ ( s )] [Λ(s + t ) − Λ(s )] n!,n =,1,2,... , n (1.4.62) gdzie Λ(s) jest nieujemną funkcją niemalejącą, określoną dla s ≥ 0. Oznacza to, że liczba wydarzeń zarejestrowanych w przedziale czasowym ( s, s + t 〉 jest nadal zmienną losową o rozkładzie Poissona, jednak parametr tego rozkładu jest teraz funkcją nie tylko długości badanego przedziału, lecz także jego początku - chwili s. Proces jednorodny, tak jak go poznaliśmy, odpowiada przypadkowi funkcji liniowej Λ(s)= λs. W większości przypadków przy badaniu niejednorodnego procesu Poissona zakłada się istnienie pochodnej λ ( s) = Λ' ( s) = lim Λ ( s + t ) − Λ( s) t→ 0 t (1.4.63) tak, że s Λ( s) = ∫ λ ( u) du . (1.4.64) 0 Taki proces możemy interpretować jako proces Poissona ze zmiennym parametrem λ(s), zależnym od momentu s. Przy λ(s) =λ = const, otrzymamy istotnie Λ(s)= λs, to jest jednorodny proces Poissona (por. (1.4.45)). Możliwa jest także jeszcze inna interpretacja niejednorodnego procesu. Niech dany będzie jednorodny proces Poissona z parametrem równym 1 i rosnąca funkcja f(t) określona dla t ≥ 0, f(0) = 0. Będziemy znowu rejestrowali wydarzenia w tym procesie, z tym jednak, że zamiast obserwowanych t1, t2, ...,tn, .... będziemy zapisywali jako rejestrowane wyniki wielkości s1 = f(t1), s2 = f(t2), ... (tak, jak gdyby odczytywalibyśmy czas na „źle idącym” zegarze, który za czas od 0 do t „przejdzie” właśnie f(t)). W ten sposób zamiast (1.4.1) uzyskamy nowy ciąg 0 = s0 , s1 , s2 ,..., sn ,... , (1.4.65) który można traktować jako zapis nowego procesu losowego. Proste rozumowanie doprowadzi nas do wniosku, że jest to nadal proces stochastyczny o przyrostach niezależnych. Jakie jest jednak prawdopodobieństwo, że w przedziale ( s, s + t 〉 zarejestrujemy dokładnie n wydarzeń? Na to, by dokładnie n liczb si z ciągu (1.4.65) spełniało nierówność s < si ≤ s + t potrzeba (i wystarcza), aby już przed transformacją czasu dokładnie n liczb ti z ciągu (1.4.1) spełniało nierówność Λ(s) < ti ≤ λ(s + t), gdzie Λ=f -1 jest funkcją odwrotną względem funkcji f. Prawdopodobieństwo takiego zdarzenia jest równe νn(Λ(s), Λ(s + t) - Λ(s)), co potrafimy obliczyć na mocy przyjętego założenia, że pierwotny proces jest jednorodnym procesem Poissona z parametrem 1. Z (1.4.49) dostajemy na to prawdopodobieństwo właśnie wyrażenia (1.4.62). Niejednorodny proces Poissona okazuje się więc w tym przypadku procesem jednorodnym obserwowanym w nieliniowo płynącym czasie. TPR1-36 1 1. Systemy obsługi masowej – stracony czas Zauważmy jeszcze, że przy f(t) = t/λ, λ > 0, dostaniemy Λ(s)= λs i nowy proces będzie znów jednorodny, chociaż z parametrem λ zamiast 1. Widzimy więc że wszystkie jednorodne procesy Poissona możemy uzyskać z procesu o parametrze 1 poprzez prostą liniową transformację czasu. Warto również wspomnieć, że warunek istnienia skończonej pochodnej λ(s) z (1.4.63) zapewnia między innymi także zachowanie własności pojedynczości procesu Poissona: prawdopodobieństwa (1.4.62) spełniają wtedy warunek (1.4.46). TPR1-37 1