Wyk³ad 13 - Procesy stochastyczne

Transkrypt

Wyk³ad 13 - Procesy stochastyczne
Wykład 13
Procesy stochastyczne
Procesy stochastyczne X(t)
Proces stochastyczny to funkcja losowa X(t), czyli funkcja, której
wartości X leŜą w przestrzeni zdarzeń losowych.
Najprostszym przykładem procesu stochastycznego X(n), jest
wielokrotny rzut monetą: dziedziną funkcji jest zbiór liczb naturalnych N
(liczba rzutów n), natomiast wartością funkcji dla danej liczby n jest
jeden z dwóch moŜliwych stanów losowania: orzeł lub reszka (zdarzenie
losowe).
W praktyce dziedziną, na której zdefiniowana jest funkcja X(t), jest
najczęściej przedział czasowy (taki proces stochastyczny nazywany jest
szeregiem czasowym) lub obszar przestrzeni (wtedy nazywany jest polem
losowym).
Przykładami szeregów czasowych są: notowania giełdowe, sygnały
dźwiękowe takie jak mowa lub dźwięk pracującej maszyny, dane
medyczne takie jak EKG, EEG, ciśnienie krwi lub temperatura ciała,.
Przykładami pól losowych są obrazy krajobrazu, temperatura mierzona w
określonym czasie na pewnej powierzchni lub układ składników w
niejednorodnych materiale.
Procesy stochastyczne X(t)
Matematycznie, proces stochastyczny jest zazwyczaj
definiowany jako rodzina zmiennych losowych:
gdzie: Xt - zmienna losowa, zaś T to zbiór indeksów procesu
stochastycznego.
Zmienne Xt muszą być określone na tej samej przestrzeni
probabilistycznej.
Zbiór wartości zmiennych losowych Xt nazywamy
przestrzenią stanów procesu stochastycznego, zaś
pojedyncza wartość zmiennej losowej to stan procesu
stochastycznego.
Procesy stochastyczne Xn zdefiniowane na dyskretnej
przestrzeni stanów nazywane są łańcuchami.
Łańcuchy Markowa z przeliczalnym zbiorem stanów
Przestrzeń stanów (przestrzeń fazowa) E
E = {e1, e2,.........,eN} N = [1,2,......., N] (skończona liczba stanów)
E = {e1, e2,..............} N = [1,2,3, ........] (nieskończona liczba stanów)
Łańcuch Markowa
Ciąg zmiennych (X0, X1, X2,,,,,,,) taki, Ŝe
P{Xn = ei(n) / X0 = ei(0), X1 = ei(1),..........................., Xn-1 = ei(n-1)} =
P{Xn = ei(n) / Xn-1 = ei(n-1)} = Pi(n-1),i(n)
″niezaleŜność przyszłości od przeszłości przy znanej teraźniejszości″
P{X0 = ei(0), X1 = ei(1),..........................., Xn = ei(n)} =
= P{X0=ei(0)}P{X1=ei(1) /X0=ei(0)}.......... P{Xn=ei(n) /Xn-1=ei(n-1)}
Xn – stan cząstki (układu) w n-tym kroku
pi = P{X0 = ei} – rozkład początkowy
def
pi,j(n) = P{Xn = ej / X0 = ei}= P{Xk+n = ej / Xk = ei}
Łańcuchy Markowa
P = (pi,j) – macierz przejścia (macierz stochastyczna)
Warunki: pi,j ≥ 0; (∀i) Σ pi,j = 1;
j = 1,....,N
Pn = (pi,j(n)) (P0 = P)
pi,j(n) – stoi w i-tym wierszu i j-tej kolumnie macierzy Pn
pi,j(0) = 1 dla i = j, oraz pi,j(0) = 0 dla i ≠ j.
Równanie Chapmana-Kołmogorowa
pi,j(n + m) = Σ pi,k(n) pk,j(m)
k = 1,....,N
lub
Pn+m = Pn Pm
Łańcuchy Markowa
fj(n) = pj(n) = P{Xn =
def.
e j} –
rozkład prawdopodobieństwa
w n-tym kroku
pj(n +1) = Σ pi(n) pi,j
i = 1,....,N
pj(n) = Σ pi(0) pi,j(n)
i = 1,....,N
def.
p(n) = [p1(n), p2(n), ....., pN(n)]T
p(n + 1) = PT p(n)
p(n + 1) = (PT)n p(0)
Przykład: Klasycznym przykładem łańcucha Markowa jest spacer
losowy po prostej. Wyobraźmy sobie cząsteczkę, która moŜe się
poruszać wzdłuŜ linii prostej według następujących reguł: w chwili zero
cząsteczka znajduje się w punkcie o współrzędnej zero, natomiast w
następnych momentach czasu (1, 2, 3i tak dalej) moŜe się przesuwać o
jeden w lewo lub o jeden w prawo, z prawdopodobieństwami równymi
odpowiednio p oraz q, przy czym p + q = 1, JeŜeli p = q, to mówimy, Ŝe
spacer losowy jest standardowy.
Ergodyczność
T
π
=
lim
p
(
n
),
gdzie
p
(
n
)
=
[
p
(
n
)
,
p
(
n
),.....,
p
(
n
)
]
1
2
N
),
.
n→∞
π = [π1, π2, ....., πN]T - rozkład graniczny (stacjonarny)
Def. Łańcuch Markowa jest ergodyczny, jeŜeli istnieje rozkład graniczny
π niezaleŜny od rozkładu początkowego p(0):
(∀i) lim pi,j(n) = πj
n→∞
Równanie rozkładu stacjonarnego:
PTπ = π lub (PT - I)π = 0
gdzie I jest macierzą jednostkową.
Warunek unormowania: πT1 = 1.
Ergodyczność oznacza, Ŝe dla duŜych prawdopodobieństwo przejścia ze
stanu do stanu w krokach jest dodatnie i zaleŜy faktycznie od stanu
końcowego , zaś nie zaleŜy od stanu początkowego - prawdopodobieństwa
te moŜna otrzymać, rozwiązując odpowiedni układ równań liniowych.
Ergodyczność
Tw. ergodyczne: JeŜeli istnieje taka liczba naturalna n, Ŝe macierz Pn ma co
najmniej jedną kolumnę o wszystkich wyrazach dodatnich, to łańcuch
Markowa jest ergodyczny.
Przykład 1 (Kubik): Mamy daną macierz przejścia P:
 q p 0
P= q 0 p ,
gdzie 0 < p < 1, q = 1- p
 0 q p
MoŜna sprawdzić, Ŝe macierz P2 = P P ma wszystkie wyrazy dodatnie.
ZałoŜenia twierdzenia ergodycznego są więc spełnione. Stąd:
q π1 + q π2 = π1
oraz π1 + π2 + π3 = 1
p π1 + q π3 = π2
p π2 + p π3 = π3
Rozwiązanie układu równań: πi = (p / q)i-1/(1 + p / q + (p / q)2)
gdzie i = 1, 2, 3.
Przykład 2 (schemat urnowy jako sposób reprezentacji łańcucha Markowa
o N stanach): Mamy N urn z których kaŜda zawiera N rodzajów kul
ponumerowanych od 1 do N. Losujemy ze zwracaniem i w kolejnym
kroku przechodzimy do urny, o numerze wylosowanej kuli.
Klasyfikacja stanów łańcucha Markowa
Stany łańcucha Markowa moŜna pogrupować w klasy w zaleŜności od
tego, czy mogą one być osiągnięta z dowolnego stanu danej klasy.
″stan i jest osiągalny ze stanu j (i → j)″
wtedy i tylko wtedy, gdy istnieje takie n, Ŝe pi,j(n) > 0.
″stan i komunikuje się ze stanem j (i ↔ j)″
wtedy i tylko wtedy, gdy zarówno i → j jak równieŜ i ← j.
Relacja ″→ ″ jest przechodnia: ″i → j″ oraz ″j → k″ ⇒ ″i → k″
Klasą stanów nazywamy największy podzbiór przestrzeni stanów taki, Ŝe
dowolne dwa jego stany komunikują się ze sobą (″i ↔ j″).
Relacja ″i ↔ j″ nie jest zwrotna, moŜe istnieć niekomunikujący się ze sobą
a zarazem z Ŝadnym innym stanem (stan niepowracalny).
Podzbiór (klasę) M przestrzeni stanów nazywamy zamknięty wtedy i tylko
wtedy, gdy (∀i∈ M) Σ pi,j = 1 (wyjście ze zbioru M jest niemoŜliwe)
j∈M
Przykładem zbioru zamkniętego jest stan pochłaniający (pi,i = 1).
Stan i jest powracalny wtedy i tylko wtedy, gdy (∃ n ≥1) pi,j(n) > 0.
Klasyfikacja stanów łańcucha Markowa
Stan i jest powracalny wtedy i tylko wtedy, gdy (∃ n ≥1) pi,j(n) > 0.
JeŜeli i jest stanem powracalnym, to moŜemy zdefiniować jego okres di
jako największy wspólny dzielnik wszystkich liczb naturalnych m dla
których pi,j(m) > 0. Stan i jest okresowy, jeŜeli di > 1 oraz nieokresowy,
gdy di = 1.
Tw. Dwa róŜne stany naleŜące do tej samej klasy mają taki sam okres.
Innymi słowy, okresowość (o długości d) jest własnością klasy.
Klasa jest okresowa (periodyczna, cykliczna) albo nieokresowa
(aperiodyczna) w zaleŜności od tego czy d > 1 czy teŜ d = 1.
Przykład: Zagadnienie ruiny gracza. Pierwszy gracz ma na początku k jednostek
 1 0 0......0 kapitału a drugi l – k jednostek. Przegrywający gracz
q 0 p.... ..0 płaci jednostkę kapitału. Pierwszy gracz wygrywa z
P = .................... prawdopodobieństwem p a drugi z prawdop. q,
0 0 ... q 0 p gdzie 0 < p < 1, q = 1- p
 0 0... ...0 1
Błądzenie przypadkowe z ekranami pochłaniającymi (absorbującymi) w stanach 0 i l.
Procesy stochastyczne X(t, ω)
Przestrzeń probabilistyczna (Ω,B,P).
X(t, ω) = Xω(t)) - proces losowy z ciągłym czasem t. Funkcja czasu, która
dla kaŜdej wybranej chwili czasowej t jest zmienną losową.
x(t) = x(t, ω) – realizacja procesu stochastycznego (dla ustalonego
zdarzenia elementarnego ω).
t0 < t1 < t2 <............ < tn
X(t0), X(t1), X(t2),................, X(tn)
Xn = [X(t0), X(t1), ............., X(tn)]T (n → ∞)
Charakterystyka procesu losowego X(t, ω) przez wektor losowy Xn(ω) o
nieskończonej liczbie składowych X(ti). Funkcje dystrybuanty lub
gęstości wektora losowego Xn(ω) w pełni określają jego właściwości
stochastyczne.
,
Momenty procesu stochastycznego
Def. Momentem zwyczajnym mx(t0, t1,......, tk ) k-tego rzędu procesu
stochastycznego X(t) nazywamy wartość oczekiwaną iloczynu
zmiennych losowych X(t1)............X(tk):
mx( t1,......, tk ) = E[X(t1)............X(tk)] =
+∞
+∞
= ∫ ..........∫ x1...... xk fx(x1,..... ,xk; t1,......, tk ) dx
d 1...........dx
...........d k
-∞
-∞
Moment pierwszego rzędu (wartość oczekiwana) mx(t) procesu
stochastycznego X(t):
+∞
mx( t) = E[X(t)] = ∫ x fx(x; t ) dx
d
-∞
Moment centralny µx( t1,..., tk ) k-tego rzędu procesu stochastycznego X(t)
µx( t1,..., tk ) = +∞ +∞
= ∫ ....∫ (x1-mx(t1)).... (xk-mx(tk)) fx(x1,... ,xk; t1,..., tk ) dx
d 1....dx
....d k
-∞
-∞
Funkcja autokorelacji procesu
stochastycznego
Kx(t1, t2) – funkcja autokorelacji procesu stochastycznego X(t)
+∞ +∞
Kx(t1, t2) = ∫ ∫ (x1 - mx(t1)) (x2 -mx(t2)) fx(x1,,x2; t1, t2 ) dx
d 1dx2
-∞ -∞
Wx(t ) = Kx(t, t) – wariancja procesu stochastycznego X(t)
kx(t1, t2) = Kx(t1, t2) / (Wx(t1)Wx(t2)) - unormowana funkcja
autokorelacji procesu stochastycznego X(t)
Procesy ergodyczne
(procesy stacjonarne)
Wszystkie realizacje procesu stochastycznego X(t) są ″typowe″
Znajomość pojedynczej realizacji X*(t) na dostatecznie długim odcinku
czasowym pozwala wyznaczyć rozkład prawdopodobieństwa (lub jego
parametrów) w innej realizacji procesie X(t).
P{X(t) < y}= lim (1/T){ łączna długość odcinków czasowych z
T→∞
przedziału [0,T], kiedy było X*(t) < y}
T
E[X(τ)] = m = lim (1/T) ∫ X*(t) dt
T→∞
-∞
Szacowanie wartości oczekiwanej za pomocą ″średniej czasowej″.
Procesy Markowa
Zainteresowani jesteśmy wyznaczeniem prawdopodobieństw
warunkowych:
P{X(τ) < y / I}
gdzie I to informacje o przebiegu procesu X(t) dla pewnych
chwil ti < τ (t0 < t1 < ............ < tn < τ).
Dystrybuanta procesu Markowa charakteryzuje się właściwością:
P{X(τ) < y / X(tn-1) = xn-1,......., X(t0) = x0} =
= P{X(τ) < y / X(tn-1) = xn-1}
JeŜeli w poszczególnych chwilach realizacje procesu są
niezaleŜne od siebie to mamy proces z brakiem pamięci:
P{X(τ) < y / X(tn-1) = xn-1,....., X(t0) = x0} = P{X(τ) < y}
Procesy o przyrostach niezaleŜnych
X(t0), X(t1) - X(t0),.........., X(tn) - X(tn-1)
przyrosty zmiennej X(tk) - X(tk-1) są
niezaleŜne od siebie
Procesy o przyrostach jednorodnych
Proces o przyrostach jednorodnych (proces jednorodny) mamy
wtedy, gdy rozkład prawdopodobieństwa P{X(t2) - X(t1)}
zaleŜy tylko od róŜnicy t2 - t1 a nie zaleŜy od chwili t1.
Przykład: Emisja cząstek α przez pewną substancję
promieniotwórczą
Proces emisji obserwujemy w przedziale czasu [0,∞
[0, ]
tk – chwila emisji k-tej cząstki (k = 1, 2,...)
τ(t) – liczba wyemitowanych cząstek w przedziale
czasu [0,t].
dla 0 ≤ t < t1
τ(t) =
dla t1 ≤ t < t2
dla t2 ≤ t < t3
..................
Dodatkowe załoŜenia o procesie emisji cząstek α:
1o. Proces jest jednorodny w czasie
Rozkład liczby cząstek emitowanych w określonym przedziale czasu
(np. jednej godziny) nie zaleŜy od momentu obserwacji
0
1
2
Przykład: Dodatkowe załoŜenia o procesie emisji cząstek α.
2o. Proces ma własność braku pamięci
Przebieg procesu emisji cząstek α po dowolnej chwili nie
zaleŜy od przebiegu procesu emisji do tej chwili.
Emisje cząstek w rozłącznych przedziałach czasu moŜna
traktować jako doświadczenia niezaleŜne (proces o
przyrostach niezaleŜnych)
nych
3o. Pojedynczość procesu. Częstość λ emisji cząstki α w ciągu
bardzo krótkiego przedziału czasu jest w przybliŜeniu
proporcjonalna do jego długości. Emisja więcej niŜ jednej
cząstki w ciągu bardzo krótkiego przedziału czasu prawie nie
zdarza się.
Pt(k) - prawdopodobieństwo wyemitowania k cząstek w
przedziale czasu [0,t].
Zgodnie z właściwością 2o:
(∀ t1 > 0, t2 > 0)
Pt1+t2(k) = Σ Pt1(j) Pt2(k-j)
j = 1,....,k
Zgodnie z właściwością 3o:
dla t ≈ 0 Pt(1) = λ t + o(t) oraz Σ Pt(k) = o(t)
k = 2,....,∞
Jedyną rodziną rozkładów spełniającą postulaty 1o, 2o oraz 3o
jest rodzina rozkładów Poissona:
Pt(k) = e-λt (λt)k / k!
λ - intensywność procesu Poissona.
(k = 0,1,2,.....)
Rozkład Poissona dobrze opisuje te doświadczenia w których
spełnione są postulaty 1o, 2o oraz 3o
Przykład: Proces zgłoszeń abonentów do centrali telefonicznej
def
pi,k(t) = P{X(t2) = k / X(t1) = i},
gdzie t = t2 - t1
Dla procesu Poissona zachodzą poniŜsze związki dla małych
wartości przedziału czasu t (t > 0):
pi,i+1(t) = λ t + o(t)
pi,j(t) = o(t) (j = i +2, i + 3,.....)
pi,i(t) = 1 - λ t + o(t)
Uogólnienia procesu Poissona
Proces urodzin (populacja bakterii)
pi,i+1(t) = λ i t + o(t)
pi,j(t) = o(t) (j = i +2, i + 3,.....)
pi,i(t) = 1 - λ i t + o(t)
Częstość pojawiania się nowego elementu dla bardzo
krótkiego przedziału czasu t jest w przybliŜeniu
proporcjonalna do długości przedziału, przy czym
współczynnik proporcjonalności λi zaleŜy od stanu układu i
na początku tego przedziału
Proces urodzin i śmierci (populacja bakterii)
pi,i+1(t) = λ i t + o(t)
pi,i-1(t) = µ i t + o(t)
pi,j(t) = o(t) (j = i +2, i + 3,.....)
pi,i(t) = 1 – (λ + µ) i t + o(t)

Podobne dokumenty