Modele stochastyczne

Transkrypt

Modele stochastyczne
Modele stochastyczne
SPIS TREŚCI
Spis treści
1
2
3
Łańcuchy Markowa
1.1 Podstawowe poj˛ecia . . . . . . . . .
1.2 Równania Chapmana-Kołmogorowa
1.3 Klasyfikacja stanów . . . . . . . . . .
1.4 Rozkład graniczny . . . . . . . . . .
1.5 Proces gałazkowy
˛
Galtona-Watsona
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Proces Poissona
2.1 Proces liczacy
˛
. . . . . . . . . . . . . . . . . . . . . . .
2.2 Definicje procesu Poissona . . . . . . . . . . . . . . . .
2.3 Odst˛epy czasu mi˛edzy zdarzeniami i czasy czekania .
2.4 Dalsze własności procesu Poissona . . . . . . . . . . .
2.5 Uogólnienia procesu Poissona . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
3
4
5
6
6
6
6
7
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Proces Odnowy
3.1 Strumień i proces odnowy, funkcja odnowy . . . . . . . . . . . . . . . . . . .
3.2 Twierdzenia graniczne dla procesu i funkcji odnowy oraz ich zastosowania
3.3 Złożony proces odnowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Procesy zwiazanie
˛
z procesem odnowy . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
. 8
. 9
. 9
. 10
4
Łańcuchy Markowa z czasem ciagłym
˛
10
4.1 Proces urodzin i śmierci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Prawdopodobieństwo przejścia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5
Procesy gaussowskie, procesy stacjonarne
12
5.1 Standardowy ruch Browna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Definicja i przykłady procesów gaussowskich . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3 Procesy stacjonarne i stacjonarne w w˛eższym sensie (własności i przykłady) . . . . . . . 13
2
1
1
1.1
ŁAŃCUCHY MARKOWA
Łańcuchy Markowa
Podstawowe poj˛ecia
Definicja 1.1
Ciag
˛ zmiennych losowych X = (Xn | n ∈ N) nazywamy jednorodnym łańcuchem markowa (ŁM), jeśli
P [Xn+1 = j | Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ] = P [Xn+1 = j | Xn = i] =: pij
(1)
dla dowolnych i0 , . . . , in , i, j ∈ E i n ∈ N. Macierz P = (pij )i,j∈E nazywamy macierza˛ prawdopodobieństw przejść.
1.2
Równania Chapmana-Kołmogorowa
Definicja 1.2
Prawdopodobieństwo warunkowe
P[Xm+n = j|Xm = i] =: pn
ij
(2)
nazywamy prawdopodobieństwem przejścia ze stanu ”i” do stanu ”j” w n krokach. Dodatkowo
P(n) := (pn
ij )i,j∈E
Twierdzenie 1.3 (Równania Chapmana-Kołmogorowa)
pn+m
=
ij
X
m
pn
ik pkj
(3)
k∈E
Wniosek 1.4
Mamy
P(n) = Pn
P(m+n) = Pn · Pm
Definicja 1.5
Rozkład zmiennej losowej X0 , czyli αi := P[X0 = i] gdzie i ∈ E nazywamy rozkładem poczatkowym
˛
ŁM X.
Uwaga 1.6
Mamy
P[Xn = j] =
X
pn
kj αk
(4)
k∈E
1.3
Klasyfikacja stanów
Definicja 1.7
Mówimy, że stan j ∈ E jest osiagalny
˛
ze stanu i ∈ E, jeśli dla pewnego n ∈ N pn
ij > 0. O dwóch
stanach, które sa˛ wzajemnie osiagalne,
˛
mówimy, że si˛e komunikuja,˛ co oznaczamy i ↔ j.
Uwaga 1.8
Relacja komunikowaia si˛e stanów jest relacja˛ równoważności, zatem dzieli przestrzeń stanów E na
rozłaczne
˛
klasy.
3
1
ŁAŃCUCHY MARKOWA
Definicja 1.9
Łańcuch Markowa X, którego przestrzeń stanów E składa si˛e z jednej klasy, nazywamy nierozkładalnym.
Definicja 1.10
Niech fi = P [∃n Xn = i | X0 = i]. Stan ”i” nazywamy rekurencyjnym, jeśli fi = 1. Natomiast jeżeli
fi < 1, to stan ”i” nazywamy chwilowym.
Twierdzenie 1.11
Stan ”i” jest rekurencyjny ⇔
X
pn
ii = ∞
(5)
n>0
Uwaga 1.12
Własność rekurencyjności jest własnościa˛ klasy
Uwaga 1.13
Warunkowy (X0 = i) rozkład liczby ”wizyt” w stanie ”i” jest rozkładem geometrycznym z parametrem 1 − fi .
1.4
Rozkład graniczny
n
Niech αn
i = P[Xn = i] dla n ∈ N oraz i ∈ E, αn = (αi | i ∈ E) oraz α = limn αn
Definicja 1.14
ŁM X z macierza˛ przejścia P nazywamy ergodycznym, jeżeli
(E1) ∀ j ∈ E istnieje granica πj = limn pn
ij dodatnia i niezależna od stanu ”i”
(E2) ciag
˛ {πj }j∈E jest rozkładem prawdopodobieństwa
Definicja 1.15
Macierz kwadratowa˛ A o wszystkich wyrazach nieujemnych nazywamy regularna,˛ jeśli istnieje n0 >
1 takie, że macierz An0 ma wszystkie wyrazy dodatnie.
Twierdzenie 1.16 (ergodyczne)
Łańcuch Markowa jest ergodyczny wtedy i tylko wtedy, gdy jego macierz przejścia jest regularna.
Uwaga 1.17
Dla ergodycznego ŁM rozkład π = (πi | i ∈ E) pokrywa si˛e z rozkładem α
Uwaga 1.18
Jeżeli ŁM X jest ergodyczny, to rozkład π = (πi | i ∈ E) jest jedynym probabilistycznym rozwazaniem
˛
wukładu równań
X
πj =
πj pij
i∈E
lub w równoważnym zapisie macierzowym π = π · P.
4
1
ŁAŃCUCHY MARKOWA
Uwaga 1.19
Prawdopodobieństwo graniczne πi tego, że ŁM znajdzie si˛e w stanie ”i” w czasie n (n → ∞) jest
interpretowane jako proporcja (frakcja) czasu jaka˛ ŁM ”sp˛edzi”w stanie ”i”, gdy obserwujemy ten
proces w dużym odcinku czasu.
1.5
Proces gałazkowy
˛
Galtona-Watsona
Definicja 1.20
Łańcuch Markowa X = (Xn | n ∈ N>0 ) postaci
Xn
X
Xn+1 =
Z(i)
n
X1 = 1
(6)
i=1
(i)
Gdzie Zn sa˛ stochastycznie niezależne z rozkładem P[Z = i] = pi .
Fakt 1.21
Mamy
D2 [X] = E D2 [X|Y] + D2 [E[X|Y]]
gdzie
D2 [X|Y] = E (X − E[X|Y])2 |Y
Wniosek 1.22
Niech
S=
N
X
Xk
k=1
gdzie {Xk }k jest ciagiem
˛
niezależnych zmiennych losowych o jednakowym rozkładzie, a N–niezależna˛
od tego ciagu
˛ zmienna˛ losowa˛ przyjmujac
˛ a˛ wartości całkowite nieujemne, wówczas
E[S] = E[N]E[X1 ]
D2 [S] = E[N]D2 [X1 ] + D2 [N]E[X1 ]2
Fakt 1.23
Niech E[Z] = µ i D2 [Z] = σ2 wówczas
E[Xn ] = µn
oraz
D [Xn ] =
2
n
σ2 µn−1 1−µ
1−µ
nσ2
µ 6= 1
µ=1
Twierdzenie 1.24
Niech E[Z] = µ, D2 [Z] = σ2 oraz π0 = limn P[Xn = 0]. Jeśli 0 < µ 6 1, to π0 = 1. Jeżeli µ > 1, to
π0 < 1
Uwaga 1.25
W przypadku π0 < 1, π0 spełnia π0 = gZ (π0 ) gdzie gZ (s) = E[sZ ] jest funkcja˛ tworzac
˛ a˛ zmiennej
losowej Z.
5
2
2
2.1
PROCES POISSONA
Proces Poissona
Proces liczacy
˛
Definicja 2.1
Proces stochastyczny N = (N(t) | t ∈ [0, +∞)) nazywamy procesem liczacym
˛
jeżeli
(L1) N(t) ∈ N
(L2) N(s) 6 N(t) dla s 6 t
Definicja 2.2
Proces stochastyczny X = (Xt | t ∈ T ), gdzie T ⊆ R, jest procesem o przyrostach niezależnych, jeżeli
dla dowolnych 0 < t1 < t2 < . . . < tn zmienne losowe X(t1 ), X(t2 ) − X(t1 ), . . . , X(tn ) − X(tn−1 ) sa˛
stochastycznie niezależne.
Definicja 2.3
Proces stochastyczny X = (Xt | t ∈ T ), gdzie T ⊆ R, jest procesem o przyrostach stacjonarnych jeżeli
rozkład zmiennej losowej X(t + s) − X(s) zależy tylko od t.
2.2
Definicje procesu Poissona
Definicja 2.4
Proces liczacy
˛ N = (N(t) | t ∈ [0, +∞)) nazywamy (jednorodnym) procesem Poissona z intensywnościa˛ λ > 0 jeżeli
(P1) N(0) ≡ 0
(P2) N ma niezależne przyrosty
(P3) dla t, s > 0 mamy P[N(t + s) − N(s) = k] = e−λt (λt)
n!
n
Twierdzenie 2.5
Proces liczacy
˛ N = (N(t) | t ∈ [0, +∞)) jest (jednorodnym) procesem Poissona z intensywnościa˛ λ > 0
wtedy i tylko wtedy, gdy
(P’1) N(0) ≡ 0
(P’2) N ma stacjonarne i niezależne przyrosty
(P’3) P[N(h) = 1] = λh + o(h)
(P’4) P[N(h) > 2] = o(h)
gdzie limt→0
2.3
o(t)
t
=0
Odst˛epy czasu mi˛edzy zdarzeniami i czasy czekania
Niech N b˛edzie procesem Poissona z intensywnościa˛ λ. Niech T1 oznacza czas do wystapienia
˛
pierwszego zdarzenia, T2 –czas mi˛edy pierwszym a drugim zdarzeniem, ogólnie Tn czas mi˛edzy n − 1 a
n-tym zdarzeniem.
Twierdzenie 2.6
Zmienne losowe Tn sa stochastycznie niezależne o jednakowym rozkładzie Exp(λ).
6
2
PROCES POISSONA
Wniosek 2.7
P
Niech Sn = n
edzie czasem czekania na n-te zdarzenie. Wówczas
k=1 Tk b˛
fSn (t) =
2.4
λ(λt)n−1 −λt
e
(n − 1)!
t>0
Dalsze własności procesu Poissona
Rozważmy proces Poissona N z intensywnościa˛ λ i przypuśćmy, że każde zdarzenie tego procesu
jest klasyfikowane z prawdopodobieństwam p jako zdarzenie typu I albo zdarzenie typu II (z prawdopodobieństwem 1 − p), niezależnie od pozostałych zdarzeń. Niech N1 (t) oraz N2 (t) oznaczaja˛
odpowiednio liczby zdarzeń typu I oraz typu II wyst˛epujacych
˛
do czasy t.
Twierdzenie 2.8
Procesy N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami
Poissona z intensywnościami odpowiednio λp oraz λ(1 − p).
Fakt 2.9
Jeżeli N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami Poissona z intensywnościami odpowiednio λ1 oraz λ2 , to proces N = N1 + N2 jest procesem Poissona z
intensywnościa˛ λ = λ1 + λ2 .
Twierdzenie 2.10
Pod warunkiem zdarzenia N(t) = n łaczny
˛
rozkład czasu czekania (S1 , S2 , . . . , Sn ) pokrywa si˛e
z łacznym
˛
rozkładem statystyk pozycyjnych ciagu
˛ niezależnych zmiennych losowych o rozkładzie
U[0, t].
Przypuśćmy traz, że zdarzenie wyst˛epujace
˛ w chwili y jest zaklasyfikowany do i-tej klasy z prawdopodobieństwem Pi (y) gdzie i ∈ [k] dla pewnego ustalonego k ∈ N Niech Ni (t) oznacza liczb˛e
zdarzeń typu i wyst˛epujacych
˛
do czasu t
Twierdzenie 2.11
Zmienne losowe N1 (t), N2 (t), . . . , Nk (t) sa˛ niezależne o rozkładzie Poissona , przy czym
Zt
E[Ni (t)] = λ
Pi (s) ds
0
2.5
Uogólnienia procesu Poissona
Definicja 2.12
Proces liczacy
˛ N = (N(t) | t ∈ [0, +∞)) nazywamy procesem Poissona z funkcja˛ intensywności λ(t) >
0 jeżeli
(1) N(0) ≡ 0
(2) N ma niezależne przyrosty
(3) P[N(h) = 1] = λ(t)h + o(h)
(4) P[N(h) > 2] = o(h)
7
3
PROCES ODNOWY
Fakt 2.13
Jeżeli N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami Poissona
z funkcjami intensywności odpowiednio λ1 (t) i λ2 (t)m to proces N = N1 + N2 jest niejednorodnmy
procesem Poissona z funkcja˛ intensywności λ(t) = λ1 (t) + λ2 (t).
Fakt 2.14
Rt
Niech m(t) = 0 λ(s) ds. Wówczas N(t + s) − N(s) ∼ Pios(m(t + s) − m(s)).
Definicja 2.15
Proces stochastyczny X nazywamy złożonym procesem Poissona, jeśli jest postaci
X
N(t)
X(t) =
Yi
k=1
gdzie N = (N(t) | t ∈ [0, +∞)) jest jednorodnym procesem Poissona z intensywnościa˛ λ, a {Yi }i to ciag
˛
zmiennych losowych iid niezelażny od N.
Uwaga 2.16
Jeżeli zmienne losowe Yk przyjmuja˛ przeliczalnie wiele wartości z rozkładem P[Y1 = αj ] = pj , to
procesy stochastyczne
N(t)
X
Xj (t) =
1{αj } (Yk )
k=1
sa˛ niezależnymi procesami Piossona z intensywnościami λpj oraz
X
X(t) =
αj Xj (t)
j
3
3.1
Proces Odnowy
Strumień i proces odnowy, funkcja odnowy
Definicja 3.1
Niech {Yn } b˛edzie ciagiem
˛
iid o dystrybuancie F takiej, że F(0) < 1 oraz F(x) = 0 dla x < 0. Ciag
˛
zmiennych losowych {Sn } postaci
n
X
Yi
(7)
Sn =
i=1
nazywamy strumieniem odnowy. Zmienna˛ losowa˛ Sn nazywamy chwila˛ n-tej odnowy, a Yn czasem
mi˛edzy (n − 1) a n-ta˛ odnowa.˛
Definicja 3.2
Procesem odnowy nazywamy proces liczacy
˛ N = (N(t) | t > 0) gdzie
X
N(t) =
1[0,t] (Sn )
n>0
Uwaga 3.3
Mamy
{N(t) > n} = {Sn 6 t}
8
3
PROCES ODNOWY
stad
˛ znamy rozkład N(t):
P[N(t) = n] = P[N(t) > n] − P[N(t) > n + 1] = P[Sn 6 t] − P[Sn+1 6 t]
Definicja 3.4
Funkcj˛e m(t) := E[N(t)] nazywamy funkcja˛ odnowy lub funkcja˛ średniej procesu odnowy.
Uwaga 3.5
P
P
Jeżeli Sn = n
i=1 Yi , gdzie Yi ∼ F, oraz N(t) =
n>0 1[0,t] (Sn ), to
X
X
m(t) = E[N(t)] =
P[Sn 6 t] =
F∗n (t)
n>0
n>0
dodatkowo m(t) spełnia równanie odnowy:
Zt
m(t) = F(t) +
m(t − x) dF(x)
0
3.2
Twierdzenia graniczne dla procesu i funkcji odnowy oraz ich zastosowania
Niech µ = E[Y1 ]
Twierdzenie 3.6
Z prawdopodobieństwem jeden
N(t)
1
→
t
µ
t→∞
Twierdzenie 3.7 (Elementarne twierdzenie odnowy)
Mamy:
1
m(t)
→
t→∞
t
µ
Fakt 3.8
Mamy
E[SN(t) ] = µm(t)
3.3
Złożony proces odnowy
Definicja 3.9
Proces stochastyczny R = (R(t) | t > 0) określony jako
X
N(t)
R(t) =
Rn
n=1
gdzie (Rn ) jest ciagiem
˛
niezależnych zmiennych losowych, a N jest procesem odnowy, nazywamy
złożonym procesem odnowy.
Twierdzenie 3.10
Niech ρ = E[R1 ] wówczas jeśli ρ, µ < ∞, to z prawdopodobieństwem jeden:
R(t)
ρ
→
t
µ
t→∞
9
4
ŁAŃCUCHY MARKOWA Z CZASEM CIAGŁYM
˛
3.4
Procesy zwiazanie
˛
z procesem odnowy
Definicja 3.11
Procesy stochastyczne A = (A(t) | t > 0) oraz E = (E(t) | t > 0) określone
A(t) = t − SN(t)
E(t) = SN(t)+1 − t
nazywamy odpowiednio procesem wieku oraz procesem resztowym.
Fakt 3.12
Z prawdopodobieństwem jeden:
Rt
0
4
A(s) ds
,
t
Rt
0
E(s) ds
E[Y 2 ]
→
t
2E[Y]
t→∞
Łańcuchy Markowa z czasem ciagłym
˛
Definicja 4.1
Proces stochastyczny X = (X(t) | t > 0) o wartościach naturalnych nazywamy łańcuchem Markowa
z czasem ciagłym,
˛
jeżeli dla dowolnych s, t > 0 oraz dowolnych i, j, x(u) ∈ N (gdzie 0 6 u < s)
zachodzi
P[X(t + s) = j |X(s) = i, X(u) = x(u) 0 6 u < s ] = P[X(t + s) = j |X(s) = i]
Jeżeli dodatkowo P[X(t + s) = j |X(s) = i] nie zależy od s, to mówimy, że X jest jednorodnym łańcuchem Markowa z czasem ciagłym.
˛
Przyjmujemy wtedy oznaczenie P[X(t + s) = j |X(s) = i] = pij (t)
Zauważmy, że jeśli przez Ti oznaczymy czas przebywania jednorodnego ŁM z czasem ciagłym
˛
w
i-tym stanie przed przejściem do nast˛epnego stanu, to Ti ma własność braku pami˛eci oraz ma nośnik
zawarty w R+ , zatem Ti ∼ Exp(νi ). (jednorodność pozwala na definicj˛e poprawna˛ z dokładnościa˛ do
rozkładu).
4.1
Proces urodzin i śmierci
Definicja 4.2
Rozważmy system, kórego stan w chwili t określa liczba X(t) znajdujacych
˛
si˛e w nim jednostek. Jeśli
w systemie znajduje si˛e n jednostek, to
a) Czas Bn do przybycia nast˛epnej jednostki ma rozkład Exp(λn )
b) Czas Dn do opuszczenia systemu przez jednostk˛e ma rozkład Exp(µn )
c) zakładamy, że czasy Bn i Dn sa˛ niezależne.
Wtedy proces stochastyczny X = (X(t) | t > 0) nazywamy procesem urodzin i śmierci, a ciagi
˛ parametrów {λn }n oraz {µ}n intensywnościami urodzin i śmierci.
Fakt 4.3
Proces urodzin i śmierci jest Łańcuchem Markowa z czasem ciagłym
˛
z parametrami:
ν0 = λ0
10
νk = λk + µk
4
ŁAŃCUCHY MARKOWA Z CZASEM CIAGŁYM
˛
oraz prawdopodobieństwami przejść:
p01 = 1
pk,k+1 =
λk
λk + µ k
pk,k−1 =
µk
λk + µ k
Przykład 4.4
Podstawowymi przykładami procesów urodzin i śmierci sa˛
1. Proces Piossona z intensywnościami
λk = λ
µk = 0
2. Proces urodzin z przyrpstem liniowym
λk = kλ
µk = 0
3. Model przyrostu liniowego z imigracja˛
λk = kλ + θ
µk = kµ
Fakt 4.5
Niech X(t) b˛edzie procesem opisujacym
˛
przyrost liniowy z imigracja.˛ Załóżmy, że X(0) jest stałe p.w.
Wówczas
θ (λ−µ)t
e
− 1 + X(0)e(λ−µ)t λ 6= µ
λ−µ
E[X(t)] =
θt + X(0)
λ=µ
Twierdzenie 4.6
Rozważmy ogólny proces urodzin i śmierci X(t). Niech Rk oznacza czas przejścia za stanu k do stanu
k + 1 wówczas:
1
1
µk+1
E[R0 ] =
E[Rk+1 ] =
+
E[Rk ]
λ0
λk+1
λk+1
oraz
µk+1 2
µk+1
1
+
D [Rk ] +
E[Rk + Rk+1 ]2
D2 [Rk+1 ] =
λk+1 (λk+1 + µk+1 ) λk+1
λk+1 + µk+1
4.2
Prawdopodobieństwo przejścia
Twierdzenie 4.7
Dla czystego procesu urodzin o intensywnościach µn = 0 oraz λi 6= λj dla i 6= j zachodzi równość
Pij (t) =
j
X
e−λk t
k=i
j
Y
k6=r=i
j−1
j−1
X
Y
λr
λr
−
e−λk t
λr − λk
λr − λk
k=i
j>i
k6=r=i
Pii (t) = P[Ti > t] = e−λi t
Definicja 4.8
Chwilowa˛ intensywnościa˛ przejścia nazywamy qij := νi pij dla i, j ∈ E
Lemat 4.9
Mamy
lim
h→0
1 − pii (h)
= νi
h
lim
h→0
pij (h)
= qij
h
11
5
PROCESY GAUSSOWSKIE, PROCESY STACJONARNE
Lemat 4.10
Dla dowolnych s, t > 0 oraz i, j ∈ E zachodzi
pij (t + s) =
X
pik (s)pkj (t)
k∈E
Twierdzenie 4.11
Dla dowolnego t > 0 oraz dla dowolnych i, j ∈ E zachodzi
X
0
pij
(t) =
qik pkj (t) − νi pij (t)
i6=k∈E
Twierdzenie 4.12
Przy odpowiednich warunkach regularności (?) zachodzi
X
0
pij
(t) =
qkj pik (t) − νj pij (t)
j6=k∈E
5
5.1
Procesy gaussowskie, procesy stacjonarne
Standardowy ruch Browna
Definicja 5.1
Proces stochastyczny B = (Bt |t > 0) spełaniajacy
˛
(B1) B0 = 0 p. w.
(B2) ∀t > s
d
Bt − Bs = N(0, t − s)
(B3) ∀0 6 t1 6 t2 6 . . . 6 tn
(Btk+1 − Btk |1 6 k < n) sa˛ stochastycznie niezależne
(B4) t 7→ Bt (ω) sa˛ ciagłe
˛ dla prawie wszystkich ω
nazywamy ruchem Browna (procesem Wienera).
Twierdzenie 5.2 (Zasada odbicia)
Dla ruchu Browna B = (Bt |t > 0) niech Ha = inf{t > 0 | Bt = a} dla a > 0. Wtedy proces
B˜t =
Bt
2a − Bt
t < Ha
t > Ha
jest ruchem Browna
Wniosek 5.3
Dla ruchu Browna B = (Bt |t > 0) i dowolnego a ∈ R, t > 0
"
P
#
sup Bs > a = 2P [Bt > a]
06s6t
12
LITERATURA
5.2
Definicja i przykłady procesów gaussowskich
Definicja 5.4
Dla procesu X = (Xt )t∈T i t1 , . . . , tn ∈ T określamy miar˛e µt1 ,...,tn na Rn wzorem
µt1 ,...,tn (A) = P[(Xt1 , . . . , Xtn ) ∈ A],
A ∈ B(Rn )
Rodzin˛e miar {µt1 ,...,tn : t1 , . . . , tn ∈ T parami różne} nazywamy rodzina˛ skończenie wymiarowych
rozkładów procesu X.
Definicja 5.5
Powiemy, że proces X jest procesem gaussowskim, jeżeli jego rozkłady skończenie wymiarowe sa˛
gaussowskie.
5.3
Procesy stacjonarne i stacjonarne w w˛eższym sensie (własności i przykłady)
Definicja 5.6
Dla procesu X takiego, że E[X2t ] < ∞, t ∈ T , definiujemy
1) m(t) = E[Xt ] – średnia procesu (dryf)
2) R(s, t) = Cov(Xs , Xt ) – funkcja kowariancji.
Definicja 5.7
Proces X jest stacjonarny w w˛eższym sensie, jeżeli dla t ∈ R jego rozkłady skończenie wymiarowe
spełniaj µt1 +t,...,tn +t = µt1 ,...,tn
Definicja 5.8
Proces stochastyczny X jest stacjonarny w szreszym sensie, jeśli m(t + h) = m(t) oraz R(s + h, t + h) =
R(s, t) dla dowolnego h > 0.
Literatura
[Res05] Sidney Resnick. Adventures in Stochastic Porcesses. Birkhäuser, 2005.
[Ros07] Sheldon M. Ross. Introduction to Probability Models. Elsevier Inc., 2007.
WWW. MATH . UNI . WROC . PL /∼ S 232966/
DATA KOMPILACJI :
27 CZERWCA 2012