Modele stochastyczne
Transkrypt
Modele stochastyczne
Modele stochastyczne SPIS TREŚCI Spis treści 1 2 3 Łańcuchy Markowa 1.1 Podstawowe poj˛ecia . . . . . . . . . 1.2 Równania Chapmana-Kołmogorowa 1.3 Klasyfikacja stanów . . . . . . . . . . 1.4 Rozkład graniczny . . . . . . . . . . 1.5 Proces gałazkowy ˛ Galtona-Watsona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Proces Poissona 2.1 Proces liczacy ˛ . . . . . . . . . . . . . . . . . . . . . . . 2.2 Definicje procesu Poissona . . . . . . . . . . . . . . . . 2.3 Odst˛epy czasu mi˛edzy zdarzeniami i czasy czekania . 2.4 Dalsze własności procesu Poissona . . . . . . . . . . . 2.5 Uogólnienia procesu Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 4 5 6 6 6 6 7 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Proces Odnowy 3.1 Strumień i proces odnowy, funkcja odnowy . . . . . . . . . . . . . . . . . . . 3.2 Twierdzenia graniczne dla procesu i funkcji odnowy oraz ich zastosowania 3.3 Złożony proces odnowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Procesy zwiazanie ˛ z procesem odnowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 . 8 . 9 . 9 . 10 4 Łańcuchy Markowa z czasem ciagłym ˛ 10 4.1 Proces urodzin i śmierci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.2 Prawdopodobieństwo przejścia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 5 Procesy gaussowskie, procesy stacjonarne 12 5.1 Standardowy ruch Browna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 5.2 Definicja i przykłady procesów gaussowskich . . . . . . . . . . . . . . . . . . . . . . . . 13 5.3 Procesy stacjonarne i stacjonarne w w˛eższym sensie (własności i przykłady) . . . . . . . 13 2 1 1 1.1 ŁAŃCUCHY MARKOWA Łańcuchy Markowa Podstawowe poj˛ecia Definicja 1.1 Ciag ˛ zmiennych losowych X = (Xn | n ∈ N) nazywamy jednorodnym łańcuchem markowa (ŁM), jeśli P [Xn+1 = j | Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ] = P [Xn+1 = j | Xn = i] =: pij (1) dla dowolnych i0 , . . . , in , i, j ∈ E i n ∈ N. Macierz P = (pij )i,j∈E nazywamy macierza˛ prawdopodobieństw przejść. 1.2 Równania Chapmana-Kołmogorowa Definicja 1.2 Prawdopodobieństwo warunkowe P[Xm+n = j|Xm = i] =: pn ij (2) nazywamy prawdopodobieństwem przejścia ze stanu ”i” do stanu ”j” w n krokach. Dodatkowo P(n) := (pn ij )i,j∈E Twierdzenie 1.3 (Równania Chapmana-Kołmogorowa) pn+m = ij X m pn ik pkj (3) k∈E Wniosek 1.4 Mamy P(n) = Pn P(m+n) = Pn · Pm Definicja 1.5 Rozkład zmiennej losowej X0 , czyli αi := P[X0 = i] gdzie i ∈ E nazywamy rozkładem poczatkowym ˛ ŁM X. Uwaga 1.6 Mamy P[Xn = j] = X pn kj αk (4) k∈E 1.3 Klasyfikacja stanów Definicja 1.7 Mówimy, że stan j ∈ E jest osiagalny ˛ ze stanu i ∈ E, jeśli dla pewnego n ∈ N pn ij > 0. O dwóch stanach, które sa˛ wzajemnie osiagalne, ˛ mówimy, że si˛e komunikuja,˛ co oznaczamy i ↔ j. Uwaga 1.8 Relacja komunikowaia si˛e stanów jest relacja˛ równoważności, zatem dzieli przestrzeń stanów E na rozłaczne ˛ klasy. 3 1 ŁAŃCUCHY MARKOWA Definicja 1.9 Łańcuch Markowa X, którego przestrzeń stanów E składa si˛e z jednej klasy, nazywamy nierozkładalnym. Definicja 1.10 Niech fi = P [∃n Xn = i | X0 = i]. Stan ”i” nazywamy rekurencyjnym, jeśli fi = 1. Natomiast jeżeli fi < 1, to stan ”i” nazywamy chwilowym. Twierdzenie 1.11 Stan ”i” jest rekurencyjny ⇔ X pn ii = ∞ (5) n>0 Uwaga 1.12 Własność rekurencyjności jest własnościa˛ klasy Uwaga 1.13 Warunkowy (X0 = i) rozkład liczby ”wizyt” w stanie ”i” jest rozkładem geometrycznym z parametrem 1 − fi . 1.4 Rozkład graniczny n Niech αn i = P[Xn = i] dla n ∈ N oraz i ∈ E, αn = (αi | i ∈ E) oraz α = limn αn Definicja 1.14 ŁM X z macierza˛ przejścia P nazywamy ergodycznym, jeżeli (E1) ∀ j ∈ E istnieje granica πj = limn pn ij dodatnia i niezależna od stanu ”i” (E2) ciag ˛ {πj }j∈E jest rozkładem prawdopodobieństwa Definicja 1.15 Macierz kwadratowa˛ A o wszystkich wyrazach nieujemnych nazywamy regularna,˛ jeśli istnieje n0 > 1 takie, że macierz An0 ma wszystkie wyrazy dodatnie. Twierdzenie 1.16 (ergodyczne) Łańcuch Markowa jest ergodyczny wtedy i tylko wtedy, gdy jego macierz przejścia jest regularna. Uwaga 1.17 Dla ergodycznego ŁM rozkład π = (πi | i ∈ E) pokrywa si˛e z rozkładem α Uwaga 1.18 Jeżeli ŁM X jest ergodyczny, to rozkład π = (πi | i ∈ E) jest jedynym probabilistycznym rozwazaniem ˛ wukładu równań X πj = πj pij i∈E lub w równoważnym zapisie macierzowym π = π · P. 4 1 ŁAŃCUCHY MARKOWA Uwaga 1.19 Prawdopodobieństwo graniczne πi tego, że ŁM znajdzie si˛e w stanie ”i” w czasie n (n → ∞) jest interpretowane jako proporcja (frakcja) czasu jaka˛ ŁM ”sp˛edzi”w stanie ”i”, gdy obserwujemy ten proces w dużym odcinku czasu. 1.5 Proces gałazkowy ˛ Galtona-Watsona Definicja 1.20 Łańcuch Markowa X = (Xn | n ∈ N>0 ) postaci Xn X Xn+1 = Z(i) n X1 = 1 (6) i=1 (i) Gdzie Zn sa˛ stochastycznie niezależne z rozkładem P[Z = i] = pi . Fakt 1.21 Mamy D2 [X] = E D2 [X|Y] + D2 [E[X|Y]] gdzie D2 [X|Y] = E (X − E[X|Y])2 |Y Wniosek 1.22 Niech S= N X Xk k=1 gdzie {Xk }k jest ciagiem ˛ niezależnych zmiennych losowych o jednakowym rozkładzie, a N–niezależna˛ od tego ciagu ˛ zmienna˛ losowa˛ przyjmujac ˛ a˛ wartości całkowite nieujemne, wówczas E[S] = E[N]E[X1 ] D2 [S] = E[N]D2 [X1 ] + D2 [N]E[X1 ]2 Fakt 1.23 Niech E[Z] = µ i D2 [Z] = σ2 wówczas E[Xn ] = µn oraz D [Xn ] = 2 n σ2 µn−1 1−µ 1−µ nσ2 µ 6= 1 µ=1 Twierdzenie 1.24 Niech E[Z] = µ, D2 [Z] = σ2 oraz π0 = limn P[Xn = 0]. Jeśli 0 < µ 6 1, to π0 = 1. Jeżeli µ > 1, to π0 < 1 Uwaga 1.25 W przypadku π0 < 1, π0 spełnia π0 = gZ (π0 ) gdzie gZ (s) = E[sZ ] jest funkcja˛ tworzac ˛ a˛ zmiennej losowej Z. 5 2 2 2.1 PROCES POISSONA Proces Poissona Proces liczacy ˛ Definicja 2.1 Proces stochastyczny N = (N(t) | t ∈ [0, +∞)) nazywamy procesem liczacym ˛ jeżeli (L1) N(t) ∈ N (L2) N(s) 6 N(t) dla s 6 t Definicja 2.2 Proces stochastyczny X = (Xt | t ∈ T ), gdzie T ⊆ R, jest procesem o przyrostach niezależnych, jeżeli dla dowolnych 0 < t1 < t2 < . . . < tn zmienne losowe X(t1 ), X(t2 ) − X(t1 ), . . . , X(tn ) − X(tn−1 ) sa˛ stochastycznie niezależne. Definicja 2.3 Proces stochastyczny X = (Xt | t ∈ T ), gdzie T ⊆ R, jest procesem o przyrostach stacjonarnych jeżeli rozkład zmiennej losowej X(t + s) − X(s) zależy tylko od t. 2.2 Definicje procesu Poissona Definicja 2.4 Proces liczacy ˛ N = (N(t) | t ∈ [0, +∞)) nazywamy (jednorodnym) procesem Poissona z intensywnościa˛ λ > 0 jeżeli (P1) N(0) ≡ 0 (P2) N ma niezależne przyrosty (P3) dla t, s > 0 mamy P[N(t + s) − N(s) = k] = e−λt (λt) n! n Twierdzenie 2.5 Proces liczacy ˛ N = (N(t) | t ∈ [0, +∞)) jest (jednorodnym) procesem Poissona z intensywnościa˛ λ > 0 wtedy i tylko wtedy, gdy (P’1) N(0) ≡ 0 (P’2) N ma stacjonarne i niezależne przyrosty (P’3) P[N(h) = 1] = λh + o(h) (P’4) P[N(h) > 2] = o(h) gdzie limt→0 2.3 o(t) t =0 Odst˛epy czasu mi˛edzy zdarzeniami i czasy czekania Niech N b˛edzie procesem Poissona z intensywnościa˛ λ. Niech T1 oznacza czas do wystapienia ˛ pierwszego zdarzenia, T2 –czas mi˛edy pierwszym a drugim zdarzeniem, ogólnie Tn czas mi˛edzy n − 1 a n-tym zdarzeniem. Twierdzenie 2.6 Zmienne losowe Tn sa stochastycznie niezależne o jednakowym rozkładzie Exp(λ). 6 2 PROCES POISSONA Wniosek 2.7 P Niech Sn = n edzie czasem czekania na n-te zdarzenie. Wówczas k=1 Tk b˛ fSn (t) = 2.4 λ(λt)n−1 −λt e (n − 1)! t>0 Dalsze własności procesu Poissona Rozważmy proces Poissona N z intensywnościa˛ λ i przypuśćmy, że każde zdarzenie tego procesu jest klasyfikowane z prawdopodobieństwam p jako zdarzenie typu I albo zdarzenie typu II (z prawdopodobieństwem 1 − p), niezależnie od pozostałych zdarzeń. Niech N1 (t) oraz N2 (t) oznaczaja˛ odpowiednio liczby zdarzeń typu I oraz typu II wyst˛epujacych ˛ do czasy t. Twierdzenie 2.8 Procesy N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami Poissona z intensywnościami odpowiednio λp oraz λ(1 − p). Fakt 2.9 Jeżeli N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami Poissona z intensywnościami odpowiednio λ1 oraz λ2 , to proces N = N1 + N2 jest procesem Poissona z intensywnościa˛ λ = λ1 + λ2 . Twierdzenie 2.10 Pod warunkiem zdarzenia N(t) = n łaczny ˛ rozkład czasu czekania (S1 , S2 , . . . , Sn ) pokrywa si˛e z łacznym ˛ rozkładem statystyk pozycyjnych ciagu ˛ niezależnych zmiennych losowych o rozkładzie U[0, t]. Przypuśćmy traz, że zdarzenie wyst˛epujace ˛ w chwili y jest zaklasyfikowany do i-tej klasy z prawdopodobieństwem Pi (y) gdzie i ∈ [k] dla pewnego ustalonego k ∈ N Niech Ni (t) oznacza liczb˛e zdarzeń typu i wyst˛epujacych ˛ do czasu t Twierdzenie 2.11 Zmienne losowe N1 (t), N2 (t), . . . , Nk (t) sa˛ niezależne o rozkładzie Poissona , przy czym Zt E[Ni (t)] = λ Pi (s) ds 0 2.5 Uogólnienia procesu Poissona Definicja 2.12 Proces liczacy ˛ N = (N(t) | t ∈ [0, +∞)) nazywamy procesem Poissona z funkcja˛ intensywności λ(t) > 0 jeżeli (1) N(0) ≡ 0 (2) N ma niezależne przyrosty (3) P[N(h) = 1] = λ(t)h + o(h) (4) P[N(h) > 2] = o(h) 7 3 PROCES ODNOWY Fakt 2.13 Jeżeli N1 = (N1 (t) | t ∈ [0, +∞)) oraz N2 = (N2 (t) | t ∈ [0, +∞)) sa˛ niezależnymi procesami Poissona z funkcjami intensywności odpowiednio λ1 (t) i λ2 (t)m to proces N = N1 + N2 jest niejednorodnmy procesem Poissona z funkcja˛ intensywności λ(t) = λ1 (t) + λ2 (t). Fakt 2.14 Rt Niech m(t) = 0 λ(s) ds. Wówczas N(t + s) − N(s) ∼ Pios(m(t + s) − m(s)). Definicja 2.15 Proces stochastyczny X nazywamy złożonym procesem Poissona, jeśli jest postaci X N(t) X(t) = Yi k=1 gdzie N = (N(t) | t ∈ [0, +∞)) jest jednorodnym procesem Poissona z intensywnościa˛ λ, a {Yi }i to ciag ˛ zmiennych losowych iid niezelażny od N. Uwaga 2.16 Jeżeli zmienne losowe Yk przyjmuja˛ przeliczalnie wiele wartości z rozkładem P[Y1 = αj ] = pj , to procesy stochastyczne N(t) X Xj (t) = 1{αj } (Yk ) k=1 sa˛ niezależnymi procesami Piossona z intensywnościami λpj oraz X X(t) = αj Xj (t) j 3 3.1 Proces Odnowy Strumień i proces odnowy, funkcja odnowy Definicja 3.1 Niech {Yn } b˛edzie ciagiem ˛ iid o dystrybuancie F takiej, że F(0) < 1 oraz F(x) = 0 dla x < 0. Ciag ˛ zmiennych losowych {Sn } postaci n X Yi (7) Sn = i=1 nazywamy strumieniem odnowy. Zmienna˛ losowa˛ Sn nazywamy chwila˛ n-tej odnowy, a Yn czasem mi˛edzy (n − 1) a n-ta˛ odnowa.˛ Definicja 3.2 Procesem odnowy nazywamy proces liczacy ˛ N = (N(t) | t > 0) gdzie X N(t) = 1[0,t] (Sn ) n>0 Uwaga 3.3 Mamy {N(t) > n} = {Sn 6 t} 8 3 PROCES ODNOWY stad ˛ znamy rozkład N(t): P[N(t) = n] = P[N(t) > n] − P[N(t) > n + 1] = P[Sn 6 t] − P[Sn+1 6 t] Definicja 3.4 Funkcj˛e m(t) := E[N(t)] nazywamy funkcja˛ odnowy lub funkcja˛ średniej procesu odnowy. Uwaga 3.5 P P Jeżeli Sn = n i=1 Yi , gdzie Yi ∼ F, oraz N(t) = n>0 1[0,t] (Sn ), to X X m(t) = E[N(t)] = P[Sn 6 t] = F∗n (t) n>0 n>0 dodatkowo m(t) spełnia równanie odnowy: Zt m(t) = F(t) + m(t − x) dF(x) 0 3.2 Twierdzenia graniczne dla procesu i funkcji odnowy oraz ich zastosowania Niech µ = E[Y1 ] Twierdzenie 3.6 Z prawdopodobieństwem jeden N(t) 1 → t µ t→∞ Twierdzenie 3.7 (Elementarne twierdzenie odnowy) Mamy: 1 m(t) → t→∞ t µ Fakt 3.8 Mamy E[SN(t) ] = µm(t) 3.3 Złożony proces odnowy Definicja 3.9 Proces stochastyczny R = (R(t) | t > 0) określony jako X N(t) R(t) = Rn n=1 gdzie (Rn ) jest ciagiem ˛ niezależnych zmiennych losowych, a N jest procesem odnowy, nazywamy złożonym procesem odnowy. Twierdzenie 3.10 Niech ρ = E[R1 ] wówczas jeśli ρ, µ < ∞, to z prawdopodobieństwem jeden: R(t) ρ → t µ t→∞ 9 4 ŁAŃCUCHY MARKOWA Z CZASEM CIAGŁYM ˛ 3.4 Procesy zwiazanie ˛ z procesem odnowy Definicja 3.11 Procesy stochastyczne A = (A(t) | t > 0) oraz E = (E(t) | t > 0) określone A(t) = t − SN(t) E(t) = SN(t)+1 − t nazywamy odpowiednio procesem wieku oraz procesem resztowym. Fakt 3.12 Z prawdopodobieństwem jeden: Rt 0 4 A(s) ds , t Rt 0 E(s) ds E[Y 2 ] → t 2E[Y] t→∞ Łańcuchy Markowa z czasem ciagłym ˛ Definicja 4.1 Proces stochastyczny X = (X(t) | t > 0) o wartościach naturalnych nazywamy łańcuchem Markowa z czasem ciagłym, ˛ jeżeli dla dowolnych s, t > 0 oraz dowolnych i, j, x(u) ∈ N (gdzie 0 6 u < s) zachodzi P[X(t + s) = j |X(s) = i, X(u) = x(u) 0 6 u < s ] = P[X(t + s) = j |X(s) = i] Jeżeli dodatkowo P[X(t + s) = j |X(s) = i] nie zależy od s, to mówimy, że X jest jednorodnym łańcuchem Markowa z czasem ciagłym. ˛ Przyjmujemy wtedy oznaczenie P[X(t + s) = j |X(s) = i] = pij (t) Zauważmy, że jeśli przez Ti oznaczymy czas przebywania jednorodnego ŁM z czasem ciagłym ˛ w i-tym stanie przed przejściem do nast˛epnego stanu, to Ti ma własność braku pami˛eci oraz ma nośnik zawarty w R+ , zatem Ti ∼ Exp(νi ). (jednorodność pozwala na definicj˛e poprawna˛ z dokładnościa˛ do rozkładu). 4.1 Proces urodzin i śmierci Definicja 4.2 Rozważmy system, kórego stan w chwili t określa liczba X(t) znajdujacych ˛ si˛e w nim jednostek. Jeśli w systemie znajduje si˛e n jednostek, to a) Czas Bn do przybycia nast˛epnej jednostki ma rozkład Exp(λn ) b) Czas Dn do opuszczenia systemu przez jednostk˛e ma rozkład Exp(µn ) c) zakładamy, że czasy Bn i Dn sa˛ niezależne. Wtedy proces stochastyczny X = (X(t) | t > 0) nazywamy procesem urodzin i śmierci, a ciagi ˛ parametrów {λn }n oraz {µ}n intensywnościami urodzin i śmierci. Fakt 4.3 Proces urodzin i śmierci jest Łańcuchem Markowa z czasem ciagłym ˛ z parametrami: ν0 = λ0 10 νk = λk + µk 4 ŁAŃCUCHY MARKOWA Z CZASEM CIAGŁYM ˛ oraz prawdopodobieństwami przejść: p01 = 1 pk,k+1 = λk λk + µ k pk,k−1 = µk λk + µ k Przykład 4.4 Podstawowymi przykładami procesów urodzin i śmierci sa˛ 1. Proces Piossona z intensywnościami λk = λ µk = 0 2. Proces urodzin z przyrpstem liniowym λk = kλ µk = 0 3. Model przyrostu liniowego z imigracja˛ λk = kλ + θ µk = kµ Fakt 4.5 Niech X(t) b˛edzie procesem opisujacym ˛ przyrost liniowy z imigracja.˛ Załóżmy, że X(0) jest stałe p.w. Wówczas θ (λ−µ)t e − 1 + X(0)e(λ−µ)t λ 6= µ λ−µ E[X(t)] = θt + X(0) λ=µ Twierdzenie 4.6 Rozważmy ogólny proces urodzin i śmierci X(t). Niech Rk oznacza czas przejścia za stanu k do stanu k + 1 wówczas: 1 1 µk+1 E[R0 ] = E[Rk+1 ] = + E[Rk ] λ0 λk+1 λk+1 oraz µk+1 2 µk+1 1 + D [Rk ] + E[Rk + Rk+1 ]2 D2 [Rk+1 ] = λk+1 (λk+1 + µk+1 ) λk+1 λk+1 + µk+1 4.2 Prawdopodobieństwo przejścia Twierdzenie 4.7 Dla czystego procesu urodzin o intensywnościach µn = 0 oraz λi 6= λj dla i 6= j zachodzi równość Pij (t) = j X e−λk t k=i j Y k6=r=i j−1 j−1 X Y λr λr − e−λk t λr − λk λr − λk k=i j>i k6=r=i Pii (t) = P[Ti > t] = e−λi t Definicja 4.8 Chwilowa˛ intensywnościa˛ przejścia nazywamy qij := νi pij dla i, j ∈ E Lemat 4.9 Mamy lim h→0 1 − pii (h) = νi h lim h→0 pij (h) = qij h 11 5 PROCESY GAUSSOWSKIE, PROCESY STACJONARNE Lemat 4.10 Dla dowolnych s, t > 0 oraz i, j ∈ E zachodzi pij (t + s) = X pik (s)pkj (t) k∈E Twierdzenie 4.11 Dla dowolnego t > 0 oraz dla dowolnych i, j ∈ E zachodzi X 0 pij (t) = qik pkj (t) − νi pij (t) i6=k∈E Twierdzenie 4.12 Przy odpowiednich warunkach regularności (?) zachodzi X 0 pij (t) = qkj pik (t) − νj pij (t) j6=k∈E 5 5.1 Procesy gaussowskie, procesy stacjonarne Standardowy ruch Browna Definicja 5.1 Proces stochastyczny B = (Bt |t > 0) spełaniajacy ˛ (B1) B0 = 0 p. w. (B2) ∀t > s d Bt − Bs = N(0, t − s) (B3) ∀0 6 t1 6 t2 6 . . . 6 tn (Btk+1 − Btk |1 6 k < n) sa˛ stochastycznie niezależne (B4) t 7→ Bt (ω) sa˛ ciagłe ˛ dla prawie wszystkich ω nazywamy ruchem Browna (procesem Wienera). Twierdzenie 5.2 (Zasada odbicia) Dla ruchu Browna B = (Bt |t > 0) niech Ha = inf{t > 0 | Bt = a} dla a > 0. Wtedy proces B˜t = Bt 2a − Bt t < Ha t > Ha jest ruchem Browna Wniosek 5.3 Dla ruchu Browna B = (Bt |t > 0) i dowolnego a ∈ R, t > 0 " P # sup Bs > a = 2P [Bt > a] 06s6t 12 LITERATURA 5.2 Definicja i przykłady procesów gaussowskich Definicja 5.4 Dla procesu X = (Xt )t∈T i t1 , . . . , tn ∈ T określamy miar˛e µt1 ,...,tn na Rn wzorem µt1 ,...,tn (A) = P[(Xt1 , . . . , Xtn ) ∈ A], A ∈ B(Rn ) Rodzin˛e miar {µt1 ,...,tn : t1 , . . . , tn ∈ T parami różne} nazywamy rodzina˛ skończenie wymiarowych rozkładów procesu X. Definicja 5.5 Powiemy, że proces X jest procesem gaussowskim, jeżeli jego rozkłady skończenie wymiarowe sa˛ gaussowskie. 5.3 Procesy stacjonarne i stacjonarne w w˛eższym sensie (własności i przykłady) Definicja 5.6 Dla procesu X takiego, że E[X2t ] < ∞, t ∈ T , definiujemy 1) m(t) = E[Xt ] – średnia procesu (dryf) 2) R(s, t) = Cov(Xs , Xt ) – funkcja kowariancji. Definicja 5.7 Proces X jest stacjonarny w w˛eższym sensie, jeżeli dla t ∈ R jego rozkłady skończenie wymiarowe spełniaj µt1 +t,...,tn +t = µt1 ,...,tn Definicja 5.8 Proces stochastyczny X jest stacjonarny w szreszym sensie, jeśli m(t + h) = m(t) oraz R(s + h, t + h) = R(s, t) dla dowolnego h > 0. Literatura [Res05] Sidney Resnick. Adventures in Stochastic Porcesses. Birkhäuser, 2005. [Ros07] Sheldon M. Ross. Introduction to Probability Models. Elsevier Inc., 2007. WWW. MATH . UNI . WROC . PL /∼ S 232966/ DATA KOMPILACJI : 27 CZERWCA 2012