wybrane modele stochastyczne procesów eksploatacji

Transkrypt

wybrane modele stochastyczne procesów eksploatacji
VI.
WYBRANE
MODELE
EKSPLOATACJI
STOCHASTYCZNE
PROCESÓW
1. ELEMENTY RACHUNKU PRAWDOPODOBIE STWA
1.1 Aksjomaty i twierdzenia rachunku prawdopodobie stwa
Istnieje du a grupa zjawisk fizycznych, których opis deterministyczny z uwagi na ich
zło ono jest niemo liwy. Wyniki przeprowadzonych do wiadcze nie pokrywaj si , mimo
e s realizowane w tych samych warunkach. Takie zjawiska s uwa ane za zjawiska losowe
(przypadkowe). Chc c traktowa procesy eksploatacji obiektów technicznych jako kolejne
nast pstwa zjawisk losowych nale y zna
podstawowe informacje z rachunku
prawdopodobie stwa, które podano ni ej [1, 2, 3, 6, 11].
Zdarzeniem nazywamy wynik do wiadczenia lub obserwacji, przy którym zachodzi
dane zjawisko. Zdarzenie, które w wyniku do wiadczenia mo e zaj lub nie, nazywa si
zdarzeniem losowym.
Zdarzenie elementarne nazywamy takie zdarzenie losowe, którego nie mo na
rozło y na zdarzenia prostsze.
Przestrze zdarze elementarnych, jest to zbiór wszystkich mo liwych wyników
do wiadczenia.
Zbiór jest poj ciem pierwotnym, którego nie definiuje si . Ka dy zbiór składa si z
elementów, które równie nie s definiowane.
Zbiory ze wzgl du na ich liczno dzieli si na:
- sko czone;
- niesko czone.
Zbiory sko czone zawieraj sko czon liczb elementów. Na przykład zbiór liczb
naturalnych 1, 2,..., 6 ,..., zbiór liczb całkowitych nieujemnych 0, 1, 2,..., 9. Zbiór wszystkich
liczb rzeczywistych x spełniaj cych nierówno a ≤ x ≤ b jest zbiorem niesko czonym, a
ponadto zbiór liczb naturalnych 1, 2, 3,...,. Zbiory dziel si tak e na:
- przeliczalne;
- nieprzeliczalne.
Zbiory przeliczalne s równoliczne ze zbiorem liczb naturalnych. Zbiory przeliczalne i
nieprzeliczalne s przykładami zbiorów niesko czonych.
Poj cie prawdopodobie stwa zdarzenia losowego odpowiada cz sto ci zaj cia tego
zdarzenia w długiej serii do wiadcze , dokonywanych w tych samych warunkach. W
rachunku prawdopodobie stwa przyj to aksjomaty:
1) ka demu zdarzeniu losowemu A odpowiada okre lona liczba p(A), zwana
prawdopodobie stwem zdarzenia A, spełniaj ca nierówno :
0 ≤ p(A) ≤ 1
(1)
2) prawdopodobie stwo zdarzenia pewnego E równa si jedno ci:
p(E) = 1
(2)
3) prawdopodobie stwo sko czonej lub przeliczalnej liczby zdarze wył czaj cych si
równa si sumie prawdopodobie stw tych zdarze :
(3)
p(A1 + A2 +...) = p(A1) + p(A2) + …
Zdarzenia wył czaj ce si oznaczaj , e ich równoczesne zaj cie jest zdarzeniem
niemo liwym (iloczyn tych zdarze jest zdarzeniem niemo liwym).
Z zale no ci (1, 2, 3) wynikaj nast puj ce wnioski:
1) prawdopodobie stwo zdarzenia niemo liwego (V) równa si zero:
p(V) = 0
(4)
2) suma prawdopodobie stw zdarze przeciwnych równa si jedno ci:
p(A) = 1 – p( A )
(5)
3) je eli zdarzenie A poci ga za sob zdarzenie B (A zawiera si w B), to prawdopodobie stwo zdarzenia A jest nie wi ksze od prawdopodobie stwa zdarzenia B.
4) je eli prawdopodobie stwo zdarzenia B zale y od dodatkowych warunków, to
prawdopodobie stwo zdarzenia B nazywa si prawdopodobie stwem warunkowym
lub zale nym. Prawdopodobie stwo warunkowe zdarzenia B przy zało eniu, e zaszło
zdarzenie A, zapisuje si nast puj co – p(B/A).
5) dwa zdarzenia s niezale ne je eli:
p(A) = p(A/B)
(6)
p(B) = p(B/A)
(7)
gdzie: p(A) – prawdopodobie stwo bezwarunkowe.
6) prawdopodobie stwo iloczynu dwóch dowolnych zdarze :
p(AB) = p(A) ⋅ p(B) = p(B) ⋅ p(A/B)
(8)
Oznacza to, e prawdopodobie stwo iloczynu dwóch zdarze A B równa si iloczynowi
prawdopodobie stwa jednego z nich przez prawdopodobie stwo warunkowe drugiego
zdarzenia pod warunkiem, e zrealizowało si pierwsze zdarzenie.
7) prawdopodobie stwo dwóch zdarze niezale nych:
p(AB) = p(A) ⋅ p(B)
(9)
8) prawdopodobie stwo sumy dowolnych dwóch zdarze (patrz 3):
p(A+B) = p(A) + p(B) – p(AB)
(10)
9) prawdopodobie stwo całkowite:
p ( A) =
n
i =1
p (Bi ) p ( A / Bi )
(11)
Wzór ten słu y do obliczenia prawdopodobie stwa A przy zało eniu, e zdarzenie to
mo e zaj jedynie ł cznie z jednym z wył czaj cych si wzajem zdarze B1, B2,..., Bn.
10) wzór Bayesa:
p (Bi ) ⋅ p ( A / Bi )
p ( Bi / A) =
(12)
p (B1 ) ⋅ p( A / B1 ) + p (Bn ) p ( A / Bn )
Jest to wzór na prawdopodobie stwo a posteriori (po stwierdzeniu, e zaszło zdarzenie A).
Prawdopodobie stwa p(Bi) nazywane s
prawdopodobie stwami a priori (przed
stwierdzeniem, czy zdarzenie A zaszło, czy nie).
1.2 Zmienne losowe
We wszystkich do wiadczeniach ka demu zdarzeniu elementarnemu jest
przyporz dkowana liczba rzeczywista. Funkcja, która ka demu elementarnemu zdarzeniu
(wynikowi do wiadczenia) przyporz dkowuje liczb rzeczywist nazywa si zmienn losow
(oznaczenie – du e litery np. X, Y, Z).
Do scharakteryzowania zmiennej losowej wystarcza znajomo :
1) zbioru wszystkich mo liwych warto ci, jakie mo e przyjmowa zmienna losowa;
2) prawdopodobie stwo z jakim ona przyjmuje poszczególne warto ci, czyli rozkładu.
Ka da zmienna losowa jest okre lona przez swój rozkład prawdopodobie stwa.
Poszczególne rozkłady prawdopodobie stwa s opisywane przez dystrybuant , czyli funkcj
F(x) zmiennej rzeczywistej okre lon wzorem:
F(x) = P(X<x)
(13)
e
ka
dej
warto
ci
x
mo
e
by
przyporz
dkowane
odpowiednie
Oznacza to,
prawdopodobie stwo, czyli prawdopodobie stwo to jest funkcj x.
Wyró nia si dwie grupy zmiennych:
- skokowe;
- ci głe.
Zmienne losowe, które mog przyjmowa sko czon lub nieprzeliczaln liczb warto ci xi(i =
1, 2,...) z prawdopodobie stwem pi, nazywamy zmiennymi typu skokowego; xi – nazywamy
punktami skokowymi, a pi – skokami.
Rozkładem skokowej zmiennej losowej X nazywa si prawdopodobie stwo tego, e
zmienna X przybierze warto xi(i = 1, 2,...):
P(X = xi) = pi
(14)
∞
pi = 1
(15)
i
Dystrybuanta skokowej zmiennej losowej ma posta :
F(x) = P(X<x) = p1 + p2 +... + pi
(16)
Niektóre rozkłady zmiennej losowej skokowej (np. zero-jedynkowy, dwumianowy,
hipergeometryczny, Poissona) podano w pracach [1, 2, 3, 6].
Zmienn losow typu ci głego nazywamy tak zmienn losow , dla której istnieje
funkcja nieujemna f(x) taka, e dla ka dego rzeczywistego x zachodzi relacja:
∞
F(x) =
f ( x )dx = 1 ,
(17)
−∞
przy czym zachodz zale no ci:
∞
f ( x )dx = 1
−∞
b
P(a ≤ X ≤ b ) = F (b ) − F (a ) = f ( x )dx
(18)
a
F’(x) = f(x)
(19)
Pochodn dystrybuanty nazywa si g sto ci prawdopodobie stwa zmiennej losowej X w
punkcie x.
P(–∞ < X < +∞) = 1
(20)
Liczb , która charakteryzuje w pewien sposób zbiór warto ci jakie mo e przyjmowa
zmienna losowa, nazywa si parametrem. Do pierwszej grupy zaliczamy parametry
reprezentuj ce przeci tna warto
zmiennej losowej (warto
oczekiwana, nadzieja
matematyczna), do drugiej grupy natomiast – parametry opisuj ce, jak bardzo poszczególne
warto ci zmiennej losowej odchylaj si od tej warto ci przeci tnej (wariancja, odchylenie
standardowe).
Warto
przeci tna zmiennej losowej skokowej X jest to suma iloczynów
poszczególnych warto ci tej zmiennej i odpowiadaj cych tym warto ciom
prawdopodobie stw:
E(X ) =
Warto
n
i =1
xi pi
(21)
przeci tn zmiennej losowej ci głej X okre la wyra enie:
E(X ) =
∞
xf ( x )dx
(22)
−∞
Wariancja zmiennej losowej skokowej ma posta :
D2 (X ) =
za ci głej:
∞
i =1
[xi − E ( X )]2 ⋅ pi
(23)
D (X ) =
2
∞
[x − E ( X )]2 f (x )dx
(24)
−∞
Pierwiastek kwadratowy z wariancji nazywa si odchyleniem standardowym.
rednia x zmiennej losowej w próbce jest estymatorem zgodnym i
Warto
nieobci onym, warto ci przeci tnej w populacji generalnej:
1 n
(25)
E(X ) = m ≈ x =
xi ,
n i =1
za odchylenie rednie (wariancja z próbki) S2:
2
1 n
(26)
D2 (X ) ≈ S 2 =
x − xi ,
n − 1 i =1
estymatorem zgodnym i nieobci onym wariancji D2(x) zmiennej losowej w populacji
generalnej.
(
)
2. CZAS EKSPLOATACJI OBIEKTU JAKO ZMIENNA LOSOWA CI GŁA
Zwykle jednostk czasu (miar ) eksploatacji obiektu technicznego, jest jednostka
czasu (godzina, minuta, rok), ale mo e to by inna wielko fizyczna na przykład km. Czas
eksploatacji obiektu uznajemy za zmienn losow τ typu ci głego przyjmuj ca warto z
przedziału (0, ∞).
Zmienn losow s :
- czas istnienia ( ycia) obiektu, tj. czas od chwili wprowadzenia go do u ytkowania, do
chwili jego likwidacji;
- czas do naprawy głównej i redniej;
- czas wykonywania obsług technicznych;
- czas przebywania obiektu w poszczególnych stanach;
- czas przej cia obiektu mi dzy stanami;
- itd.
Zmienn losow τ, czyli czas eksploatacji obiektu charakteryzuj ci głe wzgl dem
czasu funkcje: dystrybuanta F(t), g sto
rozkładu prawdopodobie stwa f(t), funkcja
niezawodno ci P(t), funkcja intensywno ci uszkodze λ(t), okre lone dla t ≥ 0 [1, 7].
Dystrybuanta zmiennej τ jest funkcj , której warto
dla ustalonego t oznacza
prawdopodobie stwo uszkodzenia obiektu przed chwil t:
F(t) = P(τ < t) dla t ≥ 0
(27)
Funkcja R(t) zwana niezawodno ci
obiektu w czasie (0, t) oznacza
prawdopodobie stwo tego, e uszkodzenie wyst pi pó niej ni w chwili t, czyli e obiekt
b dzie zdatny w czasie (0, t). Niezawodno jest funkcja nierosn c wzgl dem czasu t, co
przedstawiono na rys.6.1.
∞
R(t ) = P(τ > t ) = f (t )dt
dla t ≥ 0
(28)
t
R(t ) = 1 − F (t )
(29)
R(t)
1
R(t)
F(t)
t
Rys.6.1 Ilustracja graficzna funkcji niezawodno ci R(t) i dystrybuanty F(t)
Funkcja f(t) g sto ci prawdopodobie stwa zmiennej τ jest pochodn dystrybuanty:
dF (t )
dla t ≥ 0
(30)
f (t ) =
dt
Funkcj intensywno ci uszkodze λ(t) definiuje si jako:
f (t )
λ (t ) =
(31)
1 − F (t )
Funkcj intensywno ci uszkodze λ(t) uwa a si za podstawow charakterystyk czasu
eksploatacji obiektu. Wielko λ(t)⋅∆t oznacza prawdopodobie stwo uszkodzenia obiektu w
krótkim przedziale czasu (t, t+∆t) pod warunkiem, e do chwili t był on zdatny. Oznacza ona
wzgl dny spadek niezawodno ci na jednostk czasu. Ka da z czterech zdefiniowanych
funkcji w sposób jednoznaczny okre la zmienna losow τ, determinuj c tym samym posta
funkcji pozostałych.
Je eli funkcja g sto ci i dystrybuanta zmiennej τ maja posta :
f (t ) = λe − λt dla t ≥ 0
(32)
F (t ) = 1 − e − λt dla t≥ 0,
(33)
to czas eksploatacji podlega wykładniczemu prawu niezawodno ci.
Intensywno uszkodze λ(t) w rozkładzie wykładniczym jest funkcja stał wzgl dem czasu:
λ (t ) = λ > 0 ; dla t≥ 0
(34)
Funkcja niezawodno ci ma posta :
R(t ) = e − λt , dla t > 0,
(35)
za redni czas eksploatacji obiektu µ jest odwrotno ci intensywno ci uszkodze λ:
1
µ= ,
(36)
λ
a wariancj okre la wzór:
σ2 =
1
λ2
(37)
W przypadku braku uzasadnionych podstaw do przyj cia zało enia λ = const nale y
rozwa y mo liwo wykorzystania innych rozkładów zmiennej losowej τ na przykład:
gamma, Weibulla, normalnego i innych. Post powanie winno polega na tym, e zakładamy
posta funkcyjn rozkładu zmiennej losowej τ i po sprawdzeniu, e do wiadczenie nie
przeczy przyj temu zało eniu, korzystamy z zale no ci słusznych dla danego rozkładu.
Zmienna losowa τ oznaczaj ca czas eksploatacji obiektu ma rozkład gamma je eli:
f (x ) =
λ
(λt )−λt ⋅ e −λt , dla t ≥ 0
Γ(α )
(38)
gdzie:
α>0 i λ>0 – parametry;
∞
Γ(α ) = e − x xα −1dx - funkcja gamma
0
Funkcja niezawodno ci R(t) obiektu ma posta :
λ ∞
(λx )α −1 ⋅ e −λx dx
R(t ) =
Γ(α ) t
(39)
Oczekiwany czas ycia obiektu okre la wzór:
µ=
α
,
λ
(40)
σ2 =
α
λ2
(41)
za wariancj - wyra enie:
Funkcj intensywno ci λ(t) w tym rozkładzie jest wyra eniem:
λ (λt )α −1 ⋅ e − λt
dla t ≥ 0
λ (t ) = ∞
α −1 − x
x e dx
(42)
λt
Dla rozkładu gamma zmiennej losowej τ obowi zuj nast puj ce zale no ci (rys.6.2):
λ(t)
0<α<1
α=1
α>1
t
Rys.6.2 Ilustracja graficzna intensywno ci uszkodze λ(t) w rozkładzie gamma [7]
1) je li α > 1, to intensywno uszkodze obiektu ro nie z czasem, d c asymptotycznie do
stałej intensywno ci uszkodze λ;
2) je li 0 < α < 1, to intensywno uszkodze obiektu maleje z czasem d c asymptotycznie
do warto ci λ;
3) po upływie długiego czasu niezawodno obiektu o dowolnym rozkładzie gamma,
podlega wykładniczemu prawu niezawodno ci;
4) dla α = 1, λ(t) = λ = const dla t = (0, ∞), zatem rozkład gamma jest rozkładem
wykładniczym.
Przypadkiem szczególnym rozkładu gamma jest rozkład Erlanga, w którym α jest
liczb naturalna k.
Czas eksploatacji jest zmienn losow τ o rozkładzie Weibulla, je eli s spełnione
nast puj ce warunki:
α −1
α
f (t ) = α ⋅ λ (λt ) exp (− λt ) dla t ≥ 0
(43)
R(t ) = exp{(− λt )} dla t ≥ 0
(44)
{
}
λ (t ) = λα (λt )α −1 dla t ≥ 0
(45)
µ=
σ =
2
1
λ2
Γ
1
λ
2
α
Γ
1
α
+1
+1 − Γ
(46)
1
α
2
+1
(47)
Dla rozkładu Weibulla obowi zuj zale no ci (rys.6.3):
λ(t)
1<α<2
α=2
α=1
α>2
0<α<1
t
Rys.6.3 Ilustracja graficzna intensywno ci uszkodze λ(t) w rozkładzie Weibulla [7]
1) α=1 – rozkład wykładniczy;
2) α>1 – intensywno uszkodze λ(t) jest funkcj ci le monotoniczn , rosn c do
niesko czono ci;
3) 0 < α < 1 – intensywno uszkodze λ(t) jest funkcj ci le monotoniczn malej ca do
zera;
4) α = 2 – λ(t) ro nie proporcjonalnie do czasu;
5) α > 2 – λ(t) jest krzyw wypukł ku dołowi;
6) 1 < α < 2 – λ(t) jest krzyw wypukł ku górze.
Zmienna losowa τ charakteryzuj ca czas ycia obiektu ma rozkład normalny wtedy, gdy w
przedziale (-∞ < τ < +∞) opisana wyra eniem (rys.6.4)
f (t ) =
1
(t − µ )
exp −
2σ
σ 2π
2
(48)
f(t)
σ
1
σ
2
σ
3
t
Rys.6.4 Ilustracja graficzna funkcji g sto ci prawdopodobie stwa dla rozkładu
normalnego (σ1 < σ2 <σ3 –odchylenia standardowe)
Zmienna losowa τ, mo e przyjmowa tylko warto ci dodatnie, zatem ma ona rozkład
normalny uci ty w punkcie t = 0 (przedział 0, ∞). Wzory na niezawodno P(t), intensywno
uszkodze λ(t), redni czas ycia µ i wariancj σ2 mo na znale w pracach [1, 7].
Typowa funkcja intensywno ci uszkodze jest kompozycj trzech rozkładów
elementarnych (rys.6.5). Okres pierwszy dotyczy pocz tkowego czasu eksploatacji obiektu.
Wyst puje znaczna intensywno uszkodze w obiekcie, co tłumaczy si tym, e w
pocz tkowym okresie eksploatacji główn przyczyn uszkodze s ró nego rodzaju
uszkodzenia produkcyjne, ukryte wady elementów, wady monta owe itp. Czas trwania
pierwszego okresu zale y od typu obiektu, jego jako ci, jako ci zastosowanych elementów
itp. W okresie pierwszym [dla t∈(0, t1)] intensywno uszkodze maleje i mo e by opisana
np. rozkładem gamma o parametrach 0 < α < 1 i λ >0 lub Weibulla o 0 < α < 1.
Okres drugi [t∈(t1, t2)] jest zazwyczaj nazywany okresem normalnej eksploatacji
obiektu. Charakteryzuje si on obni on i praktycznie stał intensywno ci uszkodze .
Uszkodzenia s przewa nie przypadkowe i podlegaj wykładniczemu prawu niezawodno ci.
Długo tego okresu zale y przede wszystkim od redniej trwało ci zastosowanych w
obiekcie elementów oraz od warunków eksploatacji. Okres ten charakteryzuje trwało całego
obiektu.
λ(t)
rozkład
wykładniczy
rozkład
normalny
4
3
1
2
rozkład
Wiebula (α<1)
I
t
1
II t
2
III t
t
3
Rys.6.5 Ilustracja zmiany intensywno ci uszkodze w funkcji czasu: 1 – uszkodzenia
wczesne, 2 – uszkodzenia starzeniowe, 3 – uszkodzenia losowe, 4 –
wynikowa funkcja intensywno ci uszkodzenia
Okres trzeci [(t3 > t2] jest uwarunkowany procesem zu ywania si wszystkich elementów
obiektów i charakteryzuje si znacznym wzrostem intensywno ci uszkodze . Wi kszo
uszkodze obiektu w tym okresie to uszkodzenia naturalne, wynikaj ce z rzeczywistego
zu ycia si elementów i destrukcyjnego oddziaływania czynników zewn trznych i roboczych.
Intensywno uszkodze ro nie ze wzrostem czasu i mo e by opisana rozkładem Weibulla
dla α > 2 lub rozkładem normalnym.
W praktyce cz sto jest przyjmowane zało enie o stałej intensywno ci uszkodze w
ci gu całego ycia obiektu (niezawodno typu wykładniczego), jednak tego nie mo na
stosowa bezkrytycznie z pomini ciem procesu zu ycia obiektu.
3. PROCESY MARKOWA
3.1 Ogólne okre lenie procesu stochastycznego
Przedmiotem teorii procesów stochastycznych s zdarzenia losowe zwane procesami
losowymi lub procesami stochastycznymi. Oprócz tych nazw, u ywany jest termin funkcja
losowa [4, 5, 7, 8, 9, 10, 12].
Procesem stochastycznym ξ = ξ(t) nazywamy funkcj parametru rzeczywistego
t ∈ T, której warto ci ξ(t), przy ka dym t s zmiennymi losowymi. Zbiór warto ci które mo e
przyjmowa proces stochastyczny ξ(t) oznaczamy przez X a elementy (xn, n= 1, N ) tego
zbioru nazywamy stanami procesu.
W wyniku ka dego do wiadczenia otrzymuje si okre lon zale no funkcyjn lub
realizacj funkcji losowej X(t). Zbiór realizacji (rys.6.6) funkcji losowej charakteryzuje jej
własno ci z małym przybli eniem, co jest niewystarczaj ce.
x (t)
x (t)
n
n
x (t)
3
x (t)
2
x (t)
1
(
)
t
Rys.6.6. Zbiór realizacji {xn }; n = 1, N procesu stochastycznego
trójka:
Proces stochastyczny b dzie w pełni scharakteryzowany je eli jest dana nast puj ca
{X, T, F}
gdzie:
X – zbiór stanów procesu ξ(t);
T – zbiór warto ci jakie mo e przyjmowa parametr t;
F – rodzina funkcji rozkładu, czyli dystrybuanta, tj. prawdopodobie stwo tego, e
rozpatrywana zmienna losowa przyjmuje warto mniejsz od pewnej ustalonej liczby.
Funkcja losowa jest okre lona wtedy, gdy znane s wszelkie wielowymiarowe
rozkłady dla dowolnych warto ci t1, t2,..., tn z obszaru zmienno ci argumentu t:
F ( x1 , x2 , , xn , t1 , t 2 ,..., t n ) = P(ξ (t1 ) < x1 ,ξ (t 2 ) < x2 ,...,ξ (t n ) < xn )
(49)
Klasyfikacja procesów stochastycznych polega na utworzeniu pewnych klas procesów
o ustalonych własno ciach zbioru X, T oraz F pozwalaj cych w ramach jednej klasy
opracowa uniwersalny schemat post powania przy badaniu procesów stochastycznych.
Je eli za podstaw klasyfikacji we miemy zbiór stanów X, to w przypadku gdy X={0,
1, 2,...} mówimy, e proces stochastyczny ma dyskretny zbiór stanów lub krócej – proces
dyskretny w stanach. W przypadku gdy X=R (zbiór liczb rzeczywistych) mówimy, e proces
stochastyczny ma ci gły zbiór stanów lub krócej proces ci gły w stanach.
Analogicznie mo na post powa przy klasyfikacji, je eli za podstaw przyj zbiór
parametrów T. Wtedy w przypadku gdy T={0, 1, 2,...} mówimy, e proces stochastyczny
posiada dyskretny zbiór parametrów lub krócej – proces dyskretny w czasie (piszemy w
czasie, gdy w wi kszo ci rzeczywistych przypadków parametr t jest czasem). Je eli T={t:
0≤t<∞} mówimy, e proces stochastyczny posiada ci gły zbiór parametrów lub krócej –
proces ci gły w czasie. Bior c za podstaw klasyfikacji zbiory X i T otrzymamy nast puj ce
cztery klasy procesów stochastycznych [8]:
- procesy dyskretne w stanach i czasie;
- procesy dyskretne w stanach i ci głe w czasie;
- procesy ci głe w stanach i dyskretne w czasie;
- procesy ci głe stanach i czasie.
Je eli za podstaw klasyfikacji przymniemy własno ci charakterystyk parabolicznych
(własno rodziny F) procesów stochastycznych, to otrzymamy nast puj ce typy procesów
stochastycznych:
1) proces o niezale nych warto ciach (biały szum);
2) proces o niezale nych przyrostach;
3) proces Markowa.
Proces Markowa jest to taki proces, dla którego [8]:
P (ξ (t n ) < xn / ξ (t n−1 ) = xn−1 ,..., ξ (t 0 ) = x0 ) = P (ξ (t n ) < xn / ξ (t n−1 ) = xn−1 ) ,
(50)
dla dowolnego ci gu parametrów t0 < t1 <... < tn-1 < tn. Zale no ta mówi o tym, e na stan
procesu w chwili tn nie ma bezpo redniego wpływu to, w jakich stanach znajdował si w
chwilach tn-2, tn-3,..., t0. Bezpo redni wpływ ma tylko stan, w którym znajduje si proces w
chwilach tn-1. Gdyby chwil tn-1 przyj za tera niejszo i chwil t0, t1, ..., tn-2 za przeszło , a
chwil tn za przyszło , to dla procesów Markowa o tym co b dzie w przyszło ci decyduje
tylko tera niejszo , przeszło (historia) nie ma wpływu. St d bior si inne nazwy tego
procesu, proces ahistoryczny lub bez pami ci.
4) Proces jednorodny (proces stacjonarny). Jest to proces dla którego:
P (ξ (t n + τ ) < xn / ξ (t n−1 + τ ) = xn−1 ,..., ξ (t 0 + τ ) = x0 ) = P(ξ (t n ) < xn / ξ (t n−1 ) = xn−1 ,..., ξ (t 0 ) = x0 )
(51)
dla dowolnego ci gu parametrów t0 < t1 <... < tn oraz dowolnego τ > 0.
Pełna znajomo procesu stochastycznego jest rzadko mo liwa. Dlatego te w
praktyce post puje si nast puj co:
- rozpatrujemy pewne wyró nione klasy procesów o prostych wła ciwo ciach;
- opisujemy niektóre wła ciwo ci procesu, za pomoc charakterystyk na przykład:
warto ci redniej, wariancji, odchylenia standardowego, funkcji korelacyjnej,
współczynnika korelacji, trendu, widma procesu.
3.2 Klasyfikacja stanów
Chc c rozpatrywa opis procesów eksploatacji obiektów technicznych za pomoc
procesów Markowa nale y przyj klasyfikacj ich stanów. Wyró nia si stany [5]:
1) istotny.
Stan i∈W nazywamy stanem istotnym procesu Markowa, je eli dla n∈N1 kroków – pij(n)>0
oraz dla m∈N1 kroków pji > 0 (rys.6.7).
p (n)>0
ij
i
p (m)>0
j
ji
Rys.6.7 Ilustracja graficzna stanów istotnych procesu Markowa
gdzie:
i, j – stany procesu;
W – zbiór stanów;
N1 – zbiór kroków
n, m – liczby kroków.
pji(n) – prawdopodobie stwo przej cia procesu Markowa ze stanu i do stany j w n
krokach;
pji(m) – prawdopodobie stwo przej cia procesu Markowa ze stanu j do stany i w m
krokach.
2) nieistotny.
Stan, który nie spełnia wymaga okre lonych w pkt. 1 nazywa si stanem nieistotnym. Dla
stanu nieistotnego zachodz nast puj ce zale no ci:
(52)
pij(n) > 0 i pji(m) = 0
3) osi galny.
Stan j∈W nazywamy stanem osi galnym ze stanu i∈W procesu Markowa, je eli:
pij =
lub
∞
i =1
pij (n ) = 1
p ( n) > 0
Stan j∈W osi galnym ze stanu i∈W oznaczamy symbolem i → j .
(53)
(54)
4) stany komunikuj ce si .
Stany i,j∈W nazywamy stanami komunikuj cymi si , je eli:
(i → j ) ∧ ( j → i )
gdzie:
∧ - znak komunikacji (iloczynu logicznego).
5) powracaj cy (pochłaniaj cy).
Stan i∈W nazywamy stanem powracaj cym, je eli:
pii (n ) =
∞
n =1
(55)
p ii (n ) = 1
(56)
Co oznacza, e proces po n = 1, 2,..., krokach z prawdopodobie stwem pii(n)=1 powraca do
stanu i. Je eli pii(n)<1 stanu taki nazywamy stanem nie powracaj cym.
6) nieprzywiedlny proces semi-Markowa.
Proces semi-Markowa nazywamy nieprzywiedlnym je eli:
∧ (i → j ) ∨ ( j → i )
(57)
i , j∈W
Co oznacza, e dla stanów i,j∈W, stan j jest osi galny ze stanu i lub stan i jest osi galny ze
stanu j. Podkre li
nale y,
e tak zdefiniowany nieprzywiedlny proces
semi-Markowa mo e zawiera równie stany nieistotne.
3.3 Ła cuchy Markowa
Realizacja procesów eksploatacji obiektów technicznych oznacza zaj cie okre lonego
zbioru zdarze elementarnych. Zaj cie dowolnego zdarzenia elementarnego oznacza, e
proces eksploatacji znajduje si w okre lonym stanie. Przebieg procesu eksploatacji
urz dzenia technicznego, to inaczej nast pstwo stanów, czyli ogólnie przej cie procesu od
stanu „i” do „j”.
Niech ξ(t), t≥0 b dzie procesem Markowa o sko czonej lub przeliczalnej liczbie
mo liwych stanów (xi), za które mo na przyj liczby naturalne i = 1, 2,...,. Zakładamy, e
parametr t, tzn. czas przybiera tylko warto ci całkowite t = 0, 1, 2,...,. Wówczas mamy do
czynienia z ła cuchem:
ξ (0) → ξ (1) → ξ (2) ξ (i ) ξ ( j )
(58)
gdzie:
ξ(0), ξ(1), ξ(2), ... – warto ci procesu stanu.
Proces ξ=ξ(t), który został opisany nazywa si ła cuchem Markowa (rys.6.8) [2, 7, 8,
9, 10]:
...
ξ(t)
...
ξ(j)
...
ξ(i)
ξ(2)
ξ(1)
ξ(0)
1
2
...
i
...
j
...
t
Rys.6.8 Ilustracja graficzna procesu eksploatacji obiektów technicznych przyj tego jako
ła cuch Markowa
Dla procesu eksploatacji obiektów technicznych traktowanego jako ła cuch Markowa
problemem jest prawdopodobie stwo pij(n) przej cia procesu ze stanu i do stanu j w n
krokach. Inaczej mo na powiedzie , e to przej cie procesu odbywa si w chwili t = n.
Zakładamy, e w chwili pocz tkowej proces znajduje si w jednym ze stanów i:
a) z prawdopodobie stwem pi, Σpoi=1;
b) w szczególno ci, je eli poi=1, pok=0 dla k≠i, to oznacza, e stan i jest stanem
wyj ciowym procesu.
Przy rozkładzie pocz tkowym procesu postaci „b” zwi zki pomi dzy prawdopodobie stwami
przej cia pij(n) dla i,j=1, 2,... s nast puj ce:
1 dla j = i
pij (0 ) =
(59)
0 dla j ≠ i
pij (n ) =
pik (n − 1) ⋅ p kj ; n = 1,2,...
(60)
k
Wyra enie (2.60) mo na zinterpretowa nast puj co. Po n-1 krokach proces musi si znale
w jednym ze stanów k = 1, 2,..., przy czym w stanie k znajdzie si z prawdopodobie stwem
pk(n-1). Przy warunku, e po n-1 krokach proces znajdzie si w stanie k,
prawdopodobie stwo znalezienia si po n krokach w stanie j jest równe prawdopodobie stwu
pkj przej cia z k do j. Korzystaj c z twierdzenia o prawdopodobie stwie całkowitym (11),
otrzymuje si wzór (60).
Dla jednorodnego ła cucha Markowa prawdopodobie stwa warunkowe pij(n)
przej cia ze stanu i do stanu j nie zale od n, tj.:
pij (n ) = pij ; n = 1,2,...
(61)
Prawdopodobie stwo pij nosi nazw prawdopodobie stwa przej cia procesu ze stanu i
do stanu j w jednym kroku.
Dla ła cucha Markowa wa ne znaczenie ma twierdzenie ergodyczne (wyrazy pij(n)
przynajmniej w jednej kolumnie macierzy musza by wi ksze od zera M n = M 1n , gdzie: Mn –
macierz przej cia w n krokach, M1 – macierz przej cia w jednym kroku). Istot tego
twierdzenia jest znalezienie odpowiedzi na pytanie jak zachowuj si prawdopodobie stwa
pij(n) przy n→∞ (t→∞). Inaczej mówi c jak wpływa stan i, w którym proces był na pocz tku,
na prawdopodobie stwa przej cia pij(n), po bardzo du ej ilo ci kroków n.
Twierdzenie to przy spełnieniu okre lonych warunków [2], tzn. pij jest macierz
przej cia w jednym kroku jednorodnego ła cucha Markowa o sko czonej liczbie stanów, ma
posta :
lim pij (n ) = p *j ; j = 1,2,..., s
(62)
n →∞
Prawdopodobie stwa graniczne p *j nosz nazw prawdopodobie stw ergodycznych. Je eli te
prawdopodobie stwa istniej to po przej ciu do granicy przy n→∞ po obydwu stronach
równo ci (60) otrzymujemy:
pi* =
pi* ⋅ pij ( j = 1,2,...s )
(63)
i
Z tych równa oraz ze zwi zku:
p *j = 1 ,
j
mo emy wyznaczy szukane prawdopodobie stwa p *j .
3.4 Procesy Markowa o ci głym parametrze czasu
W punkcie 3.3 rozpatrzono ła cuchy Markowa, tj. procesy Markowa o parametrze
czasowym dyskretnym. Wiele zjawisk uznawanych za proces stochastyczny ma przebieg
ci gły w czasie, dlatego te badanie ich tylko w wybranych chwilach czasu mo e by
niewystarczaj ce dla ich opisu. Przy procesach o parametrze czasowym ci głym dysponujemy
pełniejsz ni przy ła cuchach dyskretnych informacj o przebiegu procesu, czyli o
zamianach jego stanów.
Rozpatrzmy podstawowe zagadnienia dotycz ce jednorodnego procesu Markowa ξ(t)
o sko czonej lub przeliczalnej liczbie stanów 1, 2,..., ró ni cych si od rozpatrywanych w
poprzednim punkcie ła cuchów Markowa tylko tym, e parametr t (czas) zmienia si w
sposób ci gły i przej cie od jednego stanu w drugi jest mo liwe w dowolnej chwili t (rys.6.9)
[2, 7, 8, 9, 10].
ξ(t)
ξ(j)
...
ξ(i)
ξ(2)
ξ(1)
t
1
t
2
...
t
i
t
j
...
t
Rys.6.9 Ilustracja graficzna procesu Markowa o ci głym parametrze czasowym
Prawdopodobie stwo pij(t) znalezienia si procesu po upływie czasu t w stanie j przy
zało eniu, ze stanem wyj ciowym był stan i mo na zdefiniowa nast puj co:
) = j ξ (t ') = i}
pij (t ) = P{ξ (t + t '
(64)
i, j = 1, 2,...
Zaznaczy nale y, e dla jednorodnego procesu Markowa prawdopodobie stwo przej cia
zale y tylko od ró nicy t = t2 – t1 (t1 < t2), tzn.:
pij (t1 , t 2 ) = pij (t )
(65)
Dla jednorodnego procesu Markowa zachodz nast puj ce wzory:
0 ≤ pij (t ) ≤ 1
(66)
pij (t ) = 1
pij (t + t '
)=
(67)
pik (t ) p kj (t '
); i, j = 1,2,...
(68)
k
Równanie (68) nosi nazw równania Chapmana-Kołmogorowa i jest ono odpowiednikiem
równania (60) dla ła cuchów Markowa. Zakłada si , e funkcje pij(t) s ci głe w punkcie t=0.
1 dla j = i
lim pij (t ) =
(69)
t →0
0 dla j ≠ i
Przyjmujemy, e przy wszystkich i, j = 1, 2,... prawdopodobie stwa przej cia pij(t) spełniaj
nast puj ce warunki:
pij (t ) = 1 − pii (∆t ) = λi ∆λ + o(∆t )
(70)
pij (∆t ) = λij ∆t + o(∆t ),
j≠i
(71)
gdzie:
pii(∆t) – prawdopodobie stwo tego, e proces znajduje si w stanie i przez krótki czas ∆t;
λi – intensywno wyj cia ze stanu i;
λij – intensywno przej cia ze stanu i do stanu j;
o(∆t )
→ 0 przy ∆t → 0 .
∆t
Inaczej funkcje λi(∆t) i λij(∆t) nosz nazw funkcji intensywno ci procesu. Charakteryzuj
one szybko zmian prawdopodobie stw przej cia pij(t). Podkre li nale y, e omówione
wła ciwo ci procesu Markowa s słuszne dla niezale nych zmiennych losowych T0, T1,...,
b d cych czasami czekania na kolejne skoki procesu (czasami przebywania w okre lonych
stanach), maj cych rozkład wykładniczy z parametrem λ .
Je eli prawdopodobie stwa przej cia pij(t) procesu Markowa o sko czonej liczbie
stanów spełniaj warunki (70) i (71), to słusznie s poni sze równania ró niczkowe, z
warunkami pocz tkowymi (69):
pij'(t ) = λik ⋅ pkj (t ); i, j = 1,2,...,
(70)
p (t ) =
k
λkj ⋅ pik (t ); i, j = 1,2,...,
'
ij
(71)
k
Równania (71) stanowi tzw. układ ró niczkowych równa prospektywnych Kołmogorowa
(odnosz cych si do przyszło ci), za równania (70) układ retrospektywnych równa
ró niczkowych Kołmogorowa (odnosz cych si do przeszło ci).
Układ równa (71) jest spełniony dla prawdopodobie stw pj(t) i ma posta :
p 'j (t ) =
pk (t ) ⋅ λ kj ; j = 1,2,...
(72)
k
Podobnie jak dla ła cuchów Markowa słuszne jest wyra enie:
p j = lim p j (t ); j = 1,2,...
t →∞
(73)
Oznacza to, e prawdopodobie stwa pj(t) tego, e proces po upływie czasu t znajdzie si w
odpowiednim stanie j=1, 2,..., maja przy t→∞, warto ci graniczne p j . Prawdopodobie stwa
graniczne nie zale od rozkładu pocz tkowego poi, i = 1, 2,...,.
Przy t→∞ z układu równa ró niczkowych (72) otrzymujemy układ równa liniowych
'
p j (t ) = 0 :
(
)
p j λij = 0
j = 1,2,... ,
(74)
i
z których mo emy obliczy prawdopodobie stwa graniczne p j .
Podkre li nale y, e je eli w jednorodnym procesie Markowa {X t , t ∈ T } o przeliczalnej
liczbie stanów ustalimy dowolny ci g chwil:
t1 < t 2 < ...t n < ...,
(75)
to ci g {xtn , t n ∈ T } przedstawia ci g zmiennych losowych zwi zanych w ła cuch Markowa.
Ła cuchy w ten sposób generowane przez proces Markowa nazywane s ła cuchami
wło onymi procesu [7].
3.5 Procesy semi-Markowa
Proces semi-Markowa ró ni si od ci głego w czasie i dyskretnego w stanach procesu
Markowa tym, e w procesie Markowa „czasy przebywania procesu w stanach” s zmiennymi
losowymi o rozkładach wykładniczych, podczas gdy w procesie semi-Markowa mog one
mie rozkład dowolny [5, 7].
w przedziale
Proces stochastyczny {M (t ) : t ∈ R+ } przyjmuje stał warto
[τ m ,τ m+1 ], m ∈ N [5]:
M (t ) = m, dla t ∈ (τ m ,τ m+1 )
Proces stochastyczny {X (t ) : t ∈ R+ } okre lony wzorem:
X (t ) = ξ M (t )
(76)
(77)
gdzie:
N – zbiór liczb całkowitych nieujemnych;
R+ – zbiór liczb rzeczywistych nieujemnych,
nazywamy procesem semi-Markowa (SM) (rys.6.10).
Proces semi-Markowa okre laj nast puj ce zale no ci [5]:
Qij = pij ⋅ Fij (t )
gdzie:
F (t ) = Fij (t ) - macierz dystrybuant zmiennych losowych Tij;
[ ]
P = [ p ]; i, j ∈W - macierz prawdopodobie
(78)
stw przej cia wło onego ła cucha Markowa,
ij
pi = P{X (τ 0 ) = i}; i ∈W - rozkład pocz tkowy procesu,
W – sko czony zbiór stanów procesu,
Q(t ) = Qij (t ) ; i, j ∈ S - macierz funkcyjna nazywana j drem procesu SM.
[
]
M(t)
τ
0
τ
τ
1
τ
2
3
τ
4
t
Rys.6.10 Ilustracja graficzna procesu semi-Markowa
Funkcja Qij(t) spełnia wymagania [5]:
1) jest niemalej ca;
2) lewostronnie ci gła;
3) Qij (0) = 0;
4) lim Qij (t ) = 1
(79)
(80)
t →∞
5)
j∈W
lim Qij (t ) = 1
(81)
t →∞
Wa n charakterystyk procesu SM jest rozkład graniczny:
p j = lim P{X (t ) = j}; j ∈W
t →∞
(82)
Je li proces SM {X (t ); t ∈ R+ } o sko czonym zbiorze stanów W jest nieprzywidlny
oraz zmienne losowe Tj; j∈W maj sko czone dodatnie warto ci oczekiwane E(Tj), to istniej
graniczne prawdopodobie stwa przej cia:
pij = lim pij (t ); i, j ∈W
(83)
t →∞
pij = p j =
p *j ⋅ E (T j )
k∈W
p k* E (Tk )
gdzie:
p *j - prawdopodobie stwa graniczne wło onego ła cucha Markowa (63).
(84)
Reasumuj c nale y stwierdzi , e aby znale
rozkład graniczny procesu SM,
wystarczy zna macierz prawdopodobie stw przej cia wło onego ła cucha Markowa oraz
warto ci oczekiwane czasów trwania stanów procesu.
4. PODSUMOWANIE
Reasumuj c rozpatrzone zagadnienia dotycz ce wybranych modeli stochastycznych
do opisu zmian procesów eksploatacji obiektów technicznych mo na stwierdzi , co nast puje:
1) czas eksploatacji obiektu technicznego jest zmienn losow , któr charakteryzuj : ci głe
wzgl dem czasu funkcje: dystrybuanta, g sto rozkładu prawdopodobie stwa, funkcja
niezawodno ci, funkcja intensywno ci uszkodze ;
2) proces eksploatacji obiektów technicznych mo na traktowa jako ła cuchy Markowa,
tzn. dyskretne w stanach i czasie;
3) pełniejsz informacj o procesach eksploatacji obiektów technicznych mo na uzyska
traktuj c je jako procesy dyskretne w stanach i ci głe w czasie;
4) proces semi-Markowa lepiej opisuje procesy eksploatacji obiektów technicznych ni
proces Markowa, poniewa czasy przebywania procesu w stanach jako zmienne losowe
mog mie rozkłady dowolne, a nie tylko wykładnicze.
LITERATURA
1. Fidelis E i inni: Matematyczne podstawy oceny niezawodno ci. PWN, Warszawa 1966.
2. Fisz M.: Rachunek prawdopodobie stwa i statystyka matematyczna. PWN, Warszawa
1967.
3. Gajek L., Kałuszka M.: Wnioskowanie statystyczne. Modele i metody. WNT, Warszawa
1994.
4. Gniedenko B.W., Kowalenko I.N.: Wst p do teorii obsługi masowej. PWN, Warszawa
1971.
5. Grabowski F.: Teoria semi-markowskich procesów eksploatacji obiektów technicznych.
Zeszyty naukowe 75A. Wy sza Szkoła Marynarki Wojennej, Gdynia 1982.
6. Hellwig Z.: Elementy rachunku prawdopodobie stwa i statystyki matematycznej. PWN,
Warszawa 1975.
7. Ko niewska I., Włodarczyk M.: Modele odnowy niezawodno ci i masowej obsługi.
PWN, Warszawa 1978.
8. Pluci ski J.: Procesy stochastyczne cz. I. WAT, Warszawa 1975.
9. Rosenblatt M.: Procesy stochastyczne PWN, Warszawa 1969.
10. Rozanow J. A.: Wstep do teorii procesów stochastycznych. PWN, Warszawa 1974.
11. Smirnow N., W, Dunin-Barjowski I. W.: Kurs rachunku prawdopodobie stwa i statystyki
matematycznej dla zastosowa technicznych. PWN, Warszawa 1969.
12. Swiesznikow A. A.: Podstawowe metody funkcji losowych. PWN, Warszawa 1965.
13. Nizi ski S., ółtowski B.: Informatyczne systemy zarz dzania eksploatacj obiektów
technicznych. ISBN – 83-916198-0-X, Olsztyn-Bydgoszcz, 2001 s.334.
14. Nizi ski S., ółtowski B.: Zarz dzanie eksploatacj obiektów technicznych za pomoc
rachunku kosztów. ISBN – 83-916198-0-X, Olsztyn-Bydgoszcz, 2002 s.156.
15. ółtowski B., Józefik W.: Diagnostyka techniczna elektrycznych urz dze
przemysłowych. Wydawnictwa ATR. Bydgoszcz. 1996. (s.240).
16. ółtowski B., wik Z. : Leksykon diagnostyki technicznej. Naukowo - Techniczny. Wyd.
ATR. Bydgoszcz. 1996. (s.420).
17. ółtowski B.: Podstawy diagnostyki maszyn. Wyd. ATR. Bydgoszcz. 1996 (s.467).
18. ółtowski B., Tylicki H.: Osprz t elektryczny pojazdów mechanicznych. Wyd.ATR.
Bydgoszcz. 1999 (s.158).
19. ółtowski B.: Badania dynamiki maszyn. Wyd. MARKAR, Bydgoszcz 2002 s.300.