[D]
Transkrypt
[D]
Wykład 6 Prawa wielkich liczb Ciągi zmiennych losowych (Ω, B, P) - przestrzeń probabilistyczna X1(ω), X2(ω), X3(ω),....- ciąg losowy (jeŜeli ω jest ustalone to mamy ciąg liczbowy) Przykład (Plucińska): Ω= [0,1), oraz P określa rozkład jednostajny na B. Konstruujemy ciąg losowy w poniŜszy sposób: 1 dla ω ∈ [k / n, (k + 1) / n ) 0 dla ω ∈ Ω \ [k / n, (k + 1) / n ) Xkn(ω) = gdzie n = 1, 2,....., oraz 0 ≤ k ≤ n – 1. X01(ω), X02(ω), X12(ω), X03(ω), X13(ω), X23(ω), X04(ω), X14(ω), X24(ω), X34(ω),.... Na przykład: jeŜeli ω = 0, to 1, 1, 0, 1, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0,.... jeŜeli ω = 1 /4, to 1, 1, 0, 1, 0, 0, 1, 0, 0, 0, 0, 1, 0, 0, 0,... jeŜeli ω = 3 / 4, to 1, 0, 1, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 1, 0,... MoŜemy zauwaŜyć, Ŝe P{Xkn(ω) = 1} = 1 / n, oraz P{Xkn(ω) = 0} = (n - 1) / n. Ciągi zmiennych losowych (Ω, B, P) - przestrzeń probabilistyczna X1(ω), X2(ω), X3(ω),....- ciąg losowy (jeŜeli ω jest ustalone to mamy ciąg liczbowy) Def.: Ciąg zmiennych losowych {Xn(ω)} n =1,2,3,... jest zbieŜny do pewnej stałej c: (a) według prawdopodobieństwa, lub słabo Xn(ω) → c, jeŜeli wg pr. (∀ε > 0) lim P(| Xn – c| > ε) = 0 n→∞ (b) prawie wszędzie, lub prawie na pewno, lub z prawdopodobieństwem 1, lub mocno Xn(ω) → c, jeŜeli P(lim Xn = c) = 1 n → ∞. z p. 1 (c) według średniej kwadratowej Xn(ω) → c, jeŜeli śr kw. lim E(Xn - c)2 = 0 n→∞ Ciąg zmiennych losowych {Xn(ω)} n = 1,2,3,.. jest zbieŜny do zmiennej losowej X(ω) w sensie (a ( ), (b ( ), lub (c), jeŜeli ciąg Xn(ω) - X(ω) jest zbieŜny do zera w odpowiednim sensie. Ciąg zmiennych losowych {X { n(ω)} (n =1,2,3,...) jest zbieŜny do zmiennej losowej X(ω) według dystrybuanty Xn(ω) -F→ X(ω), jeŜeli ciąg dystrybuant Fn zmiennych losowych {X { n(ω)} (n =1,2,3,...) jest zbieŜny do dystrybuanty F zmiennej losowej Xn(ω) w kaŜdym punkcie ciągłości funkcji F(x): lim Fn(x) = F(x) n→∞ Tw. 6.1: ZbieŜność według średniej kwadratowej pociaga za sobą zbieŜność według prawdopodobieństwa. Dowód z nierówności Czebyszewa Tw. 6.2: ZbieŜność mocna pociągą za sobą zbieŜność według prawdopodobieństwa. . Tw. 6.3: JeŜeli zbieŜność według średniej kwadratowej zachodzi w taki sposób, Ŝe Σ E(Xn - c)2 < ∞, to zachodzi równieŜ zbieŜność mocna. n Tw. 6.4 : Ciąg zmiennych losowych {Xn(ω)} (n =1,2,3,...) jest zbieŜny według prawdopodobieństwa do zera wtedy i tylko wtedy, gdy ciąg dystrybuant {Fn} spełnia zaleŜność: 0 dla x < 0 lim Fn(x) = n→∞ 1 dla x > 0 Przykłady: Prawa wielkich liczb {Xi(ω)} - ciąg losowy, i =1,2,3,... mi = E(Xi) - wartość oczekiwana zmiennej losowej Xi(ω). _ __ Xn – uśredniona suma n pierwszych wyrazów ciągu losowego {Xi(ω)} _ Xn = (1 / n) Σ Xi i = 1,....,n _ mn = (1 / n) Σ mi i = 1,....,n _ _ JeŜeli ma miejsce zbieŜność Xn - mn → 0, to mówimy, Ŝe zachodzi prawo wielkich liczb. W przypadku, gdy jest to zbieŜność według prawdopodobieństwa, to mówimy o słabym prawie wielkich liczb (SPWL), natomiast w przypadku zbieŜności z prawdopodobieństwem 1 mówimy o mocnym prawie wielkich liczb (MPWL) (Ciąg oszacowań jest zbieŜny w jakimś sensie do prawdziwej wartości parametru). Tw. Czebyszewa (SPWL): Niech E(Xi) = mi, V(Xi) = σ i2, oraz cov(Xi, Xj) = 0 dla i ≠ j. Wtedy, jeŜeli lim { (1/ n2) Σ σi2 } = 0, lub (1/ n2) Σ σi2 → 0 n→∞ i≤n i≤n n→∞ _ _ p to dla ciągu {Xi} zachodzi słabe prawo wielkich liczb Xn - mn → 0. Dowód z nierówności Czebyszewa. Przypadek szczególny I: Zmienne Xi są niezaleŜne oraz ich wariancja wspólnie ograniczona ((∀i) σi2 < c). Przypadek szczególny II: Prawo wielkich liczb w schemacie Bernoulliego: k / n → p (częstość jest zbieŜna do prawdopodobieństwa) n→∞ Pierwsze twierdzenie Kołmogorowa (MPWL) JeŜeli {Xi} jest ciągiem niezaleŜnych zmiennych losowych o wariancjach V(Xi) i spełniony jest warunek Σ (V(Xi) / i2 ) < ∞ i to zachodzi zbieŜność z prawdopodobieństwem 1 (MPWL): _ _ p.w. Xn - mn → 0 n→∞ Drugie twierdzenie Kołmogorowa (MPWL) Niech {Xi} będzie ciągiem niezaleŜnych zmiennych losowych o jednakowych rozkładach. Warunkiem koniecznym i dostatecznym zbieŜności z prawdopodobieństwem 1 _ _ z p. 1 Xn - mn → 0 n→∞ jest istnienie wartości oczekiwanych (∀i ) E(Xi) = mi < ∞. Centralne twierdzenie graniczne (1 / n) Σ Xi → m i = 1,....,n (1 / n1/2) Σ Xi i = 1,...., n n→∞ → N(m,σ) n→∞ Yn = X1 + X2 + ............+ Xn Xi - niezaleŜne zmienne losowe o jednakowym rozkładzie (E(Xi) = m, V(Xi) = σ2) E(Yn) = n m; V(Yn) = n σ2 I(n) = (Yn - n m) / (n1/2 σ) - zmienna standaryzowana Tw. Lindeberga - Levy'ego: Gdy n rośnie do nieskończoności, to rozkład zmiennej standaryzowanej I(n) dąŜy do rozkładu normalnego N(0,1), tzn. b lim P{a < I(n) < b } = (2π)-1/2 ∫ e - t2 / 2 n→∞ a Dowód twierdzenia poprzez funkcje charakterystyczne. dx Całkowanie metodą Monte Carlo E(g) - wartość przeciętna funkcji g(x) zdefiniowanej na odcinku [a,b]. b b E(g) = ∫ g(x) f(x) dx = ∫ f(x) / (b - a) dx a a gdzie f(x) = 1/(b - a) - gęstość rozkładu jednostajnego na odcinku [a,b]. ( x1, g(x1), ( x2, g(x2), ( x3, g(x3),.... - ciąg uczący (liczby xi losowane są zgodnie z rozkładem jednostajnym na odcinku [a, b]) p.w. Σ g(xi) / n → E(g) i ≤ n stąd n→∞ b I = (b - a) Σ g(xi) / n → ∫ g(x) dx i ≤ n n→∞ a V(I) = V(g) / n (wariancja zmiennej I ) Zastosowanie metody Monte Carlo w szacowaniu parametrów Przykład: Średni czas Ti niezawodnej pracy układu opisanego za pomocą rozkładu wykładniczego o gęstości fi(t): (1/ Ti) exp (- t / Ti), gdy t ≥ 0 fi(t) = 0 , gdy t < 0 T1 – średni czas niezawodnej pracy układu 1 (E1(t) = T1) T2 – średni czas niezawodnej pracy układu 2 (E2(t) = T2) JeŜeli układ 1 i układ 2 połączone są równolegle, to T = max{T1, T2}. JeŜeli układ 1 i układ 2 połączone są szeregowo, to T = min{T1, T2}. gdzie T jest średnim czasem niezawodnej pracy całego układu. Zastosowanie metody Monte Carlo w szacowaniu parametrów n niezaleŜnych zmiennych losowych X1, X2,........, Xn o dystrybuantach Fi(x) = P(Xi < x). U, V - czasy niezawodnego działania przy połączeniu szeregowym i równoległym U = min {X1, X2,........, Xn} ( struktura szeregowa) V = max{X1, X2,........, Xn} ( struktura równoległa) G(x) = P(U < x) = 1 - P(U ≥ x) = 1 - P(X1 ≥ x, X2 ≥ x,....., Xn ≥ x) n = 1 - P(X1 ≥ x) P(X2 ≥ x).....P(Xn ≥ x) = 1 - Π (1 - Fi(x)) i =1 n H(x) = P(V < x) = P(X1 < x, X2 < x,....., Xn < x ) = Π Fi(x) i =1 JeŜeli zmienne Xi mają identyczny rozkład o dystrybuancie F(x), to: G(x) = 1 – [1 - F(x)]n, oraz H(x) = [F(x)]n Zastosowanie metody Monte Carlo w szacowaniu parametrów Przykład (Kubik): Czasy Ti niezawodnego działania elementów Ei (i = 1,2,...,5) mają taki sam rozkład wykładniczy o gęstości f(t): a e-at dla t ≥ 0 f(t) = 0 dla t < 0 Struktura układu: E3 E1 E2 E5 E4 T - czas niezawodnego działania całego układu T = min{T1, T2, max{T3, T4}, T5} E(T) = ? Generujemy wielokrotnie sekwencję pięciu liczb: (T1j, T2j, T3j, T4j, T5j ) j = 1,......, m znajdujemy Tj = minj{T1j, T2j, max{T3j, T4j}, T5j} E(T) j== 1,...,m Σ Tj / m