1. Pojąecie normy, normy wektora [Kieabasinski, Schwetlick]

Transkrypt

1. Pojąecie normy, normy wektora [Kieabasinski, Schwetlick]
1.
Pojecie
˛
normy, normy wektora [Kiełbasiński, Schwetlick]
wektor x ∈ Rd
x = (x1 , x2 , ..., xd )T — wektor, punkt w przestrzeni d-wymiarowej
norma wektora — własności
(1) kxk > 0, kxk = 0 tylko wtedy, gdy x = 0
(2) kaxk = |a| kxk
(3) kx + yk 6 kxk + kyk
norma typu ”suma”
kxk1 = |x1 | + |x2 | + ... |xd | =
d
X
i=1
|xi | — nieujemna liczba rzeczywista (skalar)
x2
d=2
r
-r
r
-r
x1
Okrąg
o promieniu r
norma typu ”maksimum”
kxk∞ = max |xi | — nieujemna liczba rzeczywista (skalar)
i=1,..,d
x2
d=2
r
-r
r
x1
Okrąg
o promieniu r
-r
norma euklidesowa
kxk2 =
√
¡
¢1/2
xT x = x21 + x22 + ...x2d
v
u d
uX
=t
x2i — nieujemna liczba rzeczywista (skalar)
i=1
x2
d=2
r
-r
r
-r
x1
Okrąg
o promieniu r
2.
Normy macierzy
norma macierzy A ∈ Rm,d indukowana przez norme˛ wektora typu p
(
)
n
o
kAxkp
: x 6= 0 = max kAxkp : kxkp 6 1
kAkp = max
kxkp
dla p = 1
kAk1 = max
j=1,...,d
m
X
i=1
|ai,j |
dla p = 2 — tzw. norma spektralna macierzy
dla p = ∞
q
kAk2 = λmax (AT A)
kAk∞ = max
i=1,...,m
d
X
j=1
|ai,j |
3.
Statystyki opisowe zmiennych losowych [Klonecki]
ω — zdarzenie losowe, ω ∈ Ω (Ω — tzw. zbiór zdarzeń elementarnych)
funkcja X(ω) ∈ R — zmienna losowa (tu skalar, może być wektorem)
dyskretne zmienne losowe — gdy zbiór wartości przyjmowanych przez X(ω) jest przeliczalny
wartość oczekiwana :
EX =
X
X(ω)P (ω) — średnie X ważone prawdopodobieństwami (wielkość nie losowa!)
ω∈Ω
©
ª
wariancja varX = E (X − EX)2 — średni kwadrat odchylenia X od EX ważony prawdopodobieństwami
ciagłe
˛
zmienne losowe
f (x) — funkcja gestości
˛
prawdopodobieństwa
Z b
f (x)dx
P (X ∈ (a, b)) =
a
Z ∞
Z ∞
xf (x)dx
varX =
(x − EX)2 f (x)dx
EX =
−∞
4.
−∞
Popularne rozkłady
rozkład jednostajny (ang. uniform distribution) ˜U[a, b]
f (x) =
½
1
b−a ,
gdy x ∈ (a, b)
0, w przeciwnym przypadku
Z
b
1 b2 − a2
a+b
1
dx =
=
— środek przedziału
EX =
x
b−a
b−a 2
2
a
¶2
Z bµ
a+b
(b − a)2
1
x−
dx = ... =
varX =
2
b−a
12
a
rozkład normalny (ang. normal distribution) ˜N(m, σ 2 )
(x−m)2
1
e− 2σ2
f (x) = √
2πσ
EX = m
varX = σ 2
rozkład wykładniczy
f (x) =
½
αe−αx , gdy x > 0
0, w przeciwnym przypadku
EX =
1
α
pakiet STATISTICA — hasło ”dystrybuanty” w indeksie pomocy
5.
Eksperyment
x1 , x2 , ..., xN — ciag
˛ liczb losowych (np. realizacje pewnej zmiennej losowej X)
varX =? — zadanie domowe
6.
Typy zbieżności probabilistycznych
Fakt zbieżności ciagów
˛
deterministycznych (nie losowych)
^_ ^
|ak − g| < ε
lim ak = g ⇔
k→∞
ε>0 k0 k>k0
Szybkość zbieżności ciagów
˛
deterministycznych
symbol o() — ”rzad
˛ niższy”
ak
= 0 ( i oba ciagi
˛ da˛ża˛ do zera)
k→∞ bk
ak = o(bk ) ⇔ lim
symbol O() — ”ta sama szybkość”
ak = O(bk ) ⇔
_
c<∞
|ak | 6 c |bk |
Ciagi
˛ zmiennych losowych {κk }
tutaj operator limk→∞ nie wystarcza, gdyż warunek |ak − g| < ε określa pewne zdarzenie losowe
Definicja 1 Ciag
˛ zmiennych losowych {κk } jest przy k → ∞ zbieżny według prawdopodobieństwa (słabo) do κ # je´sli
dla każdego ε > 0 zachodzi
¯
¯
¯
¯
lim P (¯κk − κ # ¯ > ε) = 0, lub równoważnie lim P (¯κk − κ #¯ < ε) = 1
k→∞
k→∞
˛ {κk } i zapisujemy
Warto´sć κ # nazywamy granica˛ stochastyczna˛ ciagu
P lim κk = κ #
k→∞
(1)
Zapis P limN →∞XN = X dla sekwencji wektorów losowych {XN }, oznacza, że XN → X według prawdopodobieństwa, gdy
N → ∞.
Definicja 2 Ciag
˛ zmiennych losowych {κk } jest przy k → ∞ zbieżny z prawdopodobieństwem 1 (mocno) do κ ∗ je´sli
zachodzi
P ( lim κk = κ ∗ ) = 1
k→∞
Lemat 1 Ze zbieżno´sci z prawdopodobieństwem 1 wynika zbieżno´sć według prawdopodobieństwa.
Definicja 3 Ciag
˛ zmiennych losowych {κk } jest przy k → ∞ zbieżny według ´sredniej z poteg
˛ a˛ r do κ ∗ je´sli zachodzi
lim E |κk − κ ∗ |r = 0
k→∞
w szczególno´sci jest zbieżny według ´sredniej z kwadratem (´sredniokwadratowo), gdy
lim E(κk − κ ∗ )2 = 0
k→∞
˛ O(ek ) według prawdopodobieństwa przy
Definicja 4 Ciag
˛ zmiennych losowych {κk } ma szybko´sć zbieżno´sci rzedu
˛
liczb dodatnich zbieżnym do zera, tzn.
k → ∞ (tj. asymptotycznie), gdzie {ek } jest ciagiem
wtedy i tylko wtedy, gdy
że limk→∞ χk = 0.
n
κk
ek χk
o
κk = O(ek ) według prawdopodobieństwa
jest zbieżny według prawdopodobieństwa do zera dla każdego ciagu
˛ liczbowego {χk }, takiego
˛ O(ek ) według ´sredniej z kwadratem przy
Definicja 5 Ciag
˛ zmiennych losowych {κk } ma szybko´sć zbieżno´sci rzedu
k → ∞ jeżeli istnieje stała 0 ≤ c < ∞, taka, że
Eκk2 ≤ cek
√
Lemat 2 Jeżeli κk = O(ek ) według ´sredniej z kwadratem, to κk = O( ek ) według prawdopodobieństwa.
Definicja 6 Mówimy, że ciag
˛ zmiennych losowych Xk jest zbieżny według rozkładu do zmiennej losowej X, gdy
lim Fk (x) = F (x)
k→∞
7.
Relacje (zwiazki)
˛
pomiedzy
˛
różnymi typami zbieżności
P1
odp. szybko
Lr
P
odp. szybko
D
Dowód faktu P 1 =⇒ P
P
∗
oczywisty, skoro P (limk→∞ κk = κ ∗ ) = 1, to ∞
k=1 P (|κk − κ | < ε) < ∞ i aby szereg ten był zbieżny, musi zachodzić
P (|κk − κ ∗ | < ε) → 0 dla k → ∞
Dowód faktu Lr =⇒ P
z definicji
Z
Z
Z
r
r
r
E |κk − κ ∗ | =
|κk − κ ∗ | dω >
|κk − κ ∗ | dω > εr
dω = εr P (|κk − κ ∗ | > ε)
Ω
{|κk −κ ∗ |>ε}
{|κk −κ ∗ |>ε}
a zatem
P (|κk − κ ∗ | > ε) 6
1
E |κk − κ ∗ |r
r
ε
w szczególność dla r = 2 i κ ∗ = Eκ
P (|κ − Eκ| > ε) 6
Dowód faktu
P∞
k=1 P (|κk
p
p1
1
varκ
ε2
− κ ∗ | < ε) < ∞ i κk → κ ∗ =⇒ κk → κ ∗
P (sup |κk − κ ∗ | > ε) = P (|κk − κ ∗ | > ε dla pewnego (konkretnego) k > k0 ) = P
k>k0
6
∞
X
k=k0
P (|κk − κ ∗ | > ε) → 0, bo szereg jest zbieżny, zaś k0 → ∞
Przykład
p
p1
jeśli P (|κk − κ ∗ | < ε) = O( k1 ) wtedy zachodzi κk → κ ∗ , ale nie zachodzi κk → κ ∗
Problem
p
p
jeżeli κk → κ ∗ , gdy k → ∞, to czy wtedy zachodzi g(κk ) → g(κ ∗ ), gdy k → ∞ ???
Tak — pod warunkiem, że g() jest funkcja˛ ciagł
˛ a˛ w punkcie κ ∗
Ã
∞
[
k=k0
!
(|κk − κ ∗ | > ε)
6
8.
Mocne Prawo Wielkich Liczb Kołmogorowa (wersja podstawowa)
Założenia
(a) X1 , X2 , ..., XN — jest ciagiem
˛
zmiennych losowych typu i.i.d. — niezależnych i o tym samym rozkładzie (ang independent
and identically distributed sequence of random variables)
(b) istnieje EXi = m < ∞
Teza
N
1 X
p1
Xi → m, gdy N → ∞
N i=1
inne wersje MPWL — patrz [Feller], [Krzyśko], [Ninness]
9.
Mocne Prawo Wielkich Liczb Kołmogorowa (wersja bez wymogu i.i.d.)
Założenia
(a) X1 , X2 , ..., XN — jest ciagiem
˛
niezależnych zmiennych losowych, w ogólności o różnych rozkładach
(b) istnieja˛ EXi = mi < ∞
(c) istnieja˛ varXi = σ 2i < ∞
P σ2i
(d) ∞
i=1 i2 < ∞
Teza
N
N
1 X
1 X
p1
Xi −
mi → 0, gdy N → ∞
N i=1
N i=1
10.
Centralne Twierdzenie Graniczne Lindenberga—Levy’ego
Założenia
˛ typu i.i.d. (maja˛ ten nam, ale dowolny rozkład! — niekoniecznie normalny)
(a) X1 , X2 , ..., XN — ciag
(b) istnieje EXi = m < ∞
(c) istnieje varXi = σ 2 < ∞
Teza
PN
i=1 Xi − Nm D
√
→ N (0, 1), gdy N → ∞
σ N
Wnioski — fundamentalne dla zagadnienia estymacji
PN
1
i=1 Xi − m D
N
→ N (0, 1)
σ
√
N
N
1 X
σ2
D
Xi → N (m, )
N i=1
N
Oszacowanie dokładności przybliżenia — nierówność Barry-Essena
oznaczmy κN =
PN
Xi −N m
√
σ N
i=1
33 E |Xi − m|3
√
sup |FκN (x) − Φ(x)| 6
=O
4
x
σ3 N
µ
1
√
N
¶
11.
Analiza korelacyjna procesów
kowariancja — miara zależności liniowej
|cov(X, Y )| 6
cov(X, Y ) = E {(X − EX)(Y − EY )}
√
varXvarY
korelacja (znormalizowana kowariancja)
cov(X, Y )
ξ(X, Y ) = √
varXvarY
|ξ(X, Y )| 6 1
pojecie
˛
procesu losowego (stochastycznego)
X(ω, t) — dla ustalonego momentu czasu t = t0 otrzymujemy zmienna˛ losowa˛ Xt0 (ω)
˛ a˛
funkcja autokowariancji procesu losowego (stacjonarnego) — miara zależności liniowej pomiedzy
˛
Xt0 o przesuniet
o τ zmienna˛ Xt0 +τ
AX (0) = σ2X
AX (τ ) = cov(Xt0 , Xt0 +τ ),
funkcja autokorelacji procesu losowego
cov(Xt0 , Xt0 +τ )
AX (τ )
=
,
rX (τ ) = p
σ2X
varXt0 varXt0 +τ
funkcja kowariancji wzajemnej dwóch procesów — X(ω, t) i Y (ω, t)
WX,Y (τ ) = cov(Xt0 , Yt0 +τ )
funkcja korelacji wzajemnej dwóch procesów — X(ω, t) i Y (ω, t)
rX,Y (τ ) =
WX,Y (τ )
σX σY
rX (0) = 1
12.
Przejście białego szumu przez układ dynamiczny
yk =
∞
X
γ i uk−i
i=0
Założenia
(a) {uk } — proces typu i.i.d.
P
(b) układ jest asymptotycznie stabilny tzn. ∞
i=0 |γ i | < ∞
(c) dla uproszczenia prezentacji niech Euk = 0 i varuk = 1
Autokowariancja procesu uk
½
= varuk = 1, dla τ = 0
= 0, dla τ 6= 0 (na podstawie niezależności uk i uk+τ i założenia (c))
ru (τ ) = Au (τ ) (patrz założenie (c))
Au (τ ) = Euk uk+τ =
Własości procesu yk
Eyk = E
∞
X
γ i uk−i =
i=0
varyk = var
̰
X
∞
X
Eγ i uk−i = Euk
i=0
γ i uk−i
i=0
Ay (τ ) = Eyk yk+τ = E
!
i=0
γi = 0
i=0
=
̰
X
∞
X
∞
X
var (γ i uk−i ) = varuk
i=0
γ i uk−i
∞
X
j=0
γ j uk+τ −j
!
∞
X
γ 2i
i=0
=
= E {(γ 0 uk + γ 1 uk−1 + γ 2 uk−2 + ...) (γ 0 uk+τ + γ 1 uk+τ −1 + γ 2 uk+τ −2 + ... + γ τ uk + γ τ +1 uk−1 + ...)} = varuk
∞
X
i=0
γ i γ i+τ
13.
Popularne nierówności
Nierówność Czebyszewa
P (|κ − Eκ| > ε) 6
1
varκ
ε2
Nierówność Barry-Essena
oznaczmy κN =
PN
Xi −N m
√
σ N
i=1
33 E |Xi − m|3
√
sup |FκN (x) − Φ(x)| 6
=O
4
x
σ3 N
µ
1
√
N
¶
Nierówność Jensena
g() — funkcja wypukła
Eg(X) > g(EX)
Nierówność Höldera
kXkp = (EX p )1/p tzw. p-norma zmiennej losowej
1 1
E |XY | 6 kXkp kY kp0 , gdzie + 0 = 1
p p
Nierówność Schwartza (p = 2, p0 = 2)
|EXY | 6 E |XY | 6
√
EX 2 EY 2
Nierówność Rao-Cramera
E(θN − θ∗ )2 >
N
R∞
−∞
³
1
∂f (x,θ∗ )
∂θ∗
´2
f (x, θ∗ )dx

Podobne dokumenty