Modelowanie Niepewności - Instytut Informatyki

Transkrypt

Modelowanie Niepewności - Instytut Informatyki
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Modelowanie Niepewności
Na podstawie: AIMA, ch13
Wojciech Jaśkowski
Instytut Informatyki,
Politechnika Poznańska
15 marca 2013
Przypomnienie:
podstawy
probabilistyki
Źródła niepewności
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
I
Świat częściowo obserwowalny
I
Świat niedeterministyczny
Także:
I
Lenistwo i ignorancja (niewiedza)
Cel: Racjonalne decyzje w obecności niepewności
Modelowanie
Niepewności
Świat Wumpus’a
Wojciech Jaśkowski
4
Bree z e
Stench
PIT
Wstęp
Przypomnienie:
podstawy
probabilistyki
Bree z e
3
Stench
PIT
Bree z e
Gold
2
Bree z e
Stench
Bree z e
1
PIT
Bree z e
3
4
START
1
2
Modelowanie
Niepewności
Świat Wumpus’a
Wojciech Jaśkowski
1,4
2,4
3,4
4,4
Wstęp
Przypomnienie:
podstawy
probabilistyki
1,3
2,3
3,3
4,3
1,2
2,2
3,2
4,2
3,1
4,1
B
OK
1,1
2,1
B
OK
OK
Podstawy I
I
I
Notacja: zmienne losowa Cancer = {¬c, c}
Prawdopodobieństwo warunkowe:
I
I
Rozkład prawdopodobieństwa:
I
I
P(Cancer , Test) - wektor wszystkich kombinacji
wartości zmiennych losowych Cancer i Test.
Niezależność zdarzeń losowych:
I
I
I
I
P(Cancer ) = hP(c), P(¬c)i
Rozkład prawd. łącznego:
I
I
P(c|t)P(t) = P(c ∧ t) (reguła produkcji)
P(c) = P(c|t)
P(t) = P(t|c)
P(c)P(t) = P(c ∧ t)
Niezależność zmiennych losowych:
I
I
P(T ) = P(T |C )
wiedza o niezależności zmiennych jest zwykle wiedzą
dziedzinową.
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
(Pełny) rozkład łączny
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
dziura
¬dziura
ból
test ¬test
0.108 0.012
0.016 0.064
¬ból
test ¬test
0.072 0.008
0.144 0.576
Prawd. marginalne (marginalizacja)
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
dziura
¬dziura
I
ból
test ¬test
0.108 0.012
0.016 0.064
¬ból
test ¬test
0.072 0.008
0.144 0.576
P(dziura) =?
P(Dziura) =?
P
Ogólnie: P(Y) = x∈X P(Y, x)
I
Przypomnienie:
podstawy
probabilistyki
Modelowanie
Niepewności
Prawd. całkowite
Wojciech Jaśkowski
Wstęp
dziura
¬dziura
ból
test ¬test
0.108 0.012
0.016 0.064
I
P(dziura|ból) =?
I
Ogólnie:
I
¬ból
test ¬test
0.072 0.008
0.144 0.576
P
P(Y) = x∈X P(Y|x)P(x), gdzie Y i X są wektorami
zmiennych losowych
Przypomnienie:
podstawy
probabilistyki
Modelowanie
Niepewności
Normalizacja
Wojciech Jaśkowski
Wstęp
dziura
¬dziura
ból
test ¬test
0.108 0.012
0.016 0.064
I
P(dziura|ból) =?
I
P(¬dziura|ból) =?
I
P(Dziura|ból) =?
I
Ogólnie:
I
¬ból
test ¬test
0.072 0.008
0.144 0.576
P(X |e) = αP(X , e), gdzie X jest wektorem zmiennych
losowych
Przypomnienie:
podstawy
probabilistyki
Niezależność
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Czwarta zmienna: pogoda
I
P(Pogoda = s loneczna, ból, test, dziura) =
P(Pogoda =
s loneczna|ból, test, dziura)P(ból, test, dziura)
I
P(Pogoda = s loneczna|ból, test, dziura) = P(Pogoda =
s loneczna), więc:
I
P(Pogoda = s loneczna, ból, test, dziura) =
P(Pogoda = s loneczna)P(ból, test, dziura)
I
Ogólnie:
I
P(X |Y ) = P(X ), albo P(X , Y ) = P(X )P(Y )
Przypomnienie:
podstawy
probabilistyki
Modelowanie
Niepewności
Niezależność
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
Coin1
Cavity
Coinn
Catch
Toothache
Weather
decomposes
into
decomposes
into
Cavity
Toothache Catch
Weather
Coin1
Coinn
Modelowanie
Niepewności
Reguła Bayesa
P(b|a)P(a)
P(a|b) =
P(b)
I
I
I
I
To proste równanie leży u podstawy większości
nowoczesnych systemów sztucznej inteligencji opartych
na wnioskowaniu probabilistycznym.
P(b) — prawd. marginalne, P(a|b) — prawd. a
posteriori, P(a) — prawd. a priori
P(b) zwykle jest nieznane i rozpisuje się je jako praw.
całkowite.
Wersja bardziej ogólna (z dodatkową wartością
zmiennej E ):
P(Y |X , e) =
I
I
P(X |Y , e)P(Y |e)
P(X |e)
Kierunek przyczynowy: P(efekt|przyczyna)
Kierunek diagnostyczny: P(przyczyna|efekt)
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
Przykład
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
zapalenie opon mózgowych (M) i sztywność karku (S)
I
P(s|m) = 0.7
I
P(m) = 1/50000
I
P(s) = 0.01
I
P(M|s) =?
Warunkowa niezależność zmiennych
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
Przypomnienie:
podstawy
probabilistyki
P(Dziura|ból, test) =?
Ale to się nie skaluje...
P(Dziura|ból, test) = αP(ból, test|Dziura)P(Dziura)
= αP(ból|Dziura)P(test|Dziura)P(Dziura)
Warunkowa niezależność zmiennych
Modelowanie
Niepewności
Wojciech Jaśkowski
Wstęp
I
C — rak, T1 — jakiś test na obecność raka, T2 — jakiś
inny test na obecność raka
I
C jest zmienną ukrytą. Ale jeśli znalibyśmy C
jakakolwiek wiedza o T1 nie da nam żadnej dodatkowej
wiedzy dot. T2 , czyli T1 i T2 są niezależne warunkowo
pod warunkiem C .
I
I
I
P(T2 |C , T1 ) = P(T2 |C )
P(T1 , T2 |C ) = P(T1 |C )P(T2 |C )
Notacja: T1 ⊥ T2 |C
Przypomnienie:
podstawy
probabilistyki
Modelowanie
Niepewności
Wumpus
Wojciech Jaśkowski
1,4
2,4
1,3
3,4
2,3
3,3
4,4
1,4
2,4
3,4
4,4
4,3
1,3
2,3
3,3
4,3
2,2
3,2
4,2
OTHER
QUERY
1,2
2,2
3,2
4,2
1,2
3,1
4,1
1,1
B
OK
1,1
2,1
B
OK
KNOWN
2,1
FRONTIER
3,1
4,1
OK
Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr
poczuliśmy w polu (1,2) i (2,1)? Innymi słowy zapytanie
wygląda tak:
P(P1,3 |b1,2 , b2,1 , ¬b1,2 , ¬p1,2 , ¬p2,1 , ¬p1,1 ) =?
Wstęp
Przypomnienie:
podstawy
probabilistyki