86 - rozpoznawanie mowy Page 1

Transkrypt

86 - rozpoznawanie mowy Page 1
Rozpoznawanie mowy
23 stycznia 2008
17:28
http://en.wikipedia.org/wiki/Hidden_Markov_model
Slajdy dra Jelonka - http://www-idss.cs.put.poznan.pl/
~jelonek/kck_wyklady.html
Model Markova - proces losowy bez pamięci (stan zależy tylko od stanu poprzedniego, nie od całej historii). Możemy przedstawid jako automat
stanów, gdzie przejście między stanami i,j może nastąpid z prawdopodobieostwem a_ij
Ukryty model Markova - w każdym stanie modelu markowa emitowany jest pewien symbol z danego skooczonego alfabetu.
Prawdopodobieostwo wyemitowania symbolu o w stanie i wynosi b_i(o). Obserwujemy właśnie te symbole, nie wiedząc jak zmieniająsię stany
(dlatego model jest ukryty przed nami)
Na podstawie sekencji symboli możemy próbowad odszukad najbardziej prawdopodobną sekwencję stanów.
Do tworzenia modeli Markova mowy trzeba użyd algorytmu, który na podstawie zbioru uczącego
wygeneruje taki model (prawdopodobieostwa wystąpienia danej obserwacji w danym stanie)
Służy do tego algorytm Baum-Welcha
Nie wiem jak jest z resztą modelu - grafem stanów - czy wynika z jakiejś teorii czy też idzie wyznaczyd
algorytmami
Do samego rozpoznawania stosowany jest algorytm Viterbi decoding
Screen clipping taken: 2008-01-23; 17:34
Obserujemy te wektory
Czyli szukamy indeksu i słowa, które ma największe prawdopodobieostwo wyprodukowania takiego
ciągu wektorów
Bayesa chyba ;)
a_ij = prawdop. Przejscia między stanami i,j
b_i(o_t) - prawdop. Wystąpienia wektora o_t w stanie i
86 - rozpoznawanie mowy Page 1
Prawdopodobieostwo sekwencji O jest iloczynem prawdopodobieostw kolejnych
stanów i symboli
Żeby po o_1 wyemitowad o_2, musi nastąpid przejście a_22
b_j w ogólności jest
jakimś ciągłym
rozkładem gaussa
86 - rozpoznawanie mowy Page 2