86 - rozpoznawanie mowy Page 1
Transkrypt
86 - rozpoznawanie mowy Page 1
Rozpoznawanie mowy 23 stycznia 2008 17:28 http://en.wikipedia.org/wiki/Hidden_Markov_model Slajdy dra Jelonka - http://www-idss.cs.put.poznan.pl/ ~jelonek/kck_wyklady.html Model Markova - proces losowy bez pamięci (stan zależy tylko od stanu poprzedniego, nie od całej historii). Możemy przedstawid jako automat stanów, gdzie przejście między stanami i,j może nastąpid z prawdopodobieostwem a_ij Ukryty model Markova - w każdym stanie modelu markowa emitowany jest pewien symbol z danego skooczonego alfabetu. Prawdopodobieostwo wyemitowania symbolu o w stanie i wynosi b_i(o). Obserwujemy właśnie te symbole, nie wiedząc jak zmieniająsię stany (dlatego model jest ukryty przed nami) Na podstawie sekencji symboli możemy próbowad odszukad najbardziej prawdopodobną sekwencję stanów. Do tworzenia modeli Markova mowy trzeba użyd algorytmu, który na podstawie zbioru uczącego wygeneruje taki model (prawdopodobieostwa wystąpienia danej obserwacji w danym stanie) Służy do tego algorytm Baum-Welcha Nie wiem jak jest z resztą modelu - grafem stanów - czy wynika z jakiejś teorii czy też idzie wyznaczyd algorytmami Do samego rozpoznawania stosowany jest algorytm Viterbi decoding Screen clipping taken: 2008-01-23; 17:34 Obserujemy te wektory Czyli szukamy indeksu i słowa, które ma największe prawdopodobieostwo wyprodukowania takiego ciągu wektorów Bayesa chyba ;) a_ij = prawdop. Przejscia między stanami i,j b_i(o_t) - prawdop. Wystąpienia wektora o_t w stanie i 86 - rozpoznawanie mowy Page 1 Prawdopodobieostwo sekwencji O jest iloczynem prawdopodobieostw kolejnych stanów i symboli Żeby po o_1 wyemitowad o_2, musi nastąpid przejście a_22 b_j w ogólności jest jakimś ciągłym rozkładem gaussa 86 - rozpoznawanie mowy Page 2