Informacja i kompresja
Transkrypt
Informacja i kompresja
EMP, Podstawy Informatyki Zadania domowe: 2012/01/21 Informacja i kompresja Kodowanie arytmetyczne. Algorytmy Shannona, Shannona-Fano i Huffmana. Kody liniowe – odległość Hamminga. 1 , dla ` ∈ {0, 1, . . . , 9}, znaleźć kod arytmetyczny swojej daty urodzenia (w for(1) Przyjmując π(`) = 10 macie YYMMDD). (2) Zaokrąglić częstości występowania polskich liter do 0,05 (na podstawie [tego]) i znaleźć kod arytmetyczny swojego pseudonimu z ćwiczeń (trzy litery nazwiska+dwie litery imienia, np. HamKr, GieAn, KędDo, itd.) (3) Znaleźć kody: • Shannona • • Shannona-Fano Huffmana dla alfabetu polskiego na podstawie tabeli częstości [tutaj] (4) Zapisać swoją datę urodzenia słowami (np. piętnasty listopada tysiąc dziewięćset dziewięćdziesiąt pierwszego roku) i dla tego komunikatu znaleźć kody: • Shannona • • Shannona-Fano Huffmana z częstościami występowania w tym tekście (5) Komunikat z poprzedniego zadania zakodować, kodując pary liter (w przypadku nieparzystej długości komunikatu, uzupełnić go końcową spacją). Jako częstości par przyjąć: • iloczyny częstości ich składników (π(`1 `2 ) = π(`1 )π(`2 )) • częstości ich faktycznego występowania w komunikacie. Porównać stopień kompresji w obu wypadkach dla poszczególnych algorytmów kodowania (Shannona, Shannona-Fano, Huffmana) (6) Znaleźć minimalną odległość Hamminga dla kodu K ⊆ Z62 o macierzy generującej 1 G = 0 0 0 1 0 0 0 1 0 1 1 [w opracowaniu ] 1 0 1 1 1 0