Informacja i kompresja

Transkrypt

Informacja i kompresja
EMP, Podstawy Informatyki
Zadania domowe: 2012/01/21
Informacja i kompresja
Kodowanie arytmetyczne.
Algorytmy Shannona, Shannona-Fano i Huffmana.
Kody liniowe – odległość Hamminga.
1
, dla ` ∈ {0, 1, . . . , 9}, znaleźć kod arytmetyczny swojej daty urodzenia (w for(1) Przyjmując π(`) = 10
macie YYMMDD).
(2) Zaokrąglić częstości występowania polskich liter do 0,05 (na podstawie [tego]) i znaleźć kod arytmetyczny swojego pseudonimu z ćwiczeń (trzy litery nazwiska+dwie litery imienia, np. HamKr,
GieAn, KędDo, itd.)
(3) Znaleźć kody:
• Shannona
•
•
Shannona-Fano
Huffmana
dla alfabetu polskiego na podstawie tabeli częstości [tutaj]
(4) Zapisać swoją datę urodzenia słowami (np. piętnasty listopada tysiąc dziewięćset dziewięćdziesiąt
pierwszego roku) i dla tego komunikatu znaleźć kody:
• Shannona
•
•
Shannona-Fano
Huffmana
z częstościami występowania w tym tekście
(5) Komunikat z poprzedniego zadania zakodować, kodując pary liter (w przypadku nieparzystej długości komunikatu, uzupełnić go końcową spacją). Jako częstości par przyjąć:
• iloczyny częstości ich składników (π(`1 `2 ) = π(`1 )π(`2 ))
• częstości ich faktycznego występowania w komunikacie.
Porównać stopień kompresji w obu wypadkach dla poszczególnych algorytmów kodowania
(Shannona, Shannona-Fano, Huffmana)
(6) Znaleźć minimalną odległość Hamminga dla kodu K ⊆ Z62 o macierzy generującej

1
G = 0
0
0
1
0
0
0
1
0
1
1
[w opracowaniu ]
1
0
1

1
1
0