Audio i video

Transkrypt

Audio i video
Audio i video
R. Robert Gajewski
omklnx.il.pw.edu.pl/~rgajewski
[email protected]
Fale dźwiękowe
Dźwięk jest drganiem powietrza rozchodzącym
się w postaci fali.
Fala ma określoną amplitudę i częstotliwość.
Rzeczywiste dźwięki są sumą wielu różnych
nakładających się na siebie fal.
© R. Robert Gajewski
Konwersja fali dźwiękowej
do postaci cyfrowej
Aby przekształcić fale dźwiękowa do postaci
cyfrowej musimy zmierzyć amplitudę w
określonych odstępach czasowych.
Każda zmierzona wartość amplitudy nazywana
jest próbką (sample).
Proces przekształcania dźwięku do postaci
cyfrowej nazywany jest próbowaniem (sampling).
Liczba próbek pobierana w ciągu sekundy zwana
jest częstotliwością próbkowania (sample rate).
Najpopularniejsze obecnie częstotliwości
próbkowania to: 11025KHz, 22050KHz i
44100KHz.
© R. Robert Gajewski
Rozdzielczość próbkowania
Rozdzielczość próbkowania (sample resolution) to
rozmiar próbkowania.
Rozróżniamy dwie rozdzielczości 8 i 16 bitów
Możemy ją sobie wyobrazić jako liczbę
poziomych odcinków na jakie dzielimy amplitudę.
8 bitow
probki
16 bitow
© R. Robert Gajewski
Próbkowanie
Przy pobieraniu dźwięku rzeczywista wielkość
zmierzonej amplitudy zaokrąglana jest do
najbliższej "cyfrowej" wartości.
W żargonie określane jest to jako kwantowanie
(quantizing).
Różnica między oryginalną wartością a zapisanym
zaokrąglonym wynikiem pomiaru to błąd
kwantowania (quantization error).
© R. Robert Gajewski
Błąd próbkowania
skwantowana
wartosc amplitudy
jednostka
pomiaru
fala
dzwiekowa
rzeczywista
wartosc amplitudy
moment
probkowania
© R. Robert Gajewski
Odtwarzanie dźwięku
Ponieważ dźwięk jest zapisany w sposób "zębaty",
będzie brzmieć on nieco sztucznie.
W celu eliminacji tego zjawiska stosuje się
specjalne filtry analogowe, które wygładzają
kształt fali dźwiękowej.
© R. Robert Gajewski
Format µ-law
Wykorzystywany jako standard zapisu
dźwięku w systemach Sun i NEXT.
(rozszerzenie .au)
Monofoniczny, 8-bitowy o częstotliwości
8KHz. Ze względu na specyficzny sposób
kodowania ma dobra dynamikę.
© R. Robert Gajewski
Formaty AIFF/AIFC i WAVE
AIFF - Audio Interchange File Format,
opracowany przez firmę Apple, zaakceptowany
później przez firmę SGI. AIFC ma wbudowana
kompresję.
Format WAVE został opracowany przez
Microsoft. Ma wiele wspólnego z AIIFF. Istnieje
możliwość zapisu z różną rozdzielczością,
częstotliwością i liczba kanałów.
© R. Robert Gajewski
Format Real Audio
Wymagają odtwarzacza RealAudio.
Format 14.4 nadaje się do odtwarzania przy
pomocy modemu 14.4K a 28.8 przy
pomocy szybszego, 28.8K.
Oba formaty wyposażone są w skuteczne
algorytmy kompresji.
© R. Robert Gajewski
Cyfrowy obraz wideo
Analogowe wideo to płynny strumień informacji.
Karta wideo dokonuje próbkowania dostarczonego
obrazu filmowego w regularnych odstępach czasu.
Każdy obraz jest następnie kodowany i powstaje
ujęcie (frame).
Prędkość odtwarzania (frame rate) to liczba ujęć
wyświetlanych w ciągu sekundy, zaś wielkość
ujęcia (frame size) to rozmiary pojedynczego
ujęcia wyrażone w pikselach.
Na standardowym odtwarzaczu prędkość to 30 fps
– frames per second - (full motion video).
© R. Robert Gajewski
Format QuickTime
Format utworzony przez firmę Apple na
użytek komputerów Macintosh.
Format QuickTime pozwala wykorzystać
wiele różnych algorytmów kompresji, a w
szczególności CinePak oraz Indeo.
Pliki maja rozszerzenie .qt lub .mov.
© R. Robert Gajewski
Format Video for Windows
Format ten został opracowany przez
Microsoft i stanowi standard w edycji
wideo na PC.
Pliki te są zwane także plikami AVI z
powodu rozszerzenia .avi (Auto/Video
Interleave)
© R. Robert Gajewski
Format MPEG wideo
MPEG jest zarówno formatem pliku jak i
algorytmem kompresji.
Format ten zapewnia doskonałą jakość obrazu,
lecz proces dekompresji jest dosyć powolny dlatego wiele dekoderów plików MPEG jest
wspomaganych sprzętowo.
Jeżeli korzystamy z dekodera programowego
musimy dysponować komputerem o dużej mocy
obliczeniowej.
Duże są koszty kodowania obrazu w pliku MPEG
- potrzebny jest do tego sprzętowy kompresor.
© R. Robert Gajewski
Kompresja obrazu wideo
Algorytm stosowany do kompresji i dekompresji
cyfrowego obrazu wideo określany jest terminem
codec - (skrót od Compression/DECompression).
Algorytmy te, inaczej niż algorytmy stosowane do
kompresji obrazów, nie są powiązane ściśle z
formatem pliku w którym zapisujemy obraz
wideo.
Kodowanie symetryczne to takie, w którym czas
kompresji obrazu wideo jest równy czasowi jego
dekompresji.
Kodowanie asymetryczne to takie, dla którego
czas kompresji i dekompresji jest niejednakowy.
© R. Robert Gajewski
Kodowanie symetryczne i
asymetryczne
Kodowanie
symetryczne
Oryginalny
obraz wideo
Plik z cyfrowym
obrazem wideo
Czas
kompresji
Odtwarzanie
Czas
dekompresji
Kodowanie
asymetryczne
Oryginalny
obraz wideo
Plik z cyfrowym
obrazem wideo
Czas
kompresji
Odtwarzanie
Czas
dekompresji
© R. Robert Gajewski
Kodowanie symetryczne i
asymetryczne
Przy kodowaniu symetrycznym kompresja
filmowego obrazu zajmuje tyle samo co jego
późniejsza dekompresja.
Wpływa to pozytywnie na sprawność tworzenia plików
wideo, ale nie koniecznie na ich odtwarzanie.
Przy kodowaniu asymetrycznym proces
kompresowania obrazu wideo trwa długo, za to
czas odtwarzania przy dekompresji jest krótki.
Im krótszy jest czas dekompresji tym większa możemy
osiągnąć prędkość odtwarzania.
© R. Robert Gajewski
Porównywanie ujęć (1)
3-2
3
2-1
2
1
1
© R. Robert Gajewski
Porównywanie ujęć (2)
Są dwie podstawowe metody kompresji
obrazów wideo:
Każde kolejne ujecie może być kompresowane
jak zwykły pojedynczy obraz, a następnie
dekompresowane przy odtwarzaniu.
Druga metoda polega na tzw. porównywaniu
ujęć (frame differencing) - nie jest to system
kodowania, ale technika pracy, z której mogą
korzystać różne systemy kodowania.
© R. Robert Gajewski
Porównywanie ujęć (3)
Ujęcie z pliku dla którego użyto tej metody
zawiera o wiele mniej informacji niż ujęcie ze
zwykłego pliku wideo.
Nie znajdziemy w nim bowiem całego obrazu, a
jedynie te jego części, które uległy zmianie w
stosunku do ujęcia poprzedniego.
Zmieniona część obrazu jest zwykle mniejsza od
jego całej powierzchni.
Metoda ta sprawdza się najlepiej w statycznych
scenach typu "gadające głowy", gdzie tło
pozostaje nieruchome, jedynie niewielkie obiekty
na pierwszym planie wykazują jakieś ruchy.
© R. Robert Gajewski
Ujęcia kluczowe (1)
4-3
5
3-2
2-1
1
© R. Robert Gajewski
Ujęcia kluczowe (2)
W tym przypadku porównywanie zasadza się na
istnieniu tzw. ujęć kluczowych (key frames).
Ujęcia te zapisywane są w całości; służą one za
wzorce, na podstawie których określa się różnice,
jakie trzeba zapisać dla ujęć pośrednich.
Im dalej znajdziemy się od ujęcia kluczowego,
tym więcej będzie zmienionych miejsc i tym
więcej informacji do przeliczenia.
Rośnie wtedy prawdopodobieństwo powstania
opóźnień i zmniejszenia prędkości odtwarzania.
© R. Robert Gajewski
Systemy kodowania
algorytm JPEG
Przy kodowaniu obrazów ruchomych algorytm
ten nazywany jest Motion JPEG.
Korzystanie z tego algorytmu jako systemu
kodowania obrazu wideo ma dwie wady:
Nie jest przeprowadzane porównywanie ujęć (frame
differencing),
Dekompresja obrazu przy wyświetlaniu jest powolna.
Każde ujęcie jest kompresowane osobno bez
porównywania z innymi. Przy odtwarzaniu każde
ujęcie jest osobno dekompresowane i wyświetlane
jedno po drugim.
© R. Robert Gajewski

Podobne dokumenty