Przetwarzanie dźwięków
Transkrypt
Przetwarzanie dźwięków
Przetwarzanie dźwięków Sygnały dźwiękowe są poza sygnałami optycznymi najważniejszymi sygnałami w ludzkiej działalności i w ludzkim życiu. Przetwarzanie sygnałów dźwiękowych obejmuje zatem wiele różnych obszarów. Do najważniejszych należą przetwarzanie i odtwarzanie wysokiej jakości muzyki , telekomunikacja głosowa czy komputerowa analiza i synteza mowy. Sygnały akustyczne mają różne zastosowania, różne parametry i różna są motywy ich użycia, ale wszystkie one mają także wspólny element: zbiegają się w ludzkim uchu i są przetwarzane przez tu ucho i system nerwowy człowieka. Z tego powodu należy poznać cechy ludzkiego słuchu, zanim zacznie się rozważania o przetwarzaniu sygnałów akustycznych. Jednym z podstawowych parametrów dźwięku jest jego głośność. Jak widać w tabeli, poziom dźwięku przedstawiono w skali logarytmicznej, ponieważ taka jest właśnie charakterystyka ludzkiego słuchu. Jako poziom 0 dB SPL (Sound Power Level), przyjęto poziom najcichszego dźwięku wykrywalnego przez człowieka. Odpowiada on gęstości mocy około 10-16 W/cm2. Normalna mowa odpowiada poziomowi 60 dB SPL, czyli 10-10 W/cm2 a ból i możliwe zniszczenia narządu słuchu wystąpią przy około 140 dB SPL, czyli 10-2 W/cm2. Gęstość mocy dźwięku W/cm2 -2 10 10-3 10-4 10-5 10-6 10-6 10-6 10-6 10-10 10-11 10-12 10-13 10-14 10-15 10-16 10-17 10-18 Poziom dB SPL 140 dB 130 dB 120 dB 110 dB 100 dB 90 dB 80 dB 70 dB 60 dB 50 dB 40 dB 30 dB 20 dB 10 dB 0 dB -10 dB -20 dB Przykład Ból Złe samopoczucie Młot pneumatyczny i koncert rockowy Górna granica głośności w przemyśle Normalna rozmowa Najcichszy dźwięk słyszalny przy 100 Hz Najcichszy dźwięk słyszalny przy 20 kHz Najcichszy dźwięk słyszalny przy 3 kHz Jak widać różnica pomiędzy najcichszym a najgłośniejszym dźwiękiem wynosi około 120 dB, czyli około 1 mln razy w odniesieniu do amplitud. Słuchacze potrafią wykryć różnicę głośności, jeżeli zmieni się ona o około 1 dB, czyli 12% w odniesieniu do amplitudy. Inaczej mówiąc, człowiek potrafi wykryć tylko 120 różnych poziomów dźwięku. Czułość ucha jest nieprawdopodobna: słuchacz potrafi usłyszeć dźwięk, który w błonie bębenkowej powoduje wibrację o amplitudzie mniejszej od rozmiaru pojedynczej cząsteczki. Odbiór dźwięku zależy od mocy dźwięku w przybliżeniu o wykładnik 1/3. Na przykład, jeżeli zwiększy się 10-krotnie moc dźwięków, słuchacze stwierdzą, że głośność wzrosła dwukrotnie (101/3 ≈ 2). To stanowi największy problem związany z liminacją niepożądanych dźwięków ze środowiska. Na przykład, organizując studio nagrań dąży się do jak największego wytłumienia dźwięków zewnętrznych. Nawet, jeżeli pokryje się wszystkie ściany, podłogę, sufit materiałem idealnie tłumiącym, pozostawiając zaledwie 1% powierzchni niezabezpieczonej, tłumiąc dźwięki zewnętrzne do 1% poprzedniej wartości, uzyska się subiektywne stłumienie na poziomie 20% (0.011/3 ≈ 0.2). Zakres częstotliwości ludzkiego słuchu przyjmuje się od 20 Hz do 20 kHz, ale czułość wyraźnie zależy od częstotliwości i jest największa dla częstotliwości 1kHz do 4 kHz. Z analizy tabeli wyraźnie widać, że człowiek usłyszy dźwięk o poziomie 0 dB przy częstotliwości 3 kHz, natomiast aby usłyszeć dźwięk 20 kHz potrzebuje głośności 20 dB (amplituda 10 razy większa) a do usłyszenia 100 Hz nawet 40 dB (100-krotnie większa amplituda). Słuchacze są w stanie rozróżnić częstotliwość dźwięku, jeżeli różnią się one od siebie o około 0.3% w okolicy 3 kHz, natomiast w pobliżu 100 Hz różnica częstotliwości musi być równa co najmniej 3%. Dla przykładu sąsiednie klawisze fortepiany mają częstotliwości różniące się około 6%. W odbiorze ciągłego dźwięku, np. tonu wydobywanego z instrumentu muzycznego wyróżniane jest często kilka parametrów, najczęściej głośność, wysokość i barwa. Głośność, jak to już opisano jest to miara intensywności dźwięku. Wysokość, jest to częstotliwość podstawowej składowej dźwięku, np. pierwszej harmonicznej. Barwa dźwięku, to parametr bardziej złożony od poprzednich. Jest ona zwykle określana przez udział harmonicznych w sygnale dźwiękowym. Na rysunku pokazano dwa sygnały stworzone przez dodanie do sinusoidy podstawowej o częstotliwości 1 kHz trzeciej harmonicznej 3 kHz o amplitudzie równej połowie amplitudy składowej podstawowej. Różnica pomiędzy tymi dwoma przebiegami polega na uzyskaniu przesunięcia fazy trzeciej harmonicznej o 1800 w przebiegu na rysunku b w stosunku do tego samego przebiegu na rysunku a. Pomimo widocznej różnicy kształtów przebiegów czasowych oba sygnały brzmią identycznie. Spowodowane jest to tym, że z powodu szczególnej budowy narządu słuchu jest on bardziej wrażliwy na amplitudę i częstotliwość dźwięku a w bardzo małym zaledwie stopniu na jego fazę. Kształt sygnału w funkcji czasu nie jest bezpośrednio związany ze sposobem jego słyszenia, więc zwykle nie jest brany pod uwagę w systemach audio. Co wpływa na barwę dźwięku? Jak wygląda np. dźwięk wydawany przez skrzypce? Specyficzna konstrukcja instrumentu, strun i smyczka powoduje powstanie sygnału piłokształtnego. W widmie sygnału występuje ton podstawowy i szereg harmonicznych. Ton podstawowy ma w omawianym przykładzie częstotliwość 220 Hz, co odpowiada nucie A, natomiast harmoniczne mają częstotliwości odpowiednio 440, 660, 880 Hz i tak dalej. Jeżeli ten sam ton zostanie zagrany na innym instrumencie, kształt sygnału może być zupełnie inny, ale ciągle będzie słyszany ton podstawowy 220 Hz plus harmoniczne. Ponieważ dwa różne instrumenty grając tę samą nutę generują tę samą częstotliwość podstawową, brzmią podobnie, więc można powiedzieć, że ma ona tę samą wysokość. Ponieważ amplitudy harmonicznych dwóch instrumentów są różne, więc dźwięki mają różną barwę. Opracowano na podstawie: mgr inż. Zdzisław Szulżycki na podstawie DSP Book