Przetwarzanie dźwięków

Transkrypt

Przetwarzanie dźwięków
Przetwarzanie dźwięków
Sygnały dźwiękowe są poza sygnałami optycznymi najważniejszymi sygnałami
w ludzkiej działalności i w ludzkim życiu. Przetwarzanie sygnałów dźwiękowych
obejmuje zatem wiele różnych obszarów. Do najważniejszych należą przetwarzanie i
odtwarzanie wysokiej jakości muzyki , telekomunikacja głosowa czy komputerowa
analiza i synteza mowy.
Sygnały akustyczne mają różne zastosowania, różne parametry i różna są
motywy ich użycia, ale wszystkie one mają także wspólny element: zbiegają się w
ludzkim uchu i są przetwarzane przez tu ucho i system nerwowy człowieka. Z tego
powodu należy poznać cechy ludzkiego słuchu, zanim zacznie się rozważania o
przetwarzaniu sygnałów akustycznych.
Jednym z podstawowych parametrów dźwięku jest jego głośność.
Jak widać w tabeli, poziom dźwięku przedstawiono w skali logarytmicznej,
ponieważ taka jest właśnie charakterystyka ludzkiego słuchu. Jako poziom 0 dB SPL
(Sound Power Level), przyjęto poziom najcichszego dźwięku wykrywalnego przez
człowieka. Odpowiada on gęstości mocy około 10-16 W/cm2. Normalna mowa
odpowiada poziomowi 60 dB SPL, czyli 10-10 W/cm2 a ból i możliwe zniszczenia
narządu słuchu wystąpią przy około 140 dB SPL, czyli 10-2 W/cm2.
Gęstość mocy dźwięku
W/cm2
-2
10
10-3
10-4
10-5
10-6
10-6
10-6
10-6
10-10
10-11
10-12
10-13
10-14
10-15
10-16
10-17
10-18
Poziom
dB SPL
140 dB
130 dB
120 dB
110 dB
100 dB
90 dB
80 dB
70 dB
60 dB
50 dB
40 dB
30 dB
20 dB
10 dB
0 dB
-10 dB
-20 dB
Przykład
Ból
Złe samopoczucie
Młot pneumatyczny i koncert rockowy
Górna granica głośności w przemyśle
Normalna rozmowa
Najcichszy dźwięk słyszalny przy 100 Hz
Najcichszy dźwięk słyszalny przy 20 kHz
Najcichszy dźwięk słyszalny przy 3 kHz
Jak widać różnica pomiędzy najcichszym a najgłośniejszym dźwiękiem wynosi
około
120 dB, czyli około 1 mln razy w odniesieniu do amplitud. Słuchacze potrafią
wykryć różnicę głośności, jeżeli zmieni się ona o około 1 dB, czyli 12% w odniesieniu
do amplitudy. Inaczej mówiąc, człowiek potrafi wykryć tylko 120 różnych poziomów
dźwięku. Czułość ucha jest nieprawdopodobna: słuchacz potrafi usłyszeć dźwięk,
który w błonie bębenkowej powoduje wibrację o amplitudzie mniejszej od rozmiaru
pojedynczej cząsteczki.
Odbiór dźwięku zależy od mocy dźwięku w przybliżeniu o wykładnik 1/3. Na
przykład, jeżeli zwiększy się 10-krotnie moc dźwięków, słuchacze stwierdzą, że
głośność wzrosła dwukrotnie (101/3 ≈ 2). To stanowi największy problem związany z
liminacją niepożądanych dźwięków ze środowiska. Na przykład, organizując studio
nagrań dąży się do jak największego wytłumienia dźwięków zewnętrznych. Nawet,
jeżeli pokryje się wszystkie ściany, podłogę, sufit materiałem idealnie tłumiącym,
pozostawiając zaledwie 1% powierzchni niezabezpieczonej, tłumiąc dźwięki
zewnętrzne do 1% poprzedniej wartości, uzyska się subiektywne stłumienie na
poziomie 20% (0.011/3 ≈ 0.2).
Zakres częstotliwości ludzkiego słuchu przyjmuje się od 20 Hz do 20 kHz, ale
czułość wyraźnie zależy od częstotliwości i jest największa dla częstotliwości 1kHz
do 4 kHz. Z analizy tabeli wyraźnie widać, że człowiek usłyszy dźwięk o poziomie 0
dB przy częstotliwości 3 kHz, natomiast aby usłyszeć dźwięk 20 kHz potrzebuje
głośności 20 dB (amplituda 10 razy większa) a do usłyszenia 100 Hz nawet 40 dB
(100-krotnie większa amplituda). Słuchacze są w stanie rozróżnić częstotliwość
dźwięku, jeżeli różnią się one od siebie o około 0.3% w okolicy 3 kHz, natomiast w
pobliżu 100 Hz różnica częstotliwości musi być równa co najmniej 3%. Dla przykładu
sąsiednie klawisze fortepiany mają częstotliwości różniące się około 6%.
W odbiorze ciągłego dźwięku, np. tonu wydobywanego z instrumentu
muzycznego wyróżniane jest często kilka parametrów, najczęściej głośność,
wysokość i barwa. Głośność, jak to już opisano jest to miara intensywności dźwięku.
Wysokość, jest to częstotliwość podstawowej składowej dźwięku, np. pierwszej
harmonicznej.
Barwa dźwięku, to parametr bardziej złożony od poprzednich. Jest ona zwykle
określana przez udział harmonicznych w sygnale dźwiękowym. Na rysunku
pokazano dwa sygnały stworzone przez dodanie do sinusoidy podstawowej o
częstotliwości 1 kHz trzeciej harmonicznej 3 kHz o amplitudzie równej połowie
amplitudy składowej podstawowej.
Różnica pomiędzy tymi dwoma przebiegami polega na uzyskaniu przesunięcia
fazy trzeciej harmonicznej o 1800 w przebiegu na rysunku b w stosunku do tego
samego przebiegu na rysunku a. Pomimo widocznej różnicy kształtów przebiegów
czasowych oba sygnały brzmią identycznie. Spowodowane jest to tym, że z powodu
szczególnej budowy narządu słuchu jest on bardziej wrażliwy na amplitudę i
częstotliwość dźwięku a w bardzo małym zaledwie stopniu na jego fazę. Kształt
sygnału w funkcji czasu nie jest bezpośrednio związany ze sposobem jego słyszenia,
więc zwykle nie jest brany pod uwagę w systemach audio.
Co wpływa na barwę dźwięku? Jak wygląda np. dźwięk wydawany przez
skrzypce?
Specyficzna konstrukcja instrumentu, strun i smyczka powoduje powstanie
sygnału piłokształtnego. W widmie sygnału występuje ton podstawowy i szereg
harmonicznych. Ton podstawowy ma w omawianym przykładzie częstotliwość 220
Hz, co odpowiada nucie A, natomiast harmoniczne mają częstotliwości odpowiednio
440, 660, 880 Hz i tak dalej. Jeżeli ten sam ton zostanie zagrany na innym
instrumencie, kształt sygnału może być zupełnie inny, ale ciągle będzie słyszany ton
podstawowy 220 Hz plus harmoniczne. Ponieważ dwa różne instrumenty grając tę
samą nutę generują tę samą częstotliwość podstawową, brzmią podobnie, więc
można powiedzieć, że ma ona tę samą wysokość. Ponieważ amplitudy
harmonicznych dwóch instrumentów są różne, więc dźwięki mają różną barwę.
Opracowano na podstawie:
mgr inż. Zdzisław Szulżycki na podstawie DSP Book