SOUND DESIGN I

Transkrypt

SOUND DESIGN I
Wojciech Błażejczyk
SOUND DESIGN I
materiały pomocnicze
Spis treści:
1. Sound design – wprowadzenie
2. Syntezatory
3. Tworzenie dźwięków o określonej wysokości
4. Tworzenie dźwięków o nieokreślonej wysokości
5. Inne metody syntezy
6. Tworzenie dźwięków zmiennych w czasie
7. Efekty modulacyjne
8. Morfing dźwięku
9. MIDI i sekwencer
10. Bibliografia
11. Plan zajęć
1. SOUND DESIGN – WPROWADZENIE
Sound design można zdefiniować jako różnego rodzaju twórcze działania z
dźwiękiem (zarówno przetwarzanie, generowanie jak i montaż), których celem jest
stworzenie dźwięków nowych, oryginalnych i ich wykorzystanie w muzyce i formach
audiowizualnych. Sound design jest ważnym elementem dźwięku w filmie, krótkich formach
audiowizualnych takich jak reklama, logo czy czołówka programu telewizyjnego, w teatrze,
słuchowisku radiowym, grach komputerowych, stronach internetowych, a także w muzyce. W
odróżnieniu od muzyki elektronicznej, sound design nie stanowi formy autonomicznej.
Określenie sound design nie posiada oficjalnego (tzn. akceptowanego przez całe
środowisko ludzi pracujących z dźwiękiem) polskiego odpowiednika. Najodpowiedniejszym
określeniem wydaje się „kompozycja dźwięku” – wprowadzili je Józef Patkowski i Krzysztof
Szlifirski w odniesieniu do muzyki elektroakustycznej, skomponowanej przez nich do filmów
Sposób bycia i Niebo bez słońca. W odniesieniu do sound design’u określenia „kompozycja
dźwięku” użyła Joanna Napieralska w filmie „Z odzysku” (2006 r.). Inne używane określenia
to „efekty specjalne”, „dźwiękowe efekty specjalne”, „produkcja dźwięku”, „projekt dźwięku”.
W innych krajach nieanglojęzycznych pojęcia sound design zwykle nie tłumaczy się.
Pierwszy raz pojęcie sound design pojawiło się w roku 1959 na plakacie spektaklu
Hammersmith w London’s Lyric Theatre (w odniesieniu do Davida Collisona, twórcy efektów
dźwiękowych w przedstawieniu). W przemyśle filmowym określenie sound design’er w
napisach końcowych pojawiło się pierwszy raz w 1969 roku w odniesieniu do Waltera
Murch’a, twórcy dźwięku w filmie F. F. Coppoli The Rain People.
Powyższa definicja sound design’u wskazuje na 2 cechy szczególne, odróżniające go
od tworzenia ścieżki dźwiękowej w tradycyjnym rozumieniu oraz – z drugiej strony – od
komponowania muzyki:
1) twórcze, kreatywne działanie, wychodzące poza ramy zwykłego rzemiosła
polegającego na prawidłowym podłożeniu efektów dźwiękowych do obrazu.
2) operowanie dźwiękami raczej niemuzycznymi, pozbawionymi elementów melodii, czy
harmonii. Granice te są płynne i często trudno jednoznacznie oddzielić sound
designer’a od kompozytora czy reżysera dźwięku w filmie, często też role te
powierzone są jednej osobie. Można powiedzieć, że sound design jest kategorią
pośrednią pomiędzy muzyką a dźwiękiem.
Metody tworzenia sound design’u można podzielić na 3 kategorie:
1) nagrywanie tradycyjnych efektów dźwiękowych i atmosfer, a następnie ich łączenie,
montaż i przetwarzanie przy pomocy wszelkich dostępnych narzędzi dla osiągnięcia
nowych jakości brzmieniowych. Zaletą tej metody jest żywość, naturalność, ale
istotnym problemem jest trudność oderwania brzmienia dźwięku ostatecznego od
brzmienia dźwięku pierwotnego;
2) generowanie dźwięków i ich kształtowanie przy użyciu instrumentów elektronicznych
– zaletą tej metody jest duża możliwość kształtowania dźwięku, ale wadą duża
statyczność i trudna do uniknięcia sztuczność;
3) nagrywanie i przetwarzanie dźwięków akustycznych instrumentów muzycznych lub
przedmiotów wykorzystanych jak instrumenty. Najczęściej wykorzystuje się nietypowe
techniki, preparacje, nietypowe techniki mikrofonizacji. Zaletą tej metody jest
możliwość wykreowania bogatych, dynamicznie zmieniających się, żywych dźwięków,
które mogą być nagrywane synchronicznie z obrazem
GENEZA
Na rozwój sound design’u duży wpływ wywarły następujące zjawiska:
1) rozwój kinematografii:
- coraz większe wymagania co do dźwięku w związku z rozwojem technologii,
- rozwój filmów science fiction oraz animacji;
- tworzenie zaawansowanych wizualnych efektów specjalnych, które muszą znaleźć
odzwierciedlenie w dźwięku,
- rozwój technologii 3D
2) rozwój nurtów sonorystycznych w muzyce współczesnej, nowe zastosowania
instrumentów, nowe techniki gry, zdobycze bruitystów (intonarumori); akusmatyczne
podejście do dźwięku (termin stworzony przez Pierre Schaeffera w odniesieniu do
muzyki konkretnej, oznaczający oderwanie dźwięku od jego źródła);
3) powstanie i rozwój muzyki elektronicznej, którą można uznać za autonomiczną
formąę sound design’u;
4) rozwój niektórych gatunków muzyki rozrywkowej – ambientu, drone music,
elektroniki;
5) rozwój technologii, umożliwiający tworzenie zaawansowanych dźwięków przy pomocy
komputera, a także umożliwiający implementację sound design’u np. do gier
komputerowych i stron WWW;
6) powstanie nowych form audiowizualnych (reklama) i mediów (internet), które
zmuszają twórców udźwiękowienia do oryginalności w celu zatrzymania uwagi widza.
SOUND DESIGN W FILMIE
Pojęcie sound design w odniesieniu do sztuki filmowej ma 2 znaczenia:
1) sound design’erem określa się osobę odpowiedzialną za artystyczną i technologiczną
stronę dźwięku w filmie, co odpowiada roli reżysera dźwięku w filmie (supervising
sound editor), z tą różnicą, że tytułu sound design używa się w odniesieniu do filmów,
w których dźwięk jest czymś więcej niż wiernym odtworzeniem realiów dźwiękowych;
pełni ważną funkcję dramaturgiczną lub zawiera elementy nierzeczywiste (efekty,
atmosfery, tła)
2) w węższym znaczeniu sound design oznacza kompozycję dźwiękowych efektów
specjalnych. Można tu wyróżnić1:
- dźwięki przedmiotów, postaci i zjawisk występujących w filmie, ale niespotykanych
w świecie rzeczywistym (pojazdy przyszłości, potwory, nieistniejące gatunki
zwierząt, zjawiska magiczne itd.). Dźwięki te tworzy się zwykle przetwarzając efekty
dźwiękowe z fonotek lub nagrane, łącząc je z innymi lub używając w zaskakującym
kontekście;
- dźwięki ilustrujące subiektywne przeżycia bohaterów, ich emocje i stan
psychiczny (często są one używane w sposób bardzo dyskretny lub polegają na
przekształceniu niektórych dźwięków otoczenia);
- dźwięki związane z dramaturgią filmu – zwykle są to dźwięki stanowiące tło
(klastery, plamy dźwiękowe), współgrające z muzyką (powinny być tworzone w
odniesieniu do muzyki), wprowadzające napięcie, poczucie grozy itd.
- dźwięki w scenach odrealnionych (np. sceny wizji sennych lub halucynacji), gdzie
sound design – obok elementów obrazu – stanowi istotny element oddzielenia tych
scen od scen realistycznych
- dźwięki ilustrujące wszelkie specjalne efekty w obrazie, takie jak figury
montażowe, zwolnienie obrazu, przenikanie, plansza tytułowa etc.
1
por. praca magisterska Rafała Smolenia Sound design w kinie amerykańskim – szczególny rodzaj reżyserii
dźwięku w filmie, s. 41.
Obecnie w kinie światowym przeważa zastosowanie określenia sound designer do
osób tworzących dźwiękowe efekty specjalne. W przypadku filmów o większym budżecie
zwykle zatrudniany jest specjalista od tworzenia specjalnych efektów dźwiękowych. Zdarza
się także (jak w filmie Incepcja Christophera Nolana z 2010 r.) że w napisach końcowych
obok kompozytora muzyki pojawia się funkcja ambient music design.
Jeden z czołowych amerykańskim sound design’erów, David Sonnenheim, wskazując
na swoje inspiracje w tworzeniu sound design’u, zwraca uwagę na funkcje dźwięku
analogiczne do środków poetyckich:
- podobieństwo (obiektywne podobieństwo akustyczne między 2 różnymi dźwiękami,
np. ryk lwa i odgłos burzy);
- hiperbola (celowe wyolbrzymienie dźwięku);
- metafora (sugestia dźwiękowa – np. niski dudniący dźwięk sugerujący atmosferę
grozy);
- symbol i alegoria (reprezentacja danego dźwięku przez inny, symbolizujący go, np.
bicie dzwonu oznaczające śmierć);
- ironia (użycie dźwięku stanowiącego przeciwieństwo oczekiwań widza, np. śmiech
dzieci w dramatycznym momencie filmu);
- paradoks (zaprzeczenie, użycie dźwięku niezgodnie z logiką);
- animizacja (nadanie przedmiotowi cech istoty ożywionej – np. ryk zwierzęcia jako
odgłos silnika);
- metonimia (ukazanie szczegółu informującego o całości);
- eufemizm (użycie dźwięku zastępczego dla uniknięcia pokazania właściwej sceny,
np. ciągły dźwięk urządzenia monitorującego akcję serca zamiast ukazania śmierci postaci).
SOUND DESIGN W MUZYCE
W muzyce współczesnej część muzyki elektronicznej może być uznana za rodzaj
sound design’u, tyle że o charakterze autonomicznym. Warsztat kompozytora jest często
zbieżny z warsztatem sound design’era: programy do montażu dźwięku, zaawansowane
przetwarzanie dźwięku, syntezatory, wykorzystanie dźwięku nagranego. Wielu
kompozytorów posługuje się bardzo zaawansowanymi narzędziami (lub ma do tego
asystentów-programistów), umożliwiającymi programowanie dźwięku lub tworzenie własnych
algorytmów (np. MAX-MSP, SuperCollider, CSound, AudioSculpt).
Także w muzyce rozrywkowej muzycy i realizatorzy tworzą sound design. Można tu
wyróżnić kilka płaszczyzn:
1) wykorzystanie instrumentów elektronicznych (syntezatorów, samplerów) w sposób
kreatywny do tworzenia nowych brzmień, na których muzycy grają w tradycyjny
sposób;
2) wykorzystanie syntezatorów, samplerów i looperów do tworzenia na żywo
skomplikowanych struktur dźwiękowych, stanowiących samodzielny element utworu;
3) przetwarzanie dźwięków instrumentów (np. gitary elektrycznej) oraz głosu.
Zdarza się, że na płycie obok nazwisk muzyków znajduje się się nazwisko osoby określonej
jako sound design’er – np. Michael Brook na płycie U2 The Joshua Tree, Chris Thomas na
płycie Pink Floyd The Dark Side of the Moon, Brian Eno na płycie Paula Simona Surprise.
SOUND DESIGN W REKLAMIE
Ze względu na krótki czas trwania oraz intensywność przekazu, film reklamowy
stanowi duże wyzwanie dla reżysera dźwięku. Aby przykuć uwagę widza, często stosuje się
oryginalne, pomysłowo użyte dźwięki, często działające na widza poprzez skojarzenia czy
metaforę, jest tu więc sporo miejsca na sound design. Ponadto w tego typu krótkich formach
często pojawia się wiele plansz z nazwami producenta czy towaru, które wymagają
podkreślenia dźwiękiem, podobnie jak szybki montaż.
SOUND DESIGN W GRACH KOMPUTEROWYCH
Od kilku lat, w związku z rozwojem mocy obliczeniowej komputerów, dźwięk stanowi
coraz istotniejszy element gier komputerowych. Dźwięk w grze od filmowego różni przede
wszystkim fakt, że jest on interaktywny – zależy od rozwoju wydarzeń, realizowanego przez
gracza scenariusza. W związku z tym musi być przygotowany w ten sposób, żeby możliwe
było jego synchronizowanie z różnymi wariantami przebiegu akcji.
Pojedyncze dźwięki w grze mogą być:
1) jednorazowe (one-off sound) – są wyzwalane w odpowiednim momencie zgodnie np. z
ruchem bohatera (powinny być możliwie najkrótsze);
2) zapętlone (looping) – ze względu na oszczędność pamięci wiele atmosfer czy
dźwięków ambientowych jest zapętlonych;
Muzyka i dźwięki ambientowe w grach często są dzielone na warstwy (np. tło,
perkusja, melodia, smyczki), które odtwarzane są synchronicznie, ale poszczególne warstwy
są wyciszane lub włączane w zależności od rozwoju akcji, co pozwala uciec od
repetytywności, pomimo iż wszystkie warstwy są w pętli, oraz stworzyć wrażenie narastania
muzyki.
W związku z futurystycznym często charakterem scenografii gier oraz licznymi
pojawiającymi się w nich potworami tudzież zombie, wiele efektów dźwiękowych i atmosfer
ma charakter sound design’u. Co więcej, w grze (zwłaszcza typu FPP – First Persone
Perspective, czyli akcja z punktu widzenia bohatera) większe niż w filmie znaczenie mają
dźwięki pozakadrowe, naprowadzając gracza na odpowiednią drogę czy sygnalizując
pojawienie się zagrożenia. Przy dużych budżetach dźwięk do gier (np. wybuchy) bywa
nagrywany na kilka mikrofonów, co umożliwia kreowanie przestrzeni przez odpowiedni
algorytm w czasie gry w zależności od odległości bohatera od danego zdarzenia
dźwiękowego. W grach typu FPP ruchy gracza zmuszają oprogramowanie do ciągłej zmiany
lokalizacji dźwięku otaczającego gracza. Interaktywność gry jest problemem technicznym,
ale daje duże możliwości oddziaływania na gracza dźwiękiem.
Z technicznego punktu widzenia do integracji dźwięku z silnikiem gry (engine) służą
zwykle oddzielne oprogramowania (np. Fmod czy Wwise). Dźwięk powinien być
przygotowany w bezstratnym formacie audio, ale w konsoletach jest kodowany do stratnych
formatów: XMA dla Playstation 3 i MP3 dla Xbox 360. Należy pamiętać, że gracze często
podłączają konsolety do odtwarzaczy DVD, dzięki czemu mogą słuchać dźwięku
dookólnego.
SOUND DESIGN W INTERNECIE
Coraz większa szybkość łączy umożliwia tworzenie ambitnego udźwiękowienia stron
internetowych. Sound design w Internecie można podzielić na 2 kategorie:
1) dźwięki interfejsu użytkownika (kliknięcie myszką, otwarcie zakładki, whoosh przy
przejściu na inną podstronę, zmiana panoramy dźwięku w zależności od położenia
myszy etc.)
2) dźwięki ambientowe lub muzyka, stanowiące tło muzyczne. Często ze względu na
przepustowość stosuje się pętle. Aby uniknąć męczącej repetytywności, można
zastosować odpowiednie obwiednie i kilka punktów zapętlenia – dźwięk będzie się
powtarzał od różnych punktów, z różnym przenikaniem, dzięki czemu uzyskuje się
wrażenie zmienności. Inną (ale zaawansowaną obliczeniowo) metodą jest
zastosowanie zmiennej prędkości odtwarzania oraz odtwarzanie dźwięków od tyłu.
SOUND DESIGN W TEATRZE
W odniesieniu do teatru sound design zwykle oznacza przygotowanie efektów
dźwiękowych, najczęściej realistycznych, ale zdarzają się też sytuacje, gdy potrzebne są
dźwięki stworzone specjalnie na potrzeby przedstawienia.
Poniższe materiały stanowią podbudowę teoretyczną dla zajęć praktycznych, które są
podstawą prowadzonych zajęć.
2. SYNTEZATORY
Syntezator to urządzenie służące do generowania dźwięku. Na syntezatorze gra się przy
użyciu urządzenia sterującego (najczęściej klawiatury, ale rolę urządzenia sterującego
może spełniać dowolny sterownik MIDI). Syntezatory składają się z modułów, które mogą
być w dowolny sposób łączone. Podstawowe moduły to:
• VCO – (ang. Voltage Controlled Oscillator) – generator sterowany napięciem, stosujący
określoną metodę syntezy;
• VCF – (ang. Voltage Controlled Filter) - filtr sterowany napięciem;
• VCA – (ang. Voltage Controlled Amplifier) – wzmacniacz sterowany napięciem;
• LFO – (ang. Low Frequency Oscillator) – generator wolnych przebiegów;
• EG – (ang. Envelope Generator) – generator obwiedni ADSR;
• moduł kształtowania przebiegu (waveshaper) – umożliwia zmianę kształtu fali,
wprowadzenie przesterowania.
Budowa modułowa umożliwia dowolne łączenie powyższych elementów, co daje ogromne
możliwości tworzenia brzmień. Sygnały sterujące określa się mianem CV – (ang. Control
Voltage) – napięcie sterujące.
ADSR
ADSR
VCO
(oscylator)
VCF
(filtr)
LFO
ADSR
VCA
(wzmacniacz)
klawiatura sterująca
Schemat syntezatora analogowego. Linią przerywaną zaznaczono sygnały sterujące,
ciągłą – sygnały audio.
VCF
W syntezatorach mamy zwykle do czynienia z następującymi rodzajami filtrów:
• highpass – HPF (górnoprzepustowy, zwykle 12 lub 24 dB/oktawę)
• lowpass – LPF (dolnoprzepustowy, zwykle 12 lub 24 dB/oktawę)
• bandpass – BPF (pasmowy, zwykle 12 dB/oktawę)
• notch filter (wycinający)
• peak filter („pikowy”)
• comb filter – działa na zasadzie wprowadzania krótkich opóźnień do sygnału, dzięki
czemu uzyskuje się filtr grzebieniowy. Comb filter o wartościach dodatnich oznacza
podbicie, a o wartościach ujemnych – obcięcie.
Filtry posiadają zwykle 2 regulatory:
• frequency (częstotliwość)
• resonance (rezonans) – w przypadku HPF, LPF i BPF zwiększenie rezonansu
wprowadza podbicie częstotliwości odcięcia (środkowej).
Zmiany wartości resonance w przypadku HPF
Zmiany wartości resonance w przypadku BPF
W przypadku filtru typu notch zwiększenie rezonansu oznacza zwiększenie dobroci filtru:
Zmiany wartości resonance w przypadku filtru typu notch.
Funkcja velocity sensitive umożliwia zmianę częstotliwości filtra w zależności od szybkości
naciśnięcia klawisza.
Funkcja keyboard tracking umożliwia zmianę częstotliwości filtra w zależności od rejonu
klawiatury.
Filtr z suwakami regulującymi częstotliwość i rezonans, możliwością wyboru rodzaju filtra
oraz pokrętłem śledzenia klawiatury (kbd – keyboard tracking) (Syntezator wirtualny
Subtractor firmy Propellerheads).
LFO
Generator wolnych przebiegów to oscylator wytwarzający przebiegi o częstotliwościach
poniżej pasma słyszenia [0-20 Hz], o wybranym kształcie. Umożliwia uzyskanie efektu
wibrato (gdy steruje częstotliwością VCO), tremolo (gdy steruje amplitudą VCO), a także
wszelkich cyklicznych zmian sygnału, np. częstotliwości filtra, szerokości impulsu w
przypadku PWM czy wartości saturacji sygnału w module weveshaping. Do syntezatora
można podłączyć zewnętrzny LFO.
LFO z regulacją częstotliwości (rate), intensywności czyli amplitudy (amount), wyborem
kształtu przebiegu, miejsca przeznaczenia oraz możliwością synchronizacji z tempem utworu
(Sync) (Syntezator wirtualny Subtractor firmy Propellerheads).
EG – obwiednia ADSR
Generator obwiedni w momencie wciśnięcia klawisza (trigger) wytwarza pojedynczy przebieg
o następujących fazach:
Obwiednia ADSR
Odwrócona (inverted) obwiednia ADSR
Obwiednia może zostać nałożona na wzmacniacz (Amp Envelope), filtr (Filter Envelope) lub
dowolny inny parametr podlegający modulacji (Modulation Envelope).
ANG
PL
Amp
Envelope
attack
faza
narastania
czas osiągnięcia
maksymalnej
wartości amplitudy
[ms]
czas osiągnięcia
częstotliwości
wyższej (niższej) od
ustawionej o
określoną (przez
parametr envelope
to filter) wartość
[ms]
Modulation czas osiągnięcia
Envelope
wartości danego
parametru wyższej
(niższej) od
ustawionej o
określoną (przez
parametr amount)
wartość
[ms]
Filter
Envelope
decay
faza
opadania
czas przejścia
amplitudy od
wartości
maksymalnej do
określonej przez
sustain
[ms]
czas powrotu
częstotliwości od
osiągniętej w
fazie narastania
do ustalonej dla
fazy sustain
sustain
stan
ustalony
wartość
amplitudy
dla stanu
ustalonego
release
faza
wybrzmiewania
czas
wybrzmiewania
po puszczeniu
klawisza (note off)
(osiągnięcia
amplitudy =0)
[dB]
[ms]
częstotliwość czas osiągnięcia
dla stanu
na powrót
ustalonego
częstotliwości
ustalonej po
puszczeniu
klawisza (note off)
[ms]
czas powrotu
wartości
parametru od
osiągniętej w
fazie narastania
do ustalonej dla
fazy sustain
[Hz]
wartość
parametru
dla stanu
ustalonego
[ms]
[ms]
czas osiągnięcia
na powrót
ustawionej
wartości
parametru po
puszczeniu
klawisza (note off)
[ms]
Istnieją generatory obwiedni o dodatkowych fazach:
• delay (czas od wciśnięcia klawisza do momentu wyzwolenia obwiedni),
• hold (czas przytrzymania danego parametru na maksymalnym poziomie osiągniętym w
fazie narastania)
Wtedy pełna obwiednia wygląda następująco:
delay → attack → hold → decay → sustain→ release
Rozszerzona obwiednia DAHDSR
Obwiednia filtru wraz z pokrętłem amount oraz przełącznikiem odwrócenia działania (invert).
(Syntezator wirtualny Subtractor firmy Propellerheads).
Rozszerzona obwiednia wzmacniacza z możliwością zapętlenia pierwszych 4 faz (loop),
wyłączenia wyzwalania przez klawiaturę (gate trigger) w celu włączenia zewnętrznego źródła
wyzwalania obwiedni przez gate input oraz możliwością synchronizacji z tempem utworu
(tempo sync). (Syntezator wirtualny Thor firmy Propellerheads).
FUNKCJE KLAWIATURY STERUJĄCEJ
Polifonia (Polyphony) – ilość głosów (voice), czyli liczba dźwięków, które mogą być
równocześnie zagrane. Pierwsze syntezatory były monofoniczne, obecnie każdy
syntezator ma co najmniej 16 głosów. Liczbę głosów najczęściej można zdefiniować.
Każdy głos jest przez procesor syntezatora przetwarzany oddzielnie (oddzielna
obwiednia).
Portamento – funkcja wprowadzająca płynne przejście wysokości dźwięku pomiędzy
kolejnymi granymi dźwiękami. Parametr „portamento” określa długość czasu dojścia od
wysokości poprzedniego dźwięku do wysokości aktualnie wciśniętego dźwięku.
Tryby pracy klawiatury (Keyboard Mode):
• Mono – tryb monofoniczny. Wciśnięcie drugiego klawisza powoduje wyłączenie
pierwszego.
• Poly – tryb polifoniczny. W zależności od ustawionej polifonii, odpowiednia ilość
głosów może być jednocześnie odtwarzana.
• Legato
- w trybie mono przy grze legato obwiednia (wzmacniacza, filtra itd.) jest wyzwalana
(trigger) tylko przy wciśnięciu pierwszego klawisza, kolejne dźwięki zagrane legato
nie wyzwalają na nowo obwiedni. Obwiednia jest wyzwalana przy każdym dźwięku
przy grze staccato.
- w trybie poly obwiednia jest wyzwalana przy każdym wciśnięciu klawisza, chyba że
wciśnie się liczbę klawiszy przekraczającą ilość głosów w polifonii. Wtedy
poprzednio zagrane dźwięki są wyłączane, a ponadliczbowe dźwięki grane są bez
wyzwalania obwiedni (np. przy 3-głosowej polifonii, obwiednia jest wyzwalana przy
zagraniu legato pierwszego, drugiego i trzeciego dźwięku. Jeśli przytrzymamy te 3
dźwięki i dodamy czwarty, obwiednia nie włączy się. Wciśnięcie czwartego dźwięku
spowoduje wyłączenie pierwszego).
• Retriger
- w trybie mono obwiednia będzie wyzwalana na nowo (retrigger) po każdym
wciśnięciu klawisza, staccato i legato. Jeśli przytrzymamy pierwszy dźwięk i
zagramy krótko drugi, obwiednia uruchomi się w momencie wciśnięcia drugiego
klawisza oraz w momencie jego puszczenia (na przytrzymywanym pierwszym
dźwięku).
- w trybie poly jest to normalny tryb pracy – każdy dźwięk niezależnie od artykulacji
wyzwala obwiednię.
• Release polyphony – ilość głosów, które mogą swobodnie wybrzmiewać (faza
release) po puszczeniu klawisza (note off). Przy ustawieniu „0” faza wybrzmienia
będzie przerwana w momencie wciśnięcia kolejnego klawisza.
Keyboard tracking (śledzenie klawiatury) – dany parametr (np. częstotliwość oscylatora,
częstotliwość LFO) może zmieniać swą wartość w większym lub mniejszym stopniu w
zależności od tego jaki klawisz zostanie wciśnięty na klawiaturze sterującej. Ustawienie
Keyboard tracking na minimum sprawi że każdy klawisz będzie wyzwalał taką samą
wartość danego parametru, zaś ustawienie na maksimum – maksymalne zróżnicowanie
wartości w zależności od numeru klawisza. W przypadku gdy parametrem który ma
śledzić klawiaturę jest częstotliwość (wysokość dźwięku), ustawienie keyboard tracking
na maksimum sprawi że odległości między kolejnymi klawiszami będą wynosiły pół tonu
(czyli sytuacja normalna); przy ustawieniu na minimum, każdy klawisz wyzwoli dźwięk o
tej samej wysokości. Przy ustawieniu na połowę wartości, odległość między sąsiednimi
klawiszami będą wynosić ćwierć tonu. W przypadku częstotliwości filtra, wraz z
przesuwaniem się w górę klawiatury częstotliwość filtru będzie rosła i na odwrót.
Pitch Bend – kółko odstrojenia montowane w syntezatorach, umożliwiające płynną zmianę
wysokości dźwięku. Parametr Range określa zakres zmiany wysokości w półtonach.
Modulation Wheel – kółko modulacji służące do płynnej regulacji modulacji wybranego
parametru. Może to być częstotliwość filtru, amplituda LFO czy współczynnik modulacji
FM.
Synteza jedno/wielobrzmieniowa (multitimbral) – synteza wielobrzmieniowa (multitimbral)
umożliwia na jednoczesne wytwarzanie kilku różnych barw (np. fortepianu i smyczków).
Poszczególne barwy mogą być przyporządkowane różnym rejonom klawiatury lub
nakładać się na siebie. Funkcja ta jest przydatna w graniu na żywo.
3. TWORZENIE DŹWIĘKÓW o
OKREŚLONEJ WYSOKOŚCI
Na grupę dźwięków o określonej wysokości składają się:
• tony proste
• wielotony harmoniczne (takie, których częstotliwości tonów składowych pozostają
ze sobą w stosunku 1:2:3:4…)
W przypadku tworzenia sound design’u do filmu, używając dźwięków o określonej wysokości
należy zwracać szczególną uwagę na obecność muzyki w danym ujęciu. Wszystkie dźwięki
o określonej wysokości muszą być dostrojone do tonacji muzyki. Dlatego często sami
kompozytorzy są twórcami tego rodzaju płaszczyzn dźwiękowych.
METODA SUBTRAKCYJNA (subtractive synthesis)
Metoda subtrakcyjna polega na wygenerowaniu przebiegu o bogatym widmie (np.
piłokształtnego lub trójkątnego), który następnie poddawany jest filtracji, a więc odejmowaniu
określonych składników widma z sygnału szerokopasmowego (stąd nazwa). Ta prosta
metoda syntezy stosowana była już w latach 50tych XX wieku. Na swego rodzaju syntezie
substrakcyjnej opiera się jest głos ludzki – generatorem sygnału szerokopasmowego jest
krtań, zaś jama ustna i kształt ust pełnią rolę filtra. Metoda subtrakcyjna ma dość
ograniczone możliwości brzmieniowe. Dźwięki brzmią syntetycznie i kojarzą się z dawnymi
syntezatorami. Aby mogły być skutecznie zastosowane, muszą być odpowiednio
ukształtowane – filtrowane, łączone, przekształcone przy pomocy efektów modulacyjnych lub
waveshaping’u, poddane fluktuacjom przy pomocy LFP lub obwiedni.
Syntezatory stosujące syntezę subtrakcyjną oferują zwykle wybór kilku rodzajów
przebiegów: podstawowych (sinus, trójkąt, prostokąt, piła) oraz innych, stanowiących ich
pochodne. Do tej metody zalicza się także generowanie szumu, który zostanie omówiony w
rozdziale Tworzenie dźwięków nieharmonicznych. Podstawowe przebiegi, oprócz
zastosowania do tworzenia brzmień, mogą być także użyte jako elementy LFO.
Podstawowe rodzaje przebiegów (waveform):
• Przebieg sinusoidalny (sine)
• Przebieg trójkątny (triangle) – zawiera tylko składowe nieparzyste:
amplituda
Przebieg trójkątny (triangle)
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
1
2
3
4
5
6
7
8
9
10 11
numery kolejnych składowych
Kolejne składowe mają amplitudę określoną wzorem:
A( n ) =
1
, gdzie n to numer składowej.
n2
12
13 14
15
• Przebieg prostokątny (square) – zawiera tylko składowe nieparzyste, o mniejszym
spadku amplitudy niż w przypadku przebiegu trójkątnego.
amplituda
Przebieg prostokątny (square)
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
1
2
3
4
5
6
7
8
9
10 11
12
13 14
15
numery kolejnych składowych
Kolejne składowe mają amplitudę określoną wzorem:
A( n ) =
1
n
gdzie n to numer składowej.
Przebieg prostokątny może dodatkowo podlegać Pulse Width Modulation (modulacji
szerokości impulsu – PWM). PWM wprowadza charakterystyczne wzbogacenie brzmienia,
zbliżone do modulacji fazy lub chorusa.
PWM – przebieg prostokątny modulowany sygnałem sinusoidalnym.
• Przebieg piłowy (saw) – zawiera wszystkie składowe:
amplituda
Przebieg piłowy (saw)
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
1
2
3
4
5
6
7
8
9
10 11
12
13 14
15
Numery kolejnych składowych
Kolejne składowe mają amplitudę określoną wzorem:
A( n ) =
1
n
gdzie n to numer składowej.
Wiele syntezatorów wykorzystujących syntezę subtrakcyjną oferuje dodatkowe funkcje:
• regulację punktu startu (start point) – start przebiegu nie musi być w miejscu zerowej
amplitudy; możliwe jest ustawienie punktu startu w maksymalnej wartości przebiegu (a więc
po wciśnięciu klawisza generator w minimalnym czasie osiągnie maksimum dla danego
kształtu przebiegu – wprowadza to ostrość ataku) lub randomizacja punktu startu (generator
za każdym razem rozpocznie przebieg od innego miejsca, co ożywia brzmienie);
• funkcja detune – emulacja charakterystycznych dla analogowych syntezatorów,
nieregularnych fluktuacji wysokości generowanego dźwięku. Funkcja przydatna przy
tworzeniu dźwięków typu pad o analogowym brzmieniu;
• unison – włączenie tej funkcji powoduje, że każdy głos jest dublowany (lub, w przypadku
trybu mono, pojedynczy dźwięk jest zwielokrotniany tyle razy, ile jest aktywnych głosów).
Przy połączeniu z funkcją detune, wprowadzającą inne odstrojenie dla każdego głosu, daje
to efekt chorusa, czyli wzbogacenia i lekkiego odstrojenia dźwięku;
• synchronizacja oscylatorów – wymuszenie synchronizacji częstotliwości dwóch lub
więcej oscylatorów, z których jeden jest „masterem”. Pozostałe oscylatory, niezależnie od
swej własnej częstotliwości, są zmuszane do rozpoczynania okresu na nowo zgodnie z
częstotliwością mastera, co powoduje nagłe zmiany kształtu ich przebiegu, a przez to
wzbogacenie dźwięku. Umożliwia to np. uzyskanie mocnego ataku dźwięku (typu punch).
METODA TABLICOWA (wavetable)
W metodzie tej dźwięk jest generowany poprzez sekwencyjne odtwarzanie
umieszczonych w specjalnej tablicy próbek. Próbki te mają długość jednego okresu (co
znacznie zmniejsza objętość instrumentów wavetable) o różnym kształcie. Na każdą próbkę
nakładana jest obwiednia. Różne próbki mogą być miksowane z różnymi kształtami obwiedni
i różną amplitudą, dzięki czemu powstają nowe barwy. Zmianę wysokości uzyskuje się
poprzez zmianę częstotliwości próbkowania. Przejścia pomiędzy kolejnymi próbkami mogą
odbywać się skokowo lub z przenikaniem (płynnie). Brzmienie syntezatorów tablicowych
kojarzy się z brzmieniem starych gier komputerowych, gdzie były stosowane. Z
powodzeniem można je stosować przy tworzeniu dźwięków urządzeń na statkach
kosmicznych etc.
Poniższy rysunek przedstawia sytuację, gdzie poprzez trójkątną obwiednię z trzech
kształtów fal uzyskuje się po zsumowaniu jedną wypadkową.
Określenie wavetable często stosowane w przypadku kart dźwiękowych oznacza de
facto wewnętrzne samplery, a nie syntezatory działające metodą tablicową.
METODA GRANULACYJNA (granular synthesis, graintable)
Synteza granulacyjna polega na tworzeniu dźwięku z pewnej liczby krótkich (5-100
ms) elementów zwanych granulkami (sonic grains). Pojedyncza granulka może się składać z
jednego okresu fali. Może to być fala sinusoidalna, prostokątna itd., a także krótki fragment
dowolnego dźwięku (jak w samplerze). Granulka jest kształtowana widmowo oraz
amplitudowo (poprzez nałożenie odpowiedniej obwiedni). Pojedyncze granulki mogą
występować jedna po drugiej w różnych odstępach czasowych – mogą na siebie zachodzić
lub być oddzielone ciszą różnej długości. Do stworzenia danej barwy może posłużyć kilka
różnych granulek, o określonej lub losowej kolejności występowania. Tak więc w przypadku
syntezy granulacyjnej brzmienie możemy kształtować poprzez:
- kształtowanie widma granulek,
- kształtowanie obwiedni granulek,
- regulację długości i fazy (startu) granulek,
- regulację odstępów pomiędzy granulkami
- regulację wysokości granulek poprzez zmianę częstotliwości próbkowania.
Amp lituda
Amp lituda
Obwiednia
Przykład pojedynczej granulki o sinusoidalnym przebiegu, bez obwiedni i z nałożoną
obwiednią.
Regulacja odstępów między granulkami
Istnieją syntezatory łączące syntezę granulacyjną i tablicową (np. Mälstrom firmy
Propellerheads). Sposób działania takiego syntezatora jest następujący:
Wybrana próbka dźwiękowa dzielona jest na granulki (o różne długości). Powstaje w ten
sposób tablica granulek. Przy domyślnych ustawieniach parametrów, w trakcie odtwarzania
pojedynczego dźwięku syntezator płynnie przechodzi pomiędzy granulkami w ustalonej
kolejności, zapętlając całą sekwencję. Efekt jest analogiczny do odtwarzania całej próbki w
kółko. Istnieje jednak możliwość regulacji 3 parametrów, dzięki którym można z tej samej
próbki uzyskiwać bardzo różne, zmienne wewnętrznie barwy:
• index (punkt startu dźwięku – od której granulki rozpoczyna się pętla)
• motion (tempo przechodzenia do kolejnych granulek)
• shift (regulacja wysokości granulek bez zmiany czasu trwania).
Dodatkową jakość brzmieniową wprowadza możliwość zmieniania kolejności odtwarzania
granulek w sposób kontrolowany lub przypadkowy.
Panel oscylatorów syntezatora wirtualnego Mälstrom firmy Propellerheads.
Synteza granulacyjna umożliwia tworzenie dźwięków bogatych wewnętrznie, zmiennych w
czasie, o wyczuwalnej mikrostrukturze.
MODULACJA FAZY (Phase distortion)
Metoda ta jest odmianą metody odkształcania. W tym przypadku mamy do czynienia
z generatorem tablicowym, analogicznie do metody tablicowej, przy czym modulację fazy
uzyskuje się poprzez ciągłe zmiany szybkości z jaką odczytywane są próbki z pamięci.
Zmiany szybkości nie powodują jednak zmiany okresu próbki, a więc ich rezultatem jest
odkształcenie przebiegu czyli dodanie harmonicznych. Metodę tą zastosowano w
syntezatorze Casio CZ.
Graficzny obraz modulacji fazy
4. TWORZENIE DŹWIĘKÓW o
NIEOKREŚLONEJ WYSOKOŚCI
Na grupę dźwięków o nieokreślonej wysokości składają się:
• wielotony nieharmoniczne
• szumy
Ten rodzaj dźwięków jest szczególnie przydatny w sound design’ie, ponieważ może
funkcjonować niezależnie od muzyki. Umożliwia tworzenie plam, chmur dźwiękowych,
wprowadzających nastrój zagrożenia, niepewności, napięcia, a także syntetycznych
atmosfer.
METODA ADDYTYWNA (SUMACYJNA) (additive synthesis)
Metoda addytywna polega na tworzeniu dźwięku z sumowania pewnej liczby tonów
prostych o określonej amplitudzie. Metoda ta pozwala na bardzo precyzyjne kształtowanie
barwy, jednak jej wadą jest ogromna ilość parametrów, które podlegają kontroli. Natomiast
zaletą jest wysoka wierność generowanych dźwięków z ich akustycznymi wzorcami.
Odmianą metody addytywnej jest metoda addytywna grupowa, w której rolę dźwięków
podstawowych mogą pełnić dźwięki o widmie złożonym. Metoda addytywna umożliwia
tworzenie dźwięków o określonej i nieokreślonej wysokości dźwięku.
SZUM
• Szum biały – widmo dźwięku rozłożone równomiernie na skali częstotliwości
• Szum różowy – amplituda maleje wraz ze wzrostem częstotliwości
• Pasmowy – szum o wąskim paśmie, w zasadzie wysokość dźwięku jest rozpoznawalna.
• Metoda sample & hold (S&H) – generowany jest szum, który następnie w równych
odstępach czasowych jest próbkowany. Pobrana próbka jest przytrzymywana do następnego
próbkowania. W ten sposób powstają przebiegi losowe, przydatne zwłaszcza w LFO.
Szum pasmowy (zwłaszcza w najniższym paśmie, poniżej 100) często jest
wykorzystywany do tworzenia atmosfery napięcia. Najniższe pasmo szumu jest przydatne
jako dodatkowa warstwa basowa w dźwiękach takich jak eksplozje, wybuchy.
MODULACJA AMPLITUDY (AM – amplitude modulation)
W modulacja amplitudy mamy do czynienia ze splotem
sygnałem modulatora F (zwykle jest to prosty przebieg, np.
widmowej wynikiem takiej operacji jest zbiór sum i różnic
składowych obu sygnałów. W najprostszym przypadku mnożenia
następująco:
f1*F = (F + f1) + (F – f1)
sygnału wyjściowego f1 z
sinus, piła). W dziedzinie
wszystkich częstotliwości
dwóch sinusów wygląda to
→
lub
(źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)
W rezultacie widmo oryginalne zostaje przesunięte o wartość F oraz powstaje jego
lustrzane odbicie względem F (wstęgi boczne). Sygnał oryginalny i modulujący może zostać
usunięty (modulacja symetryczna) lub nie (modulacja niesymetryczna), usunięta może też
zostać wstęga boczna. Rezultatem modulacji AM jest najczęściej bogaty dźwięk o
charakterze nieharmonicznym. Przykładem zastosowania syntezy AM jest modulator kołowy
(ring modulator).
Rezultatem brzmieniowy modulacji amplitudy może być jest dźwięk o określonej
wysokości, ale „charczącym”, mechanicznym brzmieniu, ale także dźwięk o nieokreślonej
wysokości (dźwięki mechaniczne, metaliczne, zbliżony do dzwonu). Istotny wpływ na
brzmienie mają:
• stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały
łagodniejsze brzmienie od dysonansowych)
• odległość bezwzględna na skali częstotliwości
• kształt obu przebiegów
• obecność obu, tylko jednego lub żadnego z sygnałów
• zastosowanie funkcji keyboard tracking. W przypadku aktywnego śledzenia
klawiatury przez oba generatory efekt modulacji jest taki sam dla różnych
dźwięków. Jeśli tylko jeden z generatorów śledzi klawiaturę, a drugi ma stałą
częstotliwość, stosunek częstotliwości obu generatorów (a wraz z nim efekt
modulacji i charakter dźwięku) będzie się zmieniał w zależności od wciśniętego
klawisza.
MODULACJA CZĘSTOTLIWOŚCI (FM – frequency modulation)
Modulację częstotliwości jako metodę syntezy dźwięku wprowadził John Chowning w
1973 roku. Pierwszym syntezatorem wykorzystującym tą metodę była Yamacha DX-7.
W modulacji FM częstotliwość sygnału nośnego fn jest modulowana przez sygnał modulujący
fm. Częstotliwość sygnału nośnego zmienia się w zakresie od fn − ∆f do fn + ∆f, gdzie ∆f
nazywane jest dewiacją częstotliwości. Drugim oprócz dewiacji podstawowym parametrem
jest indeks modulacji:
Zwiększenie indeksu modulacji poszerza widmo dźwięku (pojawiają się kolejne
harmoniczne sygnału):
Zmiana widma w zależności od indeksu modulacji (I) wg. J. Chowninga (źródło: K.
Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)
Rezultatem brzmieniowy modulacji częstotliwości są dźwięki o nieokreślonej
wysokości (metaliczne, „kosmiczne”, także szumowe), przydatne w tworzeniu atmosfer
industrialnych, futurystycznych.
Istotny wpływ na brzmienie mają:
• dewiacja częstotliwości
• indeks modulacji
• stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały
łagodniejsze brzmienie od dysonansowych)
• odległość bezwzględna na skali częstotliwości
• zastosowanie szumu jako modulatora
• kształt obu przebiegów
• obecność obu, tylko jednego lub żadnego z sygnałów
• zastosowanie funkcji keyboard tracking.
5. INNE METODY SYNTEZY DŹWIĘKU
METODA REPRODUKCYJNA - SAMPLER
Sampler to urządzenie, które po naciśnięciu klawisza odtwarza nagrany wcześniej
dźwięk (próbkę – sample). Nagrany dźwięk może zostać poddany filtracji, nakłada się na
niego obwiednię ADSR, może także zostać na różne sposoby zapętlony. Piewszy sampler (z
dźwiękami organów) powstał w 1971 r. Następnie popularne były samplery sprzętowe
(hardware’owe) (często o wymiarach umożliwiających zamontowanie w rack’u), a obecnie
stosuje się najczęściej samplery programowe (software’owe).
Samplery zwykle są wykorzystywane do tworzenia wirtualnych odpowiedników
instrumentów akustycznych. W tym celu nagrywa się możliwie dużo pojedynczych dźwięków
danego instrumentu w kilku stopniach dynamicznych. Jeśli jest taka potrzeba, tworzy się
pętle (loop). Następnie w samplerze tworzy się mapę instrumentu – przyporządkowuje się
próbki do odpowiednich klawiszy ze względu na wysokość, a ze względu na dynamikę do
odpowiedniej warstwy velocity (velocity – szybkość uderzenia klawisza). Warstwy można
także tworzyć dla parametrów innych niż velocity. Dobrze przygotowany instrument powinien
mieć inną próbkę dla każdego dźwięku, oddzielne próbki dla różnej artykulacji i co najmniej 3
warstwy velocity.
Stosuje się także layering – odtwarzanie kilku warstw równocześnie (np. odtwarzanie
dwóch sąsiednich warstw velocity, gdy klawisz jest wciśnięty z szybkością bliską granicy
warstw – w ten sposób unika się ostrego przejścia między dwiema warstwami).
Samplery wyposażone są w generatory obwiedni, LFO, filtr oraz efekty, co umożliwia
kształtowanie dźwięku. Dzięki temu mogą znaleźć zastosowanie do tworzenia sound
design’u. Ponadto można stworzyć instrument składający się z efektów dźwiękowych (np.
kroków) , co ułatwia synchronizowanie efektów (można je „zagrać” na klawiaturze sterującej
synchronicznie z obrazem).
Pętle w samplerach mogą być dwojakiego rodzaju:
• pętle dźwiękowe
• pętle perkusyjne lub instrumentalne
Pętle dźwiękowe służą sztucznemu przedłużeniu czasu trwania dźwięku lub
zaoszczędzeniu pamięci. Zwykle pętle umieszczone są w środku próbki; próbka odtwarzana
jest od początku (niezapętlona faza narastania) do końca pętli, a następnie od początku pętli
do końca i tak w kółko przez całą fazę ustaloną (sustain). Puszczenie klawisza może
spowodować zagranie fragmentu próbki od końca pętli do końca próbki lub pozostanie w
pętli i nałożenie obwiedni (faza release).
Pętle perkusyjne lub instrumentalne to nagrane krótkie (1-4-taktowe) frazy
instrumentalne (np. groove perkusyjny lub 1-taktowy akompaniament gitary akustycznej),
które można wykorzystać przy tworzeniu aranżacji. Niektóre programy (np. Dr Rex Loop
Player) umożliwiają zmianę tempa odtwarzania bez zmiany wysokości i bez utraty jakości
dźwięku).
Ponadto możemy wyróżnić 3 typy pętli:
→ jednokierunkowa (pętla odtwarzania jest od początku do końca, zawsze w tym
samym kierunku: forward) – najczęściej używane dla pętli perkusyjnych. Początek i koniec
pętli powinny przypadać w miejscach przejść przez zero (zero crossing).
→ dwukierunkowa (pętla odtwarzana jest od początku do końca, a następnie od
tyłu, i tak w kółko: forward-backward) – takie pętle brzmią bardziej naturalnie i są najczęściej
używane. Punkty zapętlenia powinny znajdować się w maksimum amplitudy.
→ pętla z przenikaniem (crossfade) (pętla odtwarzana jest jak w pętli
jednokierunkowej, ale z przenikaniem).
Porównanie ważniejszych parametrów samplera hardware’owego Akai S5000 i
software’owego Unity DS-1:
Akai S5000 Studio:
- możliwość nagrywania do pamięci RAM lub na dysk;
- 64 lub 128 głosowa polifonia;
- 32 kanały MIDI;
- 2 porty we/wy/thru midi ;
- 2 porty SCSI;
- worldclock;
- opcjonalny interfejs adat;
- maksymalnie 256 MB RAM;
- 26 rodzajów filtrów;
- procesor efektów : reverb, echo/delay, distortion, EQ, ring modulation, chorus, phasing,
flanging, pitch shifting, rotary speaker emulation.
Unity DS-1 firmy BitHeadz:
- polifonia 128 głosów (po dwa stereofoniczne oscylatory na głos) i
- 128 kanałów MIDI.
- 128 próbek na każdą nutę wybieralnych przy pomocy velocity lub innych źródeł modulacji.
- dla każdej próbki definiowalne głośność, panorama, wystrojenie, obwiednia i wysyłka FX.
- możliwość mieszania różnych częstotliwości próbkowania.
- po dwa filtry na głos (13 różnych charakterystyk).
- efekty: EQ, Reverb, Delay, Chorus, Flanger, Overdrive i Distortion).
- sześciofazowa obwiednia dźwięku (delay, attack, decay, sustain, sustain decay, release).
- arpeggiator,
- 32 virtualne kanały audio. Unity DS-1 czyta próbki w formatach:
- czyta próbki w formatach: Sound Designer I/II, SoundFont 2.0, AIFF, CD-Audio, DLS,
WAVE , SampleCell II, oraz AKAI S1000 & S3000.
Mapa próbek, Sampler EXS 24 w programie LogicPro firmy Apple
METODA ODKSZTAŁCANIA (waveshaping)
Metoda odkształcenia polega na zmianie kształtu wygenerowanego wcześniej
przebiegu (np. sinusoidalnego w trójkątny). Realizowana jest poprzez zastosowanie
nielinearnych modyfikatorów dźwięku (np. wzmacniacz o nieliniowej charakterystyce), czyli
przemnożenie odkształcanego przebiegu przez odpowiednią funkcję matematyczną.
Przykładem takiego sposobu syntezy dźwięku są efekty typu distortion.
Metoda odkształcania jest przydatna do zniekształcania głosów czy dźwięków,
nadawania ostrości, krzykliwości barwom generowanym na syntezatorze, a także nadawania
brzmieniu charakteru analogowego poprzez saturację czy lekkie przesterowanie.
Metoda odkształcenia (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)
METODA MODELOWANIA FIZYCZNEGO (physical modeling)
Metoda modelowania fizycznego polega na matematycznej próbie odwzorowania
fizycznych właściwości instrumentów przy pomocy modelowania falowodowego. Odmianą tej
metody jest modelowanie komponentowe, polegające na matematycznym odwzorowaniu
poszczególnych części instrumentów muzycznych: incytatora, wibratora i radiatora. Metoda
ta ma ogromne możliwości kreacji brzmienia, nie tylko imitowania instrumentów
akustycznych. Ten rodzaj syntezy zastosowali twórcy wirtualnego syntezatora Sculpture
firmy Apple:
METODA RESYNTEZY - WOKODER
Wokoder to urządzenie, za pomocą którego możemy zmodulować jeden sygnał audio
(carrier – nośny) drugim sygnałem (modulator – modulujący). W odniesieniu do urządzeń
analogowych mówimy o wokoderze kanałowym, w odniesieniu do cyfrowych – o wokoderze
widmowym, wykorzystującym analizę FFT. Wokoder posiada 2 wejścia (dla sygnału nośnego
i modulującego). Sygnał modulatora jest analizowany w dziedzinie widmowej i następnie
jego charakterystyka częstotliwościowa w sposób dynamiczny (zmienny w czasie) jest
„aplikowana” do sygnału nośnego poprzez zestaw filtrów. Matematycznie mamy tu do
czynienia ze splotem widma zespolonego sygnału nośnego z widmem amplitudowym
sygnału modulującego. Istnieją także wokodery wykorzystujące do modulacji widmo fazowe
– wtedy obliczeniowo jest to splot widma zespolonego sygnału nośnego z widmem fazowym
sygnału modulującego.
Przy pomocy wokodera można uzyskać charakterystyczne, nietypowe efekty, takie
jak „śpiewający” czy „mówiący” syntezator.
Zasada działania wokoderów analogowych jest następująca: sygnał modulujący
trafiający do wokodera jest dzielony na dużą liczbę wąskich pasm (przy pomocy filtrów
pasmowoprzepustowych). Następnie amplituda sygnału wewnątrz każdego z tych pasm jest
śledzona. Sygnał nośny jest dzielony na identyczne pasma, i na amplitudę każdego z nich
nakładana jest obwiednia odpowiedniego pasma sygnału nośnego. Sygnałem modulującym
ten fragment pasma sygnału nośnego jest właśnie śledzona amplituda w odpowiednim
paśmie przefiltrowanego sygnału modulującego.
Zwiększając liczbę pasm, zbliżamy brzmienie sygnału nośnego do charakterystyki
częstotliwościowej sygnału modulującego (nie zawsze jest to pożądane ze względu na efekt
brzmieniowy).
Wokodery cyfrowe, w miejsce filtrów pasmowoprzepustowych, stosują szybką
transformatę Fouriera (FFT). W zależności od ustawienia może to odpowiadać 512 lub 1024
„tradycyjnym” filtrom.
Przykład wokodera wirtualnego BV512 firmy Propellerheads
6. TWORZENIE DŹWIĘKÓW
ZMIENNYCH W CZASIE
Słabością dźwięków generowanych syntetycznie jest ich statyczność i niewielkie
możliwości ekspresji w trakcie grania na syntezatorze. Istnieje jednak wiele narzędzi i
mechanizmów, których wykorzystanie pozwala uniknąć statyczności, ożywić brzmienie,
wprowadzić fluktuacje dźwięku, a także umożliwiających stosowanie wyrazistej artykulacji i
ekspresji w trakcie grania na syntezatorze. Umiejętne zastosowanie narzędzi do
kształtowania wewnętrznej struktury dźwięku pozwala tworzyć brzmienia, których wystarczy
wciśnięcie i przytrzymanie jednego klawisza dla wykreowania sound design’u.
LFO – Low Frequency Oscillator
Modulacja różnych parametrów syntezy jest podstawową metodą wprowadzania
fluktuacji dźwięku. Ponieważ powtarzająca się w stałych odcinkach czasowych modulacja
staje się męcząca i zdradza swą obecność, dobrze jest wprowadzić modulację co namniej 2
parametrów lub zmodulować okres modulacji.
LFO posiadają następujące parametry:
rate – częstotliwość (w Herzach, zwykle od 0,1 Hz do 20 Hz, lub podziałce rytmicznej
dostosowanej do tempa)
amount / intensity – zakres fluktuacji
waveform – wybór kształtu przebiegu (zwykle sinus, trójkąt, prostokąt, piła, przebieg
losowy)
delay time – opóźnienie rozpoczęcia modulacji
LFO polifoniczny – każdy głos (każdy dźwięk w akordzie) jest osobno
(niesynchronicznie) poddany modulacji
LFO monofoniczny – wszystkie głosy (wszystkie dźwięki w akordzie, niezależnie od
momuntu wciśnięcia danego klawisza podlegają wspólnej modulacji.
Key sync – funkcja, której włączenie powoduje, że każde naciśnięcie klawisza
powoduje rozpoczęcie okresu LFO od nowa.
oscylator
metoda subtrakcyjna
metoda tablicowa
metoda granulacyjna
modulacja fazy
modulacja częstotliwości
modulacja amplitudy
parametr podlegający modulacji
szerokość pulsu (PWM) – dla przebiegu
prostokątnego
stopień odstrojenia – w trybie detune
pozycja w tablicy fal
wysokość poszczególnych granulek
szybkość przejścia między kolejnymi
granulkami
punkt startu
wartość modulacji fazy
indeks modulacji
częstotliwość jednego z sygnałów
stopień modulacji
filtr
obwiednia
filtru, wzmacniacza, modulacji
waveshaper
wzmacniacz
efekty
chorus, flange, phaser, delay
częstotliwość
rezonans
attack
decay
sustain
release
wysterowanie (drive)
panorama
poziom
proporcje między oscylatorami
wszystkie parametry
obwiednia ADSR
Drugim narzędziem umożliwiającym wprowadzenie fluktuacji brzmienia jest
obwiednia. W odróżnieniu od LFO, umożliwia ona ukształtowanie fluktuacji poprzez regulację
czasu narastania, opadania, wartości parametru dla stanu ustalonego oraz zmiany
parametru po puszczenia klawisza. Najczęściej obwiednia może działać w pętli, dzięki
czemu uzyskuje się rodzaj LFO z możliwością kształtowania przebiegu przez użytkownika.
Działaniu obwiedni mogą poldegać te same parametry co w przypadku LFO.
dudnienia
Dudnienia występują, gdy nałożą się na siebie 2 tony proste o zbliżonej częstotliwości
(np. 60 i 64 Hz). Powstanie wówczas fala wypadkowa o częstotliwości pośredniej (62 Hz), o
amplitudzie zmieniającej się od 0 do sumy amplitud 2 fal składowych z częstotliwością równą
różnicy częstotliwości fal składowych (4 Hz).
Dudnienia są najwyraźniej słyszalne przy nakładaniu się 2 przebiegów sinusoidalnych
o niskich częstotliwościach, mogą być jednak zastosowane dla przebiegów o większej ilości
składowych i wdla wyższych częstotliwości. Wówczas mniej wyraźny jest efekt zmian
amplitudy, a powstaje odstrojenie typu detune, zbliżone do chorusa.
efekty modulacyjne
Skutecznym sposobem wprowadzenia zmienności wewnętrznej jest zastosowanie
efektów modulacyjnych. Ich parametry mogą podlegać zmianom sterowanym prez LFO lub
obwiednię. Dokładny opis działania poszczególnych efektów zostanie omówiony w kolenych
rozdziałach.
modulowanie brzmienia przy pomocy sterowników
Różne parametry syntezy mogą być modulowane przy pomocy klawiatury i
zewnętrznych sterowników (sterownikowi przypisywany jest numer odpowiedniego kontrolera
MIDI):
• velocity – typowym zastosowaniem jest wpływ szybkości naciśnięcia klawisza (velocity)
na częstotliwość odcięcia filtra LPF (duże velocity – wysoka częstotliwość, małe – niska,
analogicznie jak w instrumentach akustycznych w przypadku gry piano i forte)
• aftertouch – dociśnięcie wciśniętego klawisza
• sterowniki zewnętrzne: kontroler zadęcia (breathcontroler), pedał ekspresji,
pootencjometry, suwaki, czyniki ruchu (d-beam) itd.
7. EFEKTY MODULACYJNE
Porównanie zastosowań podstawowych efektów modulacyjnych:
chorus
flanger
phaser
modulator
kołowy
wzgobacenie brzmienia
poszerzenie bazy stereo
rozedrganie dźwięku
efekt rozstrojenia
wprowadzenie cyklicznego odstrajania dźwięku
→ do dźwięków o bogatym i ubogim widmie
wzbogacenie dźwięku
wprowadzenie delikatnego cyklicznego „przemiatania“ częstotliwości
wrażenie sztuczności dźwięku
→ do dźwięków o bogatym widmie
wprowadzenie silnego cyklicznego „przemiatania“ częstotliwości
zubożenie widma dźwięku
przy delikatnych ustawieniach „mechanizaca“ dźwięku
przy silnych ustawieniach zmiana widma dźwięku na nieharmoniczne –
całkowita zmiana charakteru dźwięku
dźwięki zbliżone do dzwonu, metaliczne, mechaniczne
→ do dowolnych dźwięków
CHORUS
Efekt chórowy - Chorus polega na opóźnieniu sygnału i dodaniu go do sygnału
oryginalnego. Opóźnienie sygnału jest zmienne (modulowane przez LFO), przez co
częstotliwość opóźnionego sygnału jest modulowana (płynne odstrajanie dźwięku).
Częstotliwość zmian opóźnienia (a co za tym idzie odstrojenia) jest regulowany przez
parametr rate. Typowe dla chorusa opóźnienia sygnału mieszczą się w granicach 10-35 ms,
dzięki czemu inaczej niż w przypadku flangera uzyskuje się efekt zwielokrotnienia i
delikatnego odstrojenia dźwięku. Do sygnału może zostać dodanych więcej sygnałów
zmodulowanych. Stereofoniczny efekt chorusa osiąga się poprzez wprowadzenie różnicy w
czasie opóźnienia lub fazie LFO pomiędzy lewym a prawym kanałem.
Typowe parametry:
- depth (głębokość) – zakres zmian opóźnienia, czyli amplituda LFO
- delay – opóźnienie (wartość środkowa opóźnienia
- rate - częstotliwość LFO
- voices – wybór ilości domiksowanych modulowanych głosów (od 2 nawet do 16)
- mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)
Chorus w programie Logic Pro (powyżej) i Adobe Audiotion (poniżej)
FLANGER
Efekt Flanger działa podobnie do chorusa. Polega on na dodaniu do sygnału
oryginalnego tego samego sygnału opóźnionego, przy czym opóźnienie jest zmienne,
sterowane przez LFO. Opóźnienia są jednak mniejsze niż w przypadku chorusa (zwykle 0-10
ms), przez co powstaje filtr grzebieniowy, płynnie poruszający się w górę i w dół widma
dźwięku („przemiatanie”). Ponadto flanger posiada pętlę sprzężenia zwrotnego (feedback),
powodującą pogłębienie efektu filtracji. Sygnał modulowany może być domiksowany w
przeciwfazie, ma wtedy bardziej radykalne działanie. Flanger brzmi najlepiej zastosowany do
dźwięków bogatych widmowo.
Typowe parametry:
- depth (głębokość) – zakres zmian opóźnienia, czyli amplituda LFO
- rate - częstotliwość LFO
- feedback – sprzężenie zwrotne
- invert – włączenie przeciwfazy sygnału modulowanego
- mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)
Flanger software’owy w programie LogicPro firmy Apple
Flanger gitarowy firmy Boss
PHASER
Efekt Phaser polega na dodaniu do sygnału oryginalnego tego samego sygnału
przesuniętego w fazie. Przesunięcie fazy jest modulowane przez LFO. Domiksowanie
sygnału przesuniętego w fazie powoduje powstanie szeregu ostrych wycięć (notch) w widmie
sygnału, zaś modulacja fazy sprawia, że wycięcia te płynnie przemieszczają się w widmie. W
zależności od rodzaju phasera (4-stage, 8-stage, 12-stage) zmienia się ilość wycięć
(odpowiednio 4,8,12). Czasem można regulować szerokość wycięcia (parametr wide) oraz
odległość między wycięciami (parametr split). Generalnie wycięcia mają charakter
nieharmoniczny, co różni phaser od flangera, w którym także powstaje szereg wycięć, jest to
jednak szereg harmoniczny. Phaser posiada zwykle pętlę sprzężenia zwrotnego,
wzmacniającą efekt. Stereofoniczność uzyskuje się poprzez wprowadzenie różnicy w fazie
pomiędzy lewym a prawym kanałem
Typowe parametry:
- depth (głębokość) – zakres zmian fazy, czyli amplituda LFO
- rate - częstotliwość LFO
- feedback – sprzężenie zwrotne
- przełącznik 4-, 8-, 12-stage (ilość wycięć)
- floor i ceiling – określenie dolnej i górnej częstotliwości działania phasera
- mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)
Phaser software’owy w programie LogicPro firmy Apple
Phaser gitarowy firmy Exar
RING MODULATOR (modulator kołowy)
Modulator kołowy bazuje na modulacji amplitudy (AM). Sygnał wyjściowy zostaje
poddany splotowi (konwolucji) z sygnałem modulatora (zwykle jest to prosty przebieg, np.
sinus lub piła). W dziedzinie widmowej wynikiem takiej operacji jest zbiór sum i różnic
wszystkich częstotliwości składowych obu sygnałów. W przypadku bardziej złożonych
sygnałów efektem splotu jest sygnał o widmie zawierającym bardzo dużo składowych
nieharmonicznych, co nadaje mu m.in. metaliczne brzmienie lub brzmienie zbliżone do
dzwonu. Sygnał wyjściowy może być pozbawiony obu sygnałów wejściowych. Częstotliwości
sygnału modulującego może być sterowana przez LFO.
Typowe parametry:
- frequency – częstotliwość sygnału modulującego
- kształt sygnału modulującego
- depth (głębokość)
- rate - częstotliwość LFO
- feedback
- mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)
Modulator kołowy w programie LogicPro firmy Apple
WIBRATO
Działanie efektu wibrato polega na poddaniu sygnału modulacji częstotliwości za
pomocą LFO, analogicznie do wibrata na skrzypcach.
Typowe parametry:
- rate – częstotliwość wibracji (LFO)
- depth – głębokość (zakres) odstrojenia
TREMOLO
Działanie efektu tremolo polega na poddaniu sygnału modulacji amplitudy za pomocą LFO o
niskiej częstotliwości (poniżej progu słyszalności). Efektem są cykliczne zmiany amplitudy
dźwięku.
Typowe parametry:
- rate – częstotliwość zmian amplitudy (LFO)
- depth – głębokość (zakres) zmian amplitudy
Tremolo w wersji software’owej w programie LogicPro firmy Apple
WAH-WAH (kaczka)
Efekt wah-wah (uaua) popularnie nazywany kaczką polega na płynnym (przy pomocy
kontrolera nożnego – pedału) przestrajaniu częstotliwości filtra pasmowoprzepustowego.
Efekt jest najczęściej stosowany przez gitarzystów, ale istnieją jego wirtualne emulacje.
Wah-wah zwykle nie posiada żadnych parametrów oprócz płynnej regulacji częstotliwości.
Auto wah-wah umożliwia wprowadzenie stałej częstotliwości przestrajania filtru (niepotrzebny
jest wtedy pedał).
AMP SIMULATION
Amp Simulation to emulacja wzmacniacza gitarowego lub basowego. Typowy
wzmacniacz posiada następujące sekcje:
przedwzmacniacz
korekcja barwy
→
przester
→
sekcja efektów
(delay, wah-wah,
chorus, tremolo)
→
pogłos
→
wzmacniacz
→
głośnik
→
Symulatory wzmacniaczy najczęściej oferują możliwość wyboru typu wzmacniacza (zwykle
jest to próba symulacji brzmienia konkretnego wzmacniacza, np. Fender Twin Reverb,
Marshall JCM, Vox AC30) oraz wielkości i ilości głośników (cabinet), która ma ogromny
wpływ na barwę (typowe wielkości: 8, 10, 12 cali). Zwykle istnieje także możliwość włączenia
w tor opóźnienia (delay), chorusa, wah-wah, tremolo, pogłosu. Wysycenie przesteru reguluje
gałka Gain; często można wybrać rodzaj kanału:
clean – czysty
crunch – lekkie przesterowanie
overdrive (lead) – silne przesterowanie
Użycie kanału przesterowanego to rodzaj metody odkształcenia (waveshaping).
Tor sygnału w symulatorze wzmacniacza Amplitube
PRZESUWNIK WIDMA
Transpozycja (przesunięcie) widma dźwięku różni się zasadniczo od transpozycji
wysokości. W tym drugim przypadku mamy do czynienia ze zmianą wysokości dźwięku przy
zachowaniu proporcji odległości jego składowych na osi częstotliwości. Dźwięk harmoniczny
ma wciąż charakter harmoniczny, choć jego barwa ulega większej lub mniejszej zmianie.
Transpozycja taka musi być bardzo duża, aby źródło dźwięku stało się nierozpoznawalne.
Przesunięcie widma polega na zmianie wysokości dźwięku przy zachowaniu
bezwzględnych odległości jego składowych na osi czasu, tak więc dźwięk o charakterze
harmonicznym staje się nieharmoniczny. Prowadzi to do znacznej zmiany barwy; źródło
dźwięku staje się nierozpoznawalne. Umożliwia to tworzenie dźwięków nowych, bogatych i
często zaskakujących. Przesunięcie widma realizowane jest przez jednowstęgową
modulację amplitudy.
Wielokrotne przesunięcie widma określa się jako iteracja. Ciekawe efekty daje
domiksowanie do dźwięku o przesuniętym widmie sygnału oryginalnego.
Porównanie transpozycji muzycznej i przesunięcia widma
8. MORFING DŹWIĘKU
Morfingiem dźwięku (sound morphing) nazywamy płynne przechodzenie pomiędzy
dwoma dźwiękami o różnej barwie, lub przeniesienie pewnych własności jednego dźwięku
na inny. W ten sposób można stworzyć barwy posiadające elementy różnych barw
wyjściowych (np. dźwięk posiadający atak kontrabasu a wybrzmienie fagotu, brzmienie
wiolonczeli posiadające obwiednię fortepianu, miauczenie kota niezauważenie
przekształcające się w dźwięk puzonu etc.).
Nie da się uzyskać takiego efektu na drodze sklejenia dwóch różnych dźwięków z
przenikaniem, bowiem mimo przenikania słyszalne będą 2 różne barwy. Aby uzyskać jedną,
wypadkową barwę dwóch barw źródłowych, należy w sposób płynny połączyć
odpowiadające sobie alikwoty dwóch dźwięków – dostroić je i wyrównać ich amplitudę.
Uzyskuje się to za pomocą resyntezy. Resynteza polega na analizie widmowej dźwięku w
celu wyodrębnienia jego składowych i ich zmian w czasie, a następnie odtworzenia
wszystkich składowych dźwięku na drodze syntezy addytywnej.
Poniższy rysunek przedstawia morfing dwóch sygnałów sinusoidalnych o zmiennej w
czasie częstotliwości i amplitudzie (czas na osi poziomej). Początkowo dźwięk wypadkowy
(morph) ma częstotliwość i amplitudę identyczną z dźwiękiem A, następnie parametry te
zmieniając się stopniowo, przyjmując wartości pośrednie między dźwiękiem A a dźwiękiem
B, aby na koniec przyjąć wartości identyczne z amplitudą i częstotliwością dźwięku B:
W przypadku morfingu dwóch dźwięków złożonych ich kolejne składowe łączone są w
pary i na każdej parze przeprowadza się operację jak na rysunku.
9. MIDI i SEKWENCER
MIDI - Musical Instrument Digital Interface - to system transmisji sygnałów
sterujących powstały w 1983 roku. Transmisja jest szeregowa, jej prędkość wynosi
31,25bit/s. Informacja składa się z bajtów, do których dodatkowo dołączone są bity startu i
stopu, umożliwiające odbiornikowi rozróżnienie początku i końca każdego z bajtów. Tak
utworzona grupa 10 bitów jest określana jako bajt.
Poprzez MIDI przesyłane są 2 typy informacji:
• bajt statusu, zawierający informację o numerze kanału oraz typie komunikatu MIDI
• bajt danych – długość słowa pozwala na zapis 128 wartości (np. „c” razkreślne ma
wartość 60)
Pojedyncze naciśnięcie klawisza na klawiaturze sterującej (Note On) wyzwala
następującą przykładową sekwencję bajtów:
Note On →
bajt statusu →
(nr kanału)
bajt danych
→
(wysokość dźwięku)
bajt danych
(szybkość wciśnięcia
klawisza – velocity)
Pojedynczy komunikat może zawierać więcej bajtów danych.
Sygnał MIDI przesyłany jest poprzez 5-pinowe złącze DIN. Urządzenia MIDI
posiadają 3 typy gniazd:
• MIDI IN (wejście)
• MIDI OUT (wyjście)
• MIDI THRU (na którym pojawia się sygnał taki sam jak na wejściu – umożliwia to
przesyłanie sygnału do dalszych urządzeń. Każde kolejne urządzenie wprowadza około
2 ms opóźnienia).
Maksymalna długość kabla wynosi 15 m (powyżej zakłócenia stają się zbyt duże,
chyba że zastosuje się wzmacniacz sygnału). Istnieją także urządzenia stanowiące rodzaj
krosownicy MIDI. Za pomocą sygnału MIDI można także synchronizować urządzenia w
studio (synchronizator MIDI/SMPTE).
Urządzeniem sterującym jest zazwyczaj klawiatura sterująca, istnieją jednak także
inne sterowniki, m.in.:
• instrumenty dęte (EWI),
• breathcontroller (kontroler zadęcia)
• pitch to MIDI converter umożliwiający konwersję sygnału audio na MIDI,
• gitary z przystawką MIDI (każda struna może wysyłać sygnał na oddzielnym kanale),
• pedały ekspresji oraz suwaki i potencjometry syntezatora,
• specjalne sterowniki MIDI.
Rodzaje komunikatów MIDI:
• Komunikaty kanałowe (Channel Messages)
- note on (wciśnięcie klawisza)
- note off (puszczenie klawisza)
- velocity (szybkość wciśnięcia klawisza)
- aftertouch (zmiana siły dociskania klawisza w trakcie trwania dźwięku)
- program change (zmiana barwy)
- control change (zmiana wartości danego kontrolera)
- pitch bend
- modulation
• Komunikaty głosowe (Voice Messages)
• Komunikaty trybu pracy (Mode Messages)
• Komunikaty systemowe (System Messages)
• Komunkaty wspólne (System Common Messages)
• Komunikaty synchronizacji systemu (Real-Time Messages)
• Komunikaty niestandardowe (System Exclusive)
Numery ważniejszych kontrolerów MIDI:
0
1
2
4
5
7
8
10
11
64
Bank Select
Modulation Wheel
Breath Controller
Foot Controller
Portamento Time
Channel Volume
Balance
Pan
Expression Controller
Sustain Pedal
General MIDI to podstawowy zestaw brzmień, wbudowany w większość urządzeń
obsługujących MIDI. Poszczególnym numerom (od 1 do 128) przyporządkowane są
określone barwy – mają one takie same nazwy w każdym urządzeniu, choć mogą różnic się
brzmieniowo.
Przyporządkowanie barw w standardzie General MIDI:
1–8
fortepiany
9 – 16
instr. perkusyjne sztabkowe, dzwony
17 – 24
organy, akordeon
25 – 32
gitary
33 – 40
basy
41 – 48
instr. smyczkowe
49 – 50
sekcje instr. smyczkowych, chóry
57 – 64
instr. dęte blaszane
65 – 80
instr. dęte drewniane
81 – 96
barwy syntetyczne
97 – 104
syntetyczne efekty dźwiękowe
105 – 119
instr. etniczne
120 – 128
efekty dźwiękowe
Spośród 16 kanałów General MIDI kanał 10 zawsze zawiera tylko instrumenty perkusyjne –
każde nucie przyporządkowany jest inny instrument (np. stopa, werbel, guiro).
SEKWENCER
Do pracy z MIDI służy sekwencer MIDI, obecnie mający najczęściej formę programu
komputerowego (dawniej w proste sekwencery wyposażone były syntezatory). Umożliwia on
tworzenie aranżacji poprzez nagrywanie i edycję komunikatów MIDI. Graficznie przypomina
edytor audio. Do podstawowych funkcji sekwencera należą:
• nagrywanie sygnału MIDI (tryb merge pozwala na dogrywanie, nadpisywanie nowych
partii bez kasowania starych, na jednej ścieżce)
• edycja nagranego materiału – możliwa jest zmiana dowolnego parametru każdego
dźwięku, np. wysokości, czasu trwania, położenia na osi czasu, moment wciśnięcia
pedału sustain itd.
• kwantyzacja (quantize), czyli wyrównanie nagranego materiału do ustalonej podziałki
czasowej (np. tak aby uzyskać równe szesnastki w przypadku nierównego zagrania
partii)
• aranżacja utworu (podział na części, stworzenie mapy temp – tempo może się płynnie
zmieniać)
• przyporządkowanie instrumentów (barw) do określonych śladów
• miks wielu śladów (wielu instrumentów MIDI), z użyciem wysyłek i insertów
• zapisywanie i edycja wszystkich pożądanych parametrów (kontrolerów MIDI)
• stworzenie pętli perkusyjnych przy pomocy automatów perkusyjnych lub pętli
dźwiękowych, zaprogramowanie sekwencji pętli za pomocą pattern’ów
• eksport całej aranżacji do pliku MIDI oraz import plików MIDI
• niektóre sekwencery umożliwiają zapisanie aranżacji w formie zapisu nutowego (np.
Logic)
W przypadku sekwencerów programowych, stanowiących część programu do edycji
audio (np. ProTools, Logic), a także samodzielnych sekwencerów (np. Reason) informacje
MIDI zapisywane są w pliku sesji, a nie w pliku MIDI (.mid). Można je wyeksportować, przy
czym poszczególnym instrumentom (ścieżkom) mogą zostać przyporządkowane różne
kanały lub wszystkie mogą zostać zapisane na jednym kanale.
Przykład prostej aranżacji piosenki w programie Reason firmy Propellerheads
10. BIBLIOGRAFIA
Liki WWW:
www.filmsound.org
www.gamesounddesign.com
www.hammersound.net
www.richmondsounddesign.com
www.socialsounddesign.com
www.designingsound.org
www.synthgear.com
www.cerlsoundgroup.org
www.eis.com.pl
www.sound.eti.pd.gda.pl
www.epicsound.com/sfx
www.apple.com/pl/logicstudio/logicpro
www.avid.com/US/resources/digi-orientation
www.iam-studios.nl
www.donniedarko.com
www.skysound.com
www.thesquarerootof-1.com
BIBLIOGRAFIA
David Sonnenschein, Sound Design – The Expressive Power of Music, Voice and Sound Effects
in Cinema, Michael Wiese Productions, Studio City CA 2000
Russ Haines, Cyfrowe przetwarzanie dźwięku, Wydawnictwo MIKOM, Warszawa 2002
Bruce Bartlett, Jenny Bartell, Practical Recording Techniques, Focal Press, Boston 2002
Włodzimierz Kotoński, Muzyka elektroniczna, Kraków 1989
Małgorzata Przedpełska-Bieniek, Dźwięk w filmie, Warszawa 2009
Joanna Napieralska, „Weiser“ – dramaturgiczna rola dźwięku, Warszawa 2006
Peter Kirn, Real world digital audio. Profesonalne techniki produkcji dźwięku, Gliwice 2007
Joseph Cancellaro, Exploring Sound Design for Interactive Media, Thomson Delmar Learning,
Nowy York 2006
Aaron Marks, The Complete Guide to Game Audio, CMP Media LLC, Lawrence, Kansas, 2001
11. PLAN ZAJĘĆ
SEMESTR I:
Zajęcia warsztatowe mające na celu opanowanie narzędzi do tworzenia sound design’u:
1) spotkanie wprowadzające, omówienie pojęcia sound design i przykłady filmowe
(zajęcia wspólne dla całego roku)
2) syntezatory 1 (zajęcia grupowe)
• obsługa syntezatora
• zastosowanie obwiedni ADSR
• tworzenie brzmień w oparciu o syntezę subtrakcyjną, modulację AM i FM.
• wprowadzanie fluktuacji parametrów dźwięku przy pomocy LFO
3) syntezatory 2 (zajęcia grupowe)
• tworzenie brzmień w oparciu o syntezę granulacyjną, tablicową, modulacji fazy
• zastosowanie metody odkształcenia (waveshaping)
• zastosowanie wokodera
• zastosowanie arpeggiatora
• zastosowanie pattern sequencer’a
4) syntezatory 3 (zajęcia grupowe)
• modelowanie fizyczne
• morfing dźwięku
• sampler
5) efekty modulacyjne, przetwarzanie dźwięku nagranego (zajęcia grupowe)
6) sekwencer MIDI, tworzenie aranżacji przy użyciu wirtualnych instrumentów (zajęcia
grupowe)
warunkiem uzyskania zaliczenia jest obecność na zajęciach oraz samodzielne
stworzenie sound design’u do krótkiej formy audiowizualnej (około 0’30’’ – 1’), wybranej
przez każdego studenta indywidualnie w konsultacji z prowadzącym, przy użyciu
poznanych narzędzi.
SEMESTR II:
Zajęcia praktyczne mające na celu twórcze wykorzystanie poznanych narzędzi w
konkretnych sytuacjach na przykładzie kilku krótkich form audiowizualnych:
1)
2)
3)
4)
5)
6)
Sound design do logo producenckiego (Eurofilm) (zajęcia grupowe)
Sound design w reklamie (reklama gry Wiedźmin) (zajęcia grupowe)
Sound design w filmie 1 (fragment wspólnie wybranego filmu) (zajęcia grupowe)
Sound design w filmie 2 (zajęcia grupowe)
Sound design w filmie 3 (zajęcia grupowe)
Prezentacja zadań domowych (zajęcia wspólne dla całego roku)
warunkiem uzyskania zaliczenia jest obecność na zajęciach oraz samodzielne
stworzenie sound design’u do fragmentu filmu (2-5 min.), wybranego przez każdego
studenta indywidualnie w konsultacji z prowadzącym, przy użyciu poznanych narzędzi.

Podobne dokumenty