Wstęp do informatyki
Transkrypt
Wstęp do informatyki
Wykład 1 Informacja i sposoby jej reprezentacji w pamięci komputera Zagadnienia szczegółowe: - natura informacji informacja vs dana ilość informacji, entropia, redundancja kod zwarty zapis liczb stało i zmiennopozycyjny zapis znaków: kodowanie ASCII, Unicode zapis obrazów: grafika rastrowa, grafika wektorowa podstawowe modele barw zapis dźwięków Informacja - W. Kopaliński „Słownik wyrazów obcych”: informacja – wiadomość, wieść, nowina, zawiadomienie, rzecz zakomunikowana, komunikat; pouczenie, powiadomienie, zakomunikowanie o czymś; dane; pokój, okienko, stanowisko, gdzie się udziela informacji;… łac. informatio – wyobrażenie, wizerunek, pomysł Informacją jest każdy czynnik zmniejszający niewiedzę jej odbiorcy. Informacją jest każdy czynnik, który może zostać wykorzystany do sprawniejszego i celowego działania człowieka lub urządzeń automatycznych. Wiadomość, komunikat: Prof. W.M. Turski „Propedeutyka informatyki”: Wiadomość może być przekazana tylko w postaci komunikatu (mówionego, pisanego, radiowego, zakodowanego…) Ten sam komunikat może przekazywać różne wiadomości dla różnych odbiorców. Tę samą wiadomość można przekazać przy pomocy różnych komunikatów. Ten sam komunikat może przekazywać temu samemu odbiorcy różne wiadomości, zależnie od źródła wiadomości. 1 Różne określenia informacji: N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści pochodzącą ze świata ze wnętrznego w miarę, jak do niego przystosujemy swoje zmysły...”. R. Aschby uważa, że „...informacja to przekazy wanie różnorodności”. W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..”. A. Mazurkiewicz „Informacją nazywamy wielkość abstrakcyjną, która może być przecho wywana w pe wnych obiektach, przesyłana między pewnymi obiektami, przetwarzana w pe wnych obiektach i stosowana do stero wania pe wnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.” W. Flakiewicz określa informację jako: „... czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczy wistości”. E. Niedzielska przytacza francuskie przysłowie, które głosi : „bez materii nie ma nic, bez energii wszystko jest nieruchome, bez informacji jest chaos”. Informacja vs dana: Informacja to obiekt abstrakcyjny, który w postaci zakodowanej (jako dana) może być przechowywany (na nośniku danych), przesyłany (np. głosem, falą elektromagnetyczną), przetwarzany (w wyniku operacji arytmetycznych lub logicznych wykonywanych np. w trakcie realizacji algorytmu) i może służyć do sterowania (np. komputera, którym steruje program będący zakodowaną informacją). Dana to formalna reprezentacja określonej treści (informac ji) nadająca się do przechowywania, przesyłania i przetwarzania (np. imię, nazwisko, wzrost, waga, data ur.) Abstrakcyjna informacja jest przekazywana za pomocą konkretnej danej (informacja jest wynikiem interpretacji danej). Sposoby przekazywania informacji: - dane liczbowe (różne formaty danych) - dane tekstowe (ciągi znaków) - obrazy (rysunki, schematy, mapy, fotografie czarno-białe lub kolorowe) - animacje - filmy i nagrania video - dźwięki Teoria informacji: Teoria informacji zajmuje się teoretycznymi aspektami informacji. Twórcą podstaw teorii informacji był Claude Shannon (1916-2001). Teoria informacji jest działem cybernetyki (dział nauki zajmujący się sterowaniem), 2 powstała w okresie II wojny światowej na skutek badań nad budową sieci łączności oraz nad urządzeniami i metodami kryptografii (do szyfrowania wiadomości). Ilość informacji: Komunikat (czyli odpowiednio zakodowane i przedstawione dane), którego prawdopodobieństwo wystąpienia wynosi p, zawiera 1 k log 2 p jednostek ilości informacji zwanych bitami. Dany komunikat zawiera tym więcej informacji, im mniejsze jest prawdopodobieństwo wystąpienia sytuacji w nim opisanej. Zauważmy, że gdy źródło nadaje tylko jeden komunikat, którego prawdopodobieństwo wynosi 1, to niesie on 0 bitów informacji. Bity i bajty: Gdy prawdopodobieństwo wystąpienia komunikatu wynosi 1/2 (np. wynik rzutu monetą), to niesie on 1 bit informacji. Stąd też umownie pozycję, na której z równym prawdopodobieństwem (wynoszącym 1/2) może wystąpić 0 lub 1 nazywa się bitem. Bit jest również jednostką pojemności pamięci komputerów. 8 bitów = 1 bajt (B) odpowiada jednemu znakowi (wg ASCII). 1024 B = 1 KB (kilobajt) 1024 KB = (1024)2 B = 1 048 576 B = 1 MB (1 megebajt) 3 1024 MB = (1024) B = 1 073 741 824 B = 1 GB (1 gigabajt) 1024 GB = (1024)4 B = 1 099 511 627 776 B = 1 TB (1 terabajt). Entropia informacyjna źródła: Jeśli źródło nadaje n różnych komunikatów z prawdopodobieństwami pi (i=1,..., n), to średnia ważona ilość informacji w komunikatach z tego źródła wyrażana wzorem: n 1 H pi log 2 i 1 pi nosi nazwę entropii informacyjnej źródła informacji. Zauważmy, że: H > 0 (H=0, gdy p=1) H < log2n (H= log2n, gdy pi =1/n (i=1,..., n)) Redundancja: Jeśli komunikatom, które występują z prawdopodobieństwami pi (i=1,..., n), przypisano słowa kodowe o długościach N i (i=1,..,n), to wielkość: 3 n L pi N i i 1 nazywamy średnią długością słowa kodowego. Różnicę R = L - H nazywamy redundancją kodu (nadmiarowością), a wielkość 1H/L nazywamy względną redundancją kodu. Twierdzenie Shannona: Przy każdym sposobie kodowania zachodzi nierówność H < L. Zatem R > 0. Kod zwarty: Dla każdego zbioru komunikatów można zbudować różne kody. Szczególne znaczenie mają kody: - jednoznaczny - zwarty - o równej długości słów kodowych. Kod jednoznaczny to kod, w którym żaden ciąg kodowy nie jest początkiem innego ciągu. Kod zwarty to kod jednoznaczny, o minimalnej redundancji. Algorytm Huffmana: Konstrukcja kodu zwartego dla zbioru komunikatów k 1, k2, ...,kn nadawanych z prawdopodobieństwami odpowiednio p 1, p2, ...,pn: 1. Jeśli n>2, to wybieramy dwa najmniej prawdopodobne komunikaty k i i k j i tworzymy z nich nowy komunikat ”k i lub k j” o prawdopodobieństwie wystąpienia pi+p j. Czynność tę powtarzamy dla nowo powstałego zbioru n-1 komunikatów, potem dla n-2 komunikatów itd. 2. Jeśli n=2, to kodem zwartym jest kod k1 – 0 k2 – 1 lub k1 – 1 k2 – 0 (wybór dowolny). 3. Jeśli komunikat k o kodzie = 1 2... m ma postać k=”kp lub kr” (tzn. powstał z połączenia dwóch mniej prawdopodobnych komunikatów), to kody dla k p i kr tworzymy dopisując 0 lub 1 na końcu . Otrzymujemy kp - 1 2... m0 kr - 1 2... m1 lub kp - 1 2... m1 kr - 1 2... m0 (wybór dowolny). Postępowanie to kontynuujemy aż do uzyskania kodów dla wszystkich komunikatów. Systemy pozycyjne: W matematyce liczby zapisywane są w systemie pozycyjnym, tzn. ciąg znaków anan-1…a1a0.a-1a-2…a-m jest zapisem liczby n a q i m i i gdzie q jest podstawą systemu, a i=0,1,...,q-1 (i=-m, -m+1, …, 0, 1, …, n) są cyframi. System nazywa się pozycyjnym, ponieważ wartość (waga) każdej cyfry a i zależy od 4 miejsca, czyli pozycji w ciągu a nan-1…a1a0.a-1a-2…a-m. Gdy q=10, mówimy o systemie dziesiętnym. Gdy q=2, ai=0 lub 1, mamy system binarny. Gdy q=16, mamy system szesnastkowy (heksadecymalny) (na końcu liczby piszemy h lub H). Gdy q=8, mamy system ósemkowy (liczbę poprzedza 0x). Cyfry Postać Cyfry Postać binarna szesnastkowe 0 binarna 0000 ósemkowe 0 000 1 0001 1 001 2 3 0010 0011 2 3 010 011 4 0100 4 100 5 6 0101 0110 5 6 101 110 7 0111 7 111 8 9 1000 1001 A 1010 B 1011 C 1100 D 1101 E 1110 F 1111 Zapis liczb w pamięci komputera: Komputer przechowuje informacje jako ciągi bitów stałej długości, zwanych słowami maszynowymi (8, 16, 32, 64 bity). Podstawową adresowalną jednostką pamięci jest ośmiobitowe słowo zwane bajtem. Aby zapamiętać liczbę można znaleźć i zapamiętać jej rozwinięcie dwójkowe. Pojawiają się jednak pytania: Jak pamiętać znak liczby i kropkę dziesiętną? Jak duże liczby można zapamiętać? Czy liczby pamiętane są dokładnie wobec nieskończonych zwykle rozwinięć dwójkowych? Aby rozwiązać te problemy (a przy okazji inne problemy arytmetyczne związane z wykonywaniem działań na liczbach) stosuje się kodowanie oraz pewne konwencje. 5 Zapis stałopozycyjny: 0 0 0 0 1 0 1 0 1 1 1 0 1 0 1 1 bit znaku stosowany dla liczb całkowitych (pierwszy bit przeznaczony jest na zapis znaku liczby: 0 oznacza +,1 oznacza -), nie można zapisać liczb odpowiednio dużych (nadmiar stałopozycyjny – niekontrolowany), w tym przedstawieniu na n bitach można reprezentować tylko liczby całkowite z n-1 n-1 przedziału <-2 , 2 -1>, np. (-2147483648, 2147483647) n-1 maksymalna liczba dodatnia to 2 -1, przedstawienie liczb jest dokładne Zapis zmiennopozycyjny: 0 1 0 0 1 0 1 0 1 1 1 0 0 1 1 1 bit znaku cecha mantysa liczby w przedstawieniu zmiennopozycyjnym mają postać x = m*2c gdzie: m – mantysa, stałopozycyjny ułamek właściwy, zwykle w tzw. postaci znormalizowanej, tj. ½<|m|<1 (0.1<|m|<1) (pierwszy bit po kropce jest jedynką), c – cecha, liczba całkowita stałopozycyjna Może wystąpić nadmiar zmiennopozycyjny. To przedstawienie liczb nie jest dokładne, dokładność zależy od liczby bitów mantysy (i cechy). 0 1 0 0 1 0 1 0 1 1 1 0 0 1 1 1 Przykładowo, zapisana tu liczba to: x = 0.10010101110 * 2 7 Zauważmy, że inne liczby zapamiętane są tak samo, np.: x1 = 0.10010101110|0101 * 2 7 x2 = 0.10010101101|1101 * 2 7 x3 = 0.10010101110|000011111 * 2 7 itd. Liczby, które mają przedstawienie x=0.10010101110*27 mogą być wybrane z przedziału: (x – 2-12*27, x + 2-12*27) = (x – 2-5, x + 2-5). Gdy mantysa ma t cyfr (tutaj t=11), to błąd bezwzględny zapisu w pamięci (reprezentacji) rd(x) liczby x określa nierówność |rd(x)-x| < ½*2-t*2c , 6 a błąd względny można oszacować następująco: rd ( x) x 2t rd ( x) x(1 ), 2t x Wnioski: Działania wykonywane na liczbach stałopozycyjnych (całkowitych) dają wynik dokładny (o ile nie przekroczy się zakresu), natomiast działania wykonywane na liczbach zmiennopozycyjnych dają wynik niedokładny (obarczony błędem reprezentacji argumentów tych działań w pamięci komputera). a+b daje wynik rd(a)+rd(b)=a*(1+ε1)+b*(1+ε2)=a+b+a*ε1+b*ε2 Można przeznaczyć więcej bitów na zapis mantysy, co zwiększy ilość cyfr rozwinięcia (dokładność). Jest to tzw. podwójna precyzja. Nie zmienia to jednak faktu, że i tak przedstawienie jest niedokładne. Zapis znaków w pamięci komputera: Najbardziej rozpowszechnionym sposobem kodowania znaków jest kod ASCII (American Standard Code for Information Interchange – amerykański kod standardowy do wymiany informacji). Jest to 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom (alfabetu angielskiego), cyfrom, wybranym znakom oraz poleceniom sterującym. Litery, cyfry oraz inne znaki drukowane tworzą zbiór znaków ASCII. Jest to 95 znaków o kodach 32-126. Pozostałe 33 kody (0-31 i 127) to tzw. kody sterujące służące do sterowania urządzeniem odbierającym komunikat, np. drukarką lub terminalem. Strony kodowe: Ponieważ kod ASCII jest 7-bitowy, dodatkowy bit można wykorzystać na powiększenie zbioru kodowanych znaków. Powstało wiele różnych rozszerzeń ASCII wykorzystujących ósmy bit, nazywanych stronami kodowymi. Jedną z pierwszych norm wprowadzających możliwości kodowania znaków narodowych była norma ISO 646 (1965 r). Najbardziej znane strony kodowe to: CP437 - 8-bitowe kodowanie stosowane w systemach operacyjnych DOS CP852 - 8-bitowe kodowanie stosowane w systemach operacyjnych DOS, w zamyśle dla znaków języków krajów Europy Wschodniej Windows-1250 (CP-1250) - strona kodowa używana przez system MS Windows do reprezentacji znaków w językach środkowoeuropejskich 7 ISO 8859-1 (ISO/IEC 8859-1, Latin-1), standard kodowania znaków języków „zachodnioeuropejskich”. ISO 8859-2 (ISO/IEC 8859-2, Latin-2), standard kodowania znaków języków „środkowo” i „wschodnioeuropejskich”, w tym języka polskiego. Mazovia – 8-bitowe kodowanie znaków przeznaczone do stosowania w systemach operacyjnych MS-DOS i kompatybilnych. Powstało na potrzeby projektowanego polskiego komputera Mazovia klasy IBM PC. Było pierwszym rozpowszechnionym kodowaniem używanym dla języka polskiego na komputerach domowych. Unicode: Unicode to zestaw znaków mający w zamierzeniu obejmować wszystkie pisma (alfabety znaków) używane na świecie. Definiują go dwa standardy: Unicode oraz ISO 10646. Znaki obu standardów są identyczne. Standard Unicode obejmuje przydział przestrzeni numeracyjnej dla poszczególnych grup znaków. Kody pierwszych 256 znaków Unicode pokrywają się z kodami ISO Latin-1 (ISO 8859-1). Systemy kodowania znaków Unicode: UTF-8 (Unicode Transformation Format) - jeden znak zajmuje jeden, dwa lub trzy bajty. Większość zastosowań w Internecie (poczta elektroniczna, HTML) wymaga deklarowania kodowania UTF-8 UTF-16 - jeden znak zajmuje dwa bajty (zakres wartości 0000-FFFF) ISO 10646 (UTF-32/UCS-4) - jeden znak zajmuje cztery bajty (zakres wartości od 0 do 7FFFFFFF) Zapis obrazów: Formy obrazów: odbitki fotograficzne, przeźrocza, obrazy malarskie, odręczne rysunki, grafiki, mapy, schematy (np. techniczne), ilustracje itp. Obrazy mogą być czarno-białe, z odcieniami szarości, kolorowe. Mogą być bardzo złożone (np. fotografie), zawierać zamknięte kontury wypełnione jednym kolorem i być bardzo proste (zaledwie kilka kresek). Cechą charakterystyczną obrazów analogowych jest występowanie wielu kolorów oraz tonalność, czyli występowanie tego samego koloru w różnych nasyceniach i jasnościach. Światło widzialne leży w zakresie fal o długości od 380 nm do 780 nm. Czułość oka w zakresach 380 – 400 nm i 700 – 780 nm jest bardzo mała. Obrazy cyfrowe: Istnieją dwa podstawowe sposoby przedstawiania obrazów cyfrowych: - obrazy rastrowe (bitmapowe, mapy bitowe) - obrazy wektorowe (grafika wektorowa) Istotą obrazu rastrowego jest przedstawienie go za pomocą zwykle prostokątnych obszarów wypełnionych monobarwnymi punktami (małymi kwadratami), zwanymi pikselami. Istotą obrazu wektorowego jest zapamiętanie matematycznego opisu obrazu jako 8 zestawu obiektów (punktów, linii prostych, krzywych, figur geometrycznych itd.), które mają określone cechy (np. grubość, kolor) i ich wzajemnego położenia. Źródła obrazów cyfrowych: - oprogramowanie do tworzenia (rysowania, malowania, edycji), obrazów, zarówno obrazów rastrowych, jak i wektorowych - przetworzenie obrazu analogowego lub jego utworzenie w urządzeniu cyfrowej rejestracji obrazu takim, jak skaner, cyfrowy aparat fotograficzny lub cyfrowa kamera wideo, w tym przypadku zwykle powstaje obraz rastrowy - konwersja obrazów rastrowych na wektorowe lub odwrotnie dokonywana za pomocą specjalnego oprogramowania. Obrazy rastrowe: Przekształcenie obrazu analogowego do postaci cyfrowego obrazu rastrowego odbywa się w dwóch etapach: - etap dyskretyzacji - etap kwantyzacji Dyskretyzacja: Podział analogowego obrazu wejściowego na piksele następuje za pomocą prostokątnej siatki dyskretyzującej (tzw. rastra). Ważny jest tzw. aspekt piksela – stosunek jego szerokości do wysokości (bliski lub równy 1). Rozdzielczość (jednostka to ppi – pixels per inch) to liczba pikseli przypadająca na jednostkę długości obrazu cyfrowego. Im większa rozdzielczość, tym lepiej są odwzorowane szczegóły oryginału. Wymiary obrazu określamy w pikselach biorąc pod uwagę jego wysokość i szerokość oraz rozdzielczość. rozmiar[ p] 25.4[mm] rozmiar[mm] rozdzielcz osc[ ppi ] rozmiar[mm] rozdzielcz osc[ ppi ] rozmiar[ p] 25.4[mm] rozmiar[ p] 25.4[mm] rozdzielczosc[ ppi ] rozmiar[mm] Kwantyzacja, głębia bitowa: Kwantyzacja to proces polegający na przypisaniu wartości analogowej najbliższego poziomu reprezentacji, któremu w procesie kodowania przypisywana jest określona liczba. Głębia bitowa (jednostka to bpp – bits per pixel) to ilość bitów przeznaczonych na opis jednego piksela. Obrazy czarno-białe: Zakres odcieni od czerni do bieli dzielimy na ustaloną liczbę przedziałów odpowiadających odcieniom szarości i każdemu przypisujemy kod binarny: głębia 8-bitowa: czerń – 00000000, biel – 11111111, łącznie 256 odcieni głębia 4-bitowa: czerń – 0000, biel – 1111, łącznie 16 odcieni głębia 1-bitowa: czerń – 0, biel – 1 9 Obrazy barwne: Osobno kwantujemy przedziały wartości dla poszczególnych cech opisujących kolor piksela (wg przyjętego modelu kolorów). Przykładowo, gdy barwę piksela opisują trzy podstawowe składowe kolory: czerwony (R), zielony (G) i niebieski (B), a przedziały wartości opisujących ich intensywności podzielimy każdy na 256 części (zapis każdej składowej zajmie 8 bitów), to otrzymamy 2563=16777216 kolorów (głębia 24-bitowa, nazywana true color). Paleta barw: Każdemu pikselowi przypisujemy numer (indeks) koloru z tablicy zestawu ustalonych kolorów (tzw. paleta barw): - głębia 8-bitowa to 28=256 kolorów - głębia 4-bitowa to 24=16 kolorów - głębia 1-bitowa to 21=2 kolory Model RGB: Model addytywny: podstawowy model barw – dowolną barwę można uzyskać w wyniku zmieszania trzech barw podstawowych (Red, Green, Blue), każda składowa koloru zajmuje 1 bajt. Model HSV: Model HSV nawiązuje do sposobu, w jakim widzi oko, gdzie wszystkie barwy postrzegane są jako światło pochodzące z oświetlenia. Według tego modelu wszelkie barwy wywodzą się ze światła białego – część widma zostaje wchłonięta, a część odbita od oświetlanych przedmiotów. Kolor piksela określają trzy składowe: Hue – odcień barwy (barwa), Saturation – nasycenie barwy Value – wartość Znane są procedury konwersji RGB na HSV i odwrotnie. Modele HSB i HSL: Modele pokrewne do HSV: HSB: Hue – barwa (od 00 do 3600) Saturation – nasycenie barwy (od 0% do 100%) Brightness – jaskrawość (poziom światła białego) (od 0% do 100%) Bryła reprezentująca zbiór barw ma kształt podwójnego stożka (ostrosłupa sześciokątnego) o wspólnej podstawie. HSL: H, S jak wyżej Lightness – jasność (średni poziom światła białego). Modele HSV, HSB, HSL stanowią pewne przybliżenie rzeczywistości, jednak nie zawsze zgodne z odczuciami psychofizycznymi. 10 Model CMY: Model subtraktywny: podstawowe barwy to Cyan, Magenta i Yellow, każda składowa koloru zajmuje 1 bajt. [C, M, Y] = [1, 1, 1] – [R, G, B] Model CMYK: Model powszechnie używany do drukowania. Model CMY dawał za słaby kontrast, kolor czarny ma brunatnoszary odcień. Kolor czarny (blacK) został wyodrębniony: C = C – GRC M = M – GRC Y = Y – GRC K = GRC GRC = k*GC, k є <0, 1>, GC = min(C, M, Y) Współczynnik k dobierany jest doświadczalnie. Luminancja i chrominancja: Światło możemy scharakteryzować określając cechę ilościową – jasność luminancję i dwie cechy jakościowe określające barwę - chrominancję. Oko rozróżnia od 5000 do 10000 odcieni barw i około 250 odcieni szarości. Pręciki w oku rozróżniają czarno-białe kontury obrazu, czopki rozpoznają barwę. Liczba pręcików jest 20-krotnie większa niż czopków. Stąd ilość informacji o barwach (chrominancję) można zredukować. Modele YUV i YIQ: Model YUV (YC bC r ) (telewizja, PAL): Y = 0.299*R + 0.587*G + 0.114*B U = 0.493*(B – Y) lub Cb = 0.654*(R – Y) V = 0.877*(R – Y) lub Cr = 0.713*(B – Y) Wartość Y (luminancja) pamiętana jest na 8 bitac h, wartości chrominancji (U, V) każda na 4 bitach (łącznie 2 bajty), tzw. model 4 : 2 : 2 Model YIQ (telewizja, NTSC): Y = 0.299*R + 0.587*G + 0.114*B I = 0.74*(R – Y) – 0.27*(B – Y) Q = 0.48*(R – Y) + 0.41*(B – Y) Wartość Y (luminancja) pamiętana jest na 8 bitach, wartości chrominancji (I, Q) każda na 4 bitach (łącznie 2 bajty), tzw. model 4 : 2 : 2 Obrazy wektorowe: Obiekty tworzące obraz (rysunek) wektorowy zbudowane są z krzywych Beziera, składających się z połączonych ze sobą krzywoliniowych elementów wektorowych. Krzywoliniowy element wektorowy jest zbudowany z dwóch punktów, tzw. węzłów i rozpiętej między nimi krzywej gładkiej. Kształt krzywej można modyfikować za pomocą tzw. kierownicy (stycznej do krzywej w węźle). 11 Krzywe Beziera zapisane są w postaci formuł matematycznych (funkcji tworzących te krzywe), dzięki czemu nawet złożone obrazy wektorowe zajmują bardzo mało miejsca. Matematyczny opis kształtów pozwala na dowolne skalowanie obrazu bez zmiany rozdzielczości rysunku i to zarówno z zachowa niem, jak i bez zachowania proporcji (nie wystąpi efekt powiększania pikseli). Zapis dźwięków: Natura dźwięku (podobnie jak obrazu) jest analogowa. Dźwięki słyszymy wtedy, gdy drgania powietrza docierają do naszego ucha. Głośność odbieranego dźwięku wynika z amplitudy, czyli z intensywności tych drgań. Wysokość dźwięku zależy od częstotliwości drgań wyrażanej w hercach (Hz). Ucho ludzkie rejestruje dźwięki w zakresie częstotliwości od 20 Hz do 20000 Hz. Proces digitalizacji i kodowania dźwięku charakteryzują dwie podstawowe wielkości: częstotliwość próbkowania i rozdzielczość bitowa. Próbkowanie: Próbkowanie to przetworzenie analogowego sygnału dźwiękowego na sygnał cyfrowy, czyli na serię liczb opisujących chwilowe wartości sygnału. Pojedynczą liczbę reprezentującą chwilową wartość sygnału dźwiękowego nazywamy próbką (sample). Częstotliwość próbkowania (wyrażana w Hz) określa liczbę próbek sygnału pobieranych w ciągu jednej sekundy. Zgodnie z zasadą Harrego Nyquista i Clauda Shannona „częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości dźwięku poddanego próbkowaniu”. Możliwa jest rejestracja dźwięku albo stereofonicznie (dwa kanały) albo monofonicznie (jeden kanał). Zaawansowane technologie mogą rejestrować dźwięki wielokanałowo. Częstotliwość próbkowania a jakość dźwięku: Im niższa częstotliwość próbkowania, tym bardziej dźwięk cyfrowy odbiega od pierwotnego dźwięku analogowego, tym także mniejsza objętość danych 48 kHz – jakość studyjna, muzyka zapisywana w studio nagrań 44.1 kHz – jakość płyt CD-Audio, duża wierność dźwięku 32 kHz – jakość zbliżona do CD, kamery cyfrowe wysokiej jakości 22.05 kHz – jakość radiowa (UKF), krótkie klipy muzyczne 11.025 kHz – akceptowana dla muzyki, wysokiej jakości mowa 5 kHz – jakość telefoniczna, akceptowana dla głosu lektora 12 Wybrane technologie oferują parametry próbkowania znacznie lepsze, niż te dla nagrań jakości CD-Audio, np. DVD-Audio: częstotliwość próbkowania 48 kHz, 96 kHz i 192 kHz. Rozdzielczość bitowa: Rozdzielczość bitowa określa liczbę bitów opisujących każdą próbkę dźwięku. Dźwięk 8-bitowy zawiera 28 = 256 różnych poziomów wartości, dźwięk 16-bitowy zawiera 216 = 65536 różnych poziomów wartości (jest bogatszy i czystszy). 16 bitów - jakość płyt CD-Audio, duża wierność dźwięku 12 bitów - jakość zbliżona do CD, kamery cyfrowe wysokiej jakości 8 bitów - jakość radiowa (UKF), krótkie klipy muzyczne 4 bity - akceptowana dla muzyki, mowa Wybrane technologie oferują rozdzielczości bitowe rzędu 24 bity i więcej. Dźwięki MIDI: Zapis utworu muzycznego składa się z instrukcji informujących, jak dany utwór ma zagrać syntezator. Nie są to próbki dźwięków, ale komunikaty, np. wyłącz nutę (numer nuty, głośność), włącz nutę (numer nuty, głośność), wybór barwy (numer instrume ntu) itp. Zapis zajmuje mało miejsca (około 30 kB dla 2 minut muzyki). Uwaga! - syntezatory dopuszczają jedynie odtwarzanie muzyki i wybranych efektów dźwiękowych, nie można zatem rejestrować i odtwarzać mowy. 13