Wstęp do informatyki

Transkrypt

Wstęp do informatyki
Wykład 1
Informacja i sposoby jej
reprezentacji w pamięci komputera
Zagadnienia szczegółowe:
-
natura informacji
informacja vs dana
ilość informacji, entropia, redundancja
kod zwarty
zapis liczb stało i zmiennopozycyjny
zapis znaków: kodowanie ASCII, Unicode
zapis obrazów: grafika rastrowa, grafika wektorowa
podstawowe modele barw
zapis dźwięków
Informacja - W. Kopaliński „Słownik wyrazów obcych”:
informacja – wiadomość, wieść, nowina, zawiadomienie, rzecz zakomunikowana,
komunikat;
pouczenie, powiadomienie, zakomunikowanie o czymś;
dane;
pokój, okienko, stanowisko, gdzie się udziela informacji;…
łac. informatio – wyobrażenie, wizerunek, pomysł
Informacją jest każdy czynnik zmniejszający niewiedzę jej odbiorcy.
Informacją jest każdy czynnik, który może zostać wykorzystany do sprawniejszego i
celowego działania człowieka lub urządzeń automatycznych.
Wiadomość, komunikat:
Prof. W.M. Turski „Propedeutyka informatyki”:
Wiadomość może być przekazana tylko w postaci komunikatu (mówionego,
pisanego, radiowego, zakodowanego…)
Ten sam komunikat może przekazywać różne wiadomości dla różnych odbiorców.
Tę samą wiadomość można przekazać przy pomocy różnych komunikatów.
Ten sam komunikat może przekazywać temu samemu odbiorcy różne wiadomości,
zależnie od źródła wiadomości.
1
Różne określenia informacji:
N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby
nazwą treści pochodzącą ze świata ze wnętrznego w miarę, jak do niego
przystosujemy swoje zmysły...”.
R. Aschby uważa, że „...informacja to przekazy wanie różnorodności”.
W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach
dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub
przyrodę..”.
A. Mazurkiewicz „Informacją nazywamy wielkość abstrakcyjną, która może być
przecho wywana w pe wnych obiektach, przesyłana między pewnymi obiektami,
przetwarzana w pe wnych obiektach i stosowana do stero wania pe wnymi obiektami,
przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz
systemy takich obiektów.”
W. Flakiewicz określa informację jako: „... czynnik, który zwiększa naszą wiedzę o
otaczającej nas rzeczy wistości”.
E. Niedzielska przytacza francuskie przysłowie, które głosi : „bez materii nie ma nic,
bez energii wszystko jest nieruchome, bez informacji jest chaos”.
Informacja vs dana:
Informacja to obiekt abstrakcyjny, który w postaci zakodowanej (jako dana) może
być przechowywany (na nośniku danych), przesyłany (np. głosem, falą
elektromagnetyczną), przetwarzany (w wyniku operacji arytmetycznych lub
logicznych wykonywanych np. w trakcie realizacji algorytmu) i może służyć do
sterowania (np. komputera, którym steruje program będący zakodowaną
informacją).
Dana to formalna reprezentacja określonej treści (informac ji) nadająca się do
przechowywania, przesyłania i przetwarzania (np. imię, nazwisko, wzrost, waga, data
ur.)
Abstrakcyjna informacja jest przekazywana za pomocą konkretnej danej (informacja
jest wynikiem interpretacji danej).
Sposoby przekazywania informacji:
- dane liczbowe (różne formaty danych)
- dane tekstowe (ciągi znaków)
- obrazy (rysunki, schematy, mapy, fotografie czarno-białe lub kolorowe)
- animacje
- filmy i nagrania video
- dźwięki
Teoria informacji:
Teoria informacji zajmuje się teoretycznymi aspektami informacji.
Twórcą podstaw teorii informacji był Claude Shannon (1916-2001).
Teoria informacji jest działem cybernetyki (dział nauki zajmujący się sterowaniem),
2
powstała w okresie II wojny światowej na skutek badań nad budową sieci łączności
oraz nad urządzeniami i metodami kryptografii (do szyfrowania wiadomości).
Ilość informacji:
Komunikat (czyli odpowiednio zakodowane i przedstawione dane), którego
prawdopodobieństwo wystąpienia wynosi p, zawiera
1
k  log 2  
 p
jednostek ilości informacji zwanych bitami.
Dany komunikat zawiera tym więcej informacji, im mniejsze jest prawdopodobieństwo
wystąpienia sytuacji w nim opisanej.
Zauważmy, że gdy źródło nadaje tylko jeden komunikat, którego
prawdopodobieństwo wynosi 1, to niesie on 0 bitów informacji.
Bity i bajty:
Gdy prawdopodobieństwo wystąpienia komunikatu wynosi 1/2 (np. wynik rzutu
monetą), to niesie on 1 bit informacji. Stąd też umownie pozycję, na której z równym
prawdopodobieństwem (wynoszącym 1/2) może wystąpić 0 lub 1 nazywa się bitem.
Bit jest również jednostką pojemności pamięci komputerów.
8 bitów = 1 bajt (B) odpowiada jednemu znakowi (wg ASCII).
1024 B = 1 KB (kilobajt)
1024 KB = (1024)2 B =
1 048 576 B = 1 MB (1 megebajt)
3
1024 MB = (1024) B =
1 073 741 824 B = 1 GB (1 gigabajt)
1024 GB = (1024)4 B = 1 099 511 627 776 B = 1 TB (1 terabajt).
Entropia informacyjna źródła:
Jeśli źródło nadaje n różnych komunikatów z prawdopodobieństwami pi (i=1,..., n), to
średnia ważona ilość informacji w komunikatach z tego źródła wyrażana wzorem:
n
1
H   pi log 2  
i 1
 pi 
nosi nazwę entropii informacyjnej źródła informacji.
Zauważmy, że:
H > 0 (H=0, gdy p=1)
H < log2n (H= log2n, gdy pi =1/n (i=1,..., n))
Redundancja:
Jeśli komunikatom, które występują z prawdopodobieństwami pi (i=1,..., n),
przypisano słowa kodowe o długościach N i (i=1,..,n), to wielkość:
3
n
L   pi N i
i 1
nazywamy średnią długością słowa kodowego.
Różnicę R = L - H nazywamy redundancją kodu (nadmiarowością), a wielkość 1H/L nazywamy względną redundancją kodu.
Twierdzenie Shannona:
Przy każdym sposobie kodowania zachodzi nierówność H < L.
Zatem R > 0.
Kod zwarty:
Dla każdego zbioru komunikatów można zbudować różne kody. Szczególne
znaczenie mają kody:
- jednoznaczny
- zwarty
- o równej długości słów kodowych.
Kod jednoznaczny to kod, w którym żaden ciąg kodowy nie jest początkiem innego
ciągu.
Kod zwarty to kod jednoznaczny, o minimalnej redundancji.
Algorytm Huffmana:
Konstrukcja kodu zwartego dla zbioru komunikatów k 1, k2, ...,kn nadawanych z
prawdopodobieństwami odpowiednio p 1, p2, ...,pn:
1. Jeśli n>2, to wybieramy dwa najmniej prawdopodobne komunikaty k i i k j i
tworzymy z nich nowy komunikat ”k i lub k j” o prawdopodobieństwie wystąpienia
pi+p j. Czynność tę powtarzamy dla nowo powstałego zbioru n-1 komunikatów,
potem dla n-2 komunikatów itd.
2. Jeśli n=2, to kodem zwartym jest kod
k1 – 0
k2 – 1 lub
k1 – 1
k2 – 0 (wybór dowolny).
3. Jeśli komunikat k o kodzie = 1 2... m ma postać k=”kp lub kr” (tzn. powstał z
połączenia dwóch mniej prawdopodobnych komunikatów), to kody dla k p i kr
tworzymy dopisując 0 lub 1 na końcu . Otrzymujemy
kp -  1 2... m0
kr -  1 2... m1 lub
kp -  1 2... m1
kr -  1 2... m0 (wybór dowolny).
Postępowanie to kontynuujemy aż do uzyskania kodów dla wszystkich komunikatów.
Systemy pozycyjne:
W matematyce liczby zapisywane są w systemie pozycyjnym, tzn. ciąg znaków
anan-1…a1a0.a-1a-2…a-m jest zapisem liczby
n
a q
i  m
i
i
gdzie q jest podstawą systemu, a i=0,1,...,q-1 (i=-m, -m+1, …, 0, 1, …, n) są cyframi.
System nazywa się pozycyjnym, ponieważ wartość (waga) każdej cyfry a i zależy od
4
miejsca, czyli pozycji w ciągu a nan-1…a1a0.a-1a-2…a-m.
Gdy q=10, mówimy o systemie dziesiętnym.
Gdy q=2, ai=0 lub 1, mamy system binarny.
Gdy q=16, mamy system szesnastkowy (heksadecymalny) (na końcu liczby
piszemy h lub H).
Gdy q=8, mamy system ósemkowy (liczbę poprzedza 0x).
Cyfry
Postać
Cyfry
Postać binarna
szesnastkowe
0
binarna
0000
ósemkowe
0
000
1
0001
1
001
2
3
0010
0011
2
3
010
011
4
0100
4
100
5
6
0101
0110
5
6
101
110
7
0111
7
111
8
9
1000
1001
A
1010
B
1011
C
1100
D
1101
E
1110
F
1111
Zapis liczb w pamięci komputera:
Komputer przechowuje informacje jako ciągi bitów stałej długości, zwanych słowami
maszynowymi (8, 16, 32, 64 bity). Podstawową adresowalną jednostką pamięci jest
ośmiobitowe słowo zwane bajtem.
Aby zapamiętać liczbę można znaleźć i zapamiętać jej rozwinięcie dwójkowe.
Pojawiają się jednak pytania:
Jak pamiętać znak liczby i kropkę dziesiętną?
Jak duże liczby można zapamiętać?
Czy liczby pamiętane są dokładnie wobec nieskończonych zwykle rozwinięć
dwójkowych?
Aby rozwiązać te problemy (a przy okazji inne problemy arytmetyczne związane z
wykonywaniem działań na liczbach) stosuje się kodowanie oraz pewne konwencje.
5
Zapis stałopozycyjny:
0 0 0 0 1 0 1 0 1 1 1 0 1 0 1 1
bit znaku
stosowany dla liczb całkowitych (pierwszy bit przeznaczony jest na zapis znaku
liczby: 0 oznacza +,1 oznacza -),
nie można zapisać liczb odpowiednio dużych (nadmiar stałopozycyjny –
niekontrolowany),
w tym przedstawieniu na n bitach można reprezentować tylko liczby całkowite z
n-1
n-1
przedziału <-2 , 2 -1>, np. (-2147483648, 2147483647)
n-1
maksymalna liczba dodatnia to 2 -1,
przedstawienie liczb jest dokładne
Zapis zmiennopozycyjny:
0 1 0 0 1 0 1 0 1 1 1 0 0 1 1 1
bit znaku
cecha
mantysa
liczby w przedstawieniu zmiennopozycyjnym mają postać
x = m*2c
gdzie:
m – mantysa, stałopozycyjny ułamek właściwy, zwykle w tzw. postaci
znormalizowanej, tj. ½<|m|<1 (0.1<|m|<1) (pierwszy bit po kropce jest jedynką),
c – cecha, liczba całkowita stałopozycyjna
Może wystąpić nadmiar zmiennopozycyjny. To przedstawienie liczb nie jest
dokładne, dokładność zależy od liczby bitów mantysy (i cechy).
0 1 0 0 1 0 1 0 1 1 1 0 0 1 1 1
Przykładowo, zapisana tu liczba to: x = 0.10010101110 * 2 7
Zauważmy, że inne liczby zapamiętane są tak samo, np.:
x1 = 0.10010101110|0101 * 2 7
x2 = 0.10010101101|1101 * 2 7
x3 = 0.10010101110|000011111 * 2 7 itd.
Liczby, które mają przedstawienie x=0.10010101110*27 mogą być wybrane z
przedziału: (x – 2-12*27, x + 2-12*27) = (x – 2-5, x + 2-5).
Gdy mantysa ma t cyfr (tutaj t=11), to błąd bezwzględny zapisu w pamięci
(reprezentacji) rd(x) liczby x określa nierówność |rd(x)-x| < ½*2-t*2c ,
6
a błąd względny można oszacować następująco:
rd ( x)  x
 2t  rd ( x)  x(1   ),   2t
x
Wnioski:
Działania wykonywane na liczbach stałopozycyjnych (całkowitych) dają wynik
dokładny (o ile nie przekroczy się zakresu),
natomiast działania wykonywane na liczbach zmiennopozycyjnych dają wynik
niedokładny (obarczony błędem reprezentacji argumentów tych działań w pamięci
komputera).
a+b daje wynik rd(a)+rd(b)=a*(1+ε1)+b*(1+ε2)=a+b+a*ε1+b*ε2
Można przeznaczyć więcej bitów na zapis mantysy, co zwiększy ilość cyfr rozwinięcia
(dokładność). Jest to tzw. podwójna precyzja. Nie zmienia to jednak faktu, że i tak
przedstawienie jest niedokładne.
Zapis znaków w pamięci komputera:
Najbardziej rozpowszechnionym sposobem kodowania znaków jest kod ASCII
(American Standard Code for Information Interchange – amerykański kod
standardowy do wymiany informacji).
Jest to 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom (alfabetu
angielskiego), cyfrom, wybranym znakom oraz poleceniom sterującym.
Litery, cyfry oraz inne znaki drukowane tworzą zbiór znaków ASCII. Jest to 95
znaków o kodach 32-126. Pozostałe 33 kody (0-31 i 127) to tzw. kody sterujące
służące do sterowania urządzeniem odbierającym komunikat, np. drukarką lub
terminalem.
Strony kodowe:
Ponieważ kod ASCII jest 7-bitowy, dodatkowy bit można wykorzystać na
powiększenie zbioru kodowanych znaków. Powstało wiele różnych rozszerzeń ASCII
wykorzystujących ósmy bit, nazywanych stronami kodowymi.
Jedną z pierwszych norm wprowadzających możliwości kodowania znaków
narodowych była norma ISO 646 (1965 r).
Najbardziej znane strony kodowe to:
CP437 - 8-bitowe kodowanie stosowane w systemach operacyjnych DOS
CP852 - 8-bitowe kodowanie stosowane w systemach operacyjnych DOS, w zamyśle
dla znaków języków krajów Europy Wschodniej
Windows-1250 (CP-1250) - strona kodowa używana przez system MS Windows do
reprezentacji znaków w językach środkowoeuropejskich
7
ISO 8859-1 (ISO/IEC 8859-1, Latin-1), standard kodowania znaków języków
„zachodnioeuropejskich”.
ISO 8859-2 (ISO/IEC 8859-2, Latin-2), standard kodowania znaków języków
„środkowo” i „wschodnioeuropejskich”, w tym języka polskiego.
Mazovia – 8-bitowe kodowanie znaków przeznaczone do stosowania w systemach
operacyjnych MS-DOS i kompatybilnych. Powstało na potrzeby projektowanego
polskiego komputera Mazovia klasy IBM PC. Było pierwszym rozpowszechnionym
kodowaniem używanym dla języka polskiego na komputerach domowych.
Unicode:
Unicode to zestaw znaków mający w zamierzeniu obejmować wszystkie pisma
(alfabety znaków) używane na świecie. Definiują go dwa standardy: Unicode oraz
ISO 10646. Znaki obu standardów są identyczne.
Standard Unicode obejmuje przydział przestrzeni numeracyjnej dla poszczególnych
grup znaków. Kody pierwszych 256 znaków Unicode pokrywają się z kodami ISO
Latin-1 (ISO 8859-1).
Systemy kodowania znaków Unicode:
UTF-8 (Unicode Transformation Format) - jeden znak zajmuje jeden, dwa lub trzy
bajty. Większość zastosowań w Internecie (poczta elektroniczna, HTML) wymaga
deklarowania kodowania UTF-8
UTF-16 - jeden znak zajmuje dwa bajty (zakres wartości 0000-FFFF)
ISO 10646 (UTF-32/UCS-4) - jeden znak zajmuje cztery bajty (zakres wartości od 0
do 7FFFFFFF)
Zapis obrazów:
Formy obrazów: odbitki fotograficzne, przeźrocza, obrazy malarskie, odręczne
rysunki, grafiki, mapy, schematy (np. techniczne), ilustracje itp.
Obrazy mogą być czarno-białe, z odcieniami szarości, kolorowe.
Mogą być bardzo złożone (np. fotografie), zawierać zamknięte kontury wypełnione
jednym kolorem i być bardzo proste (zaledwie kilka kresek).
Cechą charakterystyczną obrazów analogowych jest występowanie wielu kolorów
oraz tonalność, czyli występowanie tego samego koloru w różnych nasyceniach i
jasnościach.
Światło widzialne leży w zakresie fal o długości od 380 nm do 780 nm. Czułość oka w
zakresach 380 – 400 nm i 700 – 780 nm jest bardzo mała.
Obrazy cyfrowe:
Istnieją dwa podstawowe sposoby przedstawiania obrazów cyfrowych:
- obrazy rastrowe (bitmapowe, mapy bitowe)
- obrazy wektorowe (grafika wektorowa)
Istotą obrazu rastrowego jest przedstawienie go za pomocą zwykle prostokątnych
obszarów wypełnionych monobarwnymi punktami (małymi kwadratami), zwanymi
pikselami.
Istotą obrazu wektorowego jest zapamiętanie matematycznego opisu obrazu jako
8
zestawu obiektów (punktów, linii prostych, krzywych, figur geometrycznych itd.), które
mają określone cechy (np. grubość, kolor) i ich wzajemnego położenia.
Źródła obrazów cyfrowych:
- oprogramowanie do tworzenia (rysowania, malowania, edycji), obrazów, zarówno
obrazów rastrowych, jak i wektorowych
- przetworzenie obrazu analogowego lub jego utworzenie w urządzeniu cyfrowej
rejestracji obrazu takim, jak skaner, cyfrowy aparat fotograficzny lub cyfrowa
kamera wideo, w tym przypadku zwykle powstaje obraz rastrowy
- konwersja obrazów rastrowych na wektorowe lub odwrotnie dokonywana za
pomocą specjalnego oprogramowania.
Obrazy rastrowe:
Przekształcenie obrazu analogowego do postaci cyfrowego obrazu rastrowego
odbywa się w dwóch etapach:
- etap dyskretyzacji
- etap kwantyzacji
Dyskretyzacja:
Podział analogowego obrazu wejściowego na piksele następuje za pomocą
prostokątnej siatki dyskretyzującej (tzw. rastra). Ważny jest tzw. aspekt piksela –
stosunek jego szerokości do wysokości (bliski lub równy 1).
Rozdzielczość (jednostka to ppi – pixels per inch) to liczba pikseli przypadająca na
jednostkę długości obrazu cyfrowego.
Im większa rozdzielczość, tym lepiej są odwzorowane szczegóły oryginału.
Wymiary obrazu określamy w pikselach biorąc pod uwagę jego wysokość i
szerokość oraz rozdzielczość.
rozmiar[ p]  25.4[mm]
rozmiar[mm] 
rozdzielcz osc[ ppi ]
rozmiar[mm]  rozdzielcz osc[ ppi ]
rozmiar[ p] 
25.4[mm]
rozmiar[ p]  25.4[mm]
rozdzielczosc[ ppi ] 
rozmiar[mm]
Kwantyzacja, głębia bitowa:
Kwantyzacja to proces polegający na przypisaniu wartości analogowej najbliższego
poziomu reprezentacji, któremu w procesie kodowania przypisywana jest określona
liczba.
Głębia bitowa (jednostka to bpp – bits per pixel) to ilość bitów przeznaczonych na
opis jednego piksela.
Obrazy czarno-białe:
Zakres odcieni od czerni do bieli dzielimy na ustaloną liczbę przedziałów
odpowiadających odcieniom szarości i każdemu przypisujemy kod binarny:
głębia 8-bitowa: czerń – 00000000, biel – 11111111, łącznie 256 odcieni
głębia 4-bitowa: czerń – 0000, biel – 1111, łącznie 16 odcieni
głębia 1-bitowa: czerń – 0, biel – 1
9
Obrazy barwne:
Osobno kwantujemy przedziały wartości dla poszczególnych cech opisujących kolor
piksela (wg przyjętego modelu kolorów).
Przykładowo, gdy barwę piksela opisują trzy podstawowe składowe kolory: czerwony
(R), zielony (G) i niebieski (B), a przedziały wartości opisujących ich intensywności
podzielimy każdy na 256 części (zapis każdej składowej zajmie 8 bitów), to
otrzymamy 2563=16777216 kolorów (głębia 24-bitowa, nazywana true color).
Paleta barw:
Każdemu pikselowi przypisujemy numer (indeks) koloru z tablicy zestawu
ustalonych kolorów (tzw. paleta barw):
- głębia 8-bitowa to 28=256 kolorów
- głębia 4-bitowa to 24=16 kolorów
- głębia 1-bitowa to 21=2 kolory
Model RGB:
Model addytywny: podstawowy model barw – dowolną barwę można uzyskać w
wyniku zmieszania trzech barw podstawowych (Red, Green, Blue), każda składowa
koloru zajmuje 1 bajt.
Model HSV:
Model HSV nawiązuje do sposobu, w jakim widzi oko, gdzie wszystkie barwy
postrzegane są jako światło pochodzące z oświetlenia. Według tego modelu wszelkie
barwy wywodzą się ze światła białego – część widma zostaje wchłonięta, a część
odbita od oświetlanych przedmiotów.
Kolor piksela określają trzy składowe:
Hue – odcień barwy (barwa),
Saturation – nasycenie barwy
Value – wartość
Znane są procedury konwersji RGB na HSV i odwrotnie.
Modele HSB i HSL:
Modele pokrewne do HSV:
HSB:
Hue – barwa (od 00 do 3600)
Saturation – nasycenie barwy (od 0% do 100%)
Brightness – jaskrawość (poziom światła białego) (od 0% do 100%)
Bryła reprezentująca zbiór barw ma kształt podwójnego stożka (ostrosłupa
sześciokątnego) o wspólnej podstawie.
HSL:
H, S jak wyżej
Lightness – jasność (średni poziom światła białego).
Modele HSV, HSB, HSL stanowią pewne przybliżenie rzeczywistości, jednak nie
zawsze zgodne z odczuciami psychofizycznymi.
10
Model CMY:
Model subtraktywny: podstawowe barwy to Cyan, Magenta i Yellow, każda
składowa koloru zajmuje 1 bajt.
[C, M, Y] = [1, 1, 1] – [R, G, B]
Model CMYK:
Model powszechnie używany do drukowania.
Model CMY dawał za słaby kontrast, kolor czarny ma brunatnoszary odcień. Kolor
czarny (blacK) został wyodrębniony:
C = C – GRC
M = M – GRC
Y = Y – GRC
K = GRC
GRC = k*GC, k є <0, 1>, GC = min(C, M, Y)
Współczynnik k dobierany jest doświadczalnie.
Luminancja i chrominancja:
Światło możemy scharakteryzować określając cechę ilościową – jasność luminancję i dwie cechy jakościowe określające barwę - chrominancję.
Oko rozróżnia od 5000 do 10000 odcieni barw i około 250 odcieni szarości.
Pręciki w oku rozróżniają czarno-białe kontury obrazu, czopki rozpoznają barwę.
Liczba pręcików jest 20-krotnie większa niż czopków. Stąd ilość informacji o barwach
(chrominancję) można zredukować.
Modele YUV i YIQ:
Model YUV (YC bC r ) (telewizja, PAL):
Y = 0.299*R + 0.587*G + 0.114*B
U = 0.493*(B – Y) lub
Cb = 0.654*(R – Y)
V = 0.877*(R – Y) lub
Cr = 0.713*(B – Y)
Wartość Y (luminancja) pamiętana jest na 8 bitac h, wartości chrominancji (U, V)
każda na 4 bitach (łącznie 2 bajty), tzw. model 4 : 2 : 2
Model YIQ (telewizja, NTSC):
Y = 0.299*R + 0.587*G + 0.114*B
I = 0.74*(R – Y) – 0.27*(B – Y)
Q = 0.48*(R – Y) + 0.41*(B – Y)
Wartość Y (luminancja) pamiętana jest na 8 bitach, wartości chrominancji (I, Q)
każda na 4 bitach (łącznie 2 bajty), tzw. model 4 : 2 : 2
Obrazy wektorowe:
Obiekty tworzące obraz (rysunek) wektorowy zbudowane są z krzywych Beziera,
składających się z połączonych ze sobą krzywoliniowych elementów wektorowych.
Krzywoliniowy element wektorowy jest zbudowany z dwóch punktów, tzw. węzłów i
rozpiętej między nimi krzywej gładkiej. Kształt krzywej można modyfikować za
pomocą tzw. kierownicy (stycznej do krzywej w węźle).
11
Krzywe Beziera zapisane są w postaci formuł matematycznych (funkcji tworzących te
krzywe), dzięki czemu nawet złożone obrazy wektorowe zajmują bardzo mało
miejsca.
Matematyczny opis kształtów pozwala na dowolne skalowanie obrazu bez zmiany
rozdzielczości rysunku i to zarówno z zachowa niem, jak i bez zachowania proporcji
(nie wystąpi efekt powiększania pikseli).
Zapis dźwięków:
Natura dźwięku (podobnie jak obrazu) jest analogowa.
Dźwięki słyszymy wtedy, gdy drgania powietrza docierają do naszego ucha.
Głośność odbieranego dźwięku wynika z amplitudy, czyli z intensywności tych drgań.
Wysokość dźwięku zależy od częstotliwości drgań wyrażanej w hercach (Hz). Ucho
ludzkie rejestruje dźwięki w zakresie częstotliwości od 20 Hz do 20000 Hz.
Proces digitalizacji i kodowania dźwięku charakteryzują dwie podstawowe wielkości:
częstotliwość próbkowania i rozdzielczość bitowa.
Próbkowanie:
Próbkowanie to przetworzenie analogowego sygnału dźwiękowego na sygnał
cyfrowy, czyli na serię liczb opisujących chwilowe wartości sygnału.
Pojedynczą liczbę reprezentującą chwilową wartość sygnału dźwiękowego
nazywamy próbką (sample).
Częstotliwość próbkowania (wyrażana w Hz) określa liczbę próbek sygnału
pobieranych w ciągu jednej sekundy.
Zgodnie z zasadą Harrego Nyquista i Clauda Shannona „częstotliwość
próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości
dźwięku poddanego próbkowaniu”.
Możliwa jest rejestracja dźwięku albo stereofonicznie (dwa kanały) albo
monofonicznie (jeden kanał). Zaawansowane technologie mogą rejestrować dźwięki
wielokanałowo.
Częstotliwość próbkowania a jakość dźwięku:
Im niższa częstotliwość próbkowania, tym bardziej dźwięk cyfrowy odbiega od
pierwotnego dźwięku analogowego, tym także mniejsza objętość danych
48 kHz – jakość studyjna, muzyka zapisywana w studio nagrań
44.1 kHz – jakość płyt CD-Audio, duża wierność dźwięku
32 kHz – jakość zbliżona do CD, kamery cyfrowe wysokiej jakości
22.05 kHz – jakość radiowa (UKF), krótkie klipy muzyczne
11.025 kHz – akceptowana dla muzyki, wysokiej jakości mowa
5 kHz – jakość telefoniczna, akceptowana dla głosu lektora
12
Wybrane technologie oferują parametry próbkowania znacznie lepsze, niż te dla
nagrań jakości CD-Audio, np. DVD-Audio: częstotliwość próbkowania 48 kHz, 96 kHz
i 192 kHz.
Rozdzielczość bitowa:
Rozdzielczość bitowa określa liczbę bitów opisujących każdą próbkę dźwięku.
Dźwięk 8-bitowy zawiera 28 = 256 różnych poziomów wartości, dźwięk 16-bitowy
zawiera 216 = 65536 różnych poziomów wartości (jest bogatszy i czystszy).
16 bitów - jakość płyt CD-Audio, duża wierność dźwięku
12 bitów - jakość zbliżona do CD, kamery cyfrowe wysokiej jakości
8 bitów - jakość radiowa (UKF), krótkie klipy muzyczne
4 bity - akceptowana dla muzyki, mowa
Wybrane technologie oferują rozdzielczości bitowe rzędu 24 bity i więcej.
Dźwięki MIDI:
Zapis utworu muzycznego składa się z instrukcji informujących, jak dany utwór ma
zagrać syntezator.
Nie są to próbki dźwięków, ale komunikaty, np. wyłącz nutę (numer nuty, głośność),
włącz nutę (numer nuty, głośność), wybór barwy (numer instrume ntu) itp.
Zapis zajmuje mało miejsca (około 30 kB dla 2 minut muzyki).
Uwaga! - syntezatory dopuszczają jedynie odtwarzanie muzyki i wybranych efektów
dźwiękowych, nie można zatem rejestrować i odtwarzać mowy.
13

Podobne dokumenty