Nie tylko megapiksele

Transkrypt

Nie tylko megapiksele
Nie tylko megapiksele
Podstawy przetwarzania obrazów w cyfrowych aparatach
fotograficznych
Fotografia to technika utrwalania obrazów za pomocą światła. Pierwszą trwałą
fotografię wykonał Nicephor Niepce w 1826 roku (179 lat temu!). Był to obraz
o nienajlepszej jakości uzyskany na metalowej polerowanej płycie. Materiałem światłoczułym
były składniki ropy naftowej. Potem, w roku 1839 Louis Jacques Daguerre wynalazł
dagerotyp, umożliwiający uzyskanie srebrowych obrazów na miedzianych płytach a William
Fox Talbot wynalazł negatyw, który jest podstawą tradycyjnych technik fotograficznych.
Pierwszy obraz kolorowy wykonał James Clerk Maxwell w 1861 roku. Pierwszy film
barwny Autochrome na bazie skrobi ziemniaczanej wprowadzono w 1907 roku a pierwszy
trójwarstwowy film kolorowy Kodachrome wyprodukowano w 1935 roku.
Aż do lat 90 XX wieku doskonalono tylko tradycyjne techniki fotograficzne
wprowadzając nowe rozwiązania techniczne ułatwiające wykonywanie poprawnych obrazów
i zwiększające jakość odwzorowania.
Rozwój elektroniki w latach 80 XX wieku i masowe stosowanie technologii produkcji
układów scalonych umożliwiło skonstruowanie taniego przetwornika obrazowego
zamieniającego strumień fotonów na sygnał elektryczny. Dzięki temu na rynku pojawiły się
pierwsze cyfrowe aparaty fotograficzne z pamięcią cyfrową zamiast klasycznego filmu
i zaczęła się rewolucja w technice utrwalania obrazów.
Podział cyfrowych aparatów fotograficznych




Aparaty kompaktowe z niewymiennym obiektywem stałoogniskowym,
Aparaty kompaktowe z niewymiennym obiektywem zmiennoogniskowym,
Aparaty hybrydowe z niewymiennym obiektywem zmiennoogniskowym,
Lustrzanki cyfrowe z wymiennymi obiektywami (ang. DSLR, Digital Single Lens
Reflex Camera).
Budowa cyfrowego aparatu fotograficznego
Sensor
W aparatach fotograficznych stosowane są dwa rodzaje przetworników optycznych
(inaczej sensorów lub matryc):
 mniej popularne CMOS,
 bardziej popularne CCD.
Wynalazek CCD datowany jest na początek lat siedemdziesiątych.
Sensor CCD to w uproszczeniu jedna wielka dioda krzemowa. Podłoże jest
półprzewodnikiem typu p, wierzchnia warstwa jest typu n a pomiędzy nimi występuje bariera
potencjałów. Na takim waflu nałożona jest cieniutka warstwa izolatora. Padające na krzem
światło powoduje wybijanie pojedynczych elektronów z ich orbit i tworzenie w ten sposób
par dziura-elektron. Pole elektryczne bariery potencjałów rozdziela te pary przemieszczając
elektrony w kierunku powierzchni typu n a dziury w podłoże typu p. Dziury odpływają w
głąb podłoża natomiast elektrony zostają uwięzione w półprzewodniku typu n. Na
powierzchni izolatora naniesione są elektrody. Podłużne, wąskie paski metalu ciągnące się
przez całą szerokość sensora w równych odstępach są ładowane dodatnio przez układy
sterujące, więc elektrony będą gromadzić się pod nimi.
Aby unieruchomić elektrony, dodatkowo wprowadza się w półprzewodnik wąskie
paski domieszek dzielące powierzchnię sensora na osobne wiersze. Ilość elektronów
zgromadzonych pod elektrodami jest proporcjonalna do miejscowego oświetlenia jego
powierzchni. Do wyprowadzenia tych ładunków elektrycznych potrzebne są po dwie
dodatkowe elektrody rozmieszczone pomiędzy elektrodami głównymi. Normalnie nie są
naładowane, więc nie wpływają na rozkład ładunków elektrycznych. Przy odczycie matrycy
są one ładowane kolejno powodując przemieszczanie się ładunków elektrycznych od środka
do krawędzi matrycy. W jednym takcie transportowany jest cały wiersz matrycy.
Na krawędzi z kolei w podobny sposób przesuwane są ładunki z jednego wiersza z
prawej strony na lewą (lub odwrotnie). Uzyskany z jednej komórki matrycy sygnał
elektryczny jest wzmacniany i przetwarzany na wielkość cyfrową.
Sensory CCD początkowo zdominowały rynek ze względu na lepszą jakość dostarczanego
obrazu. Wadą CCD jest w niego wbudowana: żeby zgromadzony ładunek zmierzyć, trzeba go
wyprowadzić poza obręb matrycy, co wiąże się ze stratami elektronów i związanymi z tym
szumami. Ze względu na proces produkcji nie można zintegrować elektroniki sterującej
matrycą w tym samym układzie scalonym, więc konieczne są dodatkowe elementy sterujące
matrycą.
Sensor CMOS-APS (Active Pixel Structure) zbudowany jest z podłoża typu p, na środku
każdego piksela wstawiany jest kawałek półprzewodnika typu n tworząc fotodiodę. Na
krawędzi piksela umieszczone są trzy tranzystory MOS.
T1 na żądanie podłącza fotodiodę do + zasilania zerując piksel, T2 zamienia
zgromadzony ładunek na proporcjonalny prąd elektryczny, T3 na żądanie podłącza wyjście z
T2 tranzystora do wyjścia matrycy pozwalając wybrać, który wiersz w danym momencie
będzie czytany.
Bramki tranzystorów T3 każdego piksela połączone są wierszami, więc uaktywnia się
zawsze na raz cały wiersz. To samo dotyczy bramek sterujących T1 - kasuje się także cały
wiersz na raz, zazwyczaj zaraz po odczytaniu. Czytać dany wiersz można dowolną ilość razy,
czytanie nie usuwa ładunku elektrycznego.
Wadą sensora CCD jest zajmowana powierzchnia krzemu. Typowy sensor 6 Mpix
wymaga 6 mln fotodiod i 18 mln tranzystorów (więcej, niż niejeden procesor!). Istotną zaletą
jest umieszczenie matrycy i układów sterujących w jednym układzie scalonym, co obniża
koszt produkcji i cenę końcowego urządzenia.
W oku są trzy rodzaje sensorów reagujących na barwę obiektów (czopki): czułe
na kolory czerwony, zielony i niebieski oraz jeden reagujący na natężenie oświetlenia
(pręciki). Podobnie, w aparacie fotograficznym występują filtry wydzielające ze światła
docierającego do sensora te trzy składowe kolorowe.
Ponieważ każda komórka sensora optycznego reaguje tylko na natężenie padającego
na nią światła a nie na jego barwę, konieczne jest odfiltrowanie odpowiedniej składowej
koloru światła padającego na sensor. Najczęściej służy do tego filtr Bayera, w którym
zastosowano wiersze złożone z filtrów zielonych i czerwonych naprzemiennie z wierszami
zawierającymi filtry zielone i niebieskie. Jak widać, komórek reagujących na składową
zieloną jest dwa razy więcej, niż wrażliwych na kolor czerwony i niebieski. Dla przykładu
w matrycy posiadającej 4 Mpix występuje ok. 2 mln komórek wrażliwych na zieleń
i po ok. 1 mln komórek reagujących na czerwień i niebieski. Wynika to z większej
wrażliwości oka ludzkiego na składowe zieloną i żółtą, dzięki czemu w tych barwach
widzimy więcej szczegółów. Każda komórka sensora optycznego dostarcza informacji
o natężeniu światła jednej składowej kolorowej, natomiast pozostałe składowe muszą być
wyliczone z informacji docierającej do sąsiednich komórek reagujących na pozostałe
składowe kolorowe. Jest to proces interpolacji, który nosi także nazwę demozaikowanie
(demosaicing).
Interesującym rozwiązaniem jest matryca typu Foveon, w której zastosowano
półprzepuszczalne warstwy wrażliwe na kolory niebieski, zielony i czerwony. Dzięki temu
każda komórka sensora dostarcza bezpośrednio informacji o trzech składowych kolorowych.
Jednym z najczęściej popełnianych błędów przy wyborze aparatu fotograficznego
jest zaniedbanie wpływu wielkości sensora optycznego (matrycy).
Typowy sensor ma wymiary od około 4 na 3 mm do około 9 na 7 mm (a w aparacie
telefonicznym np. 2 na 3 mm). Tak więc na powierzchni od 12 mm2 do około 63 mm2 mieści
się np. 4 miliony komórek. Łatwo policzyć, że jedna zajmuje powierzchnię od 3 m2
do 16 m2. Im mniejsza powierzchnia komórki, tym mniej fotonów do niej dotrze i tym
mniejszy będzie użyteczny sygnał elektryczny. Przy zmniejszaniu się rozmiaru komórki
sygnał ten będzie się zbliżał do poziomu szumów matrycy i analogowej części toru
elektrycznego aparatu. Dlatego między innymi niektóre aparaty charakteryzują się większym
poziomem szumów, niż inne. Zauważalną tendencją jest zwiększanie rozdzielczości matrycy
(te megapiksele) bez zwiększania jej rozmiarów fizycznych. Łatwo sobie dopowiedzieć,
jak to wpływa na jakość rejestrowanych obrazów. Producenci dążą do obniżenia poziomu
szumów poprzez stosowanie coraz silniejszych algorytmów odszumiających
i wygładzających, ale powoduje to także utratę szczegółów rejestrowanych obrazów przez co
rosnąca rozdzielczość matrycy nie może być w pełni wykorzystana.
Tylko lustrzanki cyfrowe oferują matrycę o wymiarze od 24 mm na 18 mm do 24 mm
na 36 mm (tak, jak klasyczny film małoobrazkowy). Są stosowane także większe matryce
w cyfrowych lustrzankach, ale ich ceny rosną wykładniczo ze wzrostem rozmiaru
przetwornika. Większość lustrzanek dla zaawansowanych amatorów i półprofesjonalistów
posiada matrycę w standardzie APS-C o wymiarach około 22 na 18 mm. Z porównania
wymiarów matryc widać, że rozmiar pojedynczej komórki w lustrzance jest wielokrotnie
większy, niż w pozostałych rodzajach aparatów, stąd i szumy na zdjęciu są wyraźnie
mniejsze.
Optyka
Każdy system optyczny ma dwa regulowane parametry: ogniskową oraz przysłonę.
Jeżeli soczewka nie jest poprawnie zogniskowana na fotografowanym obiekcie, każdy punkt
obiektu tworzy obraz w kształcie okrągłej plamki, zamiast punktu i cały obraz jest rozmyty.
W kamerze ogniskowanie wykonuje się poprzez przemieszczanie soczewki do lub od sensora.
Można wyróżnić obiektywy:
 o stałej ogniskowej,
 o zmiennej ogniskowej (zoom).
Przysłona reguluje ilość światła docierającego do przetwornika optycznego a więc
także jasność obrazu tworzonego na przetworniku.
Parametry układu optycznego wpływają na siebie wzajemnie na różne sposoby. Na
przykład ilość światła i czułość sensora optycznego wpływają na ostrość fotografowanych
obiektów. Zaawansowani fotografowie wiedzą, że każdy obiektyw „rysuje ostrzej”, gdy ma
przymkniętą przysłonę. Kolejna cecha wielkości przysłony to tak zwana głębia ostrości. Duża
ilość światła w otoczeniu lub dobra czułość sensora optycznego pozwalają na duże wartości
przysłony, co dodatkowo, poza zwiększeniem ostrości fotografowanych obiektów zwiększa
także zakres odległości, w którym obiekty na fotografii wychodzą ostro i wyraźnie. Z kolei
otwarcie przysłony prowadzi do zmniejszenia głębi ostrości. Doświadczony fotograf planując
wykonanie zdjęcia bierze pod uwagę nie tylko zawartość kadru, czyli logiczne
rozmieszczenie obiektów w dwóch wymiarach, ale także buduje tak zwane plany zdjęcia
umiejętnie posługując się głębią ostrości dla wydobycia za jej pomocą głównych motywów
i rozmycia tła.
Regulowana przysłona jest niezbędna zarówno w oku, jak i w kamerze ponieważ
zakres zmian jasności w środowisku jest znacznie większy, niż zakres bezpośrednio
przetwarzany przez przetwornik optyczny. Zakres zmian jasności pomiędzy oświetleniem
obiektu w pełnym słońcu i oświetleniem tego samego obiektu światłem księżyca sięga
miliona. Uwzględniając zdolność odbijania światła przez obserwowany obiekt w zakresie 1%
do 99% otrzyma się różnicę intensywności światła jak jeden do stu milionów!
Zakres dynamiczny sensora kamery definiowany jako stosunek wartości największego
przetwarzanego sygnału do poziomu szumów matrycy typowo wynosi 300 do 1000. Inaczej
mówiąc, jeżeli największy sygnał przetwarzany ma amplitudę 1 V, to poziom szumów
własnych matrycy sięga 1 mV. Kamera posiada przysłonę, która może stłumić światło
docierające do sensora o współczynnik 300. To sprawia, że zakres dynamiki typowej kamery
wynosi kilkaset tysięcy.
Procesor sygnałowy i oprogramowanie
Matryca aparatu fotograficznego jest elementem analogowym. Pierwszy etap obróbki tego
sygnału polega na wzmocnieniu go i przetworzeniu na sygnał cyfrowy w przetworniku
analogowo- cyfrowym. Otrzymany strumień bitów może następnie być obrobiony przez
procesor sygnałowy. Pierwszy etap obróbki, to wspomniane wcześniej demozaikowanie.
Potem następuje wstępne wyostrzenie obrazu (do czego producenci aparatów przyznają się
niechętnie) a następnie albo zapis tzw. surowego obrazu (RAW), albo jego kompresja,
najczęściej do formatu JPEG, czyli najpierw podział obrazu na grupy o wymiarach 8 na 8
pikseli i poddanie ich dyskretnej transformacji kosinusowej DCT (Discrete Cosine
Transform), następnie w zależności od przyjętego stopnia kompresji zastosowanie
odpowiedniej tabeli kwantyzacji a na końcu wyeliminowanie powtarzających się zer
za pomocą algorytmu RLE i kodowanie Huffmanna, po czym następuje zapis obrazu
w pamięci aparatu fotograficznego.
Oprogramowanie aparatu realizuje także szereg dodatkowych operacji, między innymi
obsługę manipulatorów aparatu, automatyczne ostrzenie obrazu i dobieranie czasu ekspozycji,
wyświetlanie obrazu na wyświetlaczu LCD oraz transmisję zapamiętanych obrazów
do komputera.