Nie tylko megapiksele
Transkrypt
Nie tylko megapiksele
Nie tylko megapiksele Podstawy przetwarzania obrazów w cyfrowych aparatach fotograficznych Fotografia to technika utrwalania obrazów za pomocą światła. Pierwszą trwałą fotografię wykonał Nicephor Niepce w 1826 roku (179 lat temu!). Był to obraz o nienajlepszej jakości uzyskany na metalowej polerowanej płycie. Materiałem światłoczułym były składniki ropy naftowej. Potem, w roku 1839 Louis Jacques Daguerre wynalazł dagerotyp, umożliwiający uzyskanie srebrowych obrazów na miedzianych płytach a William Fox Talbot wynalazł negatyw, który jest podstawą tradycyjnych technik fotograficznych. Pierwszy obraz kolorowy wykonał James Clerk Maxwell w 1861 roku. Pierwszy film barwny Autochrome na bazie skrobi ziemniaczanej wprowadzono w 1907 roku a pierwszy trójwarstwowy film kolorowy Kodachrome wyprodukowano w 1935 roku. Aż do lat 90 XX wieku doskonalono tylko tradycyjne techniki fotograficzne wprowadzając nowe rozwiązania techniczne ułatwiające wykonywanie poprawnych obrazów i zwiększające jakość odwzorowania. Rozwój elektroniki w latach 80 XX wieku i masowe stosowanie technologii produkcji układów scalonych umożliwiło skonstruowanie taniego przetwornika obrazowego zamieniającego strumień fotonów na sygnał elektryczny. Dzięki temu na rynku pojawiły się pierwsze cyfrowe aparaty fotograficzne z pamięcią cyfrową zamiast klasycznego filmu i zaczęła się rewolucja w technice utrwalania obrazów. Podział cyfrowych aparatów fotograficznych Aparaty kompaktowe z niewymiennym obiektywem stałoogniskowym, Aparaty kompaktowe z niewymiennym obiektywem zmiennoogniskowym, Aparaty hybrydowe z niewymiennym obiektywem zmiennoogniskowym, Lustrzanki cyfrowe z wymiennymi obiektywami (ang. DSLR, Digital Single Lens Reflex Camera). Budowa cyfrowego aparatu fotograficznego Sensor W aparatach fotograficznych stosowane są dwa rodzaje przetworników optycznych (inaczej sensorów lub matryc): mniej popularne CMOS, bardziej popularne CCD. Wynalazek CCD datowany jest na początek lat siedemdziesiątych. Sensor CCD to w uproszczeniu jedna wielka dioda krzemowa. Podłoże jest półprzewodnikiem typu p, wierzchnia warstwa jest typu n a pomiędzy nimi występuje bariera potencjałów. Na takim waflu nałożona jest cieniutka warstwa izolatora. Padające na krzem światło powoduje wybijanie pojedynczych elektronów z ich orbit i tworzenie w ten sposób par dziura-elektron. Pole elektryczne bariery potencjałów rozdziela te pary przemieszczając elektrony w kierunku powierzchni typu n a dziury w podłoże typu p. Dziury odpływają w głąb podłoża natomiast elektrony zostają uwięzione w półprzewodniku typu n. Na powierzchni izolatora naniesione są elektrody. Podłużne, wąskie paski metalu ciągnące się przez całą szerokość sensora w równych odstępach są ładowane dodatnio przez układy sterujące, więc elektrony będą gromadzić się pod nimi. Aby unieruchomić elektrony, dodatkowo wprowadza się w półprzewodnik wąskie paski domieszek dzielące powierzchnię sensora na osobne wiersze. Ilość elektronów zgromadzonych pod elektrodami jest proporcjonalna do miejscowego oświetlenia jego powierzchni. Do wyprowadzenia tych ładunków elektrycznych potrzebne są po dwie dodatkowe elektrody rozmieszczone pomiędzy elektrodami głównymi. Normalnie nie są naładowane, więc nie wpływają na rozkład ładunków elektrycznych. Przy odczycie matrycy są one ładowane kolejno powodując przemieszczanie się ładunków elektrycznych od środka do krawędzi matrycy. W jednym takcie transportowany jest cały wiersz matrycy. Na krawędzi z kolei w podobny sposób przesuwane są ładunki z jednego wiersza z prawej strony na lewą (lub odwrotnie). Uzyskany z jednej komórki matrycy sygnał elektryczny jest wzmacniany i przetwarzany na wielkość cyfrową. Sensory CCD początkowo zdominowały rynek ze względu na lepszą jakość dostarczanego obrazu. Wadą CCD jest w niego wbudowana: żeby zgromadzony ładunek zmierzyć, trzeba go wyprowadzić poza obręb matrycy, co wiąże się ze stratami elektronów i związanymi z tym szumami. Ze względu na proces produkcji nie można zintegrować elektroniki sterującej matrycą w tym samym układzie scalonym, więc konieczne są dodatkowe elementy sterujące matrycą. Sensor CMOS-APS (Active Pixel Structure) zbudowany jest z podłoża typu p, na środku każdego piksela wstawiany jest kawałek półprzewodnika typu n tworząc fotodiodę. Na krawędzi piksela umieszczone są trzy tranzystory MOS. T1 na żądanie podłącza fotodiodę do + zasilania zerując piksel, T2 zamienia zgromadzony ładunek na proporcjonalny prąd elektryczny, T3 na żądanie podłącza wyjście z T2 tranzystora do wyjścia matrycy pozwalając wybrać, który wiersz w danym momencie będzie czytany. Bramki tranzystorów T3 każdego piksela połączone są wierszami, więc uaktywnia się zawsze na raz cały wiersz. To samo dotyczy bramek sterujących T1 - kasuje się także cały wiersz na raz, zazwyczaj zaraz po odczytaniu. Czytać dany wiersz można dowolną ilość razy, czytanie nie usuwa ładunku elektrycznego. Wadą sensora CCD jest zajmowana powierzchnia krzemu. Typowy sensor 6 Mpix wymaga 6 mln fotodiod i 18 mln tranzystorów (więcej, niż niejeden procesor!). Istotną zaletą jest umieszczenie matrycy i układów sterujących w jednym układzie scalonym, co obniża koszt produkcji i cenę końcowego urządzenia. W oku są trzy rodzaje sensorów reagujących na barwę obiektów (czopki): czułe na kolory czerwony, zielony i niebieski oraz jeden reagujący na natężenie oświetlenia (pręciki). Podobnie, w aparacie fotograficznym występują filtry wydzielające ze światła docierającego do sensora te trzy składowe kolorowe. Ponieważ każda komórka sensora optycznego reaguje tylko na natężenie padającego na nią światła a nie na jego barwę, konieczne jest odfiltrowanie odpowiedniej składowej koloru światła padającego na sensor. Najczęściej służy do tego filtr Bayera, w którym zastosowano wiersze złożone z filtrów zielonych i czerwonych naprzemiennie z wierszami zawierającymi filtry zielone i niebieskie. Jak widać, komórek reagujących na składową zieloną jest dwa razy więcej, niż wrażliwych na kolor czerwony i niebieski. Dla przykładu w matrycy posiadającej 4 Mpix występuje ok. 2 mln komórek wrażliwych na zieleń i po ok. 1 mln komórek reagujących na czerwień i niebieski. Wynika to z większej wrażliwości oka ludzkiego na składowe zieloną i żółtą, dzięki czemu w tych barwach widzimy więcej szczegółów. Każda komórka sensora optycznego dostarcza informacji o natężeniu światła jednej składowej kolorowej, natomiast pozostałe składowe muszą być wyliczone z informacji docierającej do sąsiednich komórek reagujących na pozostałe składowe kolorowe. Jest to proces interpolacji, który nosi także nazwę demozaikowanie (demosaicing). Interesującym rozwiązaniem jest matryca typu Foveon, w której zastosowano półprzepuszczalne warstwy wrażliwe na kolory niebieski, zielony i czerwony. Dzięki temu każda komórka sensora dostarcza bezpośrednio informacji o trzech składowych kolorowych. Jednym z najczęściej popełnianych błędów przy wyborze aparatu fotograficznego jest zaniedbanie wpływu wielkości sensora optycznego (matrycy). Typowy sensor ma wymiary od około 4 na 3 mm do około 9 na 7 mm (a w aparacie telefonicznym np. 2 na 3 mm). Tak więc na powierzchni od 12 mm2 do około 63 mm2 mieści się np. 4 miliony komórek. Łatwo policzyć, że jedna zajmuje powierzchnię od 3 m2 do 16 m2. Im mniejsza powierzchnia komórki, tym mniej fotonów do niej dotrze i tym mniejszy będzie użyteczny sygnał elektryczny. Przy zmniejszaniu się rozmiaru komórki sygnał ten będzie się zbliżał do poziomu szumów matrycy i analogowej części toru elektrycznego aparatu. Dlatego między innymi niektóre aparaty charakteryzują się większym poziomem szumów, niż inne. Zauważalną tendencją jest zwiększanie rozdzielczości matrycy (te megapiksele) bez zwiększania jej rozmiarów fizycznych. Łatwo sobie dopowiedzieć, jak to wpływa na jakość rejestrowanych obrazów. Producenci dążą do obniżenia poziomu szumów poprzez stosowanie coraz silniejszych algorytmów odszumiających i wygładzających, ale powoduje to także utratę szczegółów rejestrowanych obrazów przez co rosnąca rozdzielczość matrycy nie może być w pełni wykorzystana. Tylko lustrzanki cyfrowe oferują matrycę o wymiarze od 24 mm na 18 mm do 24 mm na 36 mm (tak, jak klasyczny film małoobrazkowy). Są stosowane także większe matryce w cyfrowych lustrzankach, ale ich ceny rosną wykładniczo ze wzrostem rozmiaru przetwornika. Większość lustrzanek dla zaawansowanych amatorów i półprofesjonalistów posiada matrycę w standardzie APS-C o wymiarach około 22 na 18 mm. Z porównania wymiarów matryc widać, że rozmiar pojedynczej komórki w lustrzance jest wielokrotnie większy, niż w pozostałych rodzajach aparatów, stąd i szumy na zdjęciu są wyraźnie mniejsze. Optyka Każdy system optyczny ma dwa regulowane parametry: ogniskową oraz przysłonę. Jeżeli soczewka nie jest poprawnie zogniskowana na fotografowanym obiekcie, każdy punkt obiektu tworzy obraz w kształcie okrągłej plamki, zamiast punktu i cały obraz jest rozmyty. W kamerze ogniskowanie wykonuje się poprzez przemieszczanie soczewki do lub od sensora. Można wyróżnić obiektywy: o stałej ogniskowej, o zmiennej ogniskowej (zoom). Przysłona reguluje ilość światła docierającego do przetwornika optycznego a więc także jasność obrazu tworzonego na przetworniku. Parametry układu optycznego wpływają na siebie wzajemnie na różne sposoby. Na przykład ilość światła i czułość sensora optycznego wpływają na ostrość fotografowanych obiektów. Zaawansowani fotografowie wiedzą, że każdy obiektyw „rysuje ostrzej”, gdy ma przymkniętą przysłonę. Kolejna cecha wielkości przysłony to tak zwana głębia ostrości. Duża ilość światła w otoczeniu lub dobra czułość sensora optycznego pozwalają na duże wartości przysłony, co dodatkowo, poza zwiększeniem ostrości fotografowanych obiektów zwiększa także zakres odległości, w którym obiekty na fotografii wychodzą ostro i wyraźnie. Z kolei otwarcie przysłony prowadzi do zmniejszenia głębi ostrości. Doświadczony fotograf planując wykonanie zdjęcia bierze pod uwagę nie tylko zawartość kadru, czyli logiczne rozmieszczenie obiektów w dwóch wymiarach, ale także buduje tak zwane plany zdjęcia umiejętnie posługując się głębią ostrości dla wydobycia za jej pomocą głównych motywów i rozmycia tła. Regulowana przysłona jest niezbędna zarówno w oku, jak i w kamerze ponieważ zakres zmian jasności w środowisku jest znacznie większy, niż zakres bezpośrednio przetwarzany przez przetwornik optyczny. Zakres zmian jasności pomiędzy oświetleniem obiektu w pełnym słońcu i oświetleniem tego samego obiektu światłem księżyca sięga miliona. Uwzględniając zdolność odbijania światła przez obserwowany obiekt w zakresie 1% do 99% otrzyma się różnicę intensywności światła jak jeden do stu milionów! Zakres dynamiczny sensora kamery definiowany jako stosunek wartości największego przetwarzanego sygnału do poziomu szumów matrycy typowo wynosi 300 do 1000. Inaczej mówiąc, jeżeli największy sygnał przetwarzany ma amplitudę 1 V, to poziom szumów własnych matrycy sięga 1 mV. Kamera posiada przysłonę, która może stłumić światło docierające do sensora o współczynnik 300. To sprawia, że zakres dynamiki typowej kamery wynosi kilkaset tysięcy. Procesor sygnałowy i oprogramowanie Matryca aparatu fotograficznego jest elementem analogowym. Pierwszy etap obróbki tego sygnału polega na wzmocnieniu go i przetworzeniu na sygnał cyfrowy w przetworniku analogowo- cyfrowym. Otrzymany strumień bitów może następnie być obrobiony przez procesor sygnałowy. Pierwszy etap obróbki, to wspomniane wcześniej demozaikowanie. Potem następuje wstępne wyostrzenie obrazu (do czego producenci aparatów przyznają się niechętnie) a następnie albo zapis tzw. surowego obrazu (RAW), albo jego kompresja, najczęściej do formatu JPEG, czyli najpierw podział obrazu na grupy o wymiarach 8 na 8 pikseli i poddanie ich dyskretnej transformacji kosinusowej DCT (Discrete Cosine Transform), następnie w zależności od przyjętego stopnia kompresji zastosowanie odpowiedniej tabeli kwantyzacji a na końcu wyeliminowanie powtarzających się zer za pomocą algorytmu RLE i kodowanie Huffmanna, po czym następuje zapis obrazu w pamięci aparatu fotograficznego. Oprogramowanie aparatu realizuje także szereg dodatkowych operacji, między innymi obsługę manipulatorów aparatu, automatyczne ostrzenie obrazu i dobieranie czasu ekspozycji, wyświetlanie obrazu na wyświetlaczu LCD oraz transmisję zapamiętanych obrazów do komputera.