Trzy matryce w jednej, czyli lustra zamiast filtrów
Stosowane dotychczas w aparatach cyfrowych matryce światłoczułe do rozdziału światła na składowe RGB wykorzystują umieszczone nad poszczególnymi fotoelementami filtry pochłaniające światło, dzięki czemu dany fotoelement rejestrował wyłącznie promieniowanie o określonej częstotliwości. Niestety, taki sposób działania powoduje, iż znaczna część padającego na sensor światła była marnowana, nie uczestnicząc w rejestracji obrazu – jest to jedna z przyczyn, dla których na zdjęciach wykonanych w słabych warunkach oświetleniowych możemy zobaczyć charakterystyczne szumy. Ponadto taka budowa matrycy powoduje, że pełna informacja o kolorze dla danego punku uzyskiwana jest poprzez interpolację danych pochodzących z punktów sąsiednich – powoduje to nieunikniony spadek szczegółowości informacji o kolorystyce obrazu. Problemu tego nie rozwiązuje również technologia X3 Foveona, gdyż umieszczone jedna nad drugą warstwy sensorów również pochłaniają znaczne ilości padającego na przetwornik światła.
W droższych modelach kamer wideo stosuje się inny sposób separacji rejestrowanego obrazu na składowe RGB. Otóż obraz rzutowany przez obiektyw przechodzi przez układ tzw. pryzmatów dichroicznych, który rozdziela go na trzy osobne wiązki, odpowiadające składowym RGB, po czym każda z nich kierowana jest na osobną matrycę.
|
W układach trójprzetwornikowych zestaw pryzmatów dichroicznych rozdziela światło na trzy wiązki kierowane do osobnych matryc światłoczułych, odpowiadających za rejestrację składowych RGB. (fot.: wikimedia) |
Zaletą takiego rozwiązania jest fakt, iż strumień światła padającego na pryzmat dichroiczny separowany jest na składowe niemal bez strat, dzięki czemu efektywność takiego układu jest bardzo wysoka. Ze względu na duże rozmiary i stopień komplikacji układu pryzmatu i trzech matryc rozwiązania tego nie stosuje się jednak w aparatach fotograficznych.
W ujawnionym w 2007 roku wniosku patentowym Nikon zaproponował nowatorskie rozwinięcie tego pomysłu, które pozwala zintegrować całość do postaci pojedynczego, płaskiego przetwornika. Pomysł Nikona zakłada umieszczenie pomiędzy powierzchnią matrycy (która przykryta jest maską z otworami – źrenicami), a mikrosoczewką zestawu luster z naniesionymi filtrami dichroicznymi. Ich zadaniem jest kierowanie światła o określonej barwie do osobnych fotoelementów – jednak bez osłabiania pozostałych części spektrum.
Dzięki temu rozwiązaniu każdy z fotoelementów otrzyma tę samą ilość światła, bez żadnych strat, gdyż światło padające na zestaw luster dichroicznych jest separowane na składowe poprzez odbicie promieniowania o określonej częstotliwości, a nie jego pochłanianie. Tym samym duży, pryzmatyczny separator RGB z kamer wideo zostanie przeniesiony w miniaturowej wersji na powierzchnię samej matrycy.
Taka konstrukcja matrycy ma kilka ogromnych zalet. Po pierwsze, pozwala uniknąć interpolacji informacji o kolorze, co powinno podnieść szczegółowość rejestrowanego obrazu. Pod tym względem jest to rozwiązanie konkurencyjne dla technologii X3 Foveona. Po drugie, ograniczenie strat światła na filtrach RGB pozwoli znacznie zmniejszyć szumy rejestrowanego obrazu.
Oryginalny pomysł Nikona, zaprezentowany we wspomnianym wniosku patentowym, ma też ograniczenia. Poważnym jest stosunkowo niewielka powierzchnia fotoelementów, ograniczona ich układem na powierzchni przetwornika, co widać na poniższej ilustracji.
|
W rozwiązaniu Nikona elementy światłoczułe mają stosunkowo niewielką powierzchnię. |
Okazuje się jednak, iż problem ten można stosunkowo łatwo obejść, przesuwając poszczególne linie fotoelementów względem siebie. Dzięki temu, jak widać na poniższej ilustracji, pojedyncze fotoelementy mogą mieć dużo większą powierzchnię.
|
Przesunięcie poszczególnych linii przetwornika względem siebie pozwala lepiej zagospodarować powierzchnię sensora. |
Inną zaletą takiego układu jest najbardziej efektywne z możliwych ułożenie mikrosoczewek pod względem zagospodarowania powierzchni przetwornika. Układ taki ma też swoje wady – podobnie jak w wypadku "ukośnych" sensorów Fujifilm, bardziej skomplikowana jest interpolacja danych do prostokątnego układu pikseli obrazu. Pomysłodawca tej modyfikacji pomysłu Nikona nie jest nam znany, a natrafiliśmy na nią na fotograficznym blogu
Nikon Watch.
Sensor aparatu jak ludzkie oko
Jak już wspominaliśmy wielokrotnie, rejestrowanie informacji o kolorze poprzez filtrację składowych RGB ma zasadniczą wadę - mianowicie powoduje duże straty światła docierającego bezpośrednio do powierzchni sensora. Z tego powodu firmy zajmujące się wytwarzaniem matryc światłoczułych nieustannie poszukują rozwiązań, które mogłyby zastąpić klasyczny, tzw. bayerowski układ filtrów.
Kodak, po pięciu latach badań opracował nową metodę odczytu informacji o kolorze (chrominancji) i luminancji obrazu, która pozwoli za pomocą stosowanych dzisiaj przetworników CCD i CMOS rejestrować obraz o rozpiętości tonalnej od 1 do 2 EV wyższej niż pozwalał na to klasyczny filtr bayerowski (nota bene opracowany w laboratoriach Kodaka).
Projekt filtra barwnego drugiej generacji (Color Filter Array 2.0) opiera się na założeniu, że oprócz rejestrowania natężenia trzech barw podstawowych, matryca będzie również mierzyła natężenie światła nierozszczepionego (luminancję) dla każdego punktu obrazu. Będzie to osiągane przez dodanie do układu trzech filtrów barwnych punktów "czystych" (tzw. panchromatycznych), przepuszczających pełne spektrum światła. Opracowane przez firmę Kodak algorytmy pozwolą na odczytanie z takich punktów matrycy pełniejszych informacji o jasności obrazu niż jest w stanie dostarczyć światło przefiltrowane.
|
Różnica pomiędzy konstrukcją filtra stosowanego w matrycy bayerowskiej (z lewej) a Color Filter Array 2.0 (z prawej). |
Poprzez połączenie ze sobą danych o barwach składowych (chrominancji) z informacjami o luminancji możliwe będzie odtworzenie obrazu o większej rozpiętości tonalnej i mniejszym zaszumieniu. Ta ostatnia cecha pozwoli z kolei zwiększyć czułość ISO aparatów cyfrowych i rejestrować obraz o lepszej jakości przy słabym oświetleniu. Ceną za to jest konieczność opracowania bardziej złożonych algorytmów interpretujących sygnał z przetwornika, a także zmniejszenie się rozdzielczości obrazu zarejestrowanego przez matrycę – każdy piksel musi być bowiem składany nie z czterech, lecz z szesnastu punktów składowych.
|
W zależności od budowy przetwornika obrazu oraz jego oprogramowania może zostać wykorzystany jeden z kilku wzorów matrycy. |
Inżynierowie z laboratoriów Kodaka przewidują, że w zależności od mocy obliczeniowej urządzenia, producenci sprzętu foto i wideo mogą zechcieć wykorzystać różne układy filtrów nowej generacji. Trzy zaprojektowane wzory pozwolą konstruować matryce o wysokiej precyzji obrazu, wymagające silnego procesora oraz takie, których sygnał będzie znacznie łatwiejszy do przetworzenia na gotowy obraz. W każdym z nich została zachowana stała proporcja pikseli: znana z matrycy bayerowskiej dwukrotnie większa liczba komórek zielonych aniżeli czerwonych i niebieskich oraz równa sumie trzech pól barwnych liczba komórek nie filtrujących światła.
Nowa technologia w większym stopniu niż wcześniejsze przypomina sposób rejestrowania obrazu świata przez nasze oczy. Na nowej matrycy znajdują się bowiem punkty rejestrujące światło o słabym natężeniu, za to nie rejestrujące kolorów – są to odpowiedniki pręcików. Z kolei komórki z filtrami RGB odpowiadają działaniu czopków, które pełnią w oku rolę receptorów barw (co ciekawe, wrażliwych na ten sam zestaw barw składowych). Ponadto w ludzkim oku znajduje się znacznie więcej pręcików niż czopków, co odpowiada konstrukcji nowych filtrów Kodaka, w których punkty "czyste" pokrywają połowę powierzchni światłoczułej.
Oprócz różnic w rozmieszczeniu elementów światłoczułych i sposobie rejestrowania informacji o barwie, matryce stosowane w aparatach różnią się też budową samych elementów światłoczułych. Dwie dominujące technologie to CCD i CMOS – ale to już temat na osobny, obszerny artykuł.
Zobacz także:Poznaj swoją lustrzankę: RAW – cyfrowy negatywABC fotografii – ujarzmiamy koloryPoznaj swoją lustrzankę: metody pomiaru światłaRecenzja: Adobe Photoshop Elements 7Warsztat: Usuwanie niepożądanych elementów obrazuWiem, co kupuję: obiektyw - część IIIABC fotografii – rodzaje kadrówWiem, co kupuję: obiektyw - część IIABC fotografii – kompozycjaWarsztat: Efektowny kolaż zdjęćABC fotografii – perspektywaWarsztat: Zdjęcie z kolekcji dziadkaWarsztat: Dodawanie daty na zdjęciach w IrfanViewZdjęcia panoramiczne – poradnik dla początkującychGwieździste zdjęciaOdbitka taka, jak trzebaDo czego służy i jak działa przysłona?Balans bieli i temperatura barwowa w praktyceCo widzi obiektyw, a co zobaczy matryca?Czyszczenie matrycyProblemy z zasilaniem podczas zimowych wyprawZabezpieczanie sprzętu zimową porą