M is C een column van MC

Het is al enige tijd geleden dat ik bladerde in een uitgave van het Amerikaanse blad Newsweek. En een zeer interessant artikel zag, interessant voor allen die (professioneel) foto's maken. En niet alleen zij!

Even een klein overzicht: de foto-chip is opgebouwd uit legio pixels die elk een onderdeel van het licht ontvangen en omzetten. We begonnen die foto-chip met een hoeveelheid van -meen ik- 1.2 megapixels en we zijn nu al op een 4.8 op hetzelfde chip-oppervlak. Lijkt veel maar... drie kleurenfilters zorgen er voor dat elk van de drie basiskleuren slechts één bepaald deel belichten. Dat betekent dat het éénkleurige totaal-beeld wordt opgebouwd met, zeg maar een derde van de aanwezige hoeveelheid pixels. Weliswaar voegt men later die drie éénkleurige beelden bijeen maar het eindresultaat geeft een lager aantal 'korrels' dan waarover de foto-chip beschikt.

Nu kun je met een 3.5 megapixel camera wel een foto van 20 x 30 cm -ongeveer een A4- presenteren maar grotere beelden geven "korrel" te zien, iets waaraan zelfs de kiekjes-makers zich storen. Door de pixel niet vierkant maar veelhoekig -6, 8 en ik meen zelfs 12 zijdig- te maken valt de pixel, de korrel minder, zelfs nauwelijks op. Wanneer men dan ook nog over gaat tot "dithering", het wezenlijk onscherp maken van de randen van de pixel, is die korrel er moeilijk meer uit te halen. Maar het blijft onscherp! En die wezenlijke onscherpte is de echte reden dat de digitale camera het -voorlopig- aflegt tegen de camera voor de chemische film. Het is dezelfde reden, die onscherpte -meestal ontstaan door zichtbare korrel- dat de professionele fotograaf voor z'n 30 x 40 (inch) en groter beelden geen kleinbeeld gebruikt maar op z'n minst een 6-bij-6 (Hasselblad, Mamiya) gebruikt.

Waarom was dat artikeltje in Newsweek nu interessant? Wel, het beschreef de vinding van drie Amerikaanse geleerden waarbij de chip anders wordt opgebouwd. Geen onderdelen meer die elk eenzijdig voor één bepaalde kleur gevoelig zijn maar elk onderdeel van die chip wordt belicht door alle drie basiskleuren. Een composite opbouw dus. En het kleurenfilter vóór de licht-chip bestaat dan niet uit een set van drie met elk een deel van het licht doorlatend maar een opbouw van drie filters achter elkaar. Voordeel is nu dat een pixel dan niet meer bestaat uit een onderdeel van een van de basis-kleuren maar dat het bevat een composiet van alle drie basis-kleuren. De totale hoeveelheid pixels van de chip worden dus allemaal gebruikt. En dus is het beeld scherper!

Niet duidelijk? Wel, stel u bekijkt een lijn onder een 30 maal vergrotende lens, dan ziet u duidelijk een gebroken lijn. Dertig maal: absurd, wie vergroot nou zoveel? Absurd? hebt u nooit een onderdeel van een zwart-wit kleinbeeld negatief vergroot? Elke vergroter haalde gemakkelijk 20 maal en met een beetje stuntwerk was die 30 maal ook wel haalbaar. Nooit vergrotingen gemaakt? Maar dan ongetwijfeld wel dia's geprojecteerd op een scherm van een meter breed; wel, dat is bijna zo'n dertig maal! Als nu door middel van de genoemde uitvinding het geproduceerde beeld zo'n drie maal scherper wordt, betekent het dat dan een foto van 63 x 89 cm (!) dezelfde scherpte vertoont als die van het (huidige) A-4tje.

Ik plaats bewust en expres het uitroepteken achter de afmeting om zo aan te geven dat zo'n beeld in het amateuristische groot is; professionals werken vaak met 30 x 40 tot 40 x 50 inch (3/4 x 1 en 1 x 1¼ m), dus we zijn er nog niet. Digitale fotografie wordt pas echt interessant als we chips produceren die een 6 x 7 negatief bestrijken, want dàt is het prof-formaat.

groetend,
Max van Loon