Digitalkameratechnologien



Ähnliche Dokumente
Digitale Aufnahmesysteme Grundlagen. HS BO Lab. für Photogrammetrie: Digitale Aufnahmesysteme 1

Verwendungszweck elektronischer Kameras

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitale Aufnahmesysteme 1

Grundlagen der Bildbearbeitung

Holm Sieber Digitalfotografie und Linux

Grundlagen der Bildbearbeitung

CCD-Chip und CCD-Kamera Volker-James Münchhof

Der Fotoapparat. Entfernungseinstellung. Belichtung des Films

So funktioniert eine Digitalkamera Lehrerinformation

Fotogrundlagen BÖSCHEN FRANK. THEMA: F o t o. Hardwareinfo. G o e d d e r G m x. d e. Datum : Seite : 1. Digitalkamera.

Fotoapparat. Was sind Fotoapparate? Grundbauteile. Arten. Analoger Fotoapparat. Digitalkamera

Eine CCD Speicherzelle besteht aus einem sogenannten MOS Kondensator (Metall Oxid Semiconductor).

Oberflächeninspektion

Kapitel 2: Die Geräte

Sterne (9) Elektrooptische Detektoren

Grundlagen Hochzeitsfotografie

Elektronisches Auge wird wachsamer

Smear in CCD-Sensoren

123FOTOWORKSHOP KOMPAKT

So funktioniert eine Digitalkamera Arbeitsblatt

CCD. Autoren: Rupert Gratz - Daniel Kadir - Stefan Reischmann. CCD steht für "charge"

Beste Bildqualität mit 6 Megapixeln!

EIN KLEINES DIGITALES FOTO-ABC

Optik in Smartphones. Proseminar Technische Informatik Fabio Becker 9. Juli 2014

GRUNDLAGEN DER FOTOGRAFIE Friedrich Ganter

Fotografie Grundlagen (aus

Paralleles Auslesen linearer Bildsensoren

Paralleles Auslesen linearer Bildsensoren

Das Zusammenspiel von ISO Blende - Belichtungszeit. Die Belichtung. Michael Lamberty -

Digitale Fotografie. Agfa. R. Wirowski (Agfa-Gevaert AG, FE-Film) 16. Dezember R. Wirowski. Agfa Lectures - Fachhochschule Köln 1

Bildkontrolle mit Hilfe des Histogramms

Mehr Auflösung im Monochrom-Betrieb So holen Sie mehr Auflösung aus Ihrem Farbsensor

Digitale Bildverarbeitung (DBV)

BELICHTUNG DIE RICHTIGE DOSIS LICHT. Blende Belichtungszeit ISO-Empfindlichkeit Belichtungsmessung Aufnahmeprogramme

Einführung in die CCD-Technologie

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Informationsübertragung mit elektromagnetischen Wellen (II)

Teil 1.1 Erste Schritte in der Fotografie. lerne wie deine Kamera funktioniert. theoretische Grundlagen einfach und anschaulich erklärt

Objekterkennung durch Vergleich von Farben. Videoanalyse Dr. Stephan Kopf HWS2007 Kapitel 5: Objekterkennung

Food Fotografie - Lektion 4 - Die richtigen Kameraeinstellungen für attraktive Food Fotos

Kameratechnik. Bewusstes Gestalten von Aufnahmen durch Verstehen der Technik. Zielsetzung. Vom Knipser zum Fotografen

Basiswissen digitale Bildverarbeitung Analoge und digitale Bildverarbeitung

Glossar Digitalfotografie Lehrerinformation

CMOS Kameras. Jan Hegner Universität Mannheim. Seminar-Vortrag WS2003/2004

Übung zu Einführung in die Informatik # 14

Wie funktioniert ein moderner Fotoapparat?

Technologievergleich Digitalkamerasysteme

Der EVMA 1288 Standard als Wegweiser zur richtigen Kamera mit der richtigen Bildqualität. Vortragender: Christoph Hoernlen Territory Account Manager

Scannen. 1. Hardware 2. Farbsysteme 3. Farbtiefe 4. Auflösung 5. Einstellungsoptionen 6. Quellen Referat: Scannen

Kontrollaufgaben zur Optik

Digitale Fotografie. Mayra Jana Frank Constantin Hartenstein Marie-Christin Tromm. Andreas Naurath - Screendesign E04S. Digitale Fotografie

40 CCD und CMOS. Bildsensoren 41

HDR Aufnahmetechniken. B.Eng. Paschá Kulijew Limelight Photography

Von den Rohdaten bis zum fertigen Bild Unterschiede in der Verarbeitung und Einflüsse auf die Bildqualität

Fortgeschrittene Bildverarbeitung und Analyse

Aus einer technischen Perspek0ve gesehen geht es beim Fotographieren darum, die rich0ge Menge Licht auf den Film oder Sensor zu bannen.

Institut für Informatik Visual Computing SE Computational Photography

Tilo Gockel, Die Neue Fotoschule, dpunkt.verlag, ISBN D3kjd3Di38lk323nnm

Digitale Bildverarbeitung (DBV)

Digitale Fotografie für das Web Wintersemester 2013/2014 MEINF4330

Auflösung was ist das?

Behandlung von hohen Kontrasten

Das Belichtungsdreieck: Die Blende.

Die richtige Auflösung von Digitalbildern für die Beamerprojektion. Vorwort

Aufnahmeplanung. 1. Geben Sie im Bereich Objektgröße / Bildgröße die vor Ort gemessene Breite [m] und Höhe [m] Ihres Objektes ein.

Die Auflösung der Megapixels. Karl-Heinz Zahorsky LaserSoft Imaging AG, Kiel

The Quality Connection. Business-Fotografie für redaktionelle Themen

ANSCHLUSS-KONVERTER (MOUNT CONVERTER) MC-11

Optimales Zusammenspiel von Kamera und Optik. Carl Zeiss AG, Udo Schellenbach, PH-V

Inhalte. Mathematische Grundlagen. Koordinatensysteme Ebene und räumliche Koordinatentransformationen Zentralperspektive

WHITE PAPER. Wie viele Pixel braucht man wirklich? Ist Auflösung wirklich so wichtig?

Die Interpretation Optischer Leistungsdaten

Die Grundlagen der Fotografie Text und Fotos: Jörg Asmus

Auch wenn einige unter Ihnen vielleicht noch nie eine konventionelle Kamera benutzt

Kleine Photokunde. Inhalt. Einleitung

Bildwandler-Technologie für zukünftige Fernsehformate. Klaus Weber Senior Product Marketing Manager, Camera

Grundlagen der Fotografie

Grundlagen 1. Einführung. Blende. Belichtung Belichtungszeit ISO. Die Kamera. DGugelmann. Fotografie

Scanner und Digitalkamera Das Bild entsteht zunächst im Kopf!

GRUNDLAGEN DER FOTOGRAFIE. alackner web + foto

Die Sache mit der Belichtung

Inhaltsverzeichnis. Auflösung dreimal anders. Weißabgleich richtig einstellen. Vorwort. Gute Fotos - kein Problem. Jederzeit sofort schussbereit

CCD oder CMOS: Können CMOS-Sensoren in allen Fällen CCDs ersetzen?

Foto-Tipps Raphael Bauer,

Original Gebrauchsanleitung Fish-Eye 8/3,5

1.Workshop Kamera Einstellungen, Basiswissen Lightroom.

Eingabegeräte Eine Arbeit von Claude Martin Informatik, MM 1A Arlesheim, der 10. Januar 2001

Bildwinkel & Auflösung

Inhaltsverzeichnis. Einleitung

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Planetenfotografie mit neuer Optik und Vergleich zweier Kameras

Technische Voraussetzung für Bilder, die in der Mitgliederzeitschrift gedruckt werden sollen.

Farben. Er nimmt die Intensität der Lichtwellen, die durchs. mehr interpoliert, als im Grün-Bereich. für charged coupled device (deutsch = ladungs-

Ihr Online Fotolabor FOTOKURS: DIGITALE FOTOGRAFIE TEIL 3

Das perfekte Objektiv!?

Blende Belichtungszeit ISO-Empfindlichkeit Belichtungsmessung Aufnahmeprogramme

Das kleine 1x1 der Fotografie

FRANK ECKGOLD STEPHANIE ECKGOLD

Die Fujifilm Super-CCD-Technologie einfach erklärt

Aus einer technischen Perspek0ve gesehen geht es beim Fotographieren darum, die rich0ge Menge Licht auf den Film oder Sensor zu bannen.

Transkript:

KAPITEL2 Digitalkameratechnologien 2.1 Die Rohdaten der Kamera Eine Digitalkamera hat viele Gemeinsamkeiten mit einer konventionellen analog arbeitenden Fotokamera, und doch ist ihre Funktionsweise nicht genau gleich. Vereinfacht betrachtet, besteht eine Kamera aus einem komplexen Linsensystem (Objektiv), um das gewünschte Motiv scharf abzubilden, einer Blende zum Regulieren der einfallenden Lichtmenge, die auf den Sensor (bzw. Film) fällt, und einem Verschluss, der sich blitzschnell öffnet, sobald man den Auslöser der Kamera betätigt. Nachdem das einfallende Licht das Objektiv und die Blende passiert hat, trifft es in dem Augenblick (bis 1/8000 Sekunde), in dem sich der Verschluss kurzfristig öffnet auf den Bildsensor (bzw. Film), dem eigentlichen Informationsträger einer jeden Kamera. Die vom Licht transportierte Bildinformation wird nun vom Sensor kurzfristig gespeichert (vom Film langfristig) in Form elektrischer Spannungsladungen. Und genau an diesem Punkt findet schliesslich der Übergang von der analogen zur digitalen Welt statt. Nach dem Digitalisierungsprozess im A/D-Wandler liegen nun die so genannten»rohdaten«oder RAW-Daten des Sensors vor, die man wahlweise als Datei speichern oder den kamerainternen Verarbeitungsprozessen überlassen kann. 2.2 Der Bildsensor Der Bildsensor einer Kamera ist gewissermaßen das digitale Pendant zum fotografischen Film und hat somit auch eine zentrale Funktion in einer Digitalkamera. Denn ohne Bildsensor gibt es auch kein Bild und somit auch keine RAW-Daten. Im Gegensatz zur konventionellen Fotografie hat man aber nicht die Möglichkeit, je nach Aufnahmesituation, das heißt je nach den herrschenden Lichtverhältnissen (Kunst- oder Tageslicht) einen anderen»film«bzw. einen anderen Sensor mit einer anderen Lichtempfindlichkeit zu verwenden. Man hat immer nur einen Sen- RAW-DATEN-WORKFLOW 17

Kapitel 2 Digitalkameratechnologien sor zur Verfügung und kann ihn nicht beliebig auswechseln. Er ist sozusagen das»herz«der Digitalkamera und ist von entscheidender Bedeutung für die resultierende Bildqualität. Ebenso wichtig ist aber auch die Leistungsfähigkeit der optischen Bauteile und nicht zuletzt auch die»intelligenz«der kamerainternen Software zur Optimierung der Bildergebnisse. Funktionsprinzip optischer Sensoren Für die elektronische Bilderfassung verwendet die Mehrzahl aller Video- und Digitalkameras aber auch alle Film- oder Flachbettscanner einen so genannten CCD-Sensor oder CCD-Chip (Charge Coupled Device), ein lichtempfindliches Halbleiterelement, das aus Millionen von winzig kleinen Fotodioden (Silizium-Dioden) besteht, die auf einem so genannten Silizium-Wafer aufgebracht sind. Jede dieser Fotodioden ist mit einem ebenso winzig kleinen, verlustarmen und parallel geschalteten Kondensator (Ladungspool) gekoppelt, um die Ladung der Fotodiode die bei einer Belichtung freigesetzten Elektronen kurzfristig zu speichern. Denn die Aufgabe einer Fotodiode (Fotozelle) besteht darin, aus Licht ein elektrisches Signal zu generieren. Trifft ultraviolettes, sichtbares oder infrarotes Licht bzw. treffen Photonen (400 1100 nm) auf Abbildung 2.1 Auslesevorgang der elektrischen Spannungsladungen in einem CCD- Flächensensor Analoge Spannungsladungen Vertikales Schieberegister Horizontales Schieberegister Video-Ausgang Signalverstärker A/D-Wandler 18 RAW-DATEN-WORKFLOW

2.2 Der Bildsensor Siliziumatome, entstehen durch eine Interaktion der Photonen (Lichtquanten) mit den Siliziumatomen freie Elektronen, die in einem Ladungspool (Charge Well) gesammelt werden. Um nun all diese Ladungspakete die Bildsignale für jeden Pixel auszulesen und als serielle Folge analoger Signale dem Signalverstärker und schließlich dem A/D-Wandler zuzuführen, werden so genannte Schiebe- oder Ausleseregister benutzt, die sich spaltenweise zwischen den matrixartig angeordneten Fotozellen befinden. Diese vertikal verlaufenden, parallelen Schieberegister wiederum münden in ein horizontales, serielles Sammelregister mit dem Video-Ausgang, wo die Signale zuerst verstärkt werden. Im Ausgangsverstärker wird von jedem Bildpunkt (Pixel) die Stärke der Ladung ermittelt und als analoge Spannung dem Analog-Digital-Wandler zugeführt. CCD oder Charge Coupled Device heißt so viel wie»ladungsgekoppeltes Halbleiterelement«und besteht aus zeilenweise zusammengeschalteten CCD- Elementen, die das lineare»herausschieben«der Spannungsladungen mittels eines Taktsignals erlauben. Die einzelnen Ladungen (Elektronen) werden dabei nach dem Eimerketten-Prinzip von einem Element zum anderen durchgereicht, bis die Zeile leer ist. Ist der Auslesevorgang schnell genug, kann gleichzeitig ein erneuter Belichtungsvorgang erfolgen. Sensor-Bauweisen Bei elektronischen Bilderfassungsgeräten trifft man auf unterschiedliche Bauweisen von CCD-Sensoren. Die aus drei Zeilen von Fotodioden bestehenden CCD-Zeilensensoren findet man in Film- und Flachbettscannern oder in Faxgeräten. Der Sensor wird dabei zeilenweise über die Abtastfläche transportiert, bzw. der Papiervorschub des Faxgeräts führt die Vorlage am Sensor vorbei. In Digitalkameras mit Ausnahme der»kamerascanner«für die Studiofotografie von unbewegten Objekten werden hingegen»ccd-flächensensoren«(ccd-matrizen) verbaut. Sie dienen in der Digitalfotografie und Videotechnik dazu, sowohl unbewegte als auch bewegte Objekte in einem Belichtungszyklus zu erfassen. Sensor-Auflösung Das Leistungsmerkmal eines CCD-Flächensensors wird bei Digitalkameras in Megapixel-Angaben (Mpx) beziffert und gibt Aufschluss über die gesamte Anzahl der lichtempfindlichen CCD-Elemente und somit der Pixelauflösung auf der oft nur fingernagelgroßen Fläche des CCD-Sensors. Solche Angaben sind allerdings mit Vorsicht zu genießen und sollten anhand des technischen Datenblattes genau geprüft werden, denn oft beziehen sie sich auf die interpolierte Auflösung und entsprechen nicht der tatsächlichen physikalischen Auflösung bzw. der Anzahl Sensorelemente. RAW-DATEN-WORKFLOW 19

Kapitel 2 Digitalkameratechnologien Angesichts der Millionen von CCD-Elementen (Fotodioden), die sich auf kleinster Fläche auf dem CCD-Chip versammeln, ist es kaum verwunderlich, dass das eine oder andere Element defekt ist und zu Störungen und Abweichungen bei der Signalerfassung neigt. Je mehr Sensoren sich auf einem CCD-Chip befinden, desto kleiner sind sie und desto geringer wird ihr Abstand und somit auch ihre lichtempfindliche Oberfläche. All diese Faktoren können sich durchaus negativ auf die Bildqualität auswirken und manifestieren sich häufig in Form eines verminderten Dynamikumfangs oder einzelner falsch gefärbter Pixel in homogenen Bildstellen. Im Zuge immer höherer Sensorauflösungen bei digitalen Kameras, werden auch immer bessere Bildprozessoren benötigt, um die RAW-Bilddaten in qualitativ hochwertige Bilder umzuwandeln. Die häufig sehr bescheidenen geometrischen Abmessungen (kleiner als das Kleinbildformat) eines CCD-Chips sind begründet in ihrem hohen Preis. Dieser ist zurückzuführen auf die aufwändige Herstellung (rund 27 Produktionsschritte) und die hohe Ausschussrate aufgrund der besonders hohen Anforderungen an die Materialeigenschaften. Als kostengünstige Alternative werden zunehmend die CMOS-APS (Complementary Metal Oxid Semiconductor- Active Pixel Sensor) oder so genannte»intelligente Bildsensoren«verwendet. Sie werden in großer Stückzahl und auf die gleiche Weise produziert wie Speicherbausteine (RAM) und Computerprozessoren (CPUs). Abgesehen von den relativ günstigen Herstellungskosten, zeichnen sie sich durch eine geringe Leistungsaufnahme, niedrige Erwärmung und Störunanfälligkeit aus. Die CMOS-Technik erlaubt zudem die Integration zusätzlicher elektronischer Bauelemente, die typische Kamerafunktionen selbsttätig erledigen können, wie z. B. Weißabgleich, Belichtungskorrektur, Sättigungskorrektur, Schärfen, A/D- Wandlung usw. Selbst der Bildspeicher kann integriert sein. Hierfür sind also keine zusätzlichen Bauelemente notwendig, weshalb der Sensor im Vergleich zu einem CCD auch sehr kompakte Ausmaße hat. Die grundlegende Funktionsweise eines CMOS-Sensors ist vergleichbar mit einem CCD-Sensor. Der Unterschied besteht darin, dass die entstandenen Spannungsladungen unmittelbar bei jedem Bildpixel verstärkt und digitalisiert werden, womit auch das Auslesen der Daten nicht durch ein Taktsignal, sondern durch eine direkte Adressierung der Pixel erfolgt. Auf gleiche Weise erfolgt auch das Auslesen des RAM-Speichers mit wahlfreiem Speicherzugriff. CMOS-Sensoren neigen aufgrund ihrer Arbeitsweise überhaupt nicht zu so genanntem Blooming (siehe Abschnitt»Blooming«weiter hinten in diesem Kapitel). Darunter versteht man störende vollständig weiße Flecken mit farbigen Rändern, die durch eine partielle Überbelichtung entstehen und sich durch Weiterreichen der Ladungen von einem Pixel zum anderen auch in korrekt belichtete Bereiche ausdehnen. In der Regel sind CMOS-Sensoren weniger lichtempfindlich, was oft mit einem verminderten Dynamikumfang (Kontrastumfang) einhergeht sowie einer erhöhten Anfälligkeit für so genanntes»rauschen«(siehe Abschnitt»Bildrauschen«weiter hinten in diesem Kapitel). Denn auf jeder Fotodiode befinden sich zusätzlich noch diverse Transistoren bzw. Schaltkreise, so dass der effektive lichtempfindliche Teil der Fläche noch etwa 30 80% der Gesamtfläche ausmacht und das Signal entsprechend verstärkt werden muss. Um die Lichtaus- 20 RAW-DATEN-WORKFLOW

2.2 Der Bildsensor beute zu erhöhen, wird über jeder Fotodiode eine Mikrolinse aufgebracht, die das Licht so bündelt, dass es nicht auf»blinde«bereiche der Fotozelle trifft, sondern genau auf den lichtempfindlichen Teil. Intelligente kamerainterne Software oder ein spezieller RAW-Editor (bei Vorliegen von RAW-Daten) kann solche Schwachstellen jedoch weitgehend korrigieren, womit CMOS-APS vorbehaltlos auch in teureren Digitalkameras anzutreffen sind. Weil der CMOS-Sensor all diese Funktionen selbst ausführt, ähnelt seine Architektur eher der eines RAM-Bausteins, als der eines einfachen Bildsensors. Die Bezeichnung APS (Aktiv-Pixel-Sensor) weist darauf hin, dass die Fotodiode direkt mit der Ausleseelektronik für jeden einzelnen Pixel kombiniert ist. Was die Auflösung von CCD- oder CMOS-Chips betrifft, bieten mittlerweile auch kleine Kompaktkameras zwischen 2 bis 8 Megapixel. Noch wesentlich höhere Auflösungen hingegen sind den absoluten Highend-Profikameras vorbehalten und bewegen sich in der Größenordnung von 10 bis 16 Megapixel. Diesem schon beinahe pathologisch anmutenden Streben nach immer mehr Pixeln bei Kompaktkameras und dem Ringen um immer höhere Leistungen aus rein werbestrategischen Gründen sind aber klare technische Grenzen gesetzt, wenn die Bildqualität nicht darunter leiden soll. Denn was letztlich zählt, ist nicht allein die Auflösung, sondern vielmehr auch die Größe eines CCD- oder CMOS-Chips und somit auch die Größe der einzelnen Fotozellen, um die Leistungsfähigkeit des Objektivs auch voll auszunutzen. Denn je größer die einzelnen Sensorelemente, desto lichtempfindlicher sind sie, das heißt, desto mehr Licht können sie aufnehmen und desto weniger muss das Signal verstärkt werden. Das wiederum vermindert die Gefahr des»verrauschens«von Bilddaten. Neben Blooming gehört auch Rauschen zu den typischen unerwünschten Störungen, die von den physikalischen Eigenschaften des Bildsensors verursacht werden. Insbesondere in Kompakt- und Sucherkameras werden kleine und dicht bepackte Sensor-Chips mit entsprechend kleinen Fotozellen verbaut, was sich bei schwierigen Aufnahmesituationen mit wenig Licht und bei hohen ISO-Werten besonders deutlich bemerkbar macht. Ideal sind CCD- oder CMOS-Chips in den Abmessungen des Kleinbildformats (24x36 mm), dem so genannten Vollformatsensor und somit entsprechend größeren Fotozellen. Aufgrund des hohen Preises findet man Chips im Kleinbildformat allerdings nur in einigen wenigen professionellen und teuren Spiegelreflexkameras. In der Folge liefert eine DSLR-Kamera selbst bei erhöhter Lichtempfindlichkeit von 400 oder 800 ISO rauscharme Bilder und kann problemlos auch auf 1600 oder gar 3200 ISO heraufgesetzt werden. Damit lässt sich vermutlich auch erklären, weshalb nur die teureren Digitalkameras die Möglichkeit bieten, RAW-Daten zu speichern. Denn rein aus Qualitätsgründen macht es keinen Sinn, schlechtes»rohmaterial«direkt vom Sensor auszulesen, um unnötigerweise den Versuch zu unternehmen, es außerhalb der Kamera zu»veredeln«ebenso wenig sinnvoll, wie ein Versuch, aus schlechten Trauben einen guten Wein zu keltern. In diesem Fall dürfte die kamerainterne Bildverarbeitung möglicherweise bessere Dienste Leisten ganz zu schweigen vom zusätzlichen Zeitaufwand, den man mit RAW-Daten hat, bis RAW-DATEN-WORKFLOW 21

Kapitel 2 Digitalkameratechnologien ein fertiges Bild vorliegt. Die Qualität und Leistungsfähigkeit des Bildsensors hat also einen wesentlichen Einfluss auf die Qualität der RAW-Daten. CCD-Typen in Digitalkameras Für Digitalkameras kennt man zwei grundlegend verschiedene CCD-Typen, die sich durch die Art und Weise, wie sie die Daten auslesen und digitalisieren, unterscheiden. Video-CCD Der als Video-CCD oder Interlaced-CCD bezeichnete Sensor-Typ wurde ursprünglich für TV- und Videoaufnahmen entwickelt. Durch verschiedene Modifikationen wurde er so angepasst, dass er sich mittlerweile auch in Digitalkameras etablieren konnte. Vorteilhaft wirken sich die hohe Lichtempfindlichkeit, die hohe Leistung und letztlich auch die relativ kostengünstige Herstellung aus, weshalb heute bereits ein Großteil aller Digitalkameras mit einem Video-CCD ausgestattet ist. Obschon ein Video-CCD die gesamte Bildinformation in nur einem Aufnahmevorgang erfasst, werden die endgültigen Aufnahmedaten aus zwei Halbbildern im Interlaced-Verfahren zusammengesetzt. Dabei werden die Daten der Zeilen 2, 4, 6, 8 usw. zuerst digitalisiert, gefolgt von den Zeilen 1, 3, 5, 7 usw. Während dieses»entwicklungsprozesses«dürfen aus verständlichen Gründen natürlich keine neuen Bildinformationen auf den Sensor fallen, um den Digitalisierungsprozess nicht zu stören. Ein mechanischer Kameraverschluss ist deshalb eine unabdingbare Voraussetzung bei Digitalkameras mit Video-CCD. Für die Ermittlung der Farbinformationen werden entweder RGB- oder CMY+G(rün)-Filter eingesetzt. Abbildung 2.2 Digitalisierungsprozess bei einem Video-CCD-Sensor im Interlaced-Verfahren Video-CCD 1. Halbbild 2. Halbbild Progressiver-Scan-CCD Der als»progressiver-scan-ccd«oder kurz»progressiv-ccd«bezeichnete Sensor-Typ erlaubt vergleichsweise extrem schnelle Verschlusszeiten mittels 22 RAW-DATEN-WORKFLOW

2.2 Der Bildsensor elektronischer Belichtungskontrolle und kann problemlos mehrere und in kurzen Zeitintervallen aufeinanderfolgende Vollbilder pro Sekunde aufzeichnen. Aus diesem Grund ist dieser CCD-Typ besonders gut geeignet für bewegte Bildmotive, wie sie in der Sport- und Action-Fotografie üblich sind. Das Auslesen der Daten erfolgt Zeile für Zeile, eine nach der anderen (1, 2, 3, 4 usw.) in einem einzigen Arbeitsgang, weshalb ein mechanischer Verschluss bei einem verbauten Progressiv-CCD nicht zwingend ist. Erfassung der Farbinformation im Sensor Alle als»single-shot«oder»one-shot«bezeichneten Digitalkameras das sind solche, die in einem einzigen Belichtungszyklus ein farbiges Bild (RGB) erzeugen enthalten in der Regel nur einen einzigen CCD-Chip, der mit Millionen von Fotodioden bestückt ist. Fotodioden sind grundsätzlich»farbenblind«. Mit anderen Worten, sie reagieren nur auf die einfallende Lichtmenge und nicht auf die Wellenlängen des Lichts als Träger der Farbinformationen. Sie erfassen also nur monochrome Helligkeitswerte und somit Graustufen (mit Ausnahme des Foveon-Chips). Um chromogene Bilder mit einem CCD-Sensor zu erfassen, bedient man sich verschiedener Farbfiltermatrizen unter Berücksichtigung bekannter menschlicher Farbwahrnehmungseigenschaften. Über jeder lichtempfindlichen Fotodiode wird ein Farbfilter in einer der drei Primärfarben (der additiven Farbmischung) Rot, Grün oder Blau angebracht, womit jede einzelne Fotodiode nur noch auf die Wellenlängen seiner Filterfarbe bzw. deren Helligkeitswerte reagiert. Da das menschliche Auge sensibler auf Abweichungen in der Helligkeit reagiert als auf Abweichungen der Farbigkeit, erhalten 50% aller Fotodioden einen Grünfilter, 25% einen Rotfilter und die restlichen 25% einen Blaufilter. Die zahlenmäßige Dominanz der Grünfilter beruht auf den Forschungsergebnissen der Commission International de l Eclairage (CIE), wonach das menschliche Auge sein Hellempfindlichkeitsmaximum bei 555 nm (Nanometer) hat und somit im grünen Wellenlängenbereich. Auf der Netzhaut befinden sich doppelt so viele Rezeptoren für Grün, wie für Rot und Blau. Man gewinnt aus der Grüninformation also gleichzeitig die Luminanz- bzw. Helligkeits-Information für die benachbarten Rot- und Blaupixel. Diese roten, grünen und blauen Farbfilter werden auf eine ganz bestimmte Weise angeordnet und im Ganzen als Mosaikfilter bezeichnet. Die weitaus am häufigsten verwendete Methode wird als Bayer-Matrix (Bayer-Pattern) bezeichnet nach Dr. Bayer, einem Wissenschaftler bei Kodak, und eine weitere ähnliche Methode als Linear-Matrix (Linear-Pattern). Die spektrale Empfindlichkeit des Sensors beruht auf den Transmissionsspektren der roten, grünen und blauen Farbfilter und basieren auf den Normspektralwertkurven eines Normalbeobachters (CIE 1931). Trifft das nicht zu, kann es zu Metamerieerscheinungen kommen. Farben die das Auge als unterschiedlich wahrnimmt, werden von der Kamera nicht unterschieden und umgekehrt. RAW-DATEN-WORKFLOW 23

Kapitel 2 Digitalkameratechnologien Abbildung 2.3 Mosaikfilter (Bayer-Matrix und Linear-Matrix) über den Fotodioden eines Bildsensors CCD-Flächensensor einer Digitalkamera Glasabdeckung Mosaikfilter mit Linear-Pattern (Filtervariante) Mosaikfilter mit Bayer-Pattern Datenspeicherung (Bildsensor) Der von Sony entwickelte»super HAD«(HAD = Hole Accumulating Diode) ist ein nach dem CCD-Prinzip arbeitender Bildsensor. Um besonders naturgetreue Farben zu erhalten, wird ein RGBE-Mosaikfilter eingesetzt. Das E steht für»emerald«bzw. Smaragdgrün. Man verwendet also zur Gewinnung der Farbinformation neben den typischen RGB-Filtern zusätzlich einen smaragdfarbenen Filter. Im Unterschied zum Bayer-Mosaikfilter kommt jede der Filterfarben gleich oft vor. Durch eine Mikrolinse über jedem Sensorelement wird außerdem eine größtmögliche, optimale Lichtausbeute angestrebt. Farbinterpolation (Bayer-Mosaik-Auflösung) Der CCD-Sensor»filtert«sich also die Helligkeitswerte für den roten, grünen und blauen Wellenlängenbereich aus dem auftreffenden Licht heraus, wodurch die einzelne Fotodiode nur entweder die Rot-, die Grün- oder die Blauinformation für einen Bildpixel registriert. Ein einzelner Farbkanal (R, G, B) ist infolgedessen»lückenhaft«und unvollständig. Theoretisch liegt somit auch die erzielbare Bildauflösung physikalisch bedingt immer unter der tatsächlich vorhandenen Pixelzahl bzw. der Anzahl Sensorelemente. Durch raffinierte und komplexe Software-Interpolationsmethoden die so genannte Pattern-Verrechnung oder Bayer-Mosaik-Auflösung werden die fehlenden Farbinformationen mittels Image-Prozessor für jedes Pixel aus den benachbarten Pixeln, das heißt den übrigen Farbkanälen errechnet, um die entstandenen Informationslücken zu füllen. Denn jedes Bildpixel besteht aus einer Rot-, Grün- und Blauinformation (RGB) in Form von drei binären Ziffernfolgen, damit ein Computer die Bildinformationen verarbeiten kann. Nur alle drei Farbkanäle zusammen mit je 100% roten, grünen und blauen Pixeln ergeben schließlich ein vollständiges vollfarbiges Bild. 24 RAW-DATEN-WORKFLOW

2.2 Der Bildsensor Lichteinfall Abbildung 2.4 Farberfassungsprinzip eines Bayer-Mosaikfilters R G B CCD/CMOS-Sensor mit Mosaikfilter Unvollständige Farbkanäle Rot, Grün, Blau Farbinterpolation RGB-Bild Das Ergebnis der Farbinterpolation hängt weitgehend von der Präzision der zugrunde liegenden Software und dem Zusammenwirken mit der Hardware ab. Genau diese Farbinterpolation ist auch ein wesentlicher Teil der RAW-Konvertierung, die dazu notwendigen Algorithmen sind gut gehütete Firmengeheimnisse. Denn würde man nur einfach die Farbinformationen von jeweils vier Bildpunkten zu einem RGB-Makropunkt zusammenfassen, betrüge einerseits die effektive Bildauflösung nur noch ein Viertel der ursprünglichen Sensorauflösung, andererseits würde man dabei auch sehr viel Detailzeichnung verlieren. Abbildung 2.5 Das Zusammenfassen der Farbinformation von vier Bildpunkten zu einem Makropunkt führt zu einer verminderten Bildauflösung. Sensorelemente (Bayer Matrix) Makropunkte (Bildpixel) aus je vier Sensorelementen mit vier mal geringerer Auflösung. RAW-DATEN-WORKFLOW 25