Digitale Fotografie: Kodak DCS

Empfindlichkeit digitaler Kameras  jetzt bis ISO 4000:
Das digitale Foto hat wieder Beweiskraft vor Gericht

Das Originalformat   der neuen Profikamera DCS 620X von Kodak ist fälschungssicher und dank seiner 36 bit fehlbelichtungsfest. Software „on board“ eröffnet der professionellen Digitalfotografie neue Einsatzfelder, die mit Filmkameras nicht denkbar sind.

Steve Noble, Chefdesigner der Kodak DCS Kameras, kam selbst aus Rochester nach Stuttgart, um im Rahmen eines Presseseminars über die Funktionalität und die Qualität von CCD Sensoren in digitalen Kodak Profikameras zu referieren. Auf einem für Pressekonferenzen ungewöhnlichen hohen Detailniveau beschrieb er die Möglichkeiten und Probleme der professionellen Digitalfotografie.

Die Abstimmung zwischen Kameratechnologie und den HighEnd CCD-Sensoren stellt die Entwickler vor immer weitere Herausforderungen. Die Pixelzahl, die in der Werbung oft im Mittelpunkt steht,  ist nur ein Faktor von mehreren für die Bildqualität. Steve Noble: "Die professionelle Bilddarstellung erfordert nicht nur Bilder hoher Auflösung, sondern Bilder, die sich durch hohe Detailzeichnung, einen hohen Dynamikbereich (Kontrastumfang), geringes Rauschen und hohe Farbtreue auszeichnen". Kodak kündigt im Rahmen dieser Präsentation die Digitalkamera DCS 620X an, deren CCD-Sensor mit 3048 X 2008 Pixel neue Maßstäbe im Bereich der hochempfindlichen Sensoren setzt.

Höhere Blau-Empfindlichkeit durch Indium-Zinn-Oxid-Elektroden

Physikalische Grundlage der Bildaufnahme mit Halbleitern ist der Photoeffekt. Ein Bild ist ein zweidimensionales Muster verschiedenfarbiger Lichtintensität. Fällt dieses Licht auf eine Fotozelle oder das Pixel eines Sensors, entsteht elektrische Ladung in Gestalt frei beweglicher Elektronen. Die Zahl der Elektronen steigt proportional mit der Lichtintensität, also der Zahl der Photonen (Lichtquanten). Die Farbe des Lichts – die Energie des Photons - spielt nur indirekt eine Rolle: die optischen Eigenschaften (spektrale Transmission) des Elektrodenmaterials entscheiden über die Quantenausbeute (Lichtempfindlichkeit) bei unterschiedlichen Wellenlängen.

Die Umwandlung von Lichtquanten (Photonen) in Ladung erfolgt direkt unter den rechteckigen Gate-Elektroden des CCD-Sensors in der durch Dotierung (gezielte Verunreinigung mit Fremdatomen) leitfähigen Siliziumschicht. Das Licht muss durch diese Elektroden hindurch - die optischen Eigenschaften dieses Elektrodenmaterials sind daher für die Quantenausbeute, also die spektrale Empfindlichkeit des Sensors maßgeblich.

Fullframe-CCD-Sensoren mit CMY-Filter bieten höchste Lichtempfindlichkeit

Fullframe-Sensoren sind den alternativen Technologien der Interline- und CMOS-Sensoren in puncto Auflösung, Kontrastumfang, Farbrauschen und Lichtempfindlichkeit überlegen. Vor allem bei der Aufbereitung der Bilder für den großformatigen Druck zeigt ein Fullframe-Sensor die Reserven, die er der digitalen Bildbearbeitung bietet.

Als erstes Unternehmen setzt Kodak schon in der DCS 520 einen Bildsensor mit einer Gate-Elektrode aus Indium-Zinn-Oxid (ITO – Indium Tin Oxide) ein. Gegenüber dem bislang eingesetzten Polysilizium (Reinstsilizium mit heterogener Kristallstruktur) bietet ITO auf Grund seiner geringeren optischen Dämpfung im Bereich von 400 bis 540 nm eine deutlich höhere Blau-Empfindlichkeit. Da so etwa zwei bis drei mal mehr blaues Licht auf den Bildwandler kommt, erzielt man auf Grund des besseren Signal-Rausch-Verhältnisses eine bessere Farbwiedergabe. Der CCD-Sensor der DCS 620X bietet eine kalibrierte Empfindlichkeit bis zu ISO 4000 und liefert - so Noble - "eine Bildqualität, die mit keinem anderen Sensorsystem vergleichbar ist". Kodak hat diese hohe Qualität durch eine neuartige CMY-Farbfiltermatrix auf den Elektroden aus Indium-Zinn-Oxid (ITO) und einer extrem rauscharmen Signalverarbeitung erreicht. Der ITO-CCD-Bildwandler sorgt zudem für eine überragend gute Bildqualität bei einem kalibrierten Empfindlichkeitsbereich von ISO 400 bis ISO 4000. Selbst bei einer Belichtung mit ISO 6400 liefert die softwareseitige Rauschunterdrückung fast makellose Ergebnisse ohne das gefürchtete Farbflächenrauschen durch den Dunkelstrom des Sensors.

Einen weiteren Beitrag zur höheren Lichtempfindlichkeit leistet die Filtermatrix aus CMY-Filtern anstelle der üblichen RGB-Filter. Die Verteilung der drei Farbfilter auf der Sensorfläche erfolgt nach dem sogenannten Bayer-Pattern, bei dem der für die Detailzeichnung wichtige Y-Kanal die Hälfte der Pixel, der C- und M-Kanal jeweils nur ein Viertel belegen. Damit gewinnt man zwar Auflösung und Empfindlichkeit, handelt sich aber ein anderes physikalisches Problem ein: das Chroma-Aliasing.

Anti-Aliasing geht auf Kosten der Schärfe

Die Entstehung von Alias-Frequenzen, im Druckbereich als Moiré bekannt, ist ein grundlegendes Problem bei der Digitalisierung. Das Abtasttheorem von Shannon schreibt zwingend vor, dass ein gesampeltes, also in regelmäßigen Schritten punktweise abgetastetes Signal keine Frequenzanteile enthalten darf, die oberhalb der sogen. Nyquist-Frequenz, also der halben Abtastfrequenz liegen. Diese Abtastfrequenz wird bei einem Bildsensor durch den Abstand und die Geometrie der Pixel definiert: bei einem 9 µm breiten Pixel liegt die Nyquist-Frequenz z. B. bei 55,6 Linienpaaren/mm. Eine Verletzung dieser Nyquist-Forderung führt zum sogen. Aliasing: sehr groben (niederfrequenten) Bildstörungen, die aus dem digitalen Bild praktisch nicht mehr zu entfernen sind. Es gibt zwar Softwarefilter für Farbmoiré, die aber nur begrenzt Abhilfe bringen können: keine Software erkennt, ob ein feines Farbmoiré nicht doch ein wichtiger Teil der Bildinformation ist.

Deshalb muss man vor der Abtastung die Bandbreite des Signals mit Anti-Aliasing-Filtern begrenzen. Bei einer Digitalkamera geschieht dies durch optische Tiefpassfilter: drei dünne Scheiben aus doppelbrechendem Material wie Lithium-Niobat, die eine vergleichsweise steile Filterflanke bieten. Je steiler die Flanke der Modulationsübertragungsfunktion zur Nyquist-Grenze abfällt, desto weniger wird die Bildschärfe beeinflusst. Deshalb ist eine Anti-Aliasing-Filterung immer ein Abwägen zwischen dem Aufwand bei der Filterung (hohe Steilheit) und dem in Kauf genommenen Schärfeverlust durch die – eigentlich unnötige - Dämpfung von Frequenzen unterhalb der Nyquist-Frequenz. So weit, so gut. Doch es gibt, wie schon angedeutet, noch ein weiteres Problem!

Farbmoiré bleibt ein Problem bei Einchip-CCDs

Bei einer Farbkamera mit nur einem Sensor müssen die verfügbaren Pixel eines Sensors optimal auf die drei Farbkanäle verteilt werden. Da die visuell wahrnehmbare Detailinformation überwiegend im Grünkanal steckt, enthält die Filtermatrix auf dem Sensor doppelt so viel grünempfindliche wie blau- und rotempfindliche Pixel. Demzufolge hat der Rot- und Grün-Kanal eine um die Hälfte niedrigere Abtastfrequenz.

So entsteht für den Entwickler ein Dilemma: will er maximale Schärfe im Grünkanal, riskiert er massive Moire-Störungen im Blau- und Rotbereich – extrem stark etwa bei der Aufnahme von Anzugstoffen oder schwarzem Text. Vermeidet er diese durch eine entsprechend früher einsetzende Bandbegrenzung, geht erheblich Schärfe im Gesamtbild verloren. Dass der Kompromiss bei der Wahl des Anti-Aliasingfilters  von Bildmotiv zu Bildmotiv anders aussieht, macht ihm die Entscheidung nicht eben einfacher. Deshalb überlässt Kodak bei den neuen DCS-Kameras die Entscheidung dem Fotografen: er kann das Lithium-Niobat-Filter ebenso wie das Sperrfilter für Infrarot mit wenigen Handgriffen aus dem Strahlengang entfernen.

Das DCS RAW File bringt Belichtungssicherheit für Profis

Jeder Profifotograf kennt die Erfahrung, dass durch Fehlbelichtungen oder falsche Filterung unter schwierigen Lichtverhältnissen, wie zum Beispiel Mischlicht, wichtige Aufnahmen unbrauchbar werden und nicht mehr zu verkaufen sind. Ähnlich einem Diafilm besitzen Digitalkameras deutlich geringere Belichtungsspielräume als Farbnegativfilme. Ein überbelichteter Diafilm verliert die Lichterzeichnung, wichtige Information ist verloren.

Die DCS-Kameras umgehen das Problem durch Speicherung des „digitalen Negativs“ im DCS RAW“ Format mit einer Farbtiefe von 36 bit. Durch diese hohe Farbtiefe lassen sich Aufnahmen im Bereich von +/- 2 Blenden - ähnlich Push-Pull-Entwicklungen im Fachlabor- nachträglich korrigieren, ohne dass es zu einem Informationsverlust kommt. Ebenso lässt sich dank der 12 bit pro Kanal am Originaldatenbestand auch noch nach der Aufnahme die Graubalance verändern: die Belichtungsversicherung für Fotografen.

Da das neue PhotoShop-PlugIn das DCS RAW Format zwar lesen, aber nicht schreiben kann, bietet diese Datei eine Art Wasserzeichenschutz: jede Manipulation an Ihr verletzt nachweisbar ihre Integrität. Damit hat ein Digitalphoto einer DCS-Kamera mehr Beweiskraft, als ein analoges Bild auf Film, bei dem Manipulationen praktisch nicht mehr nachweisbar sind!

Grundlagen der CCD-Technologie

Die CCD-Technologie wurde 1960 in den Forschungslabors von Bell entwickelt. CCD steht für “Charge Coupled Device”, also ”ladungsgekoppeltes Bauelement”. Zunächst waren die CCDs als Speicherbausteine in Rechnern vorgesehen: als Schieberegister oder “Eimerkettenspeicher”. Schon bald erkannte man aber ihr enorm großes Anwendungspotenzial, etwa bei der analogen Signalverarbeitung und im Imaging: die Lichtempfindlichkeit von Silizium machte sie zu idealen Lichtdetektoren.

Zur Herstellung der CCD-Bildwandler werden große Siliziumscheiben (”Wafer”) in mehreren Prozess-Schritten Schicht für Schicht zu komplexen Schaltkreisen aufgebaut. So entstehen gleichzeitig viele identische Schaltkreise nebeneinander. Die fehlerfreien CCDs werden ausgestanzt und in einen Chipträger einmontiert.

Der CCD-Sensor ist das Herz einer digitalen Kamera: dieses elektronische Auge verwandelt Licht in elektrische Ladung. Die patentierten Bildsensoren von Kodak bestehen aus Tausenden von Bildzellen (Pixel), die entweder in einer Zeile oder in einer flächigen Matrix wie auf einem Schachbrett angeordnet sind. So entsteht aus dem Bild Punkt für Punkt eine Abfolge elektronischer Signale.

Die Architektur der CCDs

Zum besseren Verständnis hier ein Überblick über die verschiedenen Bauformen der CCD-Sensoren und ihre praktische Bedeutung bei der Bildaufzeichnung:

Flächensensoren erfassen alle Bildpunkte gleichzeitig und erlauben dem Fotografen die Aufnahme bewegter Objekte mit beliebiger Verschlusszeit.

Zeilensensoren bestehen aus einer einzigen Reihe nebeneinander liegender CCD-Zellen (Pixel). Sie tasten das Bild zeilenweise ab. In drei verschiedenen Belichtungsphasen werden dabei die roten, grünen und blauen Bildanteile erfasst. Zeilensensoren bieten eine sehr hohe Auflösung, sind aber durch die zeitaufwändigere Erfassung der einzelnen Scanzeilen auf stillstehende und ständig ausgeleuchtete Objekte beschränkt.

Trilineare Sensoren bestehen aus drei parallelen Sensorzeilen, die auf ihrer Oberseite jeweils einen Farbfilter für Rot, Grün und Blau tragen. Ein Farbbild kann so in nur einem Scanvorgang erfasst werden. Trilineare Sensoren werden in HighEnd-Kameras eingesetzt: sie bieten ein Höchstmaß an Auflösung und Farbwiedergabequalität.

Interline und Frame Transfer CCDs setzen zwei getrennte Bereiche für die Bildaufnahme und für den Ladungstransport ein. Dadurch kann der Auslesevorgang zeitgleich mit der Belichtung des nächsten Bildes erfolgen. Sie werden in preiswerteren Digitalkameras und Videokameras für die Aufnahme bewegter Objekte und für Bewegtbilder (Videofilme) eingesetzt.

Vollbild-Sensoren (Full Frame Transfer) sind mit einer Farbfiltermatrix bestückt, mit der sie das gesamte Bild gleichzeitig erfassen. Die Kodak Sensoren bieten die dafür erforderliche größere Ladungskapazität pro Pixel, einen höheren Dynamikbereich (Kontrastumfang), geringeres Rauschen und eine bessere optische Auflösung. Diese “Full Frame CCDs” bestehen aus einem parallelen und einem seriellen Schieberegister sowie einem Signalverstärker.

Die Belichtung muss hier über einen mechanischen Verschluss gesteuert werden, da das Parallelregister sowohl zur Bildaufnahme als auch zum Auslesen eingesetzt wird. Das Parallelregister liegt in der Bildebene des Objektivs: durch die Zellenstruktur wird das Bild gepixelt, also zweidimensional quantisiert. Zeile für Zeile wird das Bildsignal dann parallel in ein Schieberegister übergeben, das daraus einen seriellen Datenstrom erzeugt. Das verarbeitende System kann das Bild aus diesem Datenstrom rekonstruieren.

So wird aus Licht Ladung:

Ein Bild ist ein zweidimensionales Muster verschiedenfarbiger Lichtintensität. Fällt dieses Licht auf eine Fotozelle oder das Pixel eines Sensors, entsteht elektrische Ladung in Gestalt frei beweglicher Elektronen (Fotoeffekt). Die Zahl der Elektronen steigt proportional mit der Lichtintensität, also der Zahl der Photonen (Lichtquanten). Die Farbe des Lichts – die Energie des Photons - spielt nur indirekt eine Rolle: die optischen Eigenschaften (spektrale Transmission) des Elektrodenmaterials entscheiden über die Quantenausbeute (Lichtempfindlichkeit) bei unterschiedlichen Wellenlängen.

So wird Ladung transportiert:

Die Ladung, die in den Pixel-Zellen wie in einem Topf gesammelt wird, muss zum Ausgangsverstärker transportiert werden. Das geschieht ähnlich wie bei einer Eimerkette der Feuerwehr: die Ladungen aller Pixel wandern gleichzeitig von Topf zu Topf. Entscheidend ist dabei, dass keine Ladung verloren geht oder einem falschen Pixel zugeordnet wird. Das im Spannungswandler erzeugte Signal muss so genau wie möglich mit dem ursprünglichen Ladungsmuster übereinstimmen. Als Ladungs- Spannungswandler werden so genannte “Source follower”-Schaltungen eingesetzt, die diese Linearität gewährleisten.

Ein verständliche Einführung in die Halbleitertheorie findet man im Internet z.B. auf http://educeth.ethz.ch/physik/leitprog/photo/
halbleiter.html

Neue Software für die alte Kamera!

Neue Treiber und neue Firmware erweitern die Features und Einsatzgebiete der aktuellen KODAK Professional DCS Digitalkameras um wichtige Funktionen für den Profifotografen. Die neue Software und Firmware, die auch in vorhandene Modelle nachgeladen werden kann,  gibt es kostenlos aus dem Internet: http://www.kodak.com/go/drivers

Zwei PC-Karten gleichzeitig nutzbar

Beide Einschübe in der DCS Kamera können jetzt für PC Karten vom Typ II verwendet werden. Wenn die Speicherkapazität der einen Karte erschöpft ist, werden die Bilder automatisch auf die andere geschrieben (verdoppelte Kapazität oder zusätzlich GPS). Wahlweise kann eine PC Card Typ III mit mehr als 500 MB oder aber einer oder zwei PC Cards Typ II und/oder einer oder zwei CompactFlash Cards in Typ II Adaptern eingesetzt werden.

Belichtungs- und Graubalance-Ausgleich

Falsch belichtete Rohdaten können nachträglich um bis zu +/- 2 Blenden in 1/10 Blendenstufen in der Belichtung korrigiert werden, dank der 12 bit Farbtiefe pro Kanal ohne sichtbaren Qualitäts- und Zeichnungsverlust, selbst bei stark überbelichteten Bildern.

Dateiformat-Modul für Photoshop

Das Dateiformat-Modul ist ein neues ADOBE Photoshop Software PlugIn, mit dem sich „digitale Negative“ im DCS RAW-Format (36 bit) direkt in ADOBE Photoshop (ab 4.0) laden und schnell in voller Auflösung durchsehen lassen (bisher nur Thumbnail-Qualität).

Intervalometer

Mit der Intervalometerfunktion, einem verbesserten Zeitauslöser, kann man automatisch eine Bildsequenz in vorgegebenen Zeitintervallen aufnehmen (Zeitraffer).

Weißabgleichsoptionen

Für eine individuelle Lichtsituation lassen sich erprobte Einstellungen für den Weißabgleich als Datei in die DCS Kamera laden, die dann zusätzlich zu den kamerainternen Optionen für den Weißabgleich (Tageslicht D65, Kunstlicht, Leuchtstoffröhren und Blitzlicht) verfügbar sind.

Ausgabe als farbprofiliertes TIFF, als JPEG oder als 36 bit Rohdaten

Mit der neuen Firmware ist es möglich, die Bilder in der Kamera als JPEGs in drei unterschiedlichen Qualitätsstufen rechnen zu lassen und gleichzeitig die unmanipulierten Rohdaten (RAW-TIFF) als digitale Originale zu belassen. (Nicht für DCS 560 / 660). Für kritische Farbkorrekturen sind die DCS-Kameras sogar ICC-kompatibel: Sie können das “digitale Negativ” noch in der Kamera mit ICC-Farbprofilen in einen kalibrierten Standardfarbraum ihrer Wahl konvertieren.

IPTC-Unterstützung

Man kann ausgefüllte IPTC-Masken (International Press Telecommunication Council) mit Metadaten in der DCS Kamera speichern und direkt an die Rohdaten jedes Bildes anhängen. Das ist eine Zeitersparnis im späteren Arbeitsablauf, da der Laptop zum Anhängen der IPTC-Informationen nicht mehr nötig ist.

Datenübertragung direkt aus der Kamera mit Handy

Mit bestimmten Handys (z. Zt. mit virtuellem Modem) ist es möglich, Bilddaten direkt aus der DCS Kamera zu versenden. Ein Laptop ist nicht mehr notwendig. Jetzt kann ein digitales Bild innerhalb kürzester Zeit in der DCS Kamera als JPEG gerechnet und mit IPTC-Header oder als DCS RAW-Datei direkt in die Redaktion übermittelt werden.

Geo-Koordinaten aus dem Global Positioning System

Die aktuellen geografischen Standort-Koordinaten (Längen- und Breitengrad) von GPS-Empfängern (Global Positioning System) werden zusammen mit Datum und Uhrzeit in der Bilddatei gespeichert. Man kann diese Informationen über das DCS Acquire-Modul oder die DCS TWAIN-Schnittstelle einsehen.

Software Developer´s Kit

Jede Funktion der DCS-Kamera lässt sich über das Software Developer´s Kit (SDK) steuern, das man kostenlos aus dem Internet laden kann (www.KODAK.com/go/drg).

Copyright: Roland Dreyer 1999

PDF-Version

Das Innenleben einer DCS

Struktur eines ITO-CCDs

CCD-Sensoren, deren Elektroden aus Indium-Zinn-Oxid (obere Kurve) sind, bieten eine deutlich höhere Blauempfindlichkeit als herkömmliche Sensoren mit Polysilizium-Oberflächen.

Weitere Bilder in der PDF-Version!