Was steckt hinter der SuperCCD-Technologie?

Die erste Generation der SuperCCD-Bildwandler kam im Jahr 2000 auf den Markt, als 2-Megapixel-Kameras Stand der Technik waren und der Sprung auf 3 Megapixel kurz bevor stand. Der damals vom Hersteller Fuji erhobene Anspruch, mit zwei Millionen Pixeln eine Auflösung zu erzielen, die 3-Megapixel-Sensoren in den Schatten stellen würde, ließ sich zwar nicht einlösen, aber die zugrundeliegende Idee, das Auflösungsvermögen eines CCD durch eine optimierte Anordnung der lichtempfindlichen Elemente zu verbessern, blieb unabhängig von der Steigerung der Megapixelzahlen attraktiv.

Herkömmliche Bildwandler auf Basis des CCD (Charge-Coupled Device) Prinzips haben alle denselben Aufbau: ein regelmäßiges Raster aus Zeilen und Spalten von Fotodioden, die Lichtenergie in elektrische Ladungen umwandeln. Ausgangspunkt der Erfindung des SuperCCD war nun die Beobachtung, dass CCDs nicht alle Bilddetails in gleichem Maße auflösen können. Waagerechte und senkrechte Linien müssen auf verschiedene Zeilen beziehungsweise Spalten von Fotodioden fallen, damit sie der Bildwandler unterscheiden kann; der Abstand der Fotodioden begrenzt so die Auflösung. Diagonale Linien hingegen dürfen deutlich enger beieinander liegen, um dennoch auf verschiedene Fotodioden zu fallen und damit aufgelöst werden zu können (siehe Abbildung). Zwischen waage- und senkrechten Linien einerseits und Diagonalen andererseits ändert sich die Auflösung um rund 41 Prozent, oder, mathematisch exakt, um den Faktor Wurzel aus 2. Fujis Ingenieure untersuchten nun eine repräsentative Auswahl von Fotos auf die darin enthaltenen Bilddetails, und stellten fest, dass die höchsten Ortsfrequenzen, also die feinsten Strukturen, durchweg senkrecht oder waagerecht ausgerichtet waren. Eine Gegenprobe mit schräg gehaltener Kamera bewies, dass dieses Phänomen nicht durch die Kameratechnik selbst hervorgerufen wird: wir fotografieren tatsächlich überwiegend Motive, deren feinste Strukturen waage- und senkrecht verlaufen.

Gewöhnliche CCDs verschenken einen großen Teil ihrer Auflösung, da sie ihre beste Leistung bei den weniger wichtigen diagonalen Strukturen zeigen, während dort, wo typische Motive die höchste Auflösung erforderten, ihr Auflösungsminimum liegt. Diesem Mangel könnte man abhelfen, indem man die Zeilen und Spalten eines gewöhnlichen CCDs um 45 Grad dreht, und eben dies ist die Grundidee der SuperCCD-Technologie (Abbildung links). Um einerseits die Fläche der Fotodioden und damit ihre Lichtempfindlichkeit zu optimieren und andererseits die Leitungswege für den Ladungstransport zu verkürzen, wählten die SuperCCD-Entwickler statt auf der Spitze stehender quadratischer Fotodioden eine achteckige Form. Diese Wabenstruktur aus achteckigen, ineinander verschränkten Fotodioden ist charakteristisch für alle SuperCCDs (Abbildung rechts).

Während die Wabenstruktur des SuperCCD eine bessere Nutzung der vorhandenen Auflösung ermöglicht, sind jedoch alle gängigen Bildformate weiterhin aus Zeilen und Spalten von Pixeln aufgebaut. Legt man ein solches Pixelraster über die Struktur eines SuperCCD, sodass jede Fotodiode mit einem Pixel zusammenfällt (Abbildung rechts), so liegt jedes zweite Pixel genau zwischen vier Fotodioden, muss also interpoliert werden. Ein Interpolationsschritt ist bei jedem CCD nötig, da eine Fotodiode immer nur für eine der Grundfarben Rot, Grün und Blau empfindlich ist; die Helligkeitswerte der beiden übrigen Farbkanäle muss die Kamera aus den Nachbarpixeln interpolieren. Dies gilt auch für ein SuperCCD, nur muss hier jedes zweite Pixel komplett (statt nur zu zwei Dritteln) aus den benachbarten Pixeln berechnet werden. Das so erzeugte Bild enthält doppelt so viele Pixel, wie das SuperCCD Fotodioden enthält. Auch wenn man eine geringere Auflösung wählt, also beispielsweise 6 Megapixel bei einer Kamera mit 6-Megapixel-SuperCCD, wird zunächst ein Bild in doppelter Auflösung interpoliert und dann auf die Zielauflösung herunterskaliert. Eine direkte Umsetzung scheitert daran, dass sich in Zeilen und Spalten angeordnete Pixel nicht mit der gleichen Anzahl von Pixeln in der Wabenstruktur eines SuperCCD zur Deckung bringen lassen. Der tatsächliche Auflösungsgewinn eines SuperCCD liegt zwar nur bei 20 bis 30 Prozent, nicht bei 100 Prozent, wie die Größe des interpolierten Bildes nahelegen würde. Die Verdoppelung der Pixelzahl ist aber aus dem beschriebenen Grund unvermeidlich und nicht durch ein Marketingkalkül motiviert.

Angefangen mit der im Frühjahr 2005 eingeführten FinePix F10 speichern Fujis Digitalkameras in der höchsten Auflösungseinstellung nur noch ein auf die ausgewiesene Megapixelzahl des Sensors heruntergerechnetes Bild. Verbesserungen der Bildverarbeitung im RP-Prozessor der neueren Modelle machten es möglich, den Auflösungsgewinn des SuperCCD auch im verkleinerten Bild zu erhalten, wie sich auch in unseren Tests von Modellen wie der F10, S9500 und F30 bestätigte. Intern muss nach wie vor ein auf die doppelte Auflösung interpoliertes Bild erzeugt werden, aber nur Fujis Raw-Konverter kann dieses Bild noch speichern.

Der Auflösungsvorsprung eines SuperCCD entsteht nicht durch den Interpolationsschritt, denn eine Interpolation kann nur neue Pixel erzeugen, aber keine Strukturen auflösen, die die Fotodioden nicht bereits aufgelöst hätten. Der Vorteil des SuperCCD liegt vielmehr in der optimalen Anpassung seiner Auflösungsleistung an die Eigenschaften typischer Motive – das SuperCCD zeigt seine höchste Auflösungsleistung dort, wo sie mit größter Wahrscheinlichkeit gebraucht wird. Die höhere Auflösung horizontaler und vertikaler Details wird freilich durch eine schlechtere Auflösung diagonaler Strukturen erkauft, denn in der Gesamtauflösung unterscheiden sich CCD und SuperCCD nicht.

Copyright ©Copyright ©2003 by Michael J. Hußmann