photokina Trends 2014 - Sensoren das Herzstück der Digitalkameras

© Canon Bildgalerie betrachten © Canon

Sensoren zur Bilderfassung sind das Herzstück einer Digitalkamera. Auch, wenn aktuelle Sensoren bereits mehr als überzeugende Bildqualitäten garantieren, so tüfteln Ideenschmieden an einer weiteren Optimierung. Welche Neuentwicklungen im Bau von Bildsensoren die Welt der Fotografie zukünftig beeinflussen werden, können die Besucher der vom 16. bis 21. September 2014 in Köln stattfindenden photokina, der World of Imaging, live erleben.

Die Sensoreigenschaften bestimmen maßgeblich die Qualität der Bildergebnisse. Ihre Größe, Auflösung und Lichtempfindlichkeit liefern die Ausgangsbasis für die Datenmenge und -qualität, die dem Aufnahmesystem für die Bilderstellung zur Verfügung stehen. Bisher konkurrierten vor allem zwei Sensortypen um die Vorherrschaft im Kameramarkt: CCD und CMOS. Diesen Wettkampf scheinen inzwischen die Sensoren der CMOS-Bauweise für sich entschieden zu haben.

Das Kürzel CCD steht für Charge-Coupled Device (Ladungsgekoppelte Halbleitereinheit). CMOS ist die Abkürzung für Complementary Metal Oxide Semiconductor (Komplementärer Metall Oxyd Halbleiter). Von beiden Sensortypen gib es entsprechende Varianten. Aufgrund der Vorzüge in Bezug auf die Fertigung und auch der Möglichkeit, spezielle Steuerfunktionen direkt auf dem Sensor zu integrieren, zeigt sich ein deutlicher Trend hin zum CMOS-Sensor.

Beide Sensortypen verwenden zur Erfassung der Bildinformationen ein Pixelraster, mit dem die auf den Sensor projizierten Lichtstrahlen in elektrische Spannung umgewandelt werden. Neben den bereits genannten Sensoreigenschaften, wie Auflösung, Größe und Lichtempfindlichkeit, wird die Bildqualität auch von der Anordnung, Form und Größe der einzelnen Pixel (Picture Elements) mitbestimmt. Ebenso beeinflusst das verwendete Filterraster zur Erfassung der Farbinformationen die Qualität der Bildergebnisse. Auch Sensoreigenschaften, die das Auslesen der erfassten Bildinformationen betreffen, sind wichtige Qualitätsmerkmale. Von ihnen hängt es beispielsweise ab, wie schnell die Daten ausgelesen und an den Prozessor weitergeleitet werden können oder welche Geschwindigkeiten sich bei Serienaufnahmen erreichen lassen. Ebenso beeinflusst der Signal-Rausch-Abstand der ausgelesenen Informationen die Qualität der digitalen Bilder.

Stand bis vor kurzem in erster Linie die Anzahl der Pixel als Grundlage für die Auflösung und die Vergrößerbarkeit der digitalen Fotografien im Vordergrund, so werden heute die Qualität der Pixel sowie ihre Form und Anordnung sowie das Farbraster und die Auslesegeschwindigkeit – die wiederum für schnelle Bildfolgen und die Videoeigenschaften von Bedeutung ist – immer wichtiger. Letzteres kommt besonders bei hochwertigen Videoaufnahmen in 4K-Qualität oder höher zum Tragen. Professionelle Bildqualität bieten heute bereits Spiegelreflex- oder kompakte Systemkameras mit Auflösungen ab 12 Megapixel. Die absolute Top-Klasse mit Mittelformatsensoren erreicht etwa 50 bis 60 Megapixel.

Die ersten bahnbrechenden Vorstöße der Pixeloptimierung gelangen Fujifilm mit der Einführung des Super-CCD, der statt quadratischer Pixel sechseckige verwendete, die sich bei höherer Lichtausbeute dichter nebeneinander positionieren ließen. Im CMOS-Lager brachte Sigma Kameras mit dem Foveon-Sensoren auf den Markt, die Farbinformationen nicht nebeneinander, sondern über einander erfassen können und somit nicht nur eine höhere Auflösung bei gleicher Sensorfläche erreichen, sondern auch eine höhere Farbreinheit für sich in Anspruch nehmen.

Bisher hatten die meisten Sensoren Probleme, feine, regelmäßige Muster und Strukturen zu erfassen, da diese beispielsweise bei Aufnahmen von Textilgeweben oder feinen Netzen zu Moiré-Bildungen führen konnten. Abhilfe wurde durch den Einsatz sogenannter Tiefpassfilter erreicht. Allerdings bedeutete diese Lösung gewisse Zugeständnisse bei der Schärfe. Heutzutage kommen immer mehr Kameras ohne Tiefpassfilter auf den Markt. Möglich wurde dies, da die Pixel moderner Sensoren deutlich kleiner sind als die in der realen Welt anzutreffenden Raster und Muster, so dass ungünstige Überlagerungen nur noch sehr selten sind.

Einen weiteren Fortschritt in der Sensortechnologie dokumentieren die in den letzten Jahren für eine bessere Bildqualität sorgenden BSI-Sensoren. BSI steht für Backside Illumination. Bei dieser Sensorkonstruktion wird die Verdrahtungsebene der Pixel nach hinten verlegt, so dass Abschattungen vermieden werden. Das Ergebnis sind lichtempfindlichere Sensoren mit weniger Bildrauschen und brillanteren Farben.

Um eine bessere Farbqualität zu erreichen, experimentieren die Sensorhersteller auch immer wieder mit unterschiedlichen RGB-Rastern. Allgemein üblich war das bereits 1975 von dem Kodak Mitarbeiter Bryce E. Bayer patentierte Bayer-Raster, das den Sensor mit einem schachbrettartigen Muster von roten, grünen und blauen Filtern überzog. Der Anteil der grünen Pixel nahm etwa 50 Prozent der Fläche ein, während die beiden anderen Farben jeweils 25 Prozent abdeckten. Bis heute experimentieren Hersteller von Senosren immer weiter mit neuen Anordnungen und Gewichtungen der Farben. So gab es Muster, die zusätzliche weiße Pixel verwendeten. Auch Sony hatte mit dieser Anordnung und zudem auch mit Filtern in unterschiedlichen Grüntönen experimentiert. Seit 2012 gibt es von Fujifilm den mit der X-Pro 1 vorgestellten XTrans-Sensor ohne Tiefpassfilter und einer neuen Anordnung, dessen Farbfilteranordnung ein unregelmäßiges Muster ähnlich dem Korn beim analogen Film.

Eine wichtige Rolle bei der Verbesserung der Signalqualität spielen nicht zuletzt auch die über den Pixeln angebrachten Mikrolinsen, mit denen die Lichtstrahlen gebündelt und direkt auf das Pixel gelenkt werden.

Ganz neu ist eine Technik, die jetzt Sony vorgestellt hat. Dass wir bezüglich technischer Weiterentwicklungen von der Natur viel lernen können, ist sicherlich nichts Neues und so sollte es uns eigentlich auch nicht erstaunen – tut es aber doch mit dem kürzlich auf der Wissenschaftlichen Konferenz für VLSI-Technik auf Hawaii vorgestellten gebogenen Kamerasensor. Die neue CMOS-Einheit wurde der Netzhaut menschlicher Augen nachempfunden und ist daher gekrümmt – also wieder von der Natur gelernt.

Was Sony vorstellte, könnte eine ganze Industrie verändern: Ein neuartiger, konkav gebogener Kamerasensor erhöht mitunter die Lichtempfindlichkeit und umgeht Bildrauschen. Den neuen Sensor soll es in zwei Baugrößen geben. Der Vollformat-Sensor für Kameras misst 43 Millimeter und für Smartphones scheint das kleine 11-Millimeter-Modell interessant zu sein.

Im Vergleich mit gewöhnlichen, flachen Sensoren reagiert das neue Bauelement im Zentrum 1,4-mal empfindlicher auf einfallendes Licht, an den Rändern sogar doppelt so stark. Weitere Vorteile ergeben sich für das Design von Objektivlinsen: Die dürfen etwas flacher ausfallen und ermöglichen so höhere Blendenmodi, die den Lichteinfall zusätzlich begünstigen. Darüber hinaus nimmt das Licht weniger Umwege, trifft die Photodioden direkter und hebelt so Farbverfälschungen und Bildrauschen aus.

photokina 07 / 2014

Kommentare

Es wurden noch keine Kommentare zu diesem Artikel abgegeben.

Artikel kommentieren
* Diese Felder müssen ausgefüllt werden