Bildleiste

Kamerasensoren

Der Bildsensor einer Digitalkamera erfasst die durch das Objektiv auf seine Oberfläche projizierten Bilder. Bestimmt das Objektiv die Qualität des auf den Sensor auftreffenden Bildes, so definieren die Sensoreigenschaften dessen Umsetzung in elektrische Signale. Diese werden dann über einen Analog/Digital-Wandler ausgelesen und mithilfe des Bildprozessors zu einem digitalen Bild zusammengefügt. Der Sensor ist also die zweite qualitätsbestimmende Größe auf dem Weg zum digitalen Bild. Seine speziellen Eigenschaften, wie Typ und Format oder die Größe, Anordnung und Anzahl der lichtempfindlichen Elemente (Pixel), sind wesentliche Anhaltspunkte für die zu erwartende Bildqualität.

Sensortypen

In der Digitalfotografie haben sich vor allem CCD- (Charge Coupled Device) und CMOS- (Complementary Metal Oxide Semiconductor) Sensoren sowie ihre Ableger durchgesetzt. Beide Halbleiterkomponenten erfassen über ihre Pixel (Picture Elements) die Intensität des auftreffenden Lichts und wandeln es in elektrische Signale um. Die so erzeugte Ladung wird über einen Analog/Digital-Wandler digitalisiert und mithilfe des Bildprozessors in eine digitale Bilddatei konvertiert.

Nicht alle Firmen, die Sensoren entwickeln, fertigen diese auch selbst oder verwenden ihre selbstentwickelten Sensoren in den eigenen Kameramodellen. So lassen selbst Anbieter großer Kameramarken in ihren Einsteigermodellen preiswerte Sensoren aus der Massenherstellung verbauen.

CMOS-Sensoren werden bei den Kameraherstellern immer beliebter, weil sie ein höheres Potenzial bieten, zusätzliche Funktionen direkt auf dem Chip zu integrieren, und eine preiswertere Fertigung erlauben. Außerdem gestatten CMOS-Sensoren ein schnelleres Auslesen der Bilddaten und verbrauchen weniger Energie. Ob CCD oder CMOS – bei beiden bedingen das unterschiedliche Design bestimmter Sensorkomponenten sowie Form und Anordnung von Pixeln und Leiterbahnen deutliche Unterschiede in der Leistungsfähigkeit und Bildqualität.

Neben der Auflösung, also der Fähigkeit des Sensors, auch kleinste Bildpunkte getrennt zu erfassen, sind auch die Lichtempfindlichkeit, der Dynamikumfang oder der Signalrauschabstand Qualitätsmerkmale für Sensoren: Je höher der Dynamikumfang, also der Helligkeitsbereich, innerhalb dessen der Sensor gute Ergebnisse liefert, umso differenzierter kann er die Helligkeitsunterschiede innerhalb eines Motivs wiedergeben.

Größe, Form sowie Anordnung der Pixel und Leiterbahnen bestimmen, wie viel – oder besser wie wenig – Licht ein Sensor benötigt, um ein gutes Signalrauschverhältnis zu erreichen. Die Basis der Sensorqualität liefern die einzelnen Pixel. Diese haben gleich mehrere Aufgaben zu erfüllen. Sie sammeln die durch das Licht erzeugte Ladung (Photonen) und bestimmen Anfang und Ende des Erfassungsvorgangs. Zudem sorgen sie für die Auswahl und Weiterleitung der Signale. Jeder Pixel benötigt dazu eine Fotodiode zum Erfassen des Lichts, eine vorgeschaltete Mikrolinse, um möglichst viel Licht aufzufangen, und einen Filter zur Bestimmung der Farbe jedes Bildpunktes. Zur Verstärkung der erfassten Signale wird noch ein Transistor nachgeschaltet. Je dunkler das Motiv, desto weniger Licht fällt auf das Pixel, so dass für die dunklen Bildpunkte eine größere Verstärkung der Signale erforderlich wird. Dies wiederum führt zu einem höheren Bildrauschen. Je größer die lichtempfindliche Fläche der Pixel, umso mehr Licht können sie erfassen und entsprechend weniger muss das Signal verstärkt werden.

Sensorgrößen und -formate

Ist die Gesamtfläche eines Sensors größer, kann er auch mehr und größere Pixel aufnehmen. Damit wiederum lassen sich eine höhere Auflösung und ein geringeres Rauschen bei gesteigerten Empfindlichkeiten erreichen. Gleichzeitig haben größere Sensoren auch einen Einfluss auf den Abbildungsmaßstab und somit auch – in Abhängigkeit von der Blende – auf die Schärfentiefe. Größere Abbildungsmaßstäbe verringern die Schärfeausdehnung, so dass die selektive Wahl der Schärfenebene als Gestaltungsmittel eingesetzt werden kann, etwa um das Hauptmotiv vom Hintergrund zu trennen.

Da die Vergrößerung der Sensoroberfläche, beziehungsweise des Sensorformats, nicht nur die Produktionskosten für den Sensor erhöhen, sondern auch andere Objektivkonstruktionen erfordern, versucht die Industrie, die Pixelgrößen und Empfindlichkeiten durch andere Mittel zu optimieren. Das geschieht beispielsweise durch wabenförmige Pixel, die enger beieinander liegen, oder durch die Anordnung der Leiterbahnen, die normalerweise entweder in der Schicht oberhalb oder neben der Fotodiode platziert wurden, um so, bei gleichbleibender Sensorfläche, die lichtempfindliche Fläche der Fotodiode vergrößern zu können.

Sensoren mit rückseitiger Beleuchtung wurden früher nur für besonders lichtempfindliche Kameras im Bereich der astronomischen Forschung entwickelt. Im Frühjahr 2011 werden die ersten Sensoren dieser Bauart auch für Kamerahandys mit 16,4 Megapixel erwartet. Schon heute verwenden zahlreiche Digitalkameras sogenannte Backside Illuminated Sensoren (BSI) aus der Sensorschmiede von Sony.

MOS oder Live-MOS-Sensoren (Variante von CMOS-Sensoren) werden in Digicams von Leica, Olympus oder Panasonic eingesetzt. Sie bieten nach Aussage dieser Firmen die gleiche Bildqualität wie vergleichbare CCDs, haben aber einen geringeren Energiebedarf und ermöglichen schnellere Auslesezeiten. Das wiederum war die Voraussetzung für die Live-View-Funktion, schnelle Serienbelichtungen sowie Full-HD-Video-Aufnahmen. Inzwischen werden MOS-Sensoren auch in kompakten Digitalkameras eingesetzt. Durch die Verwendung einer neuartigen Struktur von Micro-Lichttuben vor den Fotodioden werden Farbverunreinigungen und Signalverluste vermieden. Optimierungen im Halbleiter-Produktionsprozess und bei den Bildparametern des MOS-Sensors sollen zu einem deutlich verbesserten Rauschverhalten in Situationen mit wenig Licht beitragen.

Ein spezielles Pixel-Layout hat Fujifilm für seine Super-CCD-Technologie entwickelt. Dabei wurden wabenförmige Pixel mit größeren, lichtempfindlichen Oberflächen verwendet, die näher aneinander platziert werden konnten. Gleichzeitig wurde der Raum für die Leiterbahnen reduziert. Das Ergebnis sind höhere Empfindlichkeiten und weniger Rauschen. Dies haben die Entwickler dann nochmals optimiert, indem sie unterschiedliche Pixel zur Erfassung von hellen und dunklen Motivpartien kombinierten. Drei Ziele wurden mit der Entwicklung der EXR-Super CCDs von Fujifilm verfolgt: Höhere Auflösung, höhere Empfindlichkeit für Aufnahmen bei wenig Licht und ein höherer Dynamikumfang. Gleichzeitig sollte die Technik das Bildrauschen reduzieren. Jetzt hat Fujifilm seine Super-CCD-Technologie auch auf die CMOS-Sensortechnik angewendet und mit deren Back Side Illumination (BSI) Technik verknüpft.

Bei herkömmlichen CMOS-Sensoren muss das Licht zunächst durch eine Schicht von Leiterbahnen, bevor es auf die Fotodioden trifft. Dadurch wird der Anteil des vom Sensor erfassten Lichts reduziert. Bei BSI-Sensoren wurde die Verdrahtung hinter die Fotodioden gelegt, wodurch die Lichtempfindlichkeit des Sensors erhöht wurde ohne das Rauschen zu verstärken. BSI-CMOS-Sensoren ermöglichen, einen entsprechend leistungsstarken Prozessor vorausgesetzt, auch ein schnelleres Auslesen der Signale, wodurch schnelle Bildfolgen und hochauflösende Videoaufnahmen ermöglicht werden.

Eine Sonderstellung nehmen die von der Firma Foveon entwickelten Sensoren ein. Foveon gehört inzwischen zum japanischen Objektiv- und Kamerahersteller Sigma. Sensoren dieser Bauart werden daher auch hauptsächlich in Sigma-Kameras verbaut. Das Besondere an der Konstruktion der Foveon-Sensoren: Die Bildpunkte zur Erfassung der RGB-Signale sind nicht nebeneinander angeordnet, sondern übereinander. So können auf gleichem Raum mehr oder größere Pixel untergebracht werden. Das bedeutet nach Aussagen der Entwickler, schärfere Aufnahmen mit natürlicheren Farben und weniger Artefakten.

Obwohl in Digitalkameras bisher nur auf der CCD-, CMOS- oder Foveon-Technologien basierende Sensoren eingesetzt werden, sind die Unterschiede in der Bildqualität überraschend hoch. Außer der Sensorgröße sind wie oben beschrieben Pixelzahl, Pixelgröße, Pixelform und Pixelanordnung wesentliche Kennzeichen für die zu erwartende Bildqualität. Zusätzlich liefert ein größerer Sensor auch erweiterte kreative Möglichkeiten. Doch so gut die Signale auch sein mögen, die der Sensor liefert, hängt das Ergebnis letztlich davon ab, wie gut das durch das Objektiv projizierte Bild ist und wie gut und schnell der nachgeschaltete Prozessor die Signale interpretiert.

Faszination Fototechnik 02 / 2011

Bewerten 115

Kommentare

Es wurden noch keine Kommentare zu diesem Artikel abgegeben.

Artikel kommentieren






* Diese Felder müssen ausgefüllt werden