Bildleiste

Computational Photography – die nächste Revolution der Fotografie

Die Computational Photography und ihre möglichen Auswirkungen war eines der Leitthemen des Business Forum Imaging (BFI), das Anfang März dieses Jahres von der photokina veranstaltet wurde. Professor Dr. Hendrik Lensch von der Universität Ulm, führender Forscher auf dem Gebiet Computational Photography, der selbst an der Entwicklung der Frankenkamera in Stanford beteiligt war, konnte als Referent für das Business Forum Imaging (BFI) gewonnen werden.

Computational Photography

Basierend auf der zunehmenden Rechenleistung digitaler Aufnahmesysteme fordern nicht nur Verbraucher sondern auch Forscher und Entwickler der Foto- und Imagingbranche mehr Connectivity im Bereich technischer Geräte. Die radikalsten unter ihnen, wie etwa Marc Levoy von der Stanford University, fordern sogar ‚Open Source‘ Kameraplattformen, auf die sich systemerweiternde Anwendungen nach dem Vorbild von Apps für Smartphones aufsetzen lassen. Marc Levoy, unter dessen Initiative an der Stanford University die Frankenkamera, die erste Open Source Kamera überhaupt, entwickelt wurde, prägte den Begriff Computational Photography für diesen Trend.

Erweiterungen der Fotografie durch Computational Photography

In seinem Eröffnungsvortrag referierte Professor Lensch über bisher für unmöglich gehaltene Erweiterungen der Fotografie durch die Computational Photography und die Chancen, die sich durch offene Kameraplattformen für die Verbraucher aber auch für die gesamte Foto- und Imagingbranche ergeben könnten. Begrenzt seien auch in den geschlossen Kamerasystemen bereits einige der Möglichkeiten der Computational Photography realisiert worden, führte Professor Lensch aus, doch würden offene Systeme die schnelle Einführung bahnbrechender Erweiterungen schon allein dadurch beschleunigen, da sie auch durch spezialisierte externe Entwickler vorangetrieben werden könnten. Die Photo Apps der Smartphones zählen mit zu den beliebtesten Funktionserweiterungen der mobilen Multifunktionsgeräte. Professor Lensch glaubt, dass es ähnliche, erweiternde Anwendungen auch schon bald für Digitalkameras geben könnte.

Heutige Digitalkameras, so Lensch, ähneln in ihren Funktionsprinzipien noch sehr den herkömmlichen, analogen Aufnahmesystemen. Die Bilddaten würden in der Kamera gespeichert und die endgültige Bearbeitung zum Teil erst am PC vorgenommen. Wenn man allerdings erst nachträglich bemerkt, dass bei der Erfassung etwas schief gelaufen ist, seien die Eingriffs- und Korrekturmöglichkeiten begrenzt. Vor allem für eine Wiederholung sei es dann oft zu spät. Ziel der Computational Photography sei es, sowohl Erfassung und Entwicklung als auch Nachbearbeitung direkt in der Kamera stattfinden zu lassen. Entscheidungen für die richtige oder für die Bildwirkung optimale Belichtung könnten in der Kamera getroffen werden. Aber auch die Beleuchtungssteuerung, etwa die Blitzbelichtung, könnte sehr viel komplexer von Statten gehen. Um all dies zu erreichen, sieht Professor Lensch die Öffnung der Kamerasysteme als eine der wichtigsten Ziele. Bei einer programmierbaren Kamera müsste es möglich sein, alle Datenprozesse bereits vor der Aufnahme exakt auf das gewünschte Ergebnis abstimmen zu können. Die Voraussetzungen dafür seien durch die immer höheren Prozessorleistungen der Kameras geschaffen.

Sinn der Entwicklung eines offenen Kamerasystems sei es zunächst weniger, Algorithmen für komplexe Kamerasteuerungen und fotografische Spezialanwendungen zu programmieren, sondern viel mehr die notwendigen Schnittstellen zu schaffen, die eine Programmierung der Kamera erlauben. Diese Schnittstelle müsste es ermöglichen, alle Prozesse in der Kamera, ob Blende, Belichtungszeit, Weißabgleich, Fokus oder auch Bildfolgen von außen den spezifischen Aufgaben entsprechend zu steuern. Besonders wichtig dabei sieht er ein Feedback der Kamera in Echtzeit, das anzeigt, ob die Aufnahme den Vorstellungen entsprechend erfasst wurde. So könnte beispielsweise eine mit Gyrosensor ausgestattete und entsprechend programmierte Kamera automatisch in dem Moment auslösen, oder aus einer Bildfolge nur das Foto auswählen, wo die geringste Kamerabewegung stattfand, um etwa die Gefahr einer Bewegungsunschärfe zu minimieren.

Natürlich bedarf es, um die Möglichkeiten einer programmierbaren Kamera voll ausnutzen zu können, auch besonders schneller Algorithmen. Sie sollen es beispielsweise ermöglichen, den angestrebten fotografischen Effekt in Echtzeit auf dem Display oder im elektronischen Sucher zu kontrollieren und schon vor der Aufnahme zu entscheiden, ob er den eigenen Absichten entspricht. Auch wenn es bereits Apps für Camphones gibt, so greifen diese nicht direkt in die Kamerasteuerung, sondern in die Entwicklung der Bilder ein. Wichtiger ist es nach Ansicht von Professor Lensch ein offenes Kamerasystem zu schaffen, dass es ermöglicht, alle aufnahmerelevanten Einstellungen zu programmieren und zu steuern. Damit würde sich die Chance ergeben aus der Community der Fotografen und Filmer heraus funktionserweiternde Steuermodule für jede erdenkliche Anwendung zu erhalten.

photokina 04 / 2011

Bewerten 124

Kommentare

Es wurden noch keine Kommentare zu diesem Artikel abgegeben.

Artikel kommentieren






* Diese Felder müssen ausgefüllt werden