Bildleiste

Displays werden immer schlauer

Die Multifunktionalität wird immer mehr zum Verkaufsargument für technische Geräte. Manche Verbraucher schreckt das aber auch ab. Viele befürchten, dass sich hinter der Funktionsvielfalt auch eine schwer zu erlernende Bedienung der Geräte verbirgt. Intelligente Displays, deren Menüs sich durch Berühren, Gesten, Mimik oder Sprache steuern lassen, sollen die Handhabung multifunktionaler Geräte einfacher machen.

Der Bildausschnitt passt perfekt. Der Bildaufbau entspricht dem Goldenen Schnitt. Nur der Autofokus stellt immer auf den Baumstamm im Vordergrund und nicht auf die leicht versetzt weiter hinten stehende Person scharf. Lösungen für dieses Problem gibt es viele. Wer sich ein wenig auskennt und seine Kamera beherrscht, wird schnell einen Weg finden, entweder über die manuelle Entfernungseinstellung oder die Vorwahl einer bestimmten Messfeldposition, dieses Problem zu lösen. Was aber, wenn es schnell gehen muss oder der Kamerabesitzer sich mit dem Gerät nicht wirklich auskennt?

Einen Weg, die Bedienung technischer Geräte mit großer Funktionsbreite einfacher zu machen, versprechen sogenannte smarte Displays, die per Fingerzeig die gewünschte Funktion aktivieren. Multi-Touch-Panels, wie sie Apple mit dem iPhone und iPad eingeführt hat, waren nur ein erster Schritt auf dem Weg zur Steuerung per Fingerzeig. Waren bisher Schalter, Tasten, Knöpfe und Einstellräder eine praktische Lösung zur Funktionssteuerung, so sollen es demnächst Gesten, Mimik und Worte sein.

Schon heute verwenden einige digitale Kameras berührungssensitive Displays zur Menüsteuerung. Um im obengenannten Beispiel die Schärfe auf den gewünschten Punkt zu setzen, braucht der Anwender ihn nur mit dem Finger zu berühren und schon stellt die Kamera Entfernung und Belichtung automatisch darauf ein. Gleichzeitig lässt sich diese Funktion mit dem Auslöser kombinieren.

Die Schärfewahl per Fingerzeig erweist sich nicht zuletzt auch für die Videofunktion der Kameras der jüngsten Bauart von Nutzen. So kann der Filmer beispielsweise beim Aufzeichnen eines Gesprächs einfach durch Berühren des Displays die Schärfe von einer Person auf die andere legen. Ein Gestaltungsmittel, das nun automatisch erledigt, was bisher selbst den Filmprofis viel Geschick und Erfahrung abverlangt hat.

Aber auch einfachere Basiseinstellungen können durch die Touch-Displays schneller und leichter vorgenommen werden. Die inzwischen auch in der Größe gewachsenen Monitore deuten in leicht verständlichen, großen Symbolen an, was sich hinter ihnen verbirgt. Anders als die meisten Tasten, Schalter und Räder sind sie auch bei schwachem Licht sehr gut zu erkennen.

Der größte Nachteil der Touchscreen-Bedienung sind nach wie vor die Fingerabdrücke, die diese Form der Bedienung noch immer unweigerlich auf den Bildschirmen hinterlässt. Aber auch hier ist die Industrie auf dem besten Weg, das Problem zu lösen. Während die Zubehörindustrie aktuell praktische Reinigungssets anbietet, arbeiten die Display-Hersteller an Beschichtungen mit Lotus-Effekt, die sowohl schmutzabweisend sind als auch eine schnelle, einfache Reinigung erlauben.

Einen Schritt weiter ist man in den Forschungsinstituten, die statt der Berührung mit einer bloßen Geste oder Veränderung der Mimik Gerätefunktionen steuern können. Ein Pionier auf diesem Gebiet ist das Fraunhofer Institut für angewandte Informationstechnik. Es hat ein System entwickelt, das Hand- und Fingerstellungen der Benutzer in Echtzeit erkennt und in entsprechende Befehle umsetzt. Manche solcher Systeme sind sogar Multi-User tauglich und lassen sich von mehreren Personen gleichzeitig steuern. Beispiel dafür ist das Microsoft „Surface“ Projekt, ein tischgroßes Display, dessen gesamte Oberfläche zur Eingabe von Befehlen genutzt werden kann. Auch die Fotoindustrie hat solche Systeme bereits als Konzeptstudien gezeigt.

Die vom Fraunhofer Institut entwickelte berührungslose 3D-Multi-Touch-Umgebung ermöglicht, dass mehrere Finger beider Hände gleichzeitig ein virtuelles Objekt durch Bewegungen oder Gesten in der Luft, die das System erkennt und entsprechend interpretiert, manipulieren können. Eine Vision, mit denen Kinofans sich schon 2002 in dem Science-Fiction-Thriller „Minority Report“ konfrontiert sahen, in dem Tom Cruise in einer 3D-Software-Arena zahlreiche Programme in atemberaubender Geschwindigkeit bediente – allerdings mit Spezialhandschuhen, die ihm lediglich das Agieren mit je drei Fingern erlaubten.

Im Prototyp des Fraunhofer Instituts werden in Echtzeit Hände und Finger der Benutzter in den Bilddaten einer 3D-Kamera erkannt und die Bewegungen mitverfolgt. Die 3D-Kamera arbeitet nach dem Laufzeitverfahren und misst für jeden Bildpunkt, wie lange das Licht bis zum gefilmten Objekt und zurück benötigt, um so die Distanz zu ermitteln. Aus dieser Unmenge von Daten filtert dann ein spezieller Bildanalyse-Algorithmus die Positionen von Händen und Fingern heraus.

Gestik, Mimik und Sprache sind wichtige Hilfsmittel, mit denen Menschen miteinander kommunizieren. Zukünftig werden diese Innovationen auch die Konnektivität zwischen Menschen und technischem Gerät vereinfachen.

Digitalfotografie 12 / 2010

Bewerten 61

Kommentare

Es wurden noch keine Kommentare zu diesem Artikel abgegeben.

Artikel kommentieren






* Diese Felder müssen ausgefüllt werden

Robert Gallagher Quelle: www.empireonline.com

"Tom Cruise in „Minority Report“ (2002) mit Spezialhandschuhen zur Unterstützung der Gestensteuerung in einer 3D-Umgebung."
Robert Gallagher Quelle: www.empireonline.com

Ein tischgroßes Display zeigte Canon in Paris, dessen gesamte, intelligente Oberfläche zur Eingabe von Befehlen dient.

Ein tischgroßes Display zeigte Canon in Paris, dessen gesamte, intelligente Oberfläche zur Eingabe von Befehlen dient.