Bändigung der Bilderflut - finden statt suchen

Bändigung der Bilderflut - finden statt suchen
Seit Beginn der Digitalisierung arbeiten Wissenschaftler an der Verwirklichung des Traums, die Verwaltung und das Auffinden von Bildern durch künstliche Intelligenz zu erleichtern. Bei der ständig wachsenden Menge, der in jeder Sekunde neu entstehenden Aufnahmen, wird eine strukturierte Erfassung und Verschlagwortung von Bildern zur Illusion und, wenn man den Nachrichten aus den Laboren für künstliche Intelligenz Glauben schenkt, auch tatsächlich bald nicht mehr nötig sein. Basis der vereinfachten, automatischen Bildersuche sind die rapiden Fortschritte bei der semantischen Bilderkennung, sprich der Bildersuche nach Bildinhalten, statt nach Schlagworten, verbunden mit einfacher Sprachsteuerung.

Alles in einen Topf?

Das von vielen Kulturkritikern immer wieder heraufbeschworene Gespenst, das wertvolle Erinnerungen in den unendlichen Tiefen des Festplattendschungels für immer verschwinden, hat seinen Schrecken verloren. Denn die auch vor den größten Speichern nicht kapitulierenden automatischen Bilderkennungsprogramme werden sie finden und den Suchenden zugänglich machen.

Der mühselige Aufbau sorgfältig strukturierter Archive soll nach den Ansätzen der Big-Data Spezialisten schon bald Vergangenheit sein, denn die Suchroboter werden in Sekundenschnelle fündig, egal wo sich eine Datei versteckt und unabhängig davon welches Format sie besitzt. Schrittmacher bei der maschinellen Suche visueller Inhalte sind nicht zuletzt die Vermarkter, die ihren Kunden das Auffinden von Fotos oder Videos in großen Archiven erleichtern und die Suche beschleunigen wollen. Einen Schritt weiter geht das Projekt „Imagine“ dass die Technische Hochschule für Wirtschaft in Chur gerade in Zusammenarbeit mit der Nachrichtenagentur Keystone in der Schweiz entwickelt. Dieses soll nicht nur die gesuchten visuellen Inhalte lokalisieren, sondern auch mit Textinformationen in Beziehung setzen. Das heißt, wenn das Programm das Bild eines Skifahrers entdeckt hat, zeigt es auf Wunsch nicht nur auch alle anderen Fotos der abgebildeten Person, sondern auch dessen Haus und verknüpft die Bilder mit dessen Lebenslauf oder einer Liste seiner Siege. Das Projekt Imagine wurde von der HTW Chur bereits im April des Jahres abgeschlossen und soll Ende 2017 bei Keystone installiert und im Laufe des nächsten Jahres schrittweise in die Vermarktung visueller Inhalte von Keystone integriert werden.

Ähnlichkeiten keineswegs rein zufällig

Auf künstlicher Intelligenz basiert auch die maschinelle Suche nach ähnlichen Bildern bei Google. Das von der Suchmaschine genutzte Verfahren nennt sich dort umgekehrte Bildersuche. Das heißt, es wird ein Bild zu Google hochgeladen, zu dem das Unternehmen im Web dann nach ähnlichen Motiven sucht. Ähnlich arbeitet auch das Berliner Startup Copytrack, eine Serviceagentur zum Schutz der Bildrechte von Fotografen. Das Unternehmen nutzt die Ähnlichkeitssuche und andere Kriterien, um im Netz widerrechtlich verwendete Bilder ihrer Kunden zu finden und versucht so bei Lizenzverletzungen eine nachträgliche Lizensierung zu erreichen.

Auch AdobeStock setzt für die Bildersuche seiner Kunden auf künstliche Intelligenz. Die in die Creative Cloud integrierte Mediensammlung lässt Kunden direkt aus ihren Gestaltungprogrammen heraus in den visuellen Angeboten der Agentur suchen und auch direkt ohne das Programm zu verlassen, lizensieren. Ähnlichkeitssuche wie bei Google gehört auch hier zum Alltag der maschinellen Bildersuche.

Um die Suche nach dem passenden Bild in AdobeStock zu erleichtern, will Adobe mit KI die Bildersuche intuitiver gestalten. Dazu nutzen neue, sogenannte ‘Aesthetic Filters’ in AdobeStock eine Technologie von Adobe Sensei, die Nutzern eine äußerst detailgenaue Suche ermöglicht. Filter wie „Tiefenschärfe“ oder „lebhafte Farbe“, beschleunigen den Workflow der Bildersuche und steigern die Effizienz. Die Aesthetic Filter unterstützen die AdobeStock Visual Search, die das Suchen anhand eines speziellen Fotos, anstelle von Schlagwörtern, erlaubt. Bei diesem Verfahren wird das als Vorlage gewählte Foto in den Browser gezogen, um sich ähnliche Bilder anzeigen zu lassen.

Künstliche Intelligenz zur automatischen Verschlagwortung

KI von Adobe Sensei erleichtert aber auch Bildanbietern die Vermarktung ihrer eigenen Bilder über AdobeStock. Beim Hochladen der Bilder in das AdobeStock Angebot werden automatisch Schlagworte angezeigt, um die Ähnlichkeitssuche weiter zu präzisieren. Durch sogenanntes Machine-Learning wird die semantische, inhaltsbasierte Suche mit dem Wachsen des Angebots im Laufe der Zeit immer präziser.

Weil die Bilderflut schneller wächst als die Bildredakteure die einzelnen Bildinhalte verschlagworten können, sind die Redakteure mehr und mehr zu Assistenten der selbstlernenden Suchmaschinen geworden und übernehmen zunehmend nur noch Kontroll- und Lektorats-Aufgaben, um maschinelle Fehler so gering wie möglich zu halten.

Die inhaltsbasierte, maschinelle Bildsuche hat gegenüber der Suche über Schlagworte oder Metadaten den großen Vorteil, dass es weniger Fehlerergebnisse aufgrund falscher Bildnamen und Metadaten gibt. Um allerdings die Bedeutungsebene der Bilder zu erfassen wird von den Algorithmen die Nutzer-Reaktion mit in Betracht gezogen. Ihr Suchprofil verrät der Suchmaschine die Relevanz der Suchergebnisse, durch die diese wieder in Beziehung zueinander gesetzt werden kann.

Speicherplatz sparen mit der Suche nach Bild-Doubletten

Selbst für private Bildarchive wird die Ähnlichkeitssuche in den gängigen Programmen zur Bildarchivierung, -verwaltung und -bearbeitung demnächst Einzug halten. Schon heute können so platzraubende Doubletten durch die Vorgabe von Beispielbildern aufgefunden und gelöscht werden und wie bei den Bild- und Nachrichtenagenturen Bilder mit Informationen aus dem Web verbunden werden. Auch die automatische Verschlagwortung wird beispielsweise durch die Anzeige des Aufnahmeortes in diesen Programmen beschleunigt. Wann es dann endgültig soweit ist, dass der Bildvergleich über das Web automatisch eine strukturierte Ordnung im Bildarchiv obsolet macht, hängt von der Beantwortung der Frage ab, wie lange die Bildsuchmaschinen noch brauchen werden, um wirklich allen inhaltsbasierten Eigenschaften auch deren Bedeutung zuordnen können.

Aufgegriffen 09 / 2017

Kommentare

Es wurden noch keine Kommentare zu diesem Artikel abgegeben.

Artikel kommentieren
* Diese Felder müssen ausgefüllt werden