Die Videosortierer – Wenn Algorithmen Videos durchsuchen

Wie digitale Tools schon bald das Suchen und Archivieren von Videos verändern könnten

Link zum Artikel. Als „Google News für Nachrichten-Videos“ bezeichnet Joseph Ellis sein Projekt. Und Kollege Daniel Morozoff-Abezgauz ergänzt: „Wir können Personen und Ereignisse in News-Clips suchen und einordnen“. Die Vision der beiden Jungunternehmer und ihres Teams aus New York: Eine Videosuche soll so unkompliziert wie eine gewöhnliche Internetsuche werden. Was am Digital Video and Multimedia Lab an der Columbia University vor rund dreieinhalb Jahren als News Rover begonnen hat und heute vidRovr genannt wird, könnte bald – etwas abgewandelt – Eingang in Medienhäuser finden. Aktuell sei man in Gesprächen mit möglichen Partnern, sagen die beiden. Im Fokus haben sie dabei vor allem große Videoarchive.

Derzeit würden Videos größtenteils händisch in Archive einsortiert, erklärt Ellis. Wenn Videomaterial benötigt wird, das beispielsweise eine bestimmte Person zeigt, könnte es durchaus zwei, drei Tage dauern, bis die gewünschten Videos gefunden sind. „Wir hoffen, dass wir diesen Prozess mithilfe von Machine-Learning- und Computer-Vision-Technologie erleichtern und beschleunigen können“, sagt er. Das System analysiert sowohl die Gesichter der Personen in einem Video als auch Tonspur und Untertitel. „Im Grunde erstellen wir einen Fingerabdruck“, sagt Morozoff-Abezgauz. „Und nach diesem suchen wir dann innerhalb eines Videoclips.“ So können zum Beispiel alle Videos gefunden werden, in denen Donald Trump oder David Bowie vorkommen.

VidRovr ist bei weitem nicht das einzige Unternehmen, das an digitalen Werkzeugen arbeitet, die die Videosuche in Zukunft vereinfachen sollen. Neben vielen anderen Start-ups hat sich auch Dextro in New York auf Videoanalyse spezialisiert. Genauer: „Wir machen Objekterkennung und beschreiben Szenen“, sagt Daniel Cintra, zuständig für Product and Business. Dextros Algorithmen sollen zum Beispiel erkennen können, ob ein Video einen Tag am Strand zeigt oder eine Band auf einer Bühne. Ein anderes Beispiel: Wie viele von 100 Videos über Syrien beinhalten eine Explosion?

Ähnlich wie vidRovr werden auch bei Dextro mehrere Ebenen eines Videos analysiert. Und auch hier lernt das System von Video zu Video, die Objekte und Szenen besser einzuschätzen. „Wir zeigen unserem System Beispiele davon, wie ein Schmetterling aussieht – und nach dem es 100 oder 100.000 Videos mit Schmetterlingen gesehen hat, kann es einen Schmetterling wiedererkennen“, sagt Cintra. Was dabei vor allem erkannt werden soll, ist auch von den Wünschen des jeweiligen Kunden abhängig. Dextro arbeitet bereits mit mehreren Medienunternehmen zusammen, unter anderem mit Mic.com. Dort wollte man alle Videos analysieren, die von Twitter kommen, erklärt Cintra. So konnten die Journalisten schneller und unkomplizierter erkennen, was aus dem riesigen Berg an user generated Bewegtbild-Content besonders relevant für Artikel auf Mic.com war.

VidRovr und Dextro sind zwei Beispiele dafür, wie sich das Suchen und Archivieren von Videoinhalten in Zukunft verändern könnte. Fehlerlos sind die Systeme aber nicht. So sind die Ergebnisse, die Dextro auf einer Demo-Website zeigt, zwar oft beeindruckend – manchmal liegen sie aber auch ziemlich daneben. In einem Videoclip, der eine Sängerin auf der Bühne zeigt, erkennt das System: „Blume“. Und in einem Video, das mit den Terroranschlägen in Brüssel zu tun hat, sieht das Programm mit „Fahrradfahrer“ und „Anzugshemd“ zwei recht unwesentliche Aspekte. Die Algorithmen können zwar häufig „sehen“ und „hören“, was in einem Video vorkommt – oft fehlt ihnen aber der Kontext und der Hausverstand, den ein Betrachter aus Fleisch und Blut hat. „Ich glaube, in diesem Bereich können wir uns verbessern, wenn wir mehr über das Geschehene wissen“, sagt Daniel Cintra. Die Informationen sind häufig zwar vorhanden – allerdings nicht unbedingt im Video selbst. Sondern im Titel, auf Nachrichtenwebsites, Wikipedia-Einträgen usw. „Mit wenig Kontext Inhalte zu verstehen ist ein schwieriges Problem“, sagt auch Joe Ellis. „In Zukunft wird es interessant sein, wie viel Kontext um manche der Videos besteht – und wie wir diese Informationen nutzen können.“


2016  unter dem Titel Die Videosortierer erschienen im Medien Manager.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s