Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser.

Themenicon: navigation pathMapping und Texticon: navigation pathBilder-Suche
Bilder-Suche oder Führer durch die Datenbank?
Stéphane Marchand-Maillet
 
GIFT; GNU Image Finding Tool (Viper), 2000
 
 
 

 

Die Zahl der elektronischen Dokumente wächst jeden Tag beständig und exponentiell an. Erst vor Kurzem war zu lesen, dass weltweit im Jahr 2002 ca. 5 Billionen Gigabytes Datenmaterial generiert wurden (die auf diese Weise gegenwärtig den Speicherplatz auf 50 Millionen herkömmlicher Festplattenlaufwerke einnehmen). Ein Teil dieses riesigen Datenaufkommens besteht aus dem Austausch von Texten (wie E-Mails). Diese Datenmenge kann demzufolge auf einem semantischen Level mit Hilfe von Techniken verwaltet werden, die sich mit der Suche nach Textinformationen vergleichen lassen – wie sie z. B. bei Google erfolgreich angewandt werden. Allerdings besteht ein Großteil des Datenmaterials aus Bild- und Multimediadaten wie Bildern und Videos.

Was diese visuellen Dokumente betrifft, so kann das Verwalten der Daten nicht automatisch mit der größten Genauigkeit durchgeführt werden. Der Grund dafür ist die allgemein bekannte semantic gap (Semantische Lücke), mit der man den Unterschied zwischen Mensch und Maschine bei der Wahrnehmung von visuellen Inhalten bezeichnet. Trotz jahrzehntelanger Forschungsarbeit ist die

 

automatisierte Bild- (und Video-) Analyse immer noch viel zu unwirksam, als dass sie einen Menschen zuverlässig bei der Bewältigung der Datenverwaltung ersetzen könnte. Auf lokaler Ebene gehen wir in unserer VIPER-Forschungsgruppe verschiedenen Forschungsansätzen nach, um zu komplementären Lösungen des Problem zu kommen, semantisch sinnvolle Interpretationen von visuellen Inhalten abzuleiten. Unsere erste Forschungsarbeit im Bereich des inhaltsbasierten Suchens in Bilddatenbanken, »GIFT« [GIFT], hat dazu geführt, dass wir kommentierte Bilddatenbanken in Erwägung gezogen haben. Das Problem der Anmerkungen ist an sich alles andere als unbedeutend: Wir beschäftigen uns damit, wie man unbeweglichen Bildern erläuternde Texte zuordnen kann (Annotation). Dieses Verfahren hat mit der Semantic-Web-Initiative (SEMWEB) vieles gemeinsam. Wir befassen uns zudem damit, wie man Textbausteine automatisch (mit Hilfe von Lern-Maschinen) aus visuellen Inhalten [1] extrahieren kann, und legen unsere Fortschritte im Bereich der Visualisierung von Multimediadaten dar.

In unserem Kontext geht es darum, die Verwaltung

icon: next page