• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Dienstag, 24.01.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Interaktiv im virtuellen Raum

VR mit Sound, Filmen und Interaktivität vorgestellt

In zylindrischen 360°-Panoramen lassen sich virtuelle Szenen rund um ihre eigene Achse betrachten. Mit einem neuen System, das auf der CeBIT gezeigt wird, können sie auch interaktiv erkundet werden: Um Geräusche, Bilder oder Filme erweitert, entstehen lebendige Repräsentationen von Räumen.
VR-Panorama

VR-Panorama

Schon so mancher hat sich beim Großeinkauf gewünscht, vorbeidrängelnde Kunden aus dem Laden zu werfen, sich ohne Wartezeit einen kundigen Verkäufer zu angeln und das lästige Gedudel aus den Lautsprechern abzustellen. Zumindest virtuell könnte dies bald möglich sein. Forscher des Fraunhofer-Instituts für Nachrichtentechnik HHI in Berlin haben ein System erweitert, das reale Umgebungen hoch aufgelöst als Rundumpanoramen nicht nur auf flachen Monitoren darstellen kann.

In das Bild lassen sich Videos, bewegte oder starre Objekte und Ton einbetten. In einem virtuellen Verkaufsraum kann ein Anbieter verschiedene Produkte ausstellen, diese vorführen oder mit Informationen verknüpfen. "Der Kunde schafft sich so im Angebot interaktiv seine eigene Einkaufsatmosphäre", sagt Peter Eisert. "Er blendet uninteressante Waren einfach aus, fragt Infos zu einzelnen Produkten ab und bestimmt selbst, wie viele weitere Kunden ihn umgeben sollen."

Die virtuelle Umgebung lässt sich aus Videos, aber auch einfachen Aufnahmen mit der Digitalkamera erzeugen. Um die Rohdaten flexibler zu verarbeiten, haben die HHI-Forscher verschiedene Algorithmen zur nachträglichen Optimierung entwickelt. Möchte man etwa nur die Szenerie eines belebten Platzes nutzen, kann das Programm aus mehreren Bildern sich bewegende Autos oder Menschen herausrechnen. Ein anderer Algorithmus korrigiert Helligkeitsunterschiede: Aus Bildern mit unterschiedlichen Belichtungszeiten erstellt er neue, die alle Elemente richtig ausgeleuchtet enthalten.


Der multimediale Standard MPEG-4 BIFS (Binary Format for Scenes) beschreibt den Aufbau der Panoramen. Er behandelt die eingebetteten Bild-, Klang- oder Filminformationen als einzelne Objekte, die sich individuell bearbeiten und vom Nutzer später etwa per Maus einzeln anwählen lassen. Die Informatiker nutzen den Standard außerdem, um Streams zu verschicken. Damit die Datenrate niedrig bleibt, werden nur diejenigen Elemente übertragen, die für den aktuellen Blickwinkel des Nutzers nötig sind.

Virtuelle Verkaufsräume sind nur eine mögliche Anwendung für die neue Technik. "Reiseveranstalter etwa könnten sie nutzen, um potenziellen Kunden eine Ferienanlage vorzuführen", schlägt Eisert vor. "Die könnten sich dann etwa versichern, dass der Pool nicht zwanzig Meter neben der Autobahn liegt." Auf der CeBIT besteht die Möglichkeit, die realitätsgetreuen Szenerien in Halle 9 am Stand B36 zu erleben: Besucher können das Brandenburger Tor virtuell betrachten, sich im Hotel Adlon umsehen oder das ethnologische Museum in Dahlem besichtigen, um dort etwas über die Exponate zu erfahren.
(Fraunhofer-Gesellschaft, 08.03.2005 - NPO)
 
Printer IconShare Icon