• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Donnerstag, 25.05.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Flugzeugsteuerung per Fingerzeig

Neue Technik macht Datenhandschuh überflüssig

Deutsche Forscher haben Computern beigebracht, auf Handbewegungen zu reagieren. Die Methode ist extrem schnell und robust: Sie funktioniert mit Kinderhänden genauso wie mit Maurerpranken. Das Verfahren könnte die Steuerung von 3D-Anwendungen revolutionieren. Schon jetzt können die Wissenschaftler damit ein virtuelles Flugzeug durch die Alpen manövrieren.
Virtueller Flug durch die Alpen

Virtueller Flug durch die Alpen

Was stört, ist der rote Kragen. Sonst könnte man Markus Schlattmann mit seinen dunklen Klamotten und der schwarzen Brille für einen der "Men in Black" halten. Vor allem, wenn er wie jetzt seine Hand zur Pistole formt.

Der Informatiker spielt aber nicht etwa "Räuber und Gendarm": Durch einfache Schlenker seiner Hand steuert er einen virtuellen Jet auf seinem Flug durch die Alpen. Eine lässige Drehung aus dem Handgelenk, schon kippt der Horizont zur Seite. Nun knickt Schlattmann das Handgelenk nach unten. Brav nickt die Flugzeugnase gen Erdboden. Knapp über dem Zugspitzblatt fängt er den Flieger ab. Kurz geht es an schneebedeckten Felswänden entlang, dann zieht er die Maschine wieder steil zur Seite.

Rechner setzt Bewegungen in Steuerbefehle um


Bei Zuschauern ohne stabilen Magen kann sich nach mehreren solcher Schwenks eine leichte Übelkeit bemerkbar machen. Was auch an den realistischen dreidimensionalen Bildern des Kooperationspartners RSS GmbH liegen mag. Die 3D-Brille trägt das Ihre zum naturgetreuen Eindruck bei.


"Handtracking" nennen die Mitarbeiter aus der Arbeitsgruppe Computergrafik der Uni Bonn ihr Verfahren: Drei Kameras verfolgen die Stellung der Finger, ein Rechner setzt die Bewegungen in Steuerbefehle um. "Das Ganze geht präzise, schnell und intuitiv", sagt Schlattmann.

Er legt den Daumen auf den Zeigefinger; auf dem Projektionsschirm materialisieren sich ein paar zusätzliche Symbole. Der Informatiker klickt mit seinem Zeigefinger auf ein Kreuz, und das Fenster mit der Alpenlandschaft verschwindet. Die Leinwand wird schwarz: Demonstration beendet.

"Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen", erklärt Schlattmanns Kollege Ferenc Kahlesz: "Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet."

Grafikkarte übernimmt das Rechnen


Mit einem einzigen Handschuh ist es zudem oft nicht getan; schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren ist flexibler: die Kameras erkennen genau, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist. "Dabei nutzen wir gar keine außergewöhnliche Technik", beteuert Schlattmann.

"Die meiste Rechenarbeit erledigt die Grafikkarte." Und die sei auch kein anderes Modell, als heute bei schnellen Rechnern von Haus aus dabei sei. Ein weiterer Vorteil: Man muss das Verfahren nicht initialisieren. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen.

Zum Spielen ist die neue Methode übrigens nicht primär gedacht - auch wenn sich damit aus Sicht der Informatiker auch Playstation oder X-Box viel intuitiver steuern ließen als bislang. "Wir entwickeln in einem EU-Projekt möglichst natürliche Interaktionsmöglichkeiten zwischen Mensch und Maschine", sagt Professor Dr. Reinhard Klein. Der Wissenschaftler leitet am Bonner Institut für Informatik II die Arbeitsgruppe "Computer Graphik". "Unsere Partner bauen dazu beispielsweise einen 3D-Bildschirm, der ohne Brillen oder ähnliche Hilfsmittel funktioniert."

Interesse an intuitiven und flexiblen Eingabegeräten kommt beispielsweise aus der Medizin. Beispiel Computertomographie: Hier fallen immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel auch möglich, sich durch das Gehirn zu einem Tumor zu navigieren, ihn aus allen Blickwinkeln zu betrachten oder umliegendes Gewebe auszublenden, das den Blick auf den Krankheitsherd stört. "Eine herkömmliche Maus ist für derartige 3D-Anwendungen aber nur schlecht geeignet", betont Schlattmann. "Mit einem guten Handtracking-Verfahren geht das viel einfacher und natürlicher!"
(idw - Universität Bonn, 14.02.2007 - DLO)
 
Printer IconShare Icon