• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Montag, 05.12.2016
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Roboter und Avatare lernen gestikulieren

Neues Programm verknüpft Gebärden sinnvoll mit Sprechinhalt und Situation

Wir begleiten unsere Worte oft mit Gesten, Roboter aber blieben bisher meist steif oder ihre Bewegungen passten nicht zum Inhalt ihrer Sätze. Das soll sich nun ändern: Deutsche Forscher haben ein System entwickelt, das verbale Sprache sinnvoll mit Gesten unterstützt. Roboter und Avatare können damit menschenähnlicher gestikulieren lernen und so besser und realitätsnaher kommunizieren.
Avatare und Roboter sollen künftig fähig sein, sprachunterstützende Gesten zu machen.

Avatare und Roboter sollen künftig fähig sein, sprachunterstützende Gesten zu machen.

Wenn Menschen reden, sprechen die Hände und der Körper mit. „Gesten sind wichtig für die Organisation der gesprochenen Inhalte“, erklärt Stefan Kopp von der Technischen Fakultät der Universität Bielefeld. Wenn Personen ihre Wohnung beschreiben, begleiten sie ihre Worte oft automatisch mit Gesten. So kommt es vor, dass sie mit Gesten ein vorgestelltes Rechteck aufziehen und darin zeigen, wo sich die Möbel und andere Dinge befinden.

Kognitives Modell als Basis


„Auch Wegbeschreibungen sind gewöhnlich zu komplex, um sie in Sprache zu bringen. Gesten unterstützen solche Beschreibungen“, sagt Kopp. „Gesten tragen oft wichtige Informationen, die nicht in der Sprache sind. Sie senken so die geistige Beanspruchung des Sprechenden.“ Genau dieser nonverbale Aspekt fehlt Robotern und Avataren jedoch bisher meist in ihrer Kommunikation. Selbst wenn sie beim Sprechen ihre Hände bewegen, sind dies oft nur stereotype Gesten, die nichts mit dem Inhalt zu tun haben. Sie wirken daher künstlich.

Um die Kommunikation mit Alltagshelfern wie Haushaltsrobotern oder Avataren natürlicher zu machen, haben Kopp und sein Team nun ein Programm entwickelt, dass diesen das richtige Gestikulieren ermöglicht. Dafür modellierten sie, welche inneren Prozesse im Kopf ablaufen, wenn Menschen sprechen und gestikulieren. „Das kognitive Modell kann vorhersagen, welche Gesten zu einer geplanten Äußerung passen“, sagt Kopp. Auf dieser Basis entwickelten sie ihre neue Software.


Bildhafte Bewegungen


Das Programm berücksichtigt sogar, dass Menschen unter verschiedenen Bedingungen auch anders gestikulieren. Die Sprache hat zum Beispiel Einfluss auf die Gesten: Beschreibt man etwas in einer anderen Sprache, so ändern sich mit den neuen Begriffen auch die Vorstellungen, die man im Kopf bildet – und damit ändert sich mitunter auch die Geste zum Wort. Auch Zeit spielt eine Rolle bei der Benutzung von Gesten. „Wenn wir dem System mehr Zeit zum Denken geben, dann produziert es Gesten, die besser mit der Sprache abgestimmt sind, als wenn nur wenig Zeit zur Verfügung steht.“

Das Computerprogramm beherrscht ikonische Gesten, also bildhafte Bewegungen wie Kreise, Würfel oder Linien. „Damit lässt sich ein Großteil der Sprache untermalen“, sagt Kopp. Das System eignet sich unter anderem, um Robotern Gesten „beizubringen“. Es kann auch in Avataren eingesetzt werden.
(Universität Bielefeld, 27.11.2013 - NPO)
 
Printer IconShare Icon