Neues Programm verknüpft Gebärden sinnvoll mit Sprechinhalt und Situation Roboter und Avatare lernen gestikulieren - scinexx | Das Wissensmagazin
Anzeige
Anzeige

Neues Programm verknüpft Gebärden sinnvoll mit Sprechinhalt und Situation

Roboter und Avatare lernen gestikulieren

Avatare und Roboter sollen künftig fähig sein, sprachunterstützende Gesten zu machen. © Universität Bielefeld

Wir begleiten unsere Worte oft mit Gesten, Roboter aber blieben bisher meist steif oder ihre Bewegungen passten nicht zum Inhalt ihrer Sätze. Das soll sich nun ändern: Deutsche Forscher haben ein System entwickelt, das verbale Sprache sinnvoll mit Gesten unterstützt. Roboter und Avatare können damit menschenähnlicher gestikulieren lernen und so besser und realitätsnaher kommunizieren.

Wenn Menschen reden, sprechen die Hände und der Körper mit. „Gesten sind wichtig für die Organisation der gesprochenen Inhalte“, erklärt Stefan Kopp von der Technischen Fakultät der Universität Bielefeld. Wenn Personen ihre Wohnung beschreiben, begleiten sie ihre Worte oft automatisch mit Gesten. So kommt es vor, dass sie mit Gesten ein vorgestelltes Rechteck aufziehen und darin zeigen, wo sich die Möbel und andere Dinge befinden.

Kognitives Modell als Basis

„Auch Wegbeschreibungen sind gewöhnlich zu komplex, um sie in Sprache zu bringen. Gesten unterstützen solche Beschreibungen“, sagt Kopp. „Gesten tragen oft wichtige Informationen, die nicht in der Sprache sind. Sie senken so die geistige Beanspruchung des Sprechenden.“ Genau dieser nonverbale Aspekt fehlt Robotern und Avataren jedoch bisher meist in ihrer Kommunikation. Selbst wenn sie beim Sprechen ihre Hände bewegen, sind dies oft nur stereotype Gesten, die nichts mit dem Inhalt zu tun haben. Sie wirken daher künstlich.

Um die Kommunikation mit Alltagshelfern wie Haushaltsrobotern oder Avataren natürlicher zu machen, haben Kopp und sein Team nun ein Programm entwickelt, dass diesen das richtige Gestikulieren ermöglicht. Dafür modellierten sie, welche inneren Prozesse im Kopf ablaufen, wenn Menschen sprechen und gestikulieren. „Das kognitive Modell kann vorhersagen, welche Gesten zu einer geplanten Äußerung passen“, sagt Kopp. Auf dieser Basis entwickelten sie ihre neue Software.

Bildhafte Bewegungen

Das Programm berücksichtigt sogar, dass Menschen unter verschiedenen Bedingungen auch anders gestikulieren. Die Sprache hat zum Beispiel Einfluss auf die Gesten: Beschreibt man etwas in einer anderen Sprache, so ändern sich mit den neuen Begriffen auch die Vorstellungen, die man im Kopf bildet – und damit ändert sich mitunter auch die Geste zum Wort. Auch Zeit spielt eine Rolle bei der Benutzung von Gesten. „Wenn wir dem System mehr Zeit zum Denken geben, dann produziert es Gesten, die besser mit der Sprache abgestimmt sind, als wenn nur wenig Zeit zur Verfügung steht.“

Anzeige

Das Computerprogramm beherrscht ikonische Gesten, also bildhafte Bewegungen wie Kreise, Würfel oder Linien. „Damit lässt sich ein Großteil der Sprache untermalen“, sagt Kopp. Das System eignet sich unter anderem, um Robotern Gesten „beizubringen“. Es kann auch in Avataren eingesetzt werden.

(Universität Bielefeld, 27.11.2013 – NPO)

Anzeige

In den Schlagzeilen

Diaschauen zum Thema

Dossiers zum Thema

News des Tages

Supraleiter

Neuer Temperaturrekord für Supraleiter

Setzt China verbotene Ozonkiller frei?

Wie schmeckte das Bier der Pharaonen?

18 erdgroße Exoplaneten aufgespürt

Zahnverlust: Elektrisch putzen schützt besser

Bücher zum Thema

Die berechnete Welt - Leben unter dem Einfluss von Algorithmen Von Nora S. Stampfl

Menschen, Tiere und Max - Natürliche Kommunikation und künstliche Intelligenz Von Ipke Wachsmut

Roboter - Geschichte - Technik - Entwicklung von Daniel Ichbiah

Maschinen mit Bewusstsein - Wohin führt die künstliche Intelligenz? von Bernd Vowinkel

Menschmaschinen - Wie uns die Zukunftstechnologien neu erschaffen von Rodney Brooks

Top-Clicks der Woche

Anzeige
Anzeige