• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Samstag, 25.03.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Forscher bringen Robotern das Lügen bei

Fähigkeit zur Täuschung bringt Chancen, aber auch ethisches Dilemma

Roboter lügen nicht – oder doch? Amerikanische Forscher haben jetzt ihren Maschinenwesen die Kunst der Täuschung beigebracht. Mit Hilfe spezieller Algorithmen lernten die autonomen Roboter, sich zu verstecken und eine falsche Spur für ihren Verfolger zu legen. Und sie lernten auch zu erkennen, wann eine solche Täuschung für sie vorteilhaft und sinnvoll ist. Die Wissenschaftler sehen in dieser Fähigkeit eine große Chance für viele Anwendungen, aber auch erhebliche ethische Implikationen.
Täuschender Roboter (schwarz) legt falsche Spur für seinen Verfolger (rot)

Täuschender Roboter (schwarz) legt falsche Spur für seinen Verfolger (rot)

Lange Zeit galt das Lügen und Täuschen als spezifisch menschliche Fähigkeit und als Zeichen für höhere Intelligenz – bis sich auch einige Tierarten als Meistertäuscher entpuppten. Doch Computer und Roboter, so dachte man, können per se nicht lügen. Denn dies würde voraussetzen, dass sie sich in die Perspektive des Getäuschten versetzen können. Und auch, dass sie erkennen, wann eine Täuschung überhaupt sinnvoll und erfolgversprechend ist. Doch genau dies haben jetzt Wissenschaftler des Georgia Institute of Technology ihren Maschinenwesen beigebracht. Ihre Ergebnisse sind jetzt im „International Journal of Social Robotics“ erschienen.

Für ihre Studie konzentrierten sich die Forscher um Ronald Arkin, Professor für interaktive Computerwissenschaften, zunächst auf eine einfache Form der Täuschung: sich vor einem anderen Roboter zu verstecken und eine falsche Spur zu legen. Im ersten Schritt ging es ihnen vor allem darum, ihrem Roboter beizubringen, wie er eine Situation erkennt, in der eine solche Täuschung sinnvoll ist. Auf der Basis von Abhängigkeits- und Spieltheorien entwickelten Arkin und sein Kollege Alan Wagner dafür Algorithmen, die den Wert der Täuschung in einer spezifischen Situation testen und bewerten.

Falsche Spur durch umgestoßene Wegmarker


Im konkreten Versuch sah das Ganze dann so aus: Zwei autonome Roboter bewegten sich in einem Raum, indem drei Pfade durch farbige Markierungen an ihrem Beginn gekennzeichnet waren. An ihrem Ende lagen jeweils Kisten als potenzielle Verstecke. Die Marker waren beweglich und fielen um, wenn ein Roboter dagegen stieß. Der täuschende Roboter hatte nun die Aufgabe, sich vor dem anderen zu verstecken und dabei eine falsche Spur zu legen. Dafür steuerte er zunächst einen der Verstecke an und stieß dabei eine Reihe von Markern um. Hatte er die abgrenzte Wegstrecke jedoch passiert, wechselt er den Kurs und versteckte sich stattdessen in einer der anderen beiden Kisten.


„Die durch den Verstecker verbreitete Falschinformation bestand darin, dass er ein Muster umgestoßener Marker erzeugte, das auf ein falsches Versteck hindeutete“, erklärt Wagner. „Sie schienen beispielsweise zu zeigen, dass er nach rechts gefahren war, obwohl er sich in Wirklichkeit links befand.“ 20 Mal exerzierten die Forscher ihr Versteckspiel mit zwei Robotern durch, um ihren Algorithmus zu testen. Jedes Mal markierte der „gejagte“ Roboter seine vermeintliche Position durch umgekippte Wegmarken.

Täuschung geglückt


In 75 Prozent der Fälle hatte die Täuschungsstrategie des Roboters Erfolg: Er lockte seinen ihn suchenden Kollegen in die falsche Richtung. In den gescheiterten Versuchen war es ihm dagegen nicht gelungen, die richtigen, falschweisenden Marker umzustoßen. „Die experimentellen Ergebnisse waren noch nicht perfekt, aber sie demonstrieren das Lernen und den Einsatz von täuschenden Signalen bei Robotern in einer realistischen Umwelt“, so Wagner. „Die Ergebnisse sind auch ein erster Hinweis darauf, dass unsere Techniken und Algorithmen tatsächlich genutzt werden können, um täuschendes Verhalten bei Robotern hervorzubringen.“

Lügende Roboter werfen ethische Fragen auf


Der Gedanke an „lügende” Roboter dürfte allerdings manchen Menschen ziemliches Unbehagen bereiten. Denn es weckt nicht von ungefähr Assoziationen an Science-Fiction Bücher und Filme, in denen Roboter und Computer Menschen manipulieren oder gleich die Macht ergreifen. Die ethischen Implikationen sind auch den Forschern klar: „Wir haben von Anfang an auch die ethische Bedeutung im Zusammenhang mit zur Täuschung fähigen Robotern bedacht“, erklärt Arkin. „Wir verstehen, dass es hier vorteilhafte und negative Aspekte gibt. Wir wünschen uns daher eine Diskussion über die Zulässigkeit von täuschenden Robotern um herauszufinden, ob und welche Regulationen oder Richtlinien die Entwicklung solcher Systeme beschränken sollten.“

Doch die Wissenschaftler sehen auch die Vorteile, die ein der Täuschung fähiger Roboter mit sich bringen könnte: So könnte es für einen im Rettungsdienst eingesetzten Bergungsroboter wichtig sein, in Panik verfallene Katastrophenopfer durch eine Lüge zu beruhigen oder zur Kooperation zu bringen. Und dass dem Militär solche lügenden Maschinenhelfer äußerst willkommen wären, ist auch klar. Sie könnten den Feind in die Irre führen und damit sich selbst und menschliche Soldaten schützen. „Die meisten sozialen Roboter werden vermutlich äußerst selten Täuschung einsetzen, aber es ist dennoch ein wichtiges Werkzeug in ihrem interaktiven Arsenal“, erklärt Wagner.
(Georgia Institute of Technology, 13.09.2010 - NPO)
 
Printer IconShare Icon