• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Sonntag, 18.11.2018
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Auch Bots entwickeln Vorurteile

Künstliche Intelligenzen lernen voreingenommenes Verhalten auch ohne den Menschen

Voreingenommene Bots: Künstliche Intelligenzen können offenbar auch ohne vorbelasteten menschlichen Input Vorurteile entwickeln. Computersimulationen mit smarten Bots zeigen: Die Computergehirne übernehmen vorurteilbehaftetes Verhalten, indem sie andere Maschinen beobachten und kopieren. Dadurch entsteht eine Dynamik, die auch aus menschlichen Gesellschaften bekannt ist, wie die Forscher im Fachmagazin "Scientific Reports" berichten.
Auch Künstliche Intelligenzen entwickeln Vorurteile.

Auch Künstliche Intelligenzen entwickeln Vorurteile.

Computersysteme, die menschliche Intelligenz nachahmen, beherrschen inzwischen erstaunliche Fähigkeiten: Die Maschinengehirne werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas 
beizubringen und kommen auch mit komplexen Herausforderungen mühelos zurecht. In Zukunft könnten Künstliche Intelligenzen (KI) daher vermehrt Aufgaben in unserem Alltag übernehmen.

Dabei zeichnet sich allerdings ein Problem ab: Weil solche Systeme ihre Fähigkeiten häufig durch von Menschen zur Verfügung gestellte Daten erlernen, übernehmen sie dadurch mitunter auch menschliche Vorurteile. Das Ergebnis sind beispielsweise rassistische oder sexistische Computergehirne. Doch als wäre dies nicht bedenklich genug, haben Wissenschaftler nun Hinweise darauf gefunden, dass künstliche Intelligenzen womöglich sogar ohne vorbelasteten Input von uns Menschen Vorurteile entwickeln können.

Wie entstehen Vorurteile?


Für ihre Studie untersuchten Roger Withaker von der Cardiff University und seine Kollegen mithilfe von Computersimulationen, wie Vorurteile entstehen und befeuert werden. In ihrem Modell interagierten 100 smarte Bots in einem Geben-und-Nehmen-Spiel miteinander, bei dem sie entweder jemandem aus dem eigenen Team etwas spenden sollten oder einem Spielteilnehmer von außerhalb.


Wen sie bedachten, entschieden diese virtuellen Akteure aufgrund der eigenen Spielstrategie sowie der Reputation anderer Individuen. Wer würde mit wem kooperieren – und wer würde wen von den Spenden ausschließen? "Indem wir diese Simulationen tausende Male durchspielten, konnten wir erkennen, wie sich Vorbehalte gegenüber anderen entwickeln und unter welchen Bedingungen sie gefördert werden", erklärt Whitaker.

Immer voreingenommener


Die Auswertung zeigte: Je häufiger die Wissenschaftler die Simulationen durchspielten, desto voreingenommener wurden die Bots. Sie tendierten im Laufe der Zeit immer stärker dazu, Akteure aus fremden Gruppen von ihren Spenden auszuschließen und exklusiv innerhalb ihres eigenen Teams zu handeln. Kurzum: Sie entwickelten immer stärkere Vorurteile gegenüber "den anderen".

Dabei beobachteten Whitaker und seine Kollegen, dass die smarten Bots ihre Spielstrategie anpassten, indem sie andere Teilnehmer kopierten – und zwar jene, die kurzfristig am meisten Geld einsammelten und demnach am erfolgreichsten waren. Auf diese Weise entstanden Gruppen von Akteuren, die sich ähnlich verhielten und konsequent nicht zugehörige Spielteilnehmer ausschlossen. Besonders hoch war das Vorurteilslevel dann, wenn es eher wenige anstatt viele unterschiedliche Gruppen innerhalb der virtuellen Population gab.


Schlichtes Kopierverhalten


Die Bots erlernten ihre Voreingenommenheit demnach durch das schlichte Kopieren anderer Computergehirne. "Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind", schreiben die Forscher. Ihnen zufolge scheint klar: Künstliche Intelligenzen benötigen keine von Menschen gemachten Daten, um voreingenommen zu werden – es reicht, wenn sie andere Maschinen um sich haben.

"Viele KI-Entwicklungen beruhen auf Autonomie und Selbstkontrolle. Das bedeutet: Das Verhalten solcher Maschinen wird auch von anderen Maschinen um sie herum beeinflusst. Unsere Studie zeigt, was theoretisch bei Akteuren passieren kann, die regelmäßig auf Ressourcen von anderen angewiesen sind", konstatiert Whitaker.

"Damit belegen wir, dass die kollektive Intelligenz solcher Maschinen potenziell anfällig für ein Phänomen ist, das wir auch aus menschlichen Gesellschaften kennen", schließt das Team. (Scientific Reports, 2018; doi: 10.1038/s41598-018-31363-z)
(Cardiff University, 10.09.2018 - DAL)
 
Printer IconShare Icon