Anzeige
Technik

Aus Prinzip voreingenommen?

Algorithmen und die Gruppendynamik

Wenn eine künstliche Intelligenz von Menschen oder menschengemachten Daten lernt, übernimmt sie auch unsere allzu menschlichen Eigenheiten – so viel scheint inzwischen klar. Ob dies nun implizite Vorurteile oder auch offen diskriminierende Entscheidungen sind. Doch lässt sich diese „Falle“ umgehen?

DAtenauswsertung
Sind die Trainingsdaten unvollständig oder verzerrt, fällt auch die KI "schiefe" Urteile. © cnythzl / iStock.com

Nachsitzen für die KI

Ein Problem dabei: Meist wird die Verzerrung der Trainings-Daten erst im Nachhinein klar – wenn die KI bereits Anzeichen voreingenommener Einordnungen zeigt. Im Falle der falschen Klassifizierung der Afro-Amerikaner durch die Google-Photo-App ließ sich dies durch „Nachsitzen“ des Maschinenhirns lösen: Durch Aufstocken der Bilddatenbank mit mehr Bildern von dunkelhäutigen Menschen und einen neuen Trainingsdurchgang korrigierte die KI ihre Einordnung.

Doch dieses Nachsitzen ist nicht immer machbar. Es kann daran scheitern, dass entsprechende Verzerrungen erst gar nicht erkannt werden. Oder aber, dass es schlicht an unverzerrten Daten fehlt. Ein Beispiel ist die Einstufung der Kreditwürdigkeit auf Basis von Personendaten. Wenn Kredite aufgrund der Algorithmen nicht mehr an bestimmte Personengruppen vergeben werden, laufen auch keine Daten mehr dazu ein, die dem eintrainierten Schema widersprechen. Die Datenbasis bleibt dadurch selbst dann verzerrt, wenn die Zahl der Daten wächst.

Vorurteile
Selbst ohne menschlichen Input entwickeln Algorithmen Vorurteile gegen "Fremde". © Juliannafunk / iStock.com

Gegen die „Anderen“

Und es gibt noch ein Problem: Wissenschaftler haben Indizien dafür gefunden, dass künstliche Intelligenzen womöglich sogar ohne vorbelasteten Input von uns Menschen Vorurteile entwickeln können. Für diese Studie ließen die Forscher 100 smarte Bots in einem Geben-und-Nehmen-Spiel miteinander interagieren. Sie sollten jeweils entscheiden, ob sie jemandem aus dem eigenen Team etwas spenden oder einem Spielteilnehmer von außerhalb.

Dabei zeigte sich Überaschendes: Im Laufe der Zeit tendierten die Bots immer stärker dazu,
fremde Gruppen auszuschließen und Spenden nur an eigenen Teammitglieder zu vergeben. Sie entwickelten damit immer stärkere Vorurteile gegenüber „den Anderen“. Der Grund dafür: Die smarten Bots passten ihre Spielstrategie an, indem sie das Verhalten der Mitspielenden kopierten, die am meisten Geld einsammelten und am erfolgreichsten waren. Auf diese Weise entstanden Gruppen von Akteuren, die sich ähnlich verhielten und konsequent nicht zugehörige Spielteilnehmer ausschlossen.

Anzeige

Vorurteil auch ohne den Menschen

Mit anderen Worten: Die Bots erlernten ihre Voreingenommenheit durch das schlichte Kopieren anderer Computergehirne. „Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind“, erklärt Roger Withaker von der Cardiff University. Ihnen zufolge scheint klar: Künstliche Intelligenzen benötigen keine von Menschen gemachten Daten, um voreingenommen zu werden – es reicht, wenn sie andere Maschinen um sich haben. Denn auch dadurch kann eine Gruppendynamik entstehen, die auch aus menschlichen Gesellschaften bekannt ist – und die Vorurteile fördert.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Maschinenhirn mit Schwächen
Sind künstliche Intelligenzen wirklich unvoreingenommen und objektiv?

Lernfähige Algorithmen überall
KI-Systeme auf dem Vormarsch

Wirklich unfehlbar?
Wenn KI folgenschwere Entscheidungen fällt

Wie objektiv ist die KI?
Maschinenhirne mit Vorurteilen

Aus Prinzip voreingenommen?
Algorithmen und die Gruppendynamik

Gibt es eine Lösung?
Die Frage von Verantwortung und Moral

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Killerroboter - Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Big Data - Mehr Daten – mehr Erkenntnis?