Anzeige
Technik

Wie objektiv ist die KI?

Maschinenhirne mit Vorurteilen

Sie gelten als objektiv und allein von reiner Logik geleitet: Künstliche Intelligenz hat keine Gefühle und keine Persönlichkeit – jedenfalls noch nicht. Deshalb sollen die lernfähigen Algorithmen bessere, schnellere und vor allem gerechtere Entscheidungen treffen können als wir Menschen. Denn wo wir vorurteilsbelastet und voreingenommen sein können, entscheidet die KI absolut rational und unparteiisch – oder doch nicht?

Bilder
Ob und als was eine KI ein Foto erkennt, hängt auch von ihrem Lernmaterial ab. © metamorworks/ iStock.com

Gorillas statt Menschen

Einen ersten schweren Dämpfer dieser Idealvorstellungen gab es schon vor einigen Jahren: Die automatische Bilderkennungssoftware Google Photos hatte das Foto einer Gruppe von Afroamerikanern fälschlicherweise als „Gorillas“ klassifiziert. Es kam zu einem öffentlichen Aufschrei und Protesten gegen diese rassistische Einordnung. Doch wie konnte dieser Fehler passieren?

Der Grund lag im Trainingsmaterial des KI-Systems: In der Bilddatenbank wurde die Kategorie Mensch überproportional stark von Menschen des hellhäutigen kaukasischen Typs repräsentiert. Fotos dunkelhäutiger Menschen gab es dagegen nur wenige. Durch diese Verzerrung im Daten-Input entwickelte die KI eine falsche, zu enge Kategorisierung – und fällte diskriminierende Fehlurteile. „Wenn KI-Systeme mit einseitigen Daten trainiert werden, ist es nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen“, erklärt Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin.

Frau gleich Helferin?

Doch auch subtilere Einflüsse können das Urteil der Maschinenhirne trüben, wie 2017 ein Experiment belegte. Dafür hatten Forscher um Aylin Caliskan von der Princeton University den Bot „GloVe“ mithilfe von Texten aus dem Internet trainiert. Das Programm bildete für jedes von rund zwei Millionen Wörtern in diesen Quelltexten ein semantisches Beziehungsnetz. Dadurch lernte es Texte zu erstellen und zu verstehen.

Der Clou: Nach der Lernphase unterzogen die Forscher dieses Programm einem Impliziten Assoziationstest – einem psychologischen Test, der unbewusste Stereotype entlarven kann. Und tatsächlich: Ähnlich wie viele Menschen tappte auch das Maschinenhirn in die Falle. Es assoziierte zum Beispiel männliche, in afro-amerikanischen Kreisen häufige Vornamen mit „unangenehm“, „typisch weiße“ dagegen eher mit positiven Attributen. Frauen assoziierte das Programm eher mit Kunst und „Helfer“, Männer wurden dagegen häufiger mit Führungsattributen und Mathematik verknüpft.

Anzeige

Vorurteile werden übernommen

Für die Forscher ist damit klar: Gerade textbasierte KI-Systeme übernehmen sehr leicht explizite und implizite Vorurteile aus Datensätzen. „Das ist deshalb wenig überraschend, weil die Texte von Menschen geschrieben werden, die natürlich nicht vorurteilsfrei sind“, kommentiert der Linguist Joachim Scharloth von der Technischen Universität Dresden. Mit anderen Worten: Um voreingenommene Entscheidungen der KI-Systeme zu verhindern, muss besonders darauf geachtet werden, dass die Datengrundlage nicht verzerrt ist.

Aber lassen sich solche Verzerrungen überhaupt verhindern? Und reicht das schon aus, um eine vorurteilsfreie KI zu erschaffen?

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Maschinenhirn mit Schwächen
Sind künstliche Intelligenzen wirklich unvoreingenommen und objektiv?

Lernfähige Algorithmen überall
KI-Systeme auf dem Vormarsch

Wirklich unfehlbar?
Wenn KI folgenschwere Entscheidungen fällt

Wie objektiv ist die KI?
Maschinenhirne mit Vorurteilen

Aus Prinzip voreingenommen?
Algorithmen und die Gruppendynamik

Gibt es eine Lösung?
Die Frage von Verantwortung und Moral

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Killerroboter - Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Big Data - Mehr Daten – mehr Erkenntnis?