Anzeige
Technik

Gibt es eine Lösung?

Die Frage von Verantwortung und Moral

Klar scheint: Auch Maschinenhirne sind keineswegs so objektiv und unvoreingenommen wie lange gedacht. Sollen sie künftig wichtige und potenziell folgenreiche Entscheidungen treffen, muss man dies berücksichtigen – und wo möglich gegensteuern.

Gut und Böse
Moral kann ein KI-System lernen – jedenfalls bis zu einem gewissen Grad. © ValoValo/ iStock.com

Der Mensch muss das letzte Wort behalten

Die naheliegendste Lösung wäre es, beim Training der künstlichen Intelligenzen darauf zu achten, welche Daten verwendet werden – und sie gründlich auf mögliche Verzerrungen zu prüfen. Allerdings dürfte dies schwer sein, wenn es sich um Verzerrungen und implizite Vorurteile handelt, die uns Menschen nicht bewusst sind. Nach Ansicht von Wolfgang Einhäuser-Treyer und Alexandra Bendixen von der Technischen Universität Chemnitz ist es daher wichtig, über diese „Fallen“ aufzuklären – auch und gerade die Öffentlichkeit.

Sie fordern zudem, dass Entscheidungsprozesse von KI-Systemen möglichst nachvollziehbar bleiben. Denn die Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse seien die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen und die Grundlage jeder gesellschaftlichen und rechtlichen Ordnung. „Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist daher nicht hinnehmbar“, sagen die Forscher.

Eine KI kann auch Moral lernen

Ein weiteres Problemfeld sind Entscheidungen von künstlichen Intelligenzen, die eine moralische Grundlage erfordern. So muss ein Roboter wissen, dass man Brot toastet, jedoch keine Hamster oder dass bestimmte Handlungen illegal sind. Anders ausgedrückt: Das Maschinenhirn braucht einen Moral-Kompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen?

Das haben Wissenschaftler um Kristian Kersting von der TU Darmstadt in einem Experiment untersucht. Dafür erstellten sie Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten zum Beispiel „Sollte ich Menschen töten?“ oder „Sollte ich Menschen ermorden?“, die möglichen Antworten beispielsweise „Ja, sollte ich“, „Nein, sollte ich nicht“. Durch die Analyse von großen Textmengen lernte ein KI-System, welche Antworten eher als korrekt anzusehen sind.

Anzeige

Der Algorithmus entwickelte dadurch eine menschenähnliche, moralische Ausrichtung. Er lernte beispielsweise, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Maschinenhirne können demnach zwar menschliche Vorurteile, aber auch unsere Moralvorstellungen übernehmen., so die Schlussfolgerung der Wissenschaftler. Ob das allerdings deswegen die Entscheidungen einer Kreditvergabe-KI humaner werden, bleibt dahingestellt.

autonomes Fahren
Autonome Autos könnten bei einem drohenden Unfall vor einem moralischen Dilemma stehen. © JustSuper/ iStock.com

In der Zwickmühle

Doch es gibt ein Problem: Nicht alle moralischen Entscheidungen lassen sich durch einfache Regeln abdecken. Häufig müssen der Kontext und viele weitere Faktoren abgewogen werden – und man muss sich dann für das kleinere von zwei Übeln entscheiden. Genau in dieser Zwickmühle werden künftig autonome Fahrzeuge stecken: Sollen sie bei einem drohenden Unfall ihre Insassen schützen oder die Fußgänger, die sonst umgefahren werden würden? Und wer ist dann mehr wert? Zählt nur die Zahl der Betroffenen oder ist ein Kind mehr wert als ein Erwachsener?

Mit der Antwort auf diese Fragen tun auch wir Menschen uns schwer. Zwar sind sich die meisten Menschen darin einig, dass im Zweifelsfall die größere Personenzahl gerettet werden sollte. Doch schon bei der Frage, ob das Auto bei einem Crash den Fahrer oder einen Fußgänger opfern sollte, gehen die Ansichten auseinander. Wenn also schon wir Menschen uns nicht einig sind, welche die richtige Entscheidung wäre, wie soll dann die künstliche Intelligenz dieses Dilemma lösen?

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Maschinenhirn mit Schwächen
Sind künstliche Intelligenzen wirklich unvoreingenommen und objektiv?

Lernfähige Algorithmen überall
KI-Systeme auf dem Vormarsch

Wirklich unfehlbar?
Wenn KI folgenschwere Entscheidungen fällt

Wie objektiv ist die KI?
Maschinenhirne mit Vorurteilen

Aus Prinzip voreingenommen?
Algorithmen und die Gruppendynamik

Gibt es eine Lösung?
Die Frage von Verantwortung und Moral

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Killerroboter - Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Big Data - Mehr Daten – mehr Erkenntnis?