Anzeige
Technik

Wirklich unfehlbar?

Wenn KI folgenschwere Entscheidungen fällt

Je weiter die künstliche Intelligenz in nahezu alle Bereiche unserer Gesellschaft vordringt, desto größer sind auch die möglichen Konsequenzen ihrer Entscheidungen. Denn von ihrem Urteil hängt unter Umständen der die finanzielle oder berufliche Zukunft eines Menschen ab – oder sogar dessen Leben.

Häftling
Entscheiden künftig KI-Systeme über das Schicksal von Angeklagten? © jinga80/ iStock.com

Tödliche Fehlentscheidungen

Stellt eine KI beispielsweise in der Medizin die falsche Diagnose, ohne dass dies hinterfragt wird, kann ein Patient falsch behandelt werden oder sogar sterben. Tödlich kann es auch enden, wenn beim Militär ein autonomes Waffensystem eingesetzt wird, das falsche Entscheidungen trifft. Kann es beispielsweise auf die Schnelle Freund nicht von Feind oder Flüchtling nicht vom angreifenden Soldaten unterscheiden, sterben Unschuldige.

Kaum weniger folgenreich können Entscheidungen von Maschinenhirnen im Justizwesen sein. So werden in den USA bereits Algorithmen in Gerichten eingesetzt. Diese KI-Systeme sollen vorhersagen, wie groß die Wahrscheinlichkeit für einen Rückfall bei vor Gericht stehenden Straftätern ist. Ihre Einschätzung wirkt sich nicht selten auf die Entscheidung des Gerichts und damit auf das Strafmaß der Verurteilten aus.

Kreditwürdigkeit
Schon jetzt werden KI-Systeme bei Banken und Versischerungen eingesetzt. © cnythzl / iStock.com

Wenn die KI über Kredite entscheidet

Ähnlich gravierend kann sich eine Entscheidung im Finanz- und Versicherungswesen auswirken – einem Bereich, in dem Algorithmen schon jetzt häufig über Anträge oder die Kreditwürdigkeit von Kunden entscheiden. Trainiert werden diese Systeme meist anhand von Datenbanken, die wesentliche Informationen über die Lebensumstände und das Verhalten von früheren Fällen enthalten.

Die KI sucht dann auch hier nach Mustern: Welche Personen zahlen ihre Kredite meist zurück und welche nicht? Aus den dabei zutage tretenden Zusammenhängen entwickelt sie dann ihre Auswerteroutinen und entscheidet entsprechend. Konkret bedeutet dies, dass Menschen mit falschem Wohnort oder Beruf dann keinen Kredit bekommen – egal wie zahlungswillig sie trotz dieser Umstände sein mögen.

Anzeige

Im Extremfall wäre der Mensch dann nur noch Ausführungshelfer: „Der Computer hat auf Basis Ihrer Daten entschieden, dass Sie keinen Kredit erhalten, da kann ich als Bankangestellter nichts machen.“

Wer trägt die Verantwortung?

Ein weiteres Problem: Je komplexer die Zusammenhänge und Entscheidungsgrundlagen sind, desto schwerer lassen sie sich von uns Menschen nachvollziehen. Das bedeutet, das eine Kontrolle der KI-Entscheidungen nur noch eingeschränkt möglich ist. Das wirft auch die Frage auf, wer bei Fehlentscheidungen die Verantwortung trägt. Wer haftet, wenn eine KI Fehler macht oder versagt?

Wie aktuell diese Frage ist, zeigte 2017 der tödliche Unfall eines Autofahrers, der mit einem Fahrassistenzsystem von Tesla unterwegs war. Weil der „Autopilot“ einen kreuzenden Laster übersah, kam es zum Crash. In diesem Fall handelte es sich nur um ein teilautonomes System, weswegen die Software „freigesprochen“ wurde. Doch was ist, wenn ein vollständig autonomes Fahrzeug einen Unfall baut? Ist der Autohersteller schuld? Oder die Software-Ingenieure?

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Maschinenhirn mit Schwächen
Sind künstliche Intelligenzen wirklich unvoreingenommen und objektiv?

Lernfähige Algorithmen überall
KI-Systeme auf dem Vormarsch

Wirklich unfehlbar?
Wenn KI folgenschwere Entscheidungen fällt

Wie objektiv ist die KI?
Maschinenhirne mit Vorurteilen

Aus Prinzip voreingenommen?
Algorithmen und die Gruppendynamik

Gibt es eine Lösung?
Die Frage von Verantwortung und Moral

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Killerroboter - Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Big Data - Mehr Daten – mehr Erkenntnis?