Umfrage zeigt globale Präferenzen in Dilemma-Situationen Wie sollen autonome Autos entscheiden? - scinexx | Das Wissensmagazin
Anzeige
Anzeige

Umfrage zeigt globale Präferenzen in Dilemma-Situationen

Wie sollen autonome Autos entscheiden?

Moralisches Dilemma: Wen soll das Auto in diesem Unfall-Szenario opfern? © MIT

Eine Frage der Moral: Wen sollen autonome Autos im Falle eines unausweichlichen Unfalls opfern? Diese schwierige ethische Frage haben Forscher nun in einer weltweiten Umfrage gestellt – der bisher größten Erhebung zu diesem Moral-Dilemma. Die Ergebnisse zeigen, dass es einige universale Tendenzen gibt: zum Beispiel die bevorzugte Rettung von Gruppen gegenüber Einzelpersonen. Doch es zeichnen sich auch deutliche kulturelle Unterschiede ab, wie die Wissenschaftler im Fachmagazin „Nature“ berichten.

Autonome Fahrzeuge sollen den Verkehr der Zukunft revolutionieren. Prototypen können bereits auf Knopfdruck vom Fahrer gerufen werden und sollen für mehr Sicherheit sorgen, indem sie Fußgänger, Geisterfahrer und Staus erkennen. Bei vollautomatisierten Fahrzeugen ergibt sich allerdings schnell ein moralisches Dilemma. Denn im Ernstfall muss das Auto selbst über Leben und Tod entscheiden: Schützt es beispielsweise die Insassen oder weicht es um jeden Preis einem unachtsamen Passanten aus?

Die deutsche Ethik-Kommission betont in ihren im Juni 2017 veröffentlichten Regeln für autonomes Fahren, dass eine automatische Steuerung für unvermeidbare Unfälle „nicht ethisch zweifelsfrei programmierbar“ sei. Doch gibt es möglicherweise einen gesellschaftlichen Konsens darüber, wie autonome Systeme in solchen Situationen reagieren sollten?

Oma oder Kind?

Genau dieser Frage sind Wissenschaftler um Edmond Awad vom Massachusetts Institute of Technology in Cambridge nachgegangen. Dafür konzipierten sie die sogenannte „Moral Machine“ – eine Art Onlinespiel, in dem sich Nutzer in unterschiedlichen Verkehrssituationen zwischen zwei möglichen Manövern entscheiden müssen.

Konkret ging es in jedem Szenario darum, dass es auf jeden Fall zu einem Schaden kommt. Zu welchem, das bestimmten die Teilnehmer: Sollten drei Insassen oder fünf Fußgänger verschont bleiben? Sollten lieber eine Frau und zwei Kinder verletzt werden oder drei Rentner? Oder wäre ein Krimineller eher zu opfern als ein Doktor? Die große Beteiligung von mehr als zwei Millionen Menschen aus 233 Ländern machte es den Forschern schließlich möglich, fast 40 Millionen Entscheidungen aus solchen Dilemma-Situationen auszuwerten.

Anzeige

Klare Muster

Dabei zeichneten sich klare Muster ab: Weltweit tendierte die Mehrheit der Teilnehmer dazu, das Leben von Menschen über das von Tieren zu stellen. Außerdem wurden häufiger Gruppen als Einzelpersonen verschont und Kinder eher gerettet als Ältere, wie Awad und seine Kollegen berichten.

Allerdings gab es auch deutliche kulturelle Unterschiede. So war etwa die Tendenz, jüngere Menschen zu verschonen, in asiatischen Ländern weniger stark ausgeprägt – womöglich, weil in diesen Nationen der Respekt vor den älteren Mitgliedern der Gemeinschaft besonders groß ist.

Kulturelle Unterschiede

Teilnehmer aus Mittel- und Südamerika zeichneten sich dagegen dadurch aus, dass sie überdurchschnittlich häufig Frauen und sportliche Personen retteten. Und in Ländern, in denen es große Einkommensunterschiede gibt, wurde oftmals der soziale Status der potenziellen Opfer bei der Entscheidungsfindung berücksichtigt.

Zwar sind die Ergebnisse nicht repräsentativ. Sie zeigen aber, dass viele Menschen klare moralische Vorstellungen darüber haben, wie in Dilemma-Situationen zu entscheiden ist – und dass diese Vorstellungen von sozialen und kulturellen Faktoren beeinflusst werden. „Die Frage ist, wie stark diese unterschiedlichen Präferenzen beeinflussen, ob autonome Fahrzeuge und deren Programmierung in Zukunft von der Öffentlichkeit akzeptiert werden“, sagt Awad.

„Auf dem Boden der Menschenrechte“

Theoretisch könnten den Wissenschaftlern zufolge die Vorstellungen der Bevölkerung mitberücksichtigt werden, wenn Software für vollautomatisierte Autos programmiert wird. Die wesentliche Frage ist allerdings, ob das überhaupt wünschenswert ist. So gibt die Ethik-Kommission beispielsweise vor: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“

Dies sieht auch die Völkerrechtlerin und Rechtsethikerin Silja Vönekey von der Universität Freiburg so: „Wir sollten nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht. Mit den Menschenrechten gibt es bereits rechtlich bindende Prinzipien, die zentrale universale Werte schützen, wie das Recht auf Leben und das Verbot von Diskriminierungen. Wenn neue ethische Prinzipien gesucht werden, sollte dies auf dem Boden der Menschrechte geschehen.“ (Nature, 2018; doi: 10.1038/s41586-018-0637-6)

(Nature Press/ Massachusetts Institute of Technology/ CNRS, 26.10.2018 – DAL)

Anzeige

In den Schlagzeilen

Diaschauen zum Thema

Dossiers zum Thema

News des Tages

Chang'e 4

Erste Pflanzen keimen auf dem Mond

Unser Gehirn hört auch im Schlaf zu

Klimawandel verstärkt Meereswellen

Die Schattenseite der Entsalzung

Ohr aus dem 3-D-Drucker

Bücher zum Thema

Die berechnete Welt - Leben unter dem Einfluss von Algorithmen Von Nora S. Stampfl

Der Luzifer-Effekt - Die Macht der Umstände und die Psychologie des Bösen von Philip G. Zimbardo

Maschinen mit Bewusstsein - Wohin führt die künstliche Intelligenz? von Bernd Vowinkel

Top-Clicks der Woche

Anzeige
Anzeige