• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Donnerstag, 15.11.2018
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Wie sollen autonome Autos entscheiden?

Umfrage zeigt globale Präferenzen in Dilemma-Situationen

Eine Frage der Moral: Wen sollen autonome Autos im Falle eines unausweichlichen Unfalls opfern? Diese schwierige ethische Frage haben Forscher nun in einer weltweiten Umfrage gestellt – der bisher größten Erhebung zu diesem Moral-Dilemma. Die Ergebnisse zeigen, dass es einige universale Tendenzen gibt: zum Beispiel die bevorzugte Rettung von Gruppen gegenüber Einzelpersonen. Doch es zeichnen sich auch deutliche kulturelle Unterschiede ab, wie die Wissenschaftler im Fachmagazin "Nature" berichten.
Moralisches Dilemma: Wen soll das Auto in diesem Unfall-Szenario opfern?

Moralisches Dilemma: Wen soll das Auto in diesem Unfall-Szenario opfern?

Autonome Fahrzeuge sollen den Verkehr der Zukunft revolutionieren. Prototypen können bereits auf Knopfdruck vom Fahrer gerufen werden und sollen für mehr Sicherheit sorgen, indem sie Fußgänger, Geisterfahrer und Staus erkennen. Bei vollautomatisierten Fahrzeugen ergibt sich allerdings schnell ein moralisches Dilemma. Denn im Ernstfall muss das Auto selbst über Leben und Tod entscheiden: Schützt es beispielsweise die Insassen oder weicht es um jeden Preis einem unachtsamen Passanten aus?

Die deutsche Ethik-Kommission betont in ihren im Juni 2017 veröffentlichten Regeln für autonomes Fahren, dass eine automatische Steuerung für unvermeidbare Unfälle "nicht ethisch zweifelsfrei programmierbar" sei. Doch gibt es möglicherweise einen gesellschaftlichen Konsens darüber, wie autonome Systeme in solchen Situationen reagieren sollten?

Oma oder Kind?


Genau dieser Frage sind Wissenschaftler um Edmond Awad vom Massachusetts Institute of Technology in Cambridge nachgegangen. Dafür konzipierten sie die sogenannte "Moral Machine" – eine Art Onlinespiel, in dem sich Nutzer in unterschiedlichen Verkehrssituationen zwischen zwei möglichen Manövern entscheiden müssen.


Konkret ging es in jedem Szenario darum, dass es auf jeden Fall zu einem Schaden kommt. Zu welchem, das bestimmten die Teilnehmer: Sollten drei Insassen oder fünf Fußgänger verschont bleiben? Sollten lieber eine Frau und zwei Kinder verletzt werden oder drei Rentner? Oder wäre ein Krimineller eher zu opfern als ein Doktor? Die große Beteiligung von mehr als zwei Millionen Menschen aus 233 Ländern machte es den Forschern schließlich möglich, fast 40 Millionen Entscheidungen aus solchen Dilemma-Situationen auszuwerten.

Klare Muster


Dabei zeichneten sich klare Muster ab: Weltweit tendierte die Mehrheit der Teilnehmer dazu, das Leben von Menschen über das von Tieren zu stellen. Außerdem wurden häufiger Gruppen als Einzelpersonen verschont und Kinder eher gerettet als Ältere, wie Awad und seine Kollegen berichten.

Allerdings gab es auch deutliche kulturelle Unterschiede. So war etwa die Tendenz, jüngere Menschen zu verschonen, in asiatischen Ländern weniger stark ausgeprägt – womöglich, weil in diesen Nationen der Respekt vor den älteren Mitgliedern der Gemeinschaft besonders groß ist.


Kulturelle Unterschiede


Teilnehmer aus Mittel- und Südamerika zeichneten sich dagegen dadurch aus, dass sie überdurchschnittlich häufig Frauen und sportliche Personen retteten. Und in Ländern, in denen es große Einkommensunterschiede gibt, wurde oftmals der soziale Status der potenziellen Opfer bei der Entscheidungsfindung berücksichtigt.

Zwar sind die Ergebnisse nicht repräsentativ. Sie zeigen aber, dass viele Menschen klare moralische Vorstellungen darüber haben, wie in Dilemma-Situationen zu entscheiden ist – und dass diese Vorstellungen von sozialen und kulturellen Faktoren beeinflusst werden. "Die Frage ist, wie stark diese unterschiedlichen Präferenzen beeinflussen, ob autonome Fahrzeuge und deren Programmierung in Zukunft von der Öffentlichkeit akzeptiert werden", sagt Awad.

"Auf dem Boden der Menschenrechte"


Theoretisch könnten den Wissenschaftlern zufolge die Vorstellungen der Bevölkerung mitberücksichtigt werden, wenn Software für vollautomatisierte Autos programmiert wird. Die wesentliche Frage ist allerdings, ob das überhaupt wünschenswert ist. So gibt die Ethik-Kommission beispielsweise vor: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt."

Dies sieht auch die Völkerrechtlerin und Rechtsethikerin Silja Vönekey von der Universität Freiburg so: "Wir sollten nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht. Mit den Menschenrechten gibt es bereits rechtlich bindende Prinzipien, die zentrale universale Werte schützen, wie das Recht auf Leben und das Verbot von Diskriminierungen. Wenn neue ethische Prinzipien gesucht werden, sollte dies auf dem Boden der Menschrechte geschehen." (Nature, 2018; doi: 10.1038/s41586-018-0637-6)
(Nature Press/ Massachusetts Institute of Technology/ CNRS, 26.10.2018 - DAL)
 
Printer IconShare Icon