Anzeige
Technik

„Wir machen nicht mit“

KI-Forscher gegen Killerroboter

Die Debatte um Killerroboter und die ethische Vertretbarkeit von autonomen Waffen ist inzwischen auch in der IT-Branche angekommen. In den letzten Jahren mehren sich die Stimmen, die eine Einschränkung oder einen Bann für vollautonome Waffensysteme fordern. Diese Forderung kommt damit von denjenigen, die federführend bei der Entwicklung dieser Technologie sind – und die reichlich Profit damit machen würden.

Wenn es um künstliche Intelligenz für den Kriegseinsatz geht, sind selbst Vertreter der KI-Branche skeptisch. © Andrea Danti / iStock.com

Ein Roboterhersteller steigt aus

Einer der Vorreiter war bereits im Jahr 2014 der kanadische Roboterhersteller Clearpath. Er schrieb in einem offenen Brief: „Würde ein Roboter die Moral, Vernunft und das emotionale Verstehen besitzen, um ethisch falschen oder unmenschlichen Befehlen zuwiderzuhandeln? Nein. Sind Computer in absehbarer Zukunft dazu fähig, subjektiv zu entscheiden, ob ein Ziel legitim ist und ob der Gewalteinsatz verhältnismäßig ist? Nein. Könnte diese Technologie dazu führen, dass diejenigen, die sie besitzen und einsetzen, das menschliche Leben weniger wertschätzen? Wir glauben ehrlich gesagt, dass genau das der Fall sein wird.“ Das Unternehmen ist das erste, dass sich öffentlich weigerte, Roboterwaffen zu produzieren.

2015 veröffentlichten dann mehr als 3.000 Wissenschaftler und Unternehmer ebenfalls einen offenen Brief, in dem sie sich für einen Bann von autonomen Offensivwaffen ohne menschliche Kontrolle aussprachen. „Die künstliche Intelligenz hat einen Punkt erreicht, an dem der Einsatz solcher Systeme innerhalb der nächsten Jahre denkbar ist“, warnten sie. Zu den Unterzeichnern gehörten unter anderem der inzwischen verstorbene Physiker Stephen Hawking, Tesla-Gründer Elon Musk und Apple-Mitgründer Steve Wozniak.

Im Juli 2018 versprachen mehr als 2.400 Forscher und Angehörige von 170 KI-Unternehmen und Institutionen zudem, sich nicht an der Entwicklung von solchen autonomen Waffensystemen zu beteiligen. In dem Gelöbnis heißt es unter anderem: „Wir Unterzeichner sind uns einig, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte.“ Und weiter: „Wir werden uns an der Entwicklung, Herstellung, dem Handel und der Nutzung tödlicher autonomer Waffen niemals beteiligen oder dies unterstützen.“

Beim Projekt MAVEN musste sich Google Protesten der eigenen Mitarbeiter beugen. © JHVEPhoto/ iStock.com

Google-Mitarbeiter proben den Aufstand

Wie ernst es vielen KI-Forschern damit ist, zeigte sich Anfang 2018 beim IT-Riesen Google. Das Unternehmen ist nicht nur führend in der KI-Forschung, sie hatten auch einen lukrativen Auftrag des US-Verteidigungsministeriums ergattert. Im Projekt MAVEN sollte eine künstliche Intelligenz dafür eingesetzt werden, Videomaterial von Militärdrohnen effizienter auszuwerten. Das System sollte es ermöglichen, potenzielle Zielpersonen, Fahrzeuge und Gebäude schneller und besser zu identifizieren.

Anzeige

Google-Manager sahen in diesem eher kleinen Auftrag eine Chance, in das lukrative Geschäft mit dem Militär einzusteigen. Gleichzeitig war ihnen durchaus klar, dass dies in der Öffentlichkeit wohl nicht so gut ankommen könnte, wie vom Magazin Gizmodo eingesehene interne E-Mails belegen: „Ich weiß nicht was passieren würde, wenn die Medien aufgreifen würden, dass Google insgeheim KI-Waffen oder KI-Technologien für die Verteidigungsindustrie baut“, schrieb KI-Chefwissenschaftlerin Fei-Fei Li im Herbst 2017.

Doch Google hatte die Rechnung ohne ihre Angestellten gemacht. Als im Januar die Verlängerung des MAVEN-Vertrags zur Debatte stand, stellten sie sich quer: Mehr als tausend Google-Mitarbeiter unterzeichneten eine Petition gegen eine Verlängerung und Dutzende Angestellte sollen sogar aus Protest gekündigt haben. Unter diesem Druck gaben die Manager nach: Das MAVEN-Projekt wurde nicht verlängert.

Allerdings: Es gibt genügend andere Firmen, die solche Projekte und Aufträge dankend annehmen würden. Hinzu kommt, dass viele im zivilen Bereich eingesetzt KI-Technologien leicht für die militärische Nutzung adaptiert werden können.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. weiter

Nadja Podbregar
Stand: 16.11.2018

Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Killerroboter
Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Waffen mit Computerhirn
Wenn Waffensysteme autonom werden

Schnell, selektiv und tödlich
Wie sieht das Schlachtfeld der Zukunft aus?

"Chirurgische" Präzision
Weniger Tote durch autonome Waffen?

Sind Roboter "menschlicher"?
Mitleid und Moral bei Mensch und Maschine

"Wir machen nicht mit"
KI-Forscher gegen Killerroboter

Killerroboter bei der UN
Die Diskussion über ein Verbot autonomer Waffen

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Drohnen - Wertvolle Helfer oder fliegende Gefahr?