Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Killerroboter

Roboter auf dem Schlachtfeld - ist das der Krieg der Zukunft? © dusanpetkovic / iStock.com

Autonome Waffensysteme gelten als die Waffen der Zukunft – und als potenziell tödliche Gefahr. Denn diese von künstlicher Intelligenz geleiteten Roboter und Kriegswaffen könnten künftig vollautonom Kampfeinsätze absolvieren und Terroristen, gegnerische Soldaten und andere menschliche Ziele töten. Was aber wären die Folgen – und wo liegen die Risiken dieser Technologien?

Von lernfähigen Computeralgorithmen gesteuerte Waffensysteme sind keine Zukunftsmusik – sie existieren schon jetzt. Bisher allerdings gibt bei den meisten dieser „Killerroboter“ noch ein Mensch den Feuerbefehl. Das aber könnte sich bald ändern, die technischen Fähigkeiten haben einige KI-Systeme bereits. Doch genau dies bereitet vielen KI-Forschern und Menschenrechtsorganisationen große Sorgen.

Wie kontrollierbar werden Kriege und Angriffe dann noch? Und welche Folgen hätte der Einsatz solcher autonomen Waffen für Zivilisten und andere Unbeteiligte, aber auch für die Soldaten auf dem Schlachtfeld?

Nadja Podbregar
Stand: 16.11.2018

Wenn Waffensysteme autonom werden

Waffen mit Computerhirn

Künstliche Intelligenz und autonome Systeme sind im Trend: Lernfähige Algorithmen helfen bei der Sprach- und Gesichtserkennung, steuern Drohnen und selbstfahrende Autos und helfen Medizinern dabei, Krankheiten zu diagnostizieren. Selbst als Chemiker, Astronomiehelfer und im Wortgefecht mit einem Menschen schlagen sich die Maschinenhirne inzwischen wacker.

Die bewaffnete britische Militärdrohne "Taranis" kann autonom agieren und soll künftig auf Langstreckenmissionen eingesetzt werden. © BAE Systems

Fließender Übergang

Es ist daher kein Wunder, dass auch das Militär längst KI-Systeme für sich entdeckt hat. Schon jetzt sind viele Drohnen, Raketenabwehrsysteme oder Waffen mit Hightech-Steuerungen und halbautonomen Funktionen gespickt. Unbemannte Fluggeräte beispielsweise navigieren selbständig an ihren Einsatzort und fahnden dort mittels Bilderkennung nach dem einprogrammierten Ziel. Bevor eine solche Drohne allerdings Bomben abwirft oder Schüsse fallen, muss der Feuerbefehl von einem Menschen erteilt werden – noch.

In Zukunft jedoch könnte diese Entscheidung von einer künstlichen Intelligenz getroffen werden. Den Befehl zum Töten gibt dann nicht mehr ein Mensch, sondern eine Maschine. Innerhalb von Sekundenbruchteilen wertet sie die Informationen ihrer Sensoren aus, gleicht sie mit Zielvorgaben ab und entscheidet danach, ob das Objekt vor ihr eine heranrasende Rakete, ein feindlicher Soldat, Panzer oder anderes legitimes, ihrer Programmierung entsprechendes Ziel ist.

Gut 380 Systeme gibt es schon

Was wie Science-Fiction klingt, ist in den Labors und Versuchsanlagen der Militärs bereits Realität. „Wir sehen, dass die Aufrüstung in jedem Schauplatz des Krieges stattfindet – in der Luft, im Wasser, unter Wasser und zu Land“, sagt KI-Experte Toby Walsh von der University von New South Wales. „In allen diesen Bereichen sind Prototypen von autonomen Waffen in der Entwicklung.“

Das unbemannte, autonome U-Boot "Sea Hunter" der US-Navy hat schon Testfahrten absolviert. © DARPA

Experten schätzen, dass weltweit schon gut 380 teilautonome oder vollautonome Waffensysteme existieren oder in Arbeit sind. Mindestens zwölf Staaten sind aktiv an der Entwicklung von Killerdrohnen oder Killerrobotern beteiligt, darunter China, Israel, Russland, Frankreich, Großbritannien und die USA. Viele dieser Systeme werden vorerst teilautonom betrieben, mit einem menschlichen Soldaten als letzter Instanz. Doch die Fähigkeit zum vollautonomen Betrieb ist bereits implementiert.

Vom U-Bootjäger bis zum KI-Maschinengewehr

Ein Beispiel ist das Anfang 2018 vorgestellte autonome Schiff „Sea Hunter“ der US-Navy. Dieser unbemannte U-Bootjäger kann monatelange Fahrten durchführen und dank integrierter Waffensysteme selbständig andere U-Boote und Schiffe versenken. „Dies markiert einen wichtigen Meilenstein und bringt uns näher an eine zukünftige Flotte, in der bemannte Kriegsschiffe und große unbemannte Wasserfahrzeuge sich bei ihren Missionen ergänzen“, sagt Alexander Walkan von der Defence Advanced Research Projects Agency (DARPA).

Das israelische Iron-Dome-System beim Feuern einer Abwehrrakete. © Israel Defense Forces/ CC-by-sa 3.0

Israel setzt mit „Iron Dome“ seit 2011 ein autonomes Raketenabwehrsystem ein. Die mobilen Einheiten tasten mittels Radar den Himmel nach feindlichen Geschossen und Raketen ab, folgen deren Flugbahn und schießen sie vollautomatisch mit Abwehrraketen ab. Schätzungen zufolge wurden mit diesem System bereits tausende Raketen aus dem Gazastreifen und aus Syrien abgefangen. Die israelische „Harop“-Drohne trägt einen Sprengkopf und kreist solange in der Luft, bis sie ihr Ziel ausgemacht hat – dann wird sie zum „Kamikaze“-Flugobjekt. Je nach Modus kann sie selbstständig anhand der Strahlung feindliche Radaranlagen orten und zerstören oder ein zuvor einprogrammiertes Ziel identifizieren und vernichten.

In Russland hat die Armee schon mehrere unbemannte Panzer und autonome Waffen entwickelt. So verfügt der teilautonome Panzer T-14 über ein sogenanntes aktives Abwehrsystem, das potenzielle Gefahren durch heranrasende Geschosse detektiert und diese Objekte selbständig abschießt. Der Waffenhersteller Kalaschnikow stellte 2017 ein automatisches Gewehr vor, bei dem eine künstliche Intelligenz die Ziele identifiziert, anvisiert und den Schießbefehl erteilt. Damit liegt das Unternehmen ganz auf der Linie des russischen Präsidenten Putin: „Wer in der künstlichen Intelligenz führend ist, der wird die Welt regieren“, konstatierte dieser.

Nadja Podbregar
Stand: 16.11.2018

Wie sieht das Schlachtfeld der Zukunft aus?

Schnell, selektiv und tödlich

Stellen Sie sich vor, es ist Krieg, und kein Mensch geht hin. Denn auf dem Schlachtfeld kämpfen nicht mehr menschliche Soldaten, sondern nur noch Roboter – autonome Waffen vom Panzer bis zur Kampfdrohne. Den Krieg gewinnt dann, wessen Roboterarmeen die ebenfalls robotischen Gegner besiegen. Doch wie realistisch ist ein solches Szenario?

MAARS-Roboter beim Test mit US-Soldaten. Noch dient er nur als Packesel und Kundschafter. © US Marine Corps/ Lance Cpl. Frank Cordoba

„Dritte Revolution der Kriegsführung“

„Autonome Killerroboter gelten als die dritte Revolution der Kriegsführung nach dem Schießpulver und den Atomwaffen“, sagt Bonnie Doherty von der Harvard University, Mitautorin eines Berichts zu autonomen Waffensystemen. „Sie würden die Art, wie Kriege geführt werden auf eine Weise ändern, die wir uns heute nicht einmal vorstellen können.“

Die Szenarien, die Militärstrategen dabei zeichnen, sind allerdings ziemlich gruselig: Nach Ansicht von Experten des US-Verteidigungsministeriums könnten Roboter künftig vor allem für gefährliche und „schmutzige“ Missionen eingesetzt werden, die mit menschlichen Soldaten nicht möglich sind. Dazu zählen sie auch Einsätze, bei denen Gift oder radioaktives Material gegen Menschen eingesetzt werden. Vollautonome Kampfflugzeuge könnten zudem so programmiert werden, dass sie komplett unberechenbar und zufällig agieren – um Opfer und Gegner zu verwirren.

„Flashwars“ – zu schnell für uns Menschen

Klar scheint: Durch die autonomen Waffensysteme würden Kriege und Schlachten künftig sehr viel schneller ablaufen. Schon jetzt reagieren beispielsweise autonome Abwehrsysteme innerhalb von Sekundenbruchteilen auf eine Bedrohung – schneller als es jeder Soldat könnte. „Tödliche autonome Roboter haben den einzigartigen Vorteil, dass sie in einem für Menschen unerreichbaren Tempo agieren können und selbst dann noch zuschlagen, wenn die Kommunikationsverbindung abgerissen ist“, schreibt Major Jeffrey Thurnher in einem Magazin der US-Army.

Algorithmen sind in vielen Bereichen schneller als der Mensch – bei autonomen Waffen könnte das jedoch fatal sein. © monsitj/ iStock.com

Das allerdings birgt auch ein hohes Risiko, wie unter anderem der ehemalige US-Army Ranger und KI-Waffenexperte Paul Scharre in seinem Buch „Army of None“ beschreibt. Er befürchtet, dass es bei autonomen Waffen zu einem ähnlichen Phänomen wie dem „Flashcrash“ an den elektronischen Wertpapierbörsen kommen könnte. Dabei führen die überreagierenden Algorithmen des Hochfrequenzhandels dazu, dass die Kurse kurzzeitig dramatisch einbrechen. „Meine Sorge ist, dass man dabei etwas Vergleichbares bekommt – einen ‚Flashwar‘, in dem Algorithmen interagieren und plötzlich beginnen Roboter aufeinander zu schießen und Amok zu laufen“, so Scharre.

Ähnlich sieht es der KI-Forscher Noel Sharkey: „Stellen Sie sich Schwärme autonomer Panzer und Kampfflieger an einer Grenze vor – und plötzlich feuert einer irrtümlich oder weil er gehackt wurde. Das würde eine Schlacht auslösen, die kein Mensch nachvollziehen oder entwirren könnte. Es wäre innerhalb von Minuten vorüber, würde aber Massenzerstörungen und den Verlust von unzähligen Leben hinterlassen.“ Der Mensch hätte kaum eine Chance, solche „Blitzschlachten“ zu kontrollieren oder rechtzeitig zu verhindern.

Guerilla-Taktik statt Schlachtfeld

Auch die Orte der Kriegsführung werden sich durch autonome Waffen ändern – die Kämpfe verlagern sich vom entlegenen Schlachtfeld oder Grenzgebiet immer mehr in die Städte und mitten unter die Zivilbevölkerung. Denn dank programmierter Erkennungsmerkmale können Drohnen und andere Roboter ihre menschlichen oder technischen Ziele gezielt „chirurgisch“ ausschalten – und laut Militärs so selbst im urbanen Umfeld unnötige zivile Opfer vermeiden.

Allerdings: Autonome Drohnen und Roboter können leicht missbraucht werden. In den Händen von Terroristen und Kriminellen wird diese Technologie zu einer perfekten Waffe für Anschläge und Attentate. Aber auch Regierungen könnten solche selektiven Waffen gegen unliebsame Kritiker einsetzen. Gesteuert von GPS-Navigation und Gesichtserkennung attackieren die Drohnen dann gezielt Regimegegner oder ganze Menschengruppen.

„Slaughterbots“ – wie real ist die Gefahr?

Welche Folgen dies im Extremfall haben könnte, zeigt das im Auftrag der Kampagne gegen Killerroboter gedrehte Video „Slaughterbots“. In einem fiktiven Zukunftsszenario verbreiten darin miniaturisierte Drohnen mit hochentwickelter Gesichtserkennung Angst und Schrecken. Sie wurden programmiert, gezielt missliebige Personen mit einer Sprengladung auszuschalten.

„Dieser Kurzfilm ist mehr als nur Spekulation“, sagt der am Video beteiligte KI-Experte Stuart Russell von der University of California.“Er zeigt, was passiert, wenn wir die Technologien, die wir schon haben, miniaturisieren und miteinander kombinieren.“

Nadja Podbregar
Stand: 16.11.2018

Weniger Tote durch autonome Waffen?

„Chirurgische“ Präzision

Gezielte Schüsse statt Bombenregen, kalte Präzision statt wahllosem Gemetzel: Nach Ansicht vieler Militärs und auch einiger KI-Forscher sollen computergesteuerte Waffensysteme und Roboter den Krieg „schonender“ machen – so paradox dies klingt. Denn ihrer Argumentation nach würden durch solche Technologien weniger Menschen sterben als im „konventionellen“ Krieg. Kritiker jedoch befürchten genau den gegenteiligen Effekt.

Freund oder Feind? KI-gesteuerte Waffen sollen dies besser erkennen können als ein menschlicher Kämpfer. © Vchal/ iStock.com

Besserer Durchblick im Schlachtgetümmel?

Einen Vorteil sehen die Befürworter der KI-Waffen in deren überlegenen Sensor- und Erkennungssystemen. „Diese Systeme bekommen mehr Informationen und können damit bessere Entscheidungen fällen als ein Mensch in dieser Situation“, sagt KI-Forscher Ronald Arkin vom Georgia Institute of Technologie. „Einige Roboter sind schon heute stärker, schneller und schlauer als der Mensch – und wir wollen, dass sie besser sind, um letztlich mehr Menschenleben zu retten.“

Statt beispielsweise blindlings in den Nebel oder auf eine in der Dunkelheit auftauchende Gestalt zu feuern, könnten Roboter dank Radar- oder Infrarotsensoren besser unterscheiden, ob eine reale Gefahr vorliegt oder nicht. Sie sollen zudem besser unterscheiden können, ob sie einen Zivilisten oder feindlichen Soldaten, einen Schulbus oder Truppentransport vor sich haben – so jedenfalls die Theorie.

Waffe statt Schildkröte

Die Praxis sieht allerdings anders aus: Im Jahr 2003 interpretierte das teilautonome Patriot-Abwehrsystem der US-Streitkräfte im Irak ein Flugzeug der Briten irrtümlich als feindlich und schoss es ab, wenig später geschah das Gleiche mit einem US-Kampfflugzeug. Und auch aktuelle KI-Systeme haben erhebliche Schwierigkeiten, selbst vermeintlich eindeutige Zielobjekte zu erkennen, wie unter anderem ein Experiment am Massachusetts Institute of Technology (MIT) im Jahr 2017 bewies.

Die Forscher hatten mittels 3D-Druck eine Schildkrötenskulptur hergestellt, die von einem KI-basierten Erkennungssystem prompt als Waffe interpretiert wurde. Einen gemusterten Baseball wertete die KI als Espresso. „Und es gibt noch viele weitere Tests, die zeigen, wie solche Systeme leicht ausgetrickst oder in die Irre geführt werden können“, kommentiert der britische KI-Forscher Noel Sharkey.

Vom unvorhersehbaren überfordert

Ein weiteres Problem: „Statt abgewogene Entscheidungen zu treffen, handeln solche Waffensysteme auf Basis einprogrammierter Algorithmen – diese aber funktionieren in komplexen und unvorhersehbaren Situationen nicht sonderlich gut“, heißt es in einem Bericht der Organisation „Human Rights Watch“ zu autonomen Waffen. Wie beispielsweise reagiert ein autonomes Geschütz an einer Grenze, wenn plötzlich eine ganze Gruppe von Menschen auf den „Todesstreifen“ zuläuft? Wie zuverlässig erkennt es deren Absichten? Kann es dann auf die Schnelle Flüchtlinge von angreifenden Soldaten unterscheiden?

Der stationäre Kampfroboter Samsung SGR-A1 ist der erstenvollautomatische Grenzwachposten. © MarkBlackUltor/ CC-by-sa 4.0

Mit genau diesen Fragen war das südkoreanische Militär konfrontiert, als es den weltweiten ersten vollautomatischen Grenzwachposten testete – den stationären Kampfroboter Samsung SGR-A1. Dessen integrierte Software sollte mittels Kameras und Infrarotsensoren erkennen, wenn feindliche Soldaten sich der Grenze nähern – und diese von Zivilisten, Tieren und leblosen Objekten unterscheiden können. Nach akustischen Warnungen eröffnet der Roboter mit seinem integrierten Maschinengewehr selbstständig das Feuer.

Doch Testeinsätze dieses Roboter-Postens im Irakkrieg und bei Pilotversuchen in Korea enthüllten sehr schnell, dass der autonome Wachposten in vielen Situationen schlicht überfordert war: Die Fehlerquote soll deutlich höher gelegen haben als bei menschlichen Wachposten. Obwohl möglicherweise einige dieser Roboter-Wachposten zunächst an der innerkoreanischen Grenze installiert worden sind, wurden sie bisher nicht flächendeckend eingesetzt.

Nadja Podbregar
Stand: 16.11.2018

Mitleid und Moral bei Mensch und Maschine

Sind Roboter „menschlicher“?

Soldaten sind fehlbare, emotionale Wesen: Während eines Kampfes empfinden sie Angst und Panik, vielleicht auch Wut und Hass auf den Feind, der ihre Kameraden oder Angehörigen getötet hat. Aus dieser Gefühllage heraus hat es in vielen Kriegen unnötige Grausamkeiten und Kriegsverbrechen gegeben – angefangen von Vergewaltigungen bis zum Gemetzel unter Zivilisten.

Menschliche Grausamkeit: Ein ermordeter Kriegsgefangener im Koreakrieg. © US Army/ Corporal Robert Dangel

Kein Wut und Angst…

„Die Menschheit hat eine ziemlich düstere Bilanz des ethischen Verhaltens auf dem Schlachtfeld. Ich glaube, dass gerade das Menschsein der schwächste Punkt ist – unsere Biologie arbeitet gegen uns“, sagt der KI-Forscher Ronald Arkin. Roboter und autonome Waffen dagegen haben keine Gefühle – sie töten emotionslos. Genau deshalb könnten solche Waffensysteme nach Ansicht von Arkin und anderen künftige Kriege „menschlicher“ machen.

„Autonome Roboter und Waffen haben keinen Selbsterhaltungstrieb. Deshalb gibt es bei ihnen keinen Grund für einen ‚Erst schießen, dann fragen‘-Ansatz“, sagt Arkin. Stattdessen könne man Roboter so programmieren, dass sie bei unklarer Zielerkennung eher sich selbst opfern als wahllos zu schießen, wie es ein Mensch möglicherweise tun würde. „Autonome Waffen empfinden zudem keine Angst, Frustration oder Wut – und damit Emotionen, die das menschliche Urteilsvermögen vernebeln“, argumentiert der Forscher.

…aber auch kein Mitleid

Andere jedoch sehen gerade in der Emotionslosigkeit der Killerroboter die größte Gefahr. „Die Unfähigkeit eines Roboters, Empathie und Mitleid zu empfinden, limitiert auch sein Vermögen, andere human zu behandeln“, konstatiert die Organisation Human Rights Watch in einem Bericht. Denn nur wer sich in die Gefühle und das Leid anderer hineinversetzen könne, der könne auch menschlich und moralisch handeln.

Kriegsgefangene im Kosovo: Würde ein Roboter Gefangene machen? © U.S. Marine Corps/ SGT Craig J. Shell

„Die meisten Menschen haben schon einmal physische oder psychische Schmerzen erfahren und das bringt sie dazu, auch anderen nicht unnötig Leid zuzufügen“, heißt es in einem Statement des internationalen Roten Kreuzes. „Diese Gefühle überwinden die Nationalität und andere trennende Grenzen.“ Während ein menschlicher Soldat auf dem Schlachtfeld deshalb vielleicht einen Verwundeten schont oder einen Gegner eher gefangen nimmt als ihn zu erschießen, tut dies ein Roboter nicht. Er führt seinen Tötungsauftrag ohne Mitleid oder moralische Skrupel aus.

Moral und Kontext

Hinzu kommt: Gerade für moralische und humanitäre Entscheidungen spielen die Umstände und der Kontext einer Situation eine wichtige Rolle. Ein Beispiel dafür erzählt der ehemalige US-Army Ranger und Autor Paul Scharre in seinem Buch: Als er in Afghanistan im Einsatz war, stießen er und seine Mitsoldaten auf ein kleines Mädchen, das Ziegen hütete. Doch sie konnten hören, dass die Kleine währenddessen in ein Funkgerät sprach – ein klares Indiz dafür, dass sie als Kundschafterin für die nahebei versteckten Taliban agierte.

Nach den Gesetzen des Krieges war das Mädchen ein Gegner, wie Scharre erklärt. Sie hätten sie erschießen müssen, um die Gefahr für sich und ihre Truppe zu verringern. Doch die US-Soldaten verschonten die kleine Kundschafterin: „Meine Mitsoldaten und ich wussten einfach, dass es moralisch falsch wäre, sie zu töten. Wir mussten darüber gar nicht erst diskutieren“, erzählt Scharre. Doch ob ein autonomes Waffensystem im Ernstfall die spezifischen Gegebenheiten erkennt und moralisch entscheidet, sei zweifelhaft.

Nadja Podbregar
Stand: 16.11.2018

KI-Forscher gegen Killerroboter

„Wir machen nicht mit“

Die Debatte um Killerroboter und die ethische Vertretbarkeit von autonomen Waffen ist inzwischen auch in der IT-Branche angekommen. In den letzten Jahren mehren sich die Stimmen, die eine Einschränkung oder einen Bann für vollautonome Waffensysteme fordern. Diese Forderung kommt damit von denjenigen, die federführend bei der Entwicklung dieser Technologie sind – und die reichlich Profit damit machen würden.

Wenn es um künstliche Intelligenz für den Kriegseinsatz geht, sind selbst Vertreter der KI-Branche skeptisch. © Andrea Danti / iStock.com

Ein Roboterhersteller steigt aus

Einer der Vorreiter war bereits im Jahr 2014 der kanadische Roboterhersteller Clearpath. Er schrieb in einem offenen Brief: „Würde ein Roboter die Moral, Vernunft und das emotionale Verstehen besitzen, um ethisch falschen oder unmenschlichen Befehlen zuwiderzuhandeln? Nein. Sind Computer in absehbarer Zukunft dazu fähig, subjektiv zu entscheiden, ob ein Ziel legitim ist und ob der Gewalteinsatz verhältnismäßig ist? Nein. Könnte diese Technologie dazu führen, dass diejenigen, die sie besitzen und einsetzen, das menschliche Leben weniger wertschätzen? Wir glauben ehrlich gesagt, dass genau das der Fall sein wird.“ Das Unternehmen ist das erste, dass sich öffentlich weigerte, Roboterwaffen zu produzieren.

2015 veröffentlichten dann mehr als 3.000 Wissenschaftler und Unternehmer ebenfalls einen offenen Brief, in dem sie sich für einen Bann von autonomen Offensivwaffen ohne menschliche Kontrolle aussprachen. „Die künstliche Intelligenz hat einen Punkt erreicht, an dem der Einsatz solcher Systeme innerhalb der nächsten Jahre denkbar ist“, warnten sie. Zu den Unterzeichnern gehörten unter anderem der inzwischen verstorbene Physiker Stephen Hawking, Tesla-Gründer Elon Musk und Apple-Mitgründer Steve Wozniak.

Im Juli 2018 versprachen mehr als 2.400 Forscher und Angehörige von 170 KI-Unternehmen und Institutionen zudem, sich nicht an der Entwicklung von solchen autonomen Waffensystemen zu beteiligen. In dem Gelöbnis heißt es unter anderem: „Wir Unterzeichner sind uns einig, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte.“ Und weiter: „Wir werden uns an der Entwicklung, Herstellung, dem Handel und der Nutzung tödlicher autonomer Waffen niemals beteiligen oder dies unterstützen.“

Beim Projekt MAVEN musste sich Google Protesten der eigenen Mitarbeiter beugen. © JHVEPhoto/ iStock.com

Google-Mitarbeiter proben den Aufstand

Wie ernst es vielen KI-Forschern damit ist, zeigte sich Anfang 2018 beim IT-Riesen Google. Das Unternehmen ist nicht nur führend in der KI-Forschung, sie hatten auch einen lukrativen Auftrag des US-Verteidigungsministeriums ergattert. Im Projekt MAVEN sollte eine künstliche Intelligenz dafür eingesetzt werden, Videomaterial von Militärdrohnen effizienter auszuwerten. Das System sollte es ermöglichen, potenzielle Zielpersonen, Fahrzeuge und Gebäude schneller und besser zu identifizieren.

Google-Manager sahen in diesem eher kleinen Auftrag eine Chance, in das lukrative Geschäft mit dem Militär einzusteigen. Gleichzeitig war ihnen durchaus klar, dass dies in der Öffentlichkeit wohl nicht so gut ankommen könnte, wie vom Magazin Gizmodo eingesehene interne E-Mails belegen: „Ich weiß nicht was passieren würde, wenn die Medien aufgreifen würden, dass Google insgeheim KI-Waffen oder KI-Technologien für die Verteidigungsindustrie baut“, schrieb KI-Chefwissenschaftlerin Fei-Fei Li im Herbst 2017.

Doch Google hatte die Rechnung ohne ihre Angestellten gemacht. Als im Januar die Verlängerung des MAVEN-Vertrags zur Debatte stand, stellten sie sich quer: Mehr als tausend Google-Mitarbeiter unterzeichneten eine Petition gegen eine Verlängerung und Dutzende Angestellte sollen sogar aus Protest gekündigt haben. Unter diesem Druck gaben die Manager nach: Das MAVEN-Projekt wurde nicht verlängert.

Allerdings: Es gibt genügend andere Firmen, die solche Projekte und Aufträge dankend annehmen würden. Hinzu kommt, dass viele im zivilen Bereich eingesetzt KI-Technologien leicht für die militärische Nutzung adaptiert werden können.

Nadja Podbregar
Stand: 16.11.2018

Die Diskussion über ein Verbot autonomer Waffen

Killerroboter bei der UN

Die Diskussion um autonome Waffen und Killerroboter ist auch Thema in der internationalen Politik. Schon seit einigen Jahren debattieren Regierungsvertreter auf den Meetings zur UN-Waffenkonvention (CCW) darüber, ob solche Technologien verboten oder eingeschränkt werden sollten. Die 1980 beschlossene Konvention umfasst Regeln zum Einsatz konventioneller Waffen und verbietet unter anderem blindmachende Laserwaffen und bestimmte Splitteraffen.

Sollen Kampfroboter und autonome Waffen künftig verboten werden? Bei der UN wird darum gerungen. © Zeferli/ iStock.com

Killer-Roboter und das Völkerrecht

Angesichts der rasanten Entwicklung der KI-Technologie fordern mehrere Staaten und Nichtregierungs-Organisationen, auch vollautonome Waffensysteme in die Konvention aufzunehmen. „Wir können nicht völlig verhindern, dass jemand autonome Waffen baut, ebensowenig wie wir einen entschlossenen Täter daran hindern können, eine Chemiewaffe zu konstruieren“, sagt der australische KI-Forscher Toby Walsh. „Aber wenn wir nicht wollen, dass Schurkenstaaten oder Terroristen leichten Zugang zu autonomen Waffen bekommen, müssen wir sicherstellen, dass sie nicht offen durch Rüstungsunternehmen verkauft werden.“

Ein weiteres Argument: Killer-Roboter verstoßen möglicherweise gegen die sogenannte Martens-Klausel des Völkerrechts. Diese besagt, dass auch in Situationen, die nicht explizit von den Regeln des internationalen Rechts erfasst sind, Zivilpersonen und Kombattanten unter dem Schutz der Regeln von Moral und Menschlichkeit stehen. Doch weil KI-Systeme nicht zuverlässig zwischen Zivilist und Angreifer unterscheiden können und auch ein Abbruch von Angriffen bei vollautonomen Systemen vielleicht nicht rechtzeitig möglich wäre, sehen Befürworter eines Verbots in diesen Waffen schon jetzt einen Verstoß gegen das Völkerrecht.

„Im Gegensatz zu Menschen können autonome Waffen die Konsequenzen ihrer Handlungen nicht verstehen“, sagt Paul Scharre. „Sie haben daher auch nicht die Fähigkeit, vom Abgrund des Krieges zurückzutreten.“

UN-Gebäude in Genf – hier finden regelmäßig Treffen der Vertragsstaaten der UN-Waffenkonvention statt. © UN Photo/Emmanuel Hungrecker, CC-by-nc-nd

26 für ein Verbot, zwölf strikt dagegen

Beim letzten UN-Meeting im April 2018 unterstützten 26 Länder ein komplettes Verbot solcher Waffen – darunter Österreich, der Irak, Pakistan, Argentinien und Brasilien sowie einige weitere südamerikanische und afrikanische Staaten. 32 weitere Staaten sprachen sich für Verhandlungen zu internationalen Regelungen für solche Waffen aus, ohne sich festzulegen, wie eine solche Regelung aussehen könnte. China erklärte sich bereit, ein Verbot des Einsatzes solcher Waffen zu unterstützen, nicht aber einen Bann, der auch Entwicklung und Produktion solcher Technologien umfasst.

Doch bisher ist selbst ein begrenztes Verbot oder eine Einschränkung des Einsatzes von vollautonomen Waffen nicht in Sicht. Der Grund: UN-Beschlüsse können nur im Konsens gefasst werden – und bisher verweigern rund zwölf Staaten ihre Mitarbeit an einer neuen Regelung. Wohl kaum zufällig handelt es sich dabei um die großen Rüstungs- und Industriemächte, darunter neben den USA, Russland und Israel auch Großbritannien, Frankreich, die Türkei und Deutschland.

Nur Reden statt Handeln?

„Diese Handvoll von Staaten möchte zwar, dass die Gespräche über vollautonome Waffen weitergehen, ist aber strikt gegen einen neuen Vertrag, eine Deklaration oder sonstige Maßnahmen, die die Gefahren durch solche Waffen behandeln“, erklärte ein Sprecher der Kampagne gegen Killerroboter nach dem UN-Treffen. Die USA beispielsweise argumentiert, dass eine verbindliche Regelung verfrüht sei. Stattdessen sollten die Vertragsstaaten das nächste Jahr dazu nutzen, die potenziellen Vorteile der autonomen Waffensysteme zu ergründen und zu diskutieren.

Die nächste Debatte steht nun in Kürze an: Vom 21. bis 23. November 2018 findet das diesjährige High-Level-Meeting der UN-Vertragsstaaten in Genf statt. Ob sich allerdings die Standpunkte der Teilnehmer bis dahin geändert haben, darf bezweifelt werden.

Nadja Podbregar
Stand: 16.11.2018