Schnell, selektiv und tödlich - scinexx | Das Wissensmagazin
Anzeige
Anzeige

Wie sieht das Schlachtfeld der Zukunft aus?

Schnell, selektiv und tödlich

Stellen Sie sich vor, es ist Krieg, und kein Mensch geht hin. Denn auf dem Schlachtfeld kämpfen nicht mehr menschliche Soldaten, sondern nur noch Roboter – autonome Waffen vom Panzer bis zur Kampfdrohne. Den Krieg gewinnt dann, wessen Roboterarmeen die ebenfalls robotischen Gegner besiegen. Doch wie realistisch ist ein solches Szenario?

MAARS-Roboter beim Test mit US-Soldaten. Noch dient er nur als Packesel und Kundschafter. © US Marine Corps/ Lance Cpl. Frank Cordoba

„Dritte Revolution der Kriegsführung“

„Autonome Killerroboter gelten als die dritte Revolution der Kriegsführung nach dem Schießpulver und den Atomwaffen“, sagt Bonnie Doherty von der Harvard University, Mitautorin eines Berichts zu autonomen Waffensystemen. „Sie würden die Art, wie Kriege geführt werden auf eine Weise ändern, die wir uns heute nicht einmal vorstellen können.“

Die Szenarien, die Militärstrategen dabei zeichnen, sind allerdings ziemlich gruselig: Nach Ansicht von Experten des US-Verteidigungsministeriums könnten Roboter künftig vor allem für gefährliche und „schmutzige“ Missionen eingesetzt werden, die mit menschlichen Soldaten nicht möglich sind. Dazu zählen sie auch Einsätze, bei denen Gift oder radioaktives Material gegen Menschen eingesetzt werden. Vollautonome Kampfflugzeuge könnten zudem so programmiert werden, dass sie komplett unberechenbar und zufällig agieren – um Opfer und Gegner zu verwirren.

„Flashwars“ – zu schnell für uns Menschen

Klar scheint: Durch die autonomen Waffensysteme würden Kriege und Schlachten künftig sehr viel schneller ablaufen. Schon jetzt reagieren beispielsweise autonome Abwehrsysteme innerhalb von Sekundenbruchteilen auf eine Bedrohung – schneller als es jeder Soldat könnte. „Tödliche autonome Roboter haben den einzigartigen Vorteil, dass sie in einem für Menschen unerreichbaren Tempo agieren können und selbst dann noch zuschlagen, wenn die Kommunikationsverbindung abgerissen ist“, schreibt Major Jeffrey Thurnher in einem Magazin der US-Army.

Algorithmen sind in vielen Bereichen schneller als der Mensch – bei autonomen Waffen könnte das jedoch fatal sein. © monsitj/ iStock

Das allerdings birgt auch ein hohes Risiko, wie unter anderem der ehemalige US-Army Ranger und KI-Waffenexperte Paul Scharre in seinem Buch „Army of None“ beschreibt. Er befürchtet, dass es bei autonomen Waffen zu einem ähnlichen Phänomen wie dem „Flashcrash“ an den elektronischen Wertpapierbörsen kommen könnte. Dabei führen die überreagierenden Algorithmen des Hochfrequenzhandels dazu, dass die Kurse kurzzeitig dramatisch einbrechen. „Meine Sorge ist, dass man dabei etwas Vergleichbares bekommt – einen ‚Flashwar‘, in dem Algorithmen interagieren und plötzlich beginnen Roboter aufeinander zu schießen und Amok zu laufen“, so Scharre.

Anzeige

Ähnlich sieht es der KI-Forscher Noel Sharkey: „Stellen Sie sich Schwärme autonomer Panzer und Kampfflieger an einer Grenze vor – und plötzlich feuert einer irrtümlich oder weil er gehackt wurde. Das würde eine Schlacht auslösen, die kein Mensch nachvollziehen oder entwirren könnte. Es wäre innerhalb von Minuten vorüber, würde aber Massenzerstörungen und den Verlust von unzähligen Leben hinterlassen.“ Der Mensch hätte kaum eine Chance, solche „Blitzschlachten“ zu kontrollieren oder rechtzeitig zu verhindern.

Guerilla-Taktik statt Schlachtfeld

Auch die Orte der Kriegsführung werden sich durch autonome Waffen ändern – die Kämpfe verlagern sich vom entlegenen Schlachtfeld oder Grenzgebiet immer mehr in die Städte und mitten unter die Zivilbevölkerung. Denn dank programmierter Erkennungsmerkmale können Drohnen und andere Roboter ihre menschlichen oder technischen Ziele gezielt „chirurgisch“ ausschalten – und laut Militärs so selbst im urbanen Umfeld unnötige zivile Opfer vermeiden.

Allerdings: Autonome Drohnen und Roboter können leicht missbraucht werden. In den Händen von Terroristen und Kriminellen wird diese Technologie zu einer perfekten Waffe für Anschläge und Attentate. Aber auch Regierungen könnten solche selektiven Waffen gegen unliebsame Kritiker einsetzen. Gesteuert von GPS-Navigation und Gesichtserkennung attackieren die Drohnen dann gezielt Regimegegner oder ganze Menschengruppen.

„Slaughterbots“ – wie real ist die Gefahr?

Welche Folgen dies im Extremfall haben könnte, zeigt das im Auftrag der Kampagne gegen Killerroboter gedrehte Video „Slaughterbots“. In einem fiktiven Zukunftsszenario verbreiten darin miniaturisierte Drohnen mit hochentwickelter Gesichtserkennung Angst und Schrecken. Sie wurden programmiert, gezielt missliebige Personen mit einer Sprengladung auszuschalten.

„Dieser Kurzfilm ist mehr als nur Spekulation“, sagt der am Video beteiligte KI-Experte Stuart Russell von der University of California.“Er zeigt, was passiert, wenn wir die Technologien, die wir schon haben, miniaturisieren und miteinander kombinieren.“

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. weiter

Nadja Podbregar
Stand: 16.11.2018

Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Killerroboter
Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Waffen mit Computerhirn
Wenn Waffensysteme autonom werden

Schnell, selektiv und tödlich
Wie sieht das Schlachtfeld der Zukunft aus?

"Chirurgische" Präzision
Weniger Tote durch autonome Waffen?

Sind Roboter "menschlicher"?
Mitleid und Moral bei Mensch und Maschine

"Wir machen nicht mit"
KI-Forscher gegen Killerroboter

Killerroboter bei der UN
Die Diskussion über ein Verbot autonomer Waffen

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Bodyhacker - Mit implantierter Technik zum Cyborg

Drohnen - Wertvolle Helfer oder fliegende Gefahr?

Gelehrige Gehilfen - Roboter auf dem Vormarsch – das Update

Ein Roboter mit Köpfchen - Wie lernen künstliche neuronale Netze?

Künstliche Intelligenz - Wenn Maschinen zu denken beginnen...

Roboter auf dem Vormarsch - Lernfähig und der Natur abgeschaut...

Anzeige
Anzeige