Kampfroboter: Die Zukunft (und Gegenwart) des Krieges

Noch bis 9. November tagt das UN-Generalversammlungskomitee zu Entwaffnung und Internationaler Sicherheit. Bislang haben sich dabei 31 Staaten und fünf Staatengruppen auch dem Thema autonomer Waffensysteme (Kampf- oder Militärroboter, darunter fallen auch Drohnen) gewidmet und die Notwendigkeit weitergehender Debatten, teilweise auch eines multilateralen Vertrags zu diesem Thema, betont. Eine Reihe von Aktivisten und Wissenschaftlern – darunter etwa Stephen Hawking, Elon Musk oder Steve Wozniak – hat bereits im Juli Bedenken zu den unabsehbaren Entwicklungen in diesem Bereich geäußert. Bei der breiteren Öffentlichkeit scheint das Thema indes noch nicht ganz angekommen zu sein.

Gefahren und Probleme autonomer Waffensysteme

Will man die Sorgen rund um Kampfroboter verstehen, gilt es zunächst hinsichtlich des Autonomiegrads solcher Waffensysteme allgemein in dreierlei Hinsicht zu unterscheiden: Bezogen auf Militärschläge im Speziellen verbleibt die Letztentscheidung zur Vornahme eines Angriffs bei den ersten beiden Kategorien in menschlicher Hand – der Unterschied besteht darin, ob es eine aktive Bestätigung eines vorgeschlagenen Angriffs braucht oder ob er automatisch ausgeführt wird, sofern es zu keinem Abbruch kommt.

Daraus ergeben sich maßgebliche Probleme. Zum einen führt die Distanz zum Einsatzgebiet zu einer Dehumanisierung der potentiellen Ziele und einer möglicherweise gesteigerten Fahrlässigkeit. Wie das berühmte Wikileaks-Video „Collateral Murder“ gezeigt hat, besteht ist diese Gefahr jedoch auch bei nicht-automatisierten Waffen- und Zielsystemen. Gleichzeitig gilt es allerdings zu bedenken, dass vor Ort präsente Soldaten gerade aufgrund der Unmittelbarkeit der Bedrohung für Leib und Leben umso eher vorschnelle und nachträglich sich als falsch herausstellende Entscheidungen treffen.

Ein weiteres Problem besteht im übermäßigen Vertrauen auf computergenerierte Entscheidungen, als „automation bias“ bekannt. So zeigt etwa der internationale Flugverkehr die menschliche Neigung, sich entweder völlig passiv zu verhalten oder, so eine Entscheidung gefordert ist (also jedenfalls bei semi-autonomen Waffensystemen) „im Zweifel der Maschine“ zu glauben, selbst wenn die eigene Intuition oder Expertise zu einem anderen Urteil kommen. Dabei wird oft nicht bedacht, dass die Zuverlässigkeit computergenerierter Entscheidungen letztlich von der Qualität der verfügbaren beziehungsweise eingegebenen Daten abhängt, wo Fehler freilich nicht ausgeschlossen werden können.

Hinzu kommt der ebenfalls aus der Verhaltenspsychologie bekannte „status quo bias“, also die Präferenz für eine vorgegebene, als status quo definierte Handlungsoption. Bei zweiter Kategorie autonomer Waffensysteme tritt überdies der Unwille, einen laufenden Vorgang aktiv abzubrechen anstatt ihn einfach fortlaufen zu lassen, hinzu.

Die größte Sorge besteht freilich hinsichtlich der dritten Kategorie, die voll-autonomen Waffensysteme. Hier spielt der Mensch keine Rolle beziehungsweise wird er lediglich post factum, also nach ausgeführtem Angriff, informiert. Allgemein gründet sich die Ablehnung derartiger „Killerroboter“ auf den intuitiv unangenehmen Gedanken – Filmreihen wie „Terminator“ oder „Matrix“ haben hier ganze Generationen entsprechend sensibilisiert –, eine Maschine mit künstlicher Intelligenz auf Grundlage der Feststellung, ob jemand als Zivilist oder als Kombattant einzustufen ist, über die Tötung von Menschen entscheiden zu lassen. Aus rechtlicher Sicht korrespondieren damit weithin ungeklärte Fragen der persönlichen (strafrechtlichen) Verantwortung. Schließlich könnten bei der derzeitigen Rechtslage aufgrund des fehlenden menschlichen Einflusses beträchtliche Lücken entstehen, womit letzten Endes niemand für durch derartige Roboter verübte Verstöße gegen die Menschenrechte und humanitäres Völkerrecht zur Verantwortung gezogen werden könnte. Ein Bericht von Human Rights Watch und der Harvard Law School International Human Rights Clinic kommt daher sogar zu dem Schluss, die Entwicklung, Produktion und den Einsatz derartiger Waffensysteme durch einen völkerrechtlichen Vertrag zu verbieten.

Alternativlos

Autonome Waffensysteme sind bereits jetzt ein maßgeblicher Bestandteil zahlreicher Konflikte unter Beteiligung technologisch fortgeschrittener Staaten, eine Tendenz –  dafür braucht es kein Orakel – die in Zukunft weiter zunehmen wird. Zum einen lässt sich, wie bei jeder neuen Waffentechnologie, ein dahingehendes Wettrüsten nicht vermeiden. Zum anderen sind autonome Waffensysteme vor allem für die westlichen „postheroischen“ (Herfried Münkler) Gesellschaften besonders attraktiv, um Opferzahlen in den eigenen Reihen zu vermeiden. Durch die Anhäufung vollautonomer Waffensysteme lässt sich die Anzahl im Militärbereich beschäftigter Personen – wie auch jetzt bereits im Industriesektor – überhaupt drastisch verringern. Daher werden auch die Initiativen, vollautonome Waffensysteme aufzuhalten, letztlich nicht fruchten. Wie die Geschichte der Prohibition oder auch der Kampf gegen den Drogenhandel zeigen, lässt sich ein Gut, für das eine entsprechende Nachfrage besteht, per Verbotohnehinnicht aus der Welt schaffen.

Ein (dunkler) Ausblick

Je nach Konflikttyp ergeben sich daraus unterschiedliche Konsequenzen, wobei zwei grob vereinfacht zwei Szenarien unterschieden werden können. Ein Kennzeichen vieler moderner bewaffneter Konflikte ist die starke Asymmetrie hinsichtlich der militärischen und technologischen Kapazitäten der beteiligten Akteure. Die schwächeren vermeiden dementsprechend den offenen Kampf und versuchen ihre Unterlegenheit durch Guerilla-Taktiken – Angriffe aus dem Hinterhalt, Vermischung mit der Zivilbevölkerung, die als Schutzschild dient, Nicht-Tragen von Uniformen – und im Extremfall durch Selbstmordattentate wettzumachen. Es erscheint durchaus realistisch, dass in derartigen Konfliktszenarien (fast) ausschließlich Menschen gegen Maschinen kämpfen. Im Extremfall könnte die unterlegene Seite als Reaktion darauf das Kampffeld umso mehr in den Heimatstaat der Roboter verlegen, also dessen Zivilbevölkerung – das verbleibende sensible Rückgrat postheroischer Gesellschaften – verstärkt angreifen.

Das zweite Szenario betrifft zwischenstaatliche Konflikte oder jedenfalls solche, in denen die unterschiedlichen Akteure innerhalb eines Staats von außen durch mächtige Staaten unterstützt werden. Hier erscheint die direkte Konfrontation von automatisierten Waffensystemen äußerst realistisch, wobei sich hier großteils vollautonome Kampfroboter gegenüberstehen könnten, um der Verwundbarkeit durch die Notwendigkeit von Kommandozentralen zu entgehen oder sie zumindest abzuschwächen. Die Folgen für die Zivilbevölkerung wären unabsehbar. Der Idealfall wäre eine modern-bizarre Neuauflage der Kabinettskriege: Einigermaßen geregelte direkte Schlachten auf einem klar bestimmten Kampffeld ohne die Zivilbevölkerung wesentlich in Mitleidenschaft zu ziehen. Das Schreckensszenario wäre in Anlehnung an Clausewitz oder Ludendorff beziehungsweise die Erfahrungen aus dem Ersten Weltkrieg ein völlig entgrenzter absoluter Roboterkrieg, der sich aufgrund des militärtechnologischen Fortschritts verselbstständigt und auch nicht durch die Politik mäßigen lässt.

Als vor mittlerweile über 30 Jahren der erste Teil der „Terminator“-Reihe in die Kinos kam, schienen derartige Überlegungen zwar furchteinflößend, aber letzten Endes doch weit weg. Mittlerweile hat uns die Zukunft jedoch eingeholt. Einmal mehr läuft die Menschheit Gefahr, dass die Technik dem bestehenden Zivilisations- und Entwicklungsgrad davonläuft. So befremdlich es auch anmuten mag: Es gilt, diesem Thema gebührende Aufmerksamkeit zu widmen.

2
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
6 von 6 Fischen

bewertete diesen Eintrag

Silvia Jelincic

Silvia Jelincic bewertete diesen Eintrag 14.12.2015 23:17:16

fischundfleisch

fischundfleisch bewertete diesen Eintrag 14.12.2015 23:17:16

1 Kommentare

Mehr von Ralph Janik