Künstliche Intelligenz, Machine Learning und moderne Sensorik – technologischer Fortschritt macht als „Game-Changer“ (PDF) auch vor Waffensystemen nicht halt. In einem offenen Brief forderten 2017 Tesla-Chef Elon Musk und DeepMind-Gründer Mustafa Suleyman zusammen mit 114 anderen KI-Experten die Vereinten Nationen dazu auf, ein Entwicklungs- und Einsatzverbot von sogenannten letalen autonomen Waffensystemen anzustoßen. Diese letale, also tödliche, Form von Waffensystemen soll auf Machine Learning und neuronale Netze zurückgreifen und menschlichen Input auf dem Schlachtfeld überflüssig werden lassen. Diese oft auch „Killer-Roboter“ genannten Maschinen sorgen für kontroverse Diskussionen. Doch wie weit ist die Technologie überhaupt? Und wie ist der Einsatz von künstlichen Intelligenzen auf dem Schlachtfeld ethisch-moralisch zu bewerten?
Drohnen sind keine autonomen Waffensysteme
„Killer-Roboter“ würden bisherige Kampfeinsätze auf eine völlig neue Stufe bringen, denn sie unterscheiden sich maßgeblich von bisherigen Waffensystemen. Im Gegensatz zu Drohnen, bei denen der Mensch die Letztentscheidung über einen Feuerbefehl fällt, agieren autonome Waffensysteme ohne jeglichen menschlichen Input (PDF) und wählen ihre Ziele einzig und allein auf Basis von Algorithmen aus – und geben sich selbst die Freigabe zum Feuern. Der Mensch bleibt – so der Fachterminus – „out of the loop“ (PDF).
Obwohl derzeit kaum ein Staat offiziell die Entwicklung von letalen autonomen Waffensystemen – kurz LAWS – erwägt, gibt es bereits einige bestehende Waffensysteme, die Berichten zufolge zumindest halbautonom agieren können, unter anderem das südkoreanische SGR-1, das die entmilitarisierte Zone zwischen Nord- und Südkorea überwacht. Mit dem derzeitigen Stand der Technik sind vollautonome Waffensysteme zwar noch keine Realität auf dem Schlachtfeld, aber mit Blick auf die Zukunft zumindest eine reale Option. Eine Option, die sowohl auf Zustimmung als auch auf Ablehnung trifft.
Kritiker: Kann KI zwischen Zivilisten und Kämpfern unterscheiden?
Maßgeblich für die Regeln innerhalb von bewaffneten Konflikten ist das sogenannte humanitäre Völkerrecht, das auf den Schweizer Henry Dunant und die internationale Rotkreuzbewegung zurückgeht. Einen der zentralen Pfeiler des humanitären Völkerrechts stellt das sogenannte Diskriminierungsgebot dar. Laut dieser in den Genfer Konventionen verankerten Vorschrift muss in Gefechtssituationen jederzeit zwischen Kombattanten – also an den Kampfhandlungen beteiligten Personen – und Zivilisten unterschieden werden. Kritikern wie dem im Jahr 2013 formierten NGO-Netzwerk Campaign to Stop Killer Robots zufolge sei kein Algorithmus in der Lage, diese hochkomplexe Unterscheidung völkerrechtskonform vorzunehmen. Hinzu kommt der Algorithmic Bias, also die Befangenheit, der künstliche Intelligenzen – analog zu ihren Programmierern – unterliegen. Studien zufolge haben beispielsweise schon autonome Fahrzeuge „ein Rassismusproblem“, was bei Targeting- und Feuerentscheidungen gravierende Konsequenzen haben könnte. Deshalb, so Kritiker, müssten autonome Waffensysteme ohne menschlichen Input generell verboten werden.
Befürworter: Emotionslose Maschinen könnten menschliche Schwächen ausgleichen
Befürworter von künstlichen Intelligenzen auf dem Schlachtfeld hingegen betonen, dass Maschinen eine rein rationale Einschätzung der Situation vornehmen können – im Gegensatz zum Menschen, dessen Urteilsvermögen durch Emotionen wie Angst, Nervosität oder Hass eingeschränkt sei. Maschinen würde somit keine vorsätzlichen Kriegsverbrechen begehen – außer, sie wären dazu programmiert worden (PDF). Ausgestattet mit moderner Sensorik seien „Smart Weapons“ (PDF) außerdem in der Lage, in kürzerer Zeit einen größeren Umfang an Informationen zu verarbeiten und schneller auf neue Reize zu reagieren. Das wiederum senke die Fehlerquote in unübersichtlichen Situationen.
Die entscheidende Frage ist also: Ist Mensch oder Maschine per se besser in der Lage, zwischen Kombattanten und Zivilisten zu unterscheiden? So zynisch die Argumente klingen, geht es hier im Kern um die zutiefst philosophische Frage nach technologieinduzierter Dystopie oder Utopie. Oder, salopp formuliert: Sind die technologischen Möglichkeiten der Zukunft für die Menschheit gut oder schlecht?
Monatlich informiert werden: Noch mehr Hintergründe rund um Wirtschaft und Gesellschaft gibt es in unserem Newsletter. Jetzt abonnieren! |
Das ethische Dilemma von künstlicher Intelligenz im Krieg
Diese ethischen Fragen werden nicht nur rund um autonome Waffensysteme aufgeworfen, sondern in allen Bereichen, in denen der Mensch Kompetenzen an Maschinen abgibt und die gleichzeitig die Menschen betreffen. Doch wenn es – wortwörtlich – um Leben und Tod geht, stehen sich Gegner und Befürworter der Technik unversöhnlich gegenüber.
So weisen die deutschen Politikwissenschaftler Frank Sauer und Niklas Schörnig darauf hin, dass die Abwesenheit von Menschen auf Schlachtfeldern der Zukunft zu einer geringeren Hemmschwelle in kriegerischen Auseinandersetzungen führen könnte – weil keine eigenen menschlichen Opfer zu beklagen seien (PDF). Eben dieses Argument führt beispielsweise die US-amerikanische Regierung wiederum als große Errungenschaft von technologiebasierter Kriegsführung an. Außerdem seien Maschinen in der Lage, sich in aussichtslosen Situationen selbst abzuschalten, und müssen sich nicht bis auf die letzte Patrone verteidigen. Das wiederum senke die Gefahr von Kollateralschäden. Wenn die Kriege der Zukunft Maschinen- statt Menschenleben fordern, sei die Entwicklung dieser Technologien nicht per se zu verurteilen, sondern zu fördern (PDF).
Wer ist die Referenz für die Debatten: Mensch oder Maschine?
Dieses Argumentationsmuster wird von der Gegenseite aufgegriffen, gelte dieser ethische Imperativ doch nur dann, wenn alle Staaten auf den Einsatz von menschlichen Soldaten verzichten und sich wirklich Maschine und Maschine gegenüberstehen – was in der aktuellen geopolitischen Lage, in der die meisten Kriege innerstaatlich und unter Beteiligung von nicht staatlichen Akteuren, beispielsweise Terrorgruppen wie dem sogenannten Islamischen Staat, kaum realistisch erscheint. Mehr noch: Nur finanzstarke Staaten haben die Möglichkeit, solche komplexen Systeme zu entwickeln und zu unterhalten. Das würde, so die Campaign to Stop Killer Robots, bestehende Asymmetrien weiter verfestigen, und auch das Terrorismusproblem werde so eher verstärkt als entschärft.
Am kontroversesten wird eine Frage diskutiert, die seit jeher einen der größten ethischen Streitpunkte darstellt: die Entscheidung über Leben und Tod. So forderte UN-Sonderberichterstatter Christof Heyns ein Verbot von autonomen Waffensystemen, da Maschinen weder moralisch noch selbst sterblich seien und deshalb auch nicht über Leben und Tod entscheiden dürften (PDF). Das verstoße gegen unveräußerliche Prinzipien der Menschenwürde (PDF). Diese Prinzipien sind allerdings rechtlich kaum kodifiziert, weshalb ein Verbot auf Basis dieser Prinzipien eher nicht denkbar ist. Überhaupt lassen sich ethische Überlegungen nur schwer in rechtliche Rahmen transformieren.
Künstliche Intelligenz im Krieg: Wer haftet?
Entscheidend für den Einsatz von künstlicher Intelligenz im Krieg und Rüstungsbereich ist daher eine viel einfachere, weil praktischere Frage: Wer ist aus rechtlicher Perspektive für mögliche Fehlfunktionen der Maschine verantwortlich? Möglich wäre, den diensthabenden General zur Rechenschaft zu ziehen. Dieser würde aber vermutlich (zu Recht) darauf verweisen, dass ein Software- oder Hardwarefehler zur Fehlfunktion geführt habe. Ergo wäre auch der zuständige Programmierer „verantwortlich“, der (wieder zu Recht) daraufhin anführen könnte, dass der Hersteller des Waffensystems auch für die Qualitätskontrolle verantwortlich sei. Qualitätskontrolle ist aber – vor allem bei Rüstungsgütern – nicht nur Sache der Hersteller, sondern auch der Käufer. Aus dieser wechselseitigen Schuldzuweisung gibt es – Stand jetzt – kaum einen klaren rechtlichen Ausweg. So scheitert der Einsatz von künstlicher Intelligenz im Rüstungsbereich nicht nur an ethischen, sondern auch einfachen, praktischen Fragen wie der Verantwortlichkeit. Dennoch: Obwohl sich die deutsche Bundesregierung schon im Koalitionsvertrag von 2013 für ein Verbot autonomer Waffensysteme ausgesprochen hat (PDF), scheint derzeit in einigen Staaten das militärische Interesse an diesen Systemen die humanitären Bedenken zu überwiegen: Zuletzt scheiterte ein Verbot dieser Waffen in den Vereinten Nationen am Widerstand der USA, Russlands, Südkoreas, Israels und Australiens. Zumindest hat sich in den Verhandlungen aber ein Konsens über die sogenannte „meaningful human control“ herauskristallisiert. Dieses Prinzip akzentuiert die Rolle des Menschen insofern, als dass in der Zielauswahl und dem Waffeneinsatz in der Praxis ein verantwortlicher Bediener ausreichend über den Kontext des Einsatzes der Waffe informiert sein muss und damit auch rechtlich für die Einhaltung des humanitären Völkerrechts verantwortlich ist. Was wiederum die Autonomie autonomer Waffensysteme entscheidend einschränkt.
Sie mochten den Artikel? Dann folgen Sie uns doch bei Twitter, Facebook oder LinkedIn und bleiben Sie über neue Themen auf dem Laufenden! |
Titelbild: pexels.com