KI im Militär – „Es muss erst was passieren“

Der Umgang mit künstlicher Intelligenz wird in Tübingen vor allem seit dem Beschluss zum Bau des Cyber Valleys immer mehr diskutiert. Eine große Angst ist der Einsatz von KI im militärischen Bereich. Was passiert, wenn vollautomatisierte Waffensysteme in den Krieg eingreifen? Auf welchem Stand ist die Technik aktuell? Und was kann man dagegen tun? Zu diesen Fragen lud die Hochschulgruppe für Außen- und Sicherheitspolitik vergangene Woche Dr. Frank Sauer in den Hegelbau ein.

Künstliche Intelligenz – Im Westen nichts Neues

Künstliche Intelligenz spielt im Militär schon länger eine Rolle, als man vermuten könnte. Bereits im Ersten Weltkrieg wurden Systeme eingesetzt, die man als Vorreiter moderner Drohnen ansehen könnte. Diese waren allerdings meist nicht mehr als „fliegende Zielscheiben“, so Sauer, der an der Universität der Bundeswehr in München lehrt. Als ersten Einsatz von automatisierten Systemen, der einen Mehrwert brachte, kann der Vietnamkrieg gesehen werden. Damals wurden unbemannte Aufklärungsgeräte eingesetzt, deren Aufgabe darin bestand, Fotos von den Kriegsgebieten zu erstellen. Die Entwicklung der Bilder dauerte allerdings Anfang der 60er Jahre noch mehrere Tage.

Nach den Anschlägen am 11. September wurde vor allem die Predator Drohne massiv beim sogenannten „Krieg gegen den Terror“ eingesetzt. 2002 wurden Predator Drohnen mit Hellfire Raketen ausgestattet. In etwa 100 Fällen wurden die unbemannten Flugkörper nachweislich mit dem Zweck der gezielten Tötung von Menschen eingesetzt. Vom technischen Standpunkt her war man allerdings bereits früher in der Lage, unbemannte Luftfahrzeuge mit Waffensystem auszustatten. Deshalb betonte Frank Sauer auch, „es gibt keinen technologischen Imperativ“. Wir können selbst politisch bestimmen, was wir machen.

Dr. Frank Sauer, Universität der Bundeswehr München: „Ob automatisch oder autonom ist Begriffskarate“ (Quelle:  stephan-roehl.de via Flickr [CC BY-SA 2.0])

„Es ist nichts Ehrenhaftes mehr daran auf dem Schlachtfeld zu sterben“

„Wir leben in einer postheroischen Gesellschaft“, so der Dozent für internationale Politik. Starb man früher noch den Heldentot für das „Vaterland“ auf dem Schlachtfeld, finde sich heute nichts Ehrenhaftes mehr daran. Dies sei ein Grund, warum man Kriegshandlungen an Maschinen delegiert. Der Krieg würde humaner werden. Ein weiteres Argument, das Dr. Frank Sauer allerdings nur sehr eingeschränkt gelten lässt, ist die vermeintliche Reduzierung der Kosten.

Den größten Vorteil von automatischen Systemen sieht Sauer bei der Beschleunigung der Entscheidungen: Musste man im Vietnamkrieg noch tagelang auf die Auswertung der Bilder warten, ist man heutzutage quasi in Echtzeit dabei. Die sogenannte „shooter gap“ beträgt bei der Predator-Drohne nur noch wenige Sekunden. Er vergleicht das mit dem Ping bei einem Computerspiel.

„Automatische Waffensysteme sind nicht per se schlecht“, gibt der Bundeswehrdozent zu bedenken. Als Beispiel könne etwa das Flugabwehrsystem MANTIS angeführt werden.

Dem Einsatz von autonomen Waffensystemen zur Verteidigung, welche dann nur auf unbemannte (oder unbefraute) Ziele schießen, steht Sauer zum Beispiel positiv gegenüber: Solange nur auf Metall geschossen werde, könnte man von ihm aus „schießen bis sie blau werden“.

Die rote Linie ist überschritten

Sobald allerdings menschliches Leben gefährdet werde, dürfe man die Entscheidung nicht an den Algorithmus delegieren. Die Firma Kalashnikow habe kürzlich einen Geschützturm vorgestellt, der vollautomatisch auf Ziele feuert. In dem gezeigten Video ist klar zu sehen, dass dieser keinen Unterschied zwischen Objekten und menschlichen Attrappen macht. Hier sei für Dr. Sauer ganz klar eine rote Linie überschritten.

Eine rote Linie war auch bei vielen Google Mitarbeitern überschritten: Bei dem bereits eingestellten Projekt Maven unterzeichneten rund 4000 Angestellte eine Petition gegen die Kooperation mit dem Pentagon und der Beteiligung an Kriegsforschung. Ziel des 10 Millionen Dollar Projektes war es, einen Algorithmus zur Identifizierung von Menschen auf Drohnenvideos zu entwickeln. Zwar wären diese Erkenntnisse noch einmal von Analysten überprüft worden, allerdings ist es von dem Erkennen eines Ziels kein weiter Weg mehr auch auf dieses zu schießen.

„Was wir regulieren müssten, ist eine Funktion“

Am Beispiel von Google lässt sich das Problem von KI im Militär deutlich machen. Gesichtserkennungssoftware wird von Firmen weltweit entwickelt, immer bessere Algorithmen sollen unser Leben einfacher machen und Entscheidungsprozesse beschleunigen. Sauer betont: „Der Innovationstreiber ist der zivile Sektor“. Auf die Frage, ob Rüstungskontrolle funktioniert, antwortet er ganz klar mit ja und führt verschiedene Beispiele auf. Eine präventive Rüstungskontrolle, wie sie etwa bei Blendlasern angewendet wurde, sei bei künstlicher Intelligenz allerdings nicht möglich.

Obwohl sich bei Befragungen zwei Drittel der Menschen gegen vollautomatische Waffensysteme aussprechen, stelle sich die Frage, was die konkrete Gefahr ist. Im aktuellen Koalitionsvertrag der Bundesregierung steht: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten“ für Dr. Frank Sauer wäre es schön, wenn man sie auch „verbindlich ächten könnte“. Ein völkerrechtlich bindender Vertrag sei wünschenswert.

Dr. Frank Sauer erklärt, welche Probleme sich beim Einsatz und der Regulierung von vollautomatischen Waffensystemen ergeben. (Foto: Maximilian Kranich)

Mit großer Macht kommt große Verantwortung

Beim Einsatz von vollautomatischen Waffensystemen ergeben sich vor allem drei große Problemfelder: Rechtliches, Ethisches und Politisches. Völkerrechtlich ist noch nicht geklärt, wer die Verantwortung bei Fehlern trägt. Mit mehr militärischen Möglichkeiten wachsen auch juristische Pflichten. Man wolle sich an Regeln halten, aber diese Regeln gelten bisher nur für Menschen.

Bei den ethischen Fragen sprechen sich, wie bereits erwähnt, zwei Drittel der Menschen gegen den Einsatz von vollautomatischen Waffensystem aus. Interessanterweise nehme die Ablehnung mit Nähe zum Militär in der Bevölkerung sogar zu. Dr. Frank Sauer führt bei der ethischen Frage Artikel eins des Grundgesetzes an. Es verletze die Würde eines Menschen, wenn man von einer Maschine getötet wird.

Aus sicherheitspolitischen Gesichtspunkten ergeben sich drei große Probleme. Zum einen, ein bereits begonnener Rüstungswettlauf. Vollautomatische Systeme seien bereits weltweit in über 100 Ländern vorhanden, eine Eingrenzung und Regulierung werde dadurch erheblich erschwert. Zum anderen sei es durch diese Systeme viel einfacher geworden, Hoheitsgebiete zu verletzen.  Dabei müsse man nicht einmal an hochkomplexe und teure Waffensysteme denken, sondern etwa an Mikrodrohnen mit Sprengsatz und Wärmebilderkennung. Diese Systeme seien vor allem „dumm und billig“, so Sauer. Mit einem 3D-Drucker habe man binnen kürzester Zeit ein vollbewegliches Mienenfeld.

Die letzte Gefahr ist eine ziemlich bedrohliche und beinhaltet den menschlichen Kontrollverlust gegenüber dem Algorithmus. Dr. Frank Sauer spricht vom „Krieg aus Versehen“. Alle führenden Entwickler von Künstlicher Intelligenz sind sich einig, dass es noch viel zu früh sei, diese Systeme mit Waffen auszustatten. Bilderkennungsalgorithmen beispielsweise seien sehr spezialisiert, bei einer abweichenden Aufgabe „scheitern sie krachend“, so Sauer weiter. In einigen belangen sind Algorithmen Menschen überlegen, in vielen allerdings auch noch haushoch unterlegen. „Wir Menschen machen zwar Fehler, aber wir machen nicht alle den gleichen Fehler rasend schnell“, gibt Dr. Frank Sauer zu bedenken.

„Die Weltlage ist international stürmisch“

Doch selbst die perfekte KI, die zudem noch völkerrechtlich einwandfrei handelt, wäre für Dr. Frank Sauer nicht einsetzbar. Es müsse immer eine menschliche „meaningful interaction“ hinter jedem Schuss auf einen Menschen stehen. Wie genau „meaningful interaction“ definiert werden soll, ist allerdings international ungeklärt. Vor allem die USA befürchten durch vorschnelle Regulierung Technologien abzuwürgen. Sauer schlägt hingegen vor, man solle erst einmal eine Linie ziehen und diese dann gegebenenfalls hinterfragen. Die Chancen dafür schätzt er allerdings aktuell nicht besonders hoch ein. Wegen der abstrakten Gefahr, der Anwendung von Künstlicher Intelligenz hauptsächlich im zivilen Sektor und der Omnipräsenz von Algorithmus-gesteuerten Systemen seien „die Aussichten nicht sehr gut“.

Es geht in Zukunft darum, die Entwicklung von künstlicher Intelligenz mit einem kritischen Diskurs zu begleiten. Der Einsatz von vollautomatischen Systemen bekommt allerdings im militärischen Kontext noch eine ganz andere Brisanz.

Veranstaltet wurde der Vortrag von der Hochschulgruppe für Außen- und Sicherheitspolitik.
E-Mail: tuebingen@sicherheitspolitik.de
Twitter: @BSH_Tuebingen

Beitragsbild: U.S. Air Force photo by Bobbi Zapka, Wikimedia Commons

Empfohlene Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert