54. Münchner Sicherheitskonferenz – Letale Autonome Waffensysteme und Künstliche Intelligenz in zukünftigen Konflikten

Die 54. Münchner Sicherheitskonferenz befasste sich nicht nur mit klassischen Konflikten, sondern warf auch einen Blick auf mögliche zukünftige Herausforderungen. Dabei spielen neue Technologien eine zunehmend wichtige Rolle. Sie werden die Art und Weise der Konfliktprävention und -bewältigung, aber auch der Kriegsführung nachhaltig beeinflussen. Zu diesen neuen Technologien gehören unter anderem letale autonome Waffensysteme (LAWS), welche auf Künstlicher Intelligenz (KI) basieren. Diese Thematik wurde bereits vor der eigentlichen Konferenzeröffnung am Donnerstagnachmittag in einer Podiumsdiskussion mit dem Namen “The Force Awakens: Artificial Intelligence and Modern Conflict” erörtert. Die Anmoderation des Podiums durch den Roboter “Sofia” von Hanson Robotics (siehe Bild oben rechts) sollte aufzeigen, was uns in den nächsten Jahrzehnten noch bevorstehen könnte. Noch ist Sofias Intelligenz eine Fiktion, denn die Antworten auf Fragen scheinen einem Skript zu folgen. Es handelt sich dabei also um einen Automaten und nicht um ein autonom agierendes System. Auch wenn solche Vorhersagen mehr einem Blick in die Glaskugel gleichen als einer ernst zu nehmenden wissenschaftlichen Erhebung, könnte die Chance bei rund 50% liegen, dass 2050 eine Form von KI existieren wird.

Das US-Militär wäre innerhalb von 18 Monaten in der Lage, einsatzbereite Killer-Drohnen in grosser Zahl zu produzieren. […] Bei einer Serienproduktion dürften solche Drohnen zwischen 30 und 100 Dollar je Stück kosten. — Stuart Russell zitiert in Andreas Mink, “Wie Roboter uns töten werden“, NZZ am Sonntag, 02.12.2017

Im Bereich der Waffentechnologie sind automatische Waffen Alltag, doch die Rüstungsindustrie treibt die Forschung im Bereich der LAWS voran, bei welchen KI-Systeme eine entscheidende Rolle spielen werden. Gemäss Stuart Russell, einem britischen Wissenschaftler auf dem Gebiet der KI an der University of California, seien Todesgeschwader aus Mini-Drohnen, welche ohne menschliche Steuerung gezielte Attacken fliegen, keine Spekulation mehr. Die Technologie für die Produktion von Schwärmen von Killerdrohnen sei vorhanden. Mögliche negative Entwicklungen bei der Verbreitung von solchen “intelligenten” Killerdrohnen wurden im letzten Jahr im Video “Slaughterbots” aufgezeigt, was für einiges Aufsehen gesorgt hatte. Das Video wurde vom Future of Life Institute produziert, bei welchem Russell im wissenschaftlichen Beirat sitzt und sich für ein Verbot von LAWS einsetzt.

Auch andere NGOs setzen sich für ein Verbot von LAWS ein und haben sich in einer Kampagne “Stop Killer Robots” zusammengefunden. Koordiniert wird die Kampagne von Mary Wareham, welche gleichzeitig auch die Human Right Watch vertritt. Die Kampagne bemüht sich seit 2013 für ein internationales Verbot von LAWS. Dabei soll es jedoch nicht um ein generelles Verbot des Einsatzes von KI oder ferngesteuerter bzw. automatisierter Waffensystemen in Streitkräften gehen, sondern darum, dass solche Waffensysteme in jedem Fall durch Menschen gesteuert oder permanent überwacht werden (in or on the loop).

Die Präsidentin Estlands, Kersti Kaljulaid sprach sich im pre-Konferenz Diskussionspanel aber auch während der Münchner Sicherheitskonferenz mehrfach für eine Regulierung von KI und LAWS aus. Sollte Estland 2020 in den UN-Sicherheitsrat gewählt werden, so werde sich ihr Land aktiv im UN-Sicherheitsrat für die internationale Regulierung von KI und LAWS einsetzen. Im Verbot von KI-Systemen sieht sie jedoch keinen Lösungsansatz, insbesondere weil Estland als eines der am stärksten digitalisierten Staaten sich von KI-Systemen Vorteile verspricht. Bedrohungen ergeben sich durch einen möglichen vorsätzlich zerstörerischen Einsatz eines KI-Systems sowie durch das eigenmächtige unkontrollierbare zerstörerische Handeln von KI-Systemen, sei es absichtlich oder auch unbeabsichtigt, beispielsweise durch einen zu hohen Ressourcenverbrauch. Sie plädiert deshalb für eine staatliche Melde- und Bewilligungspflicht für KI-Systeme. Gleichzeitig müsse auf internationaler Ebene ein Monitoring erfolgen, so dass nicht offen gelegte KI-Systeme entdeckt werden könnten. Hinweise auf die Existenz solcher Systeme könnten neuronale Netze und ein hoher Energieverbrauch sein. Ausserdem schwebt ihr ein auf einer Blockchain basierendes Whistleblowing-System vor, bei dem jeder anonym vermeintliche KI-Systeme eintragen könnte. Staatliche Institutionen könnten dann diesen Hinweisen nachgehen. Bestehende KI-Systeme müssten unabhängig vom System und vom Benutzer zwingend mit einem Aus-Schalter ausgestattet sein, welcher beispielsweise in Form eines “Kill-Codes” eingebaut werden könnte. Ausserdem müssten KI-Systeme dauerhaft überwacht werden, egal für welchen Zweck sie entwickelt worden seien.

Northrop's Grumman X-47B Drohne kann gewisse Aufgaben autonom erledigen, wie beispielsweise Luftbetankung sowie von einem Flugzeugträger starten und Landen.

Northrop’s Grumman X-47B Drohne kann gewisse Aufgaben autonom erledigen, wie beispielsweise Luftbetankung sowie von einem Flugzeugträger starten und Landen.

KI-Systeme können natürlich auch zum Wohl der Menschheit eingesetzt werden. Beispielsweise will Estland noch in diesem Jahr ein pro-aktives Staatssystem testen, bei dem gewisse staatliche Dienstleistungen ohne deren Zutun an die Berechtigten geleistet werden. So sollen Steuern automatisch ermittelt und erhoben werden, Versicherungsfälle ohne administrativen Aufwand innerhalb 30 Minuten vom System automatisch erledigt werden und Neugeborene, aber auch andere Bürger, abhängig von ihren Lebensverhältnissen automatisch in den Genuss staatlicher Dienstleistungen kommen. Es handelt sich dabei zwar noch nicht um ein KI-System, doch die Implementierung von KI in der Zukunft könnte den Einsatzbereich des pro-aktiven Staatssystems ausweiten und noch effizienter machen. Bereits heute erhält jedes Neugeborene in Estland automatisch eine digitale Identität. Natürlich sind mit diesem pro-aktiven Staatssystems auch etliche ethische und rechtliche Fragen verbunden, wie beispielsweise der Schutz der Privatsphäre. Zwischen einem solchen nützlichen System und einer autoritären Anordnung zur (Um-)Erziehung der Gesellschaft, wie es beispielsweise das “Social Credit System” der chinesischen Regierung darstellt, scheint nur ein kleiner Unterschied zu bestehen.

Anders Fogh Rasmussen, von 2009-2014 NATO-Generalsekretär, machte keinen Hehl daraus, dass die NATO für einen Krieg gegen KI und LAWS nicht vorbereitet sei. Eine der Effekte beim Einsatz von KI und LAWS wäre eine drastische Beschleunigung der Kriegsführung. In einem solchen Umfeld müsste die NATO Entscheidungen innerhalb weniger Minuten fällen können. Davon sei die NATO jedoch weit entfernt. Bei der Intervention im Jugoslawienkrieg in den 1990er Jahren benötigte die NATO 6 Monate für eine Entscheidung. Im Oktober 2011 bei der Operation “Unified Protector” in Libyen konnte die dafür notwendige Zeit immerhin bereits auf 6 Tage reduziert werden. Nichts­des­to­trotz für eine Entscheidungsfindung innerhalb Minuten müsste die NATO ihre Prozesse komplett umkrempeln. Rasmussen warnt bezüglich Schwärmen von Killerdrohnen, dass technologisch gesehen ein solcher Einsatz nicht so weit in der Zukunft liegen könnte. Er hat zwar nicht explizit darauf verwiesen, doch heute besitzt die US-Armee Drohnen, die fast autonom und im Rudel eingesetzt werden können. Anfangs 2017 veröffentlichte das Naval Air Systems Command ein Video (siehe unten), auf dem ein Flugzeug 103 Perdix Mikro-Drohnen entlässt, die in Formation gehen und selbständig verschiedene kleine Missionen ausführen. Das Einzige, was den kleinen Flugobjekten zur Killermaschine noch fehlte, war die Munition (Andreas Mink, “Wie Roboter uns töten werden“, NZZ am Sonntag, 02.12.2017).

Rasmussen ist überzeugt, dass eine solche Entwicklung kaum zu mehr Stabilität in der Welt beitragen wird. Nicht nur können KI und LAWS sehr einfach eingesetzt werden, im Gegensatz zu Soldaten kennen diese Systeme kein Gewissen, fürchten sich nicht, werden nicht müde und ihnen wird nicht langweilig.Er sieht beim Einsatz von KI jedoch noch weitere Gefahren auf strategischer Stufe: Durch das Eindringen, die drohende Übernahme oder die Blockierung von strategisch relevanten Systemen könnte eine Nuklearmacht vor die Entscheidung gestellt werden, entweder die Kontrolle über die Nuklearwaffen zu verlieren oder sie sofort selber einzusetzen. Da neben der USA auch Russland und China aktiv an solchen Waffensystemen forschen, kann eine solche Konstellation nicht komplett ausgeschlossen werden. Das Problem dabei ist nicht eine sofortige direkte, offene, militärische Konfrontation, sondern der indirekte, versteckte Einsatz solcher Systeme in Graubereichen und einer, womöglich sogar ungewollten, Eskalation.

Basierend auf ethnischen Prinzipien und in Übereinstimmung mit dem Kriegsvölkerrecht ist Rasmussen überzeugt, dass der Einsatz letaler Gewalt in jedem Fall immer durch einen Menschen entschieden werden muss (in or on the loop) und nicht in die Hand einer KI gelegt werden darf (out of the loop). Deshalb unterstützt Rasmussen ein rechtlich bindendes Abkommen, welches die Herstellung und Benutzung von LAWS verbietet.

Ebenfalls auf dem pre-Konferenz Diskussionspodium vertreten, jedoch stärker auf Cyber-Sicherheit, denn auf KI und LAWS fokussiert, präsentierte der Deutsche Inspekteur des Cyber- und Informationsraums, Generalleutnant Ludwig Leinhos das im April 2017 neu geschaffene Kommando Cyber- und Informationsraum der Deutschen Bundeswehr. Das Kommando umfasst 13’500 Soldaten und zivile Mitarbeiter. Es ist für den Schutz sowie den Betrieb der Informatikinfrastruktur der Bundeswehr verantwortlich und die zentrale Stelle bei Aktivitäten im Bereich der Geoinformation, der Nachrichtenbeschaffung sowie der nicht-kinetischen Aktionen im Bereich der Informationsoperationen, der elektronischen Kriegsführung und der Operationen im Cyberspace. Vermutlich umfasst das Kommando auch eine kleine Einheit von rund 60 Soldaten, welche sich auf Cyber-Angriffe spezialisiert haben (Jürgen Kuri, “Von der Leyens Cyber-Truppe nimmt Gestalt an“, Heise online, 05.10.2016). Zusätzlich soll bis zum nächsten Jahr eine Abteilung im Bereich der Softwareentwicklung aufgebaut werden.

Leinhos sieht generell in KI-Systemen viele positive Anwendungsbereiche — sowohl im zivilen wie auch im militärischen Bereich. Das Handeln müsse jedoch immer auf ethischen und rechtlichen Grundsätze basieren. Viel mehr wollte oder konnte er zum Thema der KI und LAWS jedoch nicht beitragen, vielleicht auch deshalb, weil die gesellschaftliche und politische Debatte zu diesem Thema erst grad ihren Anfang gefunden hat.

This entry was posted in Armed Forces, Cyberwarfare, Drones, International, International law, Security Policy, Technology, X-Planes.

Leave a Reply

Your email address will not be published. Required fields are marked *

This blog is kept spam free by WP-SpamFree.