Die Experten trafen sich in Genf, doch es konnte keine Einigung erzielt werden: Die USA und Russland blockierten alle Arbeiten. Vielleicht ist dies das einzige Mal, dass Hegemonen so harmonisch zusammenarbeiten.
In Genf endeten Expertentreffen im Format der Konvention über unmenschliche Waffen, um über das Schicksal der sogenannten Kampfroboter zu entscheiden – autonome Waffen, die mit künstlicher Intelligenz Ziele besiegen. Es konnten jedoch keine Einigungen erzielt werden. Die Vereinigten Staaten, Russland, Südkorea, Israel und Australien gehörten zu den Minderheitennationen, denen es gelungen ist, die Stimmung für ein vollständiges Verbot von Killerrobotern zu blockieren.
Obwohl es also noch keine funktionierende autonome Waffe auf der Welt gibt, bleibt die Technologie sozusagen human – sie kann entwickelt und erforscht werden. Interessanterweise führen die USA und Russland laut dem Stockholmer Friedensforschungsinstitut (SIPRI) die Liste der größten Waffenexporteure an. Auch Südkorea, Israel und Australien fallen in diesem Ranking nicht zurück – sie gehören zu den Top-20-Marktteilnehmern.
Und obwohl China (fünfter Waffenexporteur der Welt, ständiges Mitglied im UN-Sicherheitsrat ein Verbot von Kampfrobotern befürwortet, gelang es ihm bei den Treffen nicht, die Waage in seine Richtung zu drehen. Heute unterstützen 26 Länder offen die Verbot des Einsatzes künstlicher Intelligenz im Krieg. Andere scheuen eine klare Position) Frankreich und Deutschland (der dritte und vierte Waffenexporteur) bieten an, ein Dokument zu unterzeichnen, das den Vorrang des Menschen vor der künstlichen Intelligenz festigen würde, aber sie sind wahrscheinlicher auf der Seite derer, die autonome Kampffahrzeuge entwickeln wollen.
„Es ist sicherlich enttäuschend, dass eine kleine Gruppe von Militärgiganten den Willen der Mehrheit zurückhalten kann“, kommentierte Mary Verhem, Koordinatorin der Kampagne gegen Killerroboter, die Ergebnisse der Genfer Treffen.
Tatsächlich sieht die Situation wie eine Verschwörung bewaffneter Monopolmagnaten aus, da die USA und Russland in wichtigen Fragen normalerweise keinen Kompromiss finden können. Nehmen Sie die syrische: Washington und Moskau blockierten sich gegenseitig ihre Resolutionen, nachdem sie im Frühjahr in Syrien Chemiewaffen eingesetzt hatten. Erstickende Gase und andere giftige Stoffe für militärische Zwecke waren übrigens bisher durch die Konvention über unmenschliche Waffen verboten.
Das nächste Treffen zum Schicksal von Killerrobotern findet im November in Genf statt.
Warum wollen sie autonome Waffen verbieten?
Befürworter des Verbots der Roboterkriegsführung bestehen darauf, dass das Schlachtfeld kein Ort für künstliche Intelligenz ist. Ihrer Meinung nach stellen solche Technologien eine große Bedrohung dar. Zumindest ist heute nicht klar, wie die Maschine zwischen Kombattanten (die direkt in Feindseligkeiten verwickelt sind) von Nichtkombattanten (Militärangehörigen, die Waffen nur zur Selbstverteidigung einsetzen können) und Zivilisten im Allgemeinen unterscheiden wird. Es besteht die Möglichkeit, dass die Arbeit die Verwundeten und diejenigen, die sich ergeben, tötet, was nach den geltenden Regeln der Kriegsführung verboten ist.
Was hindert die Arbeit daran, alle Konfliktparteien, auch die Besitzer solcher Waffen, zu unterbrechen? Elemente der künstlichen Intelligenz werden bereits erfolgreich in militärischer Ausrüstung, Raketen eingesetzt; Roboter werden zur Aufklärung angezogen, aber das letzte Wort liegt immer noch bei den Menschen. Autonome Waffen werden den Befehlen der Kommandeure nicht gehorchen - deshalb sind sie autonom. Aus diesem Grund stehen Militärgeneräle aus verschiedenen Ländern der Einführung von Maschinen in die Reihen des Personals skeptisch gegenüber.
Und eine weitere offene Frage ist der internationale Terrorismus. Autonome Waffentechnologie kann in falsche Hände geraten und schließlich gehackt werden. Vor einem Jahr sagte der russische Präsident Wladimir Putin, dass der Herrscher der Welt derjenige sein wird, der bei der Entwicklung der künstlichen Intelligenz führend werden wird. Bei autonomen Waffen wird derjenige, der Zugang zu solchen Technologien erhält, zum Herrscher der Welt. Und dafür brauchen Sie tatsächlich nur einen Computer und einen Schwindler, der die Sicherheitssysteme passiert. Das Pentagon wurde übrigens mehr als einmal gehackt. Folglich kann niemand garantieren, dass autonome Waffen unverletzlich bleiben.
Unklar ist auch, wer im Falle eines Kriegsverbrechens aufgrund des Funktionierens des autonomen Waffensystems rechtlich verantwortlich ist. „Der Ingenieur, Programmierer, Hersteller oder Kommandant, der die Waffe benutzt hat? Wenn die Verantwortung nicht gemäß dem humanitären Völkerrecht definiert werden kann, kann der Einsatz solcher Systeme dann als rechtlich oder ethisch gerechtfertigt anerkannt werden?“, stellt das Internationale Komitee vom Roten Kreuz fest.
Interessanterweise plädierten Wissenschaftler auch für ein Verbot von Kampfrobotern. Im Juli dieses Jahres unterzeichneten mehr als zweitausend Wissenschaftler, insbesondere der Schöpfer von Tesla und SpaceX Elon Musk und die Mitbegründer von DeepMind, ein Dokument, dass sie keine tödlichen autonomen Waffen entwickeln würden. Google hat dasselbe getan. Der Tech-Riese hat die Arbeit am Maven-Projekt des Pentagons aufgegeben. Und bereits 2017 forderten eine Reihe von Wissenschaftlern die UNO auf, die Herstellung von Killerrobotern zu verbieten.
Das Thema Künstliche Intelligenz im Krieg stand übrigens Ende 2013 auf der Agenda der Vereinten Nationen, aber seitdem hat sich praktisch nichts geändert. Erst in diesem Jahr begannen Expertentreffen im Format der Konvention über unmenschliche Waffen. Das heißt, es dauerte mehr als vier Jahre, bis eine mehr oder weniger praktische Ebene erreicht war.
Warum sie autonome Waffen nicht verbieten wollen
So banal es klingen mag, das Wettrüsten ist der Hauptgrund, warum sie Killerroboter nicht verbieten wollen. Putin hat Recht: Wer zuerst autonome Waffen bekommt, wird die Welt beherrschen. Offiziell wird dieser Grund geäußert.
Das Hauptargument der Gegner des Verbots ist die Unmöglichkeit, zivile künstliche Intelligenz vom Militär zu trennen. Wir werden Küchenmesser nicht verbieten, nur weil Terroristen sie benutzen können. Tatsächlich ist es praktisch unmöglich, die zivile Entwicklung künstlicher Intelligenz von der militärischen zu trennen. Aber jetzt sprechen wir über das Verbot dieser Waffe, die Ziele unabhängig bestimmen und angreifen kann. Dabei könnte es sich um das Maven-Projekt handeln, an dem das US-Verteidigungsministerium gemeinsam mit Booz Allen Hamilton arbeitet (Google lehnte den Auftrag ab).
Die Maven-Entwickler wollen Drohnen beibringen, Bilder insbesondere von Satelliten zu analysieren und – möglicherweise – Angriffsziele zu identifizieren. Das Pentagon begann bereits im April 2017 mit der Arbeit an dem Projekt und hoffte, bis Ende des Jahres die ersten funktionierenden Algorithmen zu erhalten. Doch durch die Demarche von Google-Mitarbeitern verzögerte sich die Entwicklung. Laut Gizmodo konnte das System ab Juni dieses Jahres zwischen elementaren Objekten - Autos, Menschen - unterscheiden, erwies sich jedoch in schwierigen Situationen als völlig unbedeutend. Wenn das Verbot autonomer Waffen dennoch auf UN-Ebene verabschiedet wird, muss das Projekt verworfen werden, während das Pentagon behauptet, dass ihre Entwicklung Leben retten kann, weil sie so programmiert werden kann, dass sie im Vergleich zu Menschen genauer und zuverlässiger arbeitet.
"Sie müssen verstehen, dass wir über Technologie sprechen, dass es keine Muster gibt, die funktionieren würden. Die Idee solcher Systeme ist noch sehr oberflächlich", bemerkte am Vorabend des Treffens in Genf im russischen Außenministerium. - Unserer Meinung nach kann das Völkerrecht, insbesondere der humanitäre Bereich, auf autonome Waffen angewendet werden. Sie bedürfen keiner Modernisierung oder Anpassung an noch nicht vorhandene Systeme.“
Nun, und ein weiterer echter, aber nicht geäußerter Grund ist Geld. Der Markt für militärische Technologien der künstlichen Intelligenz wird heute auf mehr als sechs Milliarden Dollar geschätzt. Doch bis 2025 wird sich die Zahl verdreifachen – auf knapp 19 Milliarden, so Analysten des amerikanischen Unternehmens MarketsandMarkets. Für die größten Waffenexporteure ist dies eine gute Motivation, jegliche Beschränkungen der Entwicklung von Killerrobotern zu blockieren.
Fortschritt ist nicht aufzuhalten
Befürworter eines Verbots autonomer Waffen weisen darauf hin, dass sich die Technologie sehr schnell entwickelt und künstliche Intelligenz irgendwann zur Waffe wird – eine Frage der Zeit. In ihren Worten steckt Logik. Künstliche Intelligenz ist ein integraler Bestandteil der vierten wissenschaftlichen und technologischen Revolution, die jetzt andauert. Dabei ist zu bedenken, dass technischer Fortschritt auf die eine oder andere Weise mit militärischen Operationen verbunden ist. Die dritte wissenschaftlich-technologische Revolution dauerte bis Mitte der 50er Jahre des 20. Jahrhunderts, das heißt, ihr Höhepunkt fiel in die Zeit des Zweiten Weltkriegs.
1949 verabschiedete Genf das Übereinkommen zum Schutz von Zivilpersonen in Kriegszeiten. In der Nachkriegszeit ergänzten sie auch die IV. Haager Konvention von 1907, die die Regeln für die Kriegsführung festlegte. Das heißt, die Schrecken des Zweiten Weltkriegs wurden zum Katalysator für diesen Prozess. Menschenrechtsverteidiger wollen also nicht auf den Dritten Weltkrieg warten, um die Menschheit vor autonomen Waffen zu schützen. Deshalb müsse jetzt über das Schicksal von Killerrobotern entschieden werden, beharren sie.
Laut Experten von Human Rights Watch widerspricht der Einsatz von Kampfrobotern der Martens-Erklärung – der Präambel der Haager Kriegskonvention von 1899. Mit anderen Worten, Killerroboter verletzen die Gesetze der Menschlichkeit und die Anforderungen des öffentlichen Bewusstseins (die Position wurde in der IV. Haager Konvention bestätigt).
„Wir müssen zusammenarbeiten, um solche Waffensysteme präventiv zu verbieten, bevor sie sich auf der ganzen Welt verbreiten“, sagte Bonnie Doherty, leitende Forscherin in der Waffenabteilung von Human Rights Watch.
Nun, es hat diesmal nicht funktioniert, Killerroboter zu verbieten. Voraussichtlich werden auch die Treffen im November fruchtlos bleiben. Stimmt, fast alle Länder sind sich einig - die Technologie darf nicht durch die Schwerkraft fließen und Kampfroboter brauchen einen solchen Stoppkran. Aber es ist immer noch nicht klar, ob die Menschheit Zeit haben wird, sie zu ziehen, wenn die Notwendigkeit besteht.