ForumKI und nationale Sicherheit

Forum / KI und nationale Sicherheit
 Foto: dpa/Oliver Berg

Der Mensch ist eine werkzeugherstellende Spezies, aber können wir die von uns erzeugten Werkzeuge auch beherrschen? Als Robert Oppenheimer und andere Physiker in den 1940er Jahren die erste Kernspaltungswaffe entwickelten, befürchteten sie, ihre Erfindung könnte die Menschheit vernichten. Bislang ist dieser Fall nicht eingetreten, doch die Kontrolle der Atomwaffen ist eine ständige Herausforderung.

Heute sehen viele Forschende in der künstlichen Intelligenz – Algorithmen und Software, mit der Maschinen Aufgaben erledigen, die normalerweise menschliche Intelligenz erfordern – ein ebenso umwälzendes Werkzeug. Wie frühere Allzwecktechnologien hat auch die künstliche Intelligenz enormes Potenzial im Guten wie im Bösen. In der Krebsforschung etwa kann sie in wenigen Minuten mehr Studien durchforsten und zusammenfassen, als ein menschliches Team in monatelanger Arbeit bewältigen würde. Überdies ist sie in der Lage, zuverlässig Muster von Proteinfaltungen vorherzusagen, für deren Ermittlung menschliche Forschende viele Jahre brauchen würden.

Allerdings senkt KI auch Kosten und Einstiegshürden für Querköpfe, Terroristen und andere böswillige Akteure, die Schaden anrichten wollen. In einer kürzlich veröffentlichten RANDStudie wird gewarnt: „Die Grenzkosten für die Wiederbelebung eines gefährlichen, pockenähnlichen Virus können sich auf lediglich 100.000 Dollar belaufen, während die Entwicklung eines komplexen Impfstoffs über 1 Milliarde Dollar kosten kann.“

Darüber hinaus befürchten einige Fachleute, dass eine hochentwickelte KI dem Menschen so weit überlegen sein wird, dass sie uns kontrolliert – und nicht umgekehrt. Die Schätzungen darüber, wie lange es dauern wird, bis derartige superintelligente Maschinen – bekannt als künstliche allgemeine Intelligenz – entwickelt sind, schwanken zwischen einigen Jahren und einigen Jahrzehnten. In jedem Fall erfordern die von der heutigen künstlichen Intelligenz ausgehenden Gefahren bereits jetzt größere Aufmerksamkeit.

Seit 40 Jahren trifft sich die Aspen Strategy Group (bestehend aus ehemaligen Regierungsvertretern, Wissenschaftlerinnen, Geschäftsleuten und Journalisten) jeden Sommer, um sich auf ein wesentliches Problem der nationalen Sicherheit zu konzentrieren. In der Vergangenheit haben wir uns mit Themen wie Atomwaffen, Cyberangriffen und dem Aufstieg Chinas beschäftigt. In diesem Jahr ging es um die Auswirkungen der KI auf die nationale Sicherheit, wobei wir sowohl Nutzen als auch Risiken unter die Lupe nahmen.

Strukturelle Vorteile Chinas

Der Nutzen besteht etwa in einer erhöhten Leistungsfähigkeit bei der Sichtung enormer Mengen nachrichtendienstlicher Daten, der Stärkung von Frühwarnsystemen, der Verbesserung komplizierter logistischer Systeme und der Überprüfung von Maschinencodes zur Erhöhung der Cybersicherheit. Es bestehen jedoch auch große Risiken, wie etwa die Fortschritte im Bereich autonomer Waffen, versehentliche Fehler bei der Programmierung von Algorithmen und gegnerischer KI, die die Cybersicherheit schwächen kann.

China hat massiv in das allgemeine KI-Wettrüsten investiert und verfügt zudem über einige strukturelle Vorteile. Die drei wichtigsten Ressourcen für KI sind Daten für das Training der Modelle, kluge Informatikerinnen und Informatiker für die Entwicklung von Algorithmen sowie Rechenleistung für deren Ausführung. In China bestehen nur wenige rechtliche oder datenschutzrechtliche Beschränkungen für den Zugang zu Daten (auch wenn einige Datensätze aus ideologischen Gründen nur eingeschränkt verfügbar sind), und das Land verfügt über eine große Zahl begabter junger Informatikerinnen und Informatiker. Der größte Rückstand gegenüber den Vereinigten Staaten besteht im Bereich hochentwickelter Mikrochips, die die Rechenleistung für die KI erzeugen.

Amerikanische Exportkontrollen beschränken Chinas Zugang zu diesen Hochleistungschips sowie zu den teuren niederländischen Lithographiemaschinen, mit denen diese hergestellt werden. Die Fachleute in Aspen waren sich einig, dass China den USA ein oder zwei Jahre hinterherhinkt, doch die Lage bleibt ungewiss. Obwohl die Präsidenten Joe Biden und Xi Jinping bei ihrem Treffen im letzten Herbst bilaterale Gespräche über KI vereinbart hatten, herrschte in Aspen wenig Optimismus hinsichtlich der Aussichten auf Rüstungskontrolle im Bereich KI.

Autonome Waffen

Eine besonders ernsthafte Bedrohung stellen autonome Waffen dar. Nach mehr als einem Jahrzehnt der Diplomatie bei den Vereinten Nationen ist es den Staaten nicht gelungen, sich auf ein Verbot autonomer tödlicher Waffen zu einigen. Das humanitäre Völkerrecht schreibt vor, dass das Militär zwischen bewaffneten Kämpfern und Zivilisten unterscheidet, und das Pentagon verlangt seit langem, dass ein Mensch an der Entscheidungsfindung beteiligt ist, bevor eine Waffe abgefeuert wird. Doch in manchen Situationen, etwa bei der Verteidigung gegen angreifende Raketen, bleibt keine Zeit für menschliche Intervention.

Da es auf den jeweiligen Kontext ankommt, muss der Mensch (im Code) genau festlegen, was Waffen tun dürfen und was nicht. Mit anderen Worten: Es sollte ein Mensch „on the loop“ (also in der Kontrollschleife) und nicht „in the loop“ (ständig in alle Entscheidungen involviert) sein. Dabei handelt es sich nicht nur um eine spekulative Frage. Im Ukraine-Krieg stören die Russen die Signale der ukrainischen Streitkräfte und zwingen die Ukrainer somit, ihre Waffen so zu programmieren, dass diese autonom entscheiden können, wann sie feuern sollen.

Eine der beängstigendsten Gefahren der KI ist ihre Anwendung in den Bereichen biologische Kriegsführung oder Terrorismus. Als sich die Länder 1972 auf ein Verbot biologischer Waffen einigten, war man der Meinung, dass derartige Waffen nicht sinnvoll seien, da die Gefahr der Rückwirkung auf die eigene Seite bestünde. Mit synthetischer Biologie könnte es jedoch möglich sein, eine Waffe zu entwickeln, die eine Gruppe vernichtet, die andere aber nicht. Oder ein Terrorist, der Zugang zu einem Labor hat, möchte einfach so viele Menschen wie möglich töten, wie im Falle der Weltuntergangssekte Ōmu Shinrikyō 1995 in Japan geschehen. (Damals kam zwar das Giftgas Sarin zum Einsatz und kein ansteckendes Virus, aber ein modernes Pendant der Sekte könnte KI nutzen, um ein ansteckendes Virus zu entwickeln).

Im Falle der Atomtechnologie einigten sich die Staaten 1968 auf einen Nichtverbreitungsvertrag, dem heute 191 Länder angehören. Die Internationale Atomenergie-Organisation (IAEO) inspiziert regelmäßig nationale Energieprogramme, um sich zu vergewissern, dass diese ausschließlich zu friedlichen Zwecken genutzt werden. Und trotz des intensiven Wettbewerbs im Kalten Krieg einigten sich die im Bereich Nukleartechnologie führenden Länder im Jahr 1978, bei der Ausfuhr von sensiblen Anlagen und technischen Informationen Zurückhaltung zu üben. Diese Vorgehensweise könnte als Vorbild für die Möglichkeiten im Bereich KI dienen, obwohl zwischen den beiden Technologien offenkundige Unterschiede bestehen.

Es ist eine Binsenweisheit, dass sich Technologie schneller entwickelt als Politik oder Diplomatie, vor allem, wenn der technische Fortschritt durch intensiven Marktwettbewerb im Privatsektor angetrieben wird. Eine der wichtigsten Schlussfolgerungen des diesjährigen Treffens der Aspen Strategy Group lautete, dass die Regierungen ihr Tempo beschleunigen müssen.

Übersetzung: Helga Klinger-Groier

*Joseph S. Nye Jr. ist stellvertretender Vorsitzender der Aspen Strategy Group, ehemaliger Dekan der Harvard Kennedy School, früherer stellvertretender US-Verteidigungsminister und Verfasser des jüngst von ihm erschienenen Buchs „A Life in the American Century“ (Polity Press, 2024).

Copyright: Project Syndicate, 2024. www.project-syndicate.org