Die Integration künstlicher Intelligenz in militärische Operationen schreitet rapide voran, doch die Sicherheitsanforderungen hinken hinterher. Generalstabschef Dan Caine bekräftigte auf dem Asness Summit an der Vanderbilt University, dass autonome Waffensysteme nicht länger eine ferne Zukunftsvision sind, sondern praktische Realität werden. Das US-Verteidigungsministerium arbeitet intensiv daran, KI in Bereichen wie Zielerfassung, Logistik und Schlachtfeldkoordination einzusetzen.
Doch mit dieser Entwicklung wächst auch die Sicherheitsproblematik. Das Pentagon ist zunehmend von kommerziellen Softwaresystemen abhängig, die ursprünglich nicht für militärische Anwendungen entwickelt wurden. Dies schafft neue Angriffsflächen für gegnerische Staaten und private Akteure. Besonders beunruhigend ist das Risiko von Datenvergiftung, Manipulation und unerwarteten Systemausfällen in kritischen Situationen — einem Bereich, in dem Fehlertoleranz nahezu null ist.
Ein konkretes Beispiel verdeutlicht die Spannungen: Das KI-Unternehmen Anthropic, eines der führenden Unternehmen in diesem Sektor, weigerte sich, sein leistungsstarkes Modell “Mythos Preview” öffentlich freizugeben und lehnte eine Lockerung der Beschränkungen für militärische Anwendungen ab — insbesondere für autonome Waffensysteme und Überwachungseinsätze. Das Pentagon reagierte mit der Bezeichnung Anthropics als “Supply-Chain-Risiko”, was typischerweise für ausländische Anbieter reserviert ist. Die Weiße Hause ordnete daraufhin an, die Nutzung von Anthropic-Tools einzustellen. Ein Bundesgericht blockierte dieses Verbot temporär, die Regierung will Berufung einlegen.
Die Kontroverse offenbart ein Kernproblem: Die USA versuchen, KI schnell für nationale Sicherheitsziele zu nutzen, während sich das kommerzielle Ökosystem nicht immer mit militärischen Prioritäten deckt. Besonders unterscheiden sich die Risikotoleranzgrenzen und Kontrollerwartungen erheblich.
Generalstabschef Caine identifizierte auch ein praktisches Hindernis: Das amerikanische Beschaffungssystem. Verträge müssen neu strukturiert werden, um kontinuierlich evolvierende Software und regelmäßige Sicherheitsupdates zu ermöglichen. Traditionelle Vertragssysteme, die für starre Hardwaresysteme konzipiert sind, bremsen die Einführung kritischer Technologien und schaffen Verantwortungslücken.
Diese Probleme sind nicht rein theoretisch. Nach einem tödlichen Luftangriff auf eine iranische Schule im Konflikt zwischen den USA und dem Iran stellen Abgeordnete berechtigte Fragen, ob KI-Systeme dabei involviert waren und wie solche Waffen getestet und überwacht werden. Die zentrale Erkenntnis ist klar: Es geht nicht mehr hauptsächlich darum, ob KI-Systeme funktionieren — sondern ob sie sicher, kontrollierbar und vertrauenswürdig sind.
