Der Pentagon-Technologiechef Emil Michael kritisiert Anthropic für ethische Einschränkungen bei der militärischen Nutzung von Claude-KI und pocht auf uneingeschränkte Autonomie für Drohnenschwärme und Raketenabwehrsysteme.
Ein hochrangiger Pentagon-Beamter hat öffentlich mit der KI-Firma Anthropic abgerechnet. Emil Michael, Unterstaatssekretär für Verteidigung und Technologiechef des Pentagon, kritisiert das Unternehmen scharf für dessen ethische Richtlinien zur Verwendung seiner Claude-KI in vollautonomen Waffensystemen.
Der Konflikt eskalierte in Zusammenhang mit Trumps geplantem Raketenabwehrprogramm “Golden Dome”, das amerikanische Waffen ins All bringen soll. Michael argumentiert, dass die Vereinigten Staaten KI-Systeme benötigen, um Drohnenschwärme, Unterwasserfahrzeuge und andere militärische Geräte autonom steuern zu können – um mit Konkurrenten wie China konkurrieren zu können.
“Ich brauche einen zuverlässigen Partner, der bei autonomen Systemen mit mir zusammenarbeitet”, erklärte Michael kürzlich im “All-In”-Podcast. “Ich kann nicht jedes Mal von vorne anfangen.” Das Pentagon hat Anthropic inzwischen als Lieferkettenrisiko eingestuft und ihm Rüstungsaufträge entzogen. Das Unternehmen hat Klage angekündigt.
Anthropics CEO Dario Amodei betonte hingegen, dass das Unternehmen nur zwei Anwendungen ausschließen wollte: Massenüberwachung von Amerikanern und vollständig autonome Waffen. Der ehemalige Uber-Manager Michael argumentiert allerdings, dass solche pauschalen Einschränkungen unrealistisch sind. “Ich kann nicht alle Szenarien der nächsten 20 Jahre vorhersagen”, sagte er.
Die Verhandlungen scheiterten über Monaten. Michael forderte von Anthropic, alle “legalen Verwendungen” ihrer Technologie zuzulassen. Die Konkurrenten Google, OpenAI und Elon Musks xAI gingen auf diese Forderungen ein. Anthropic hingegen argumentiert, dass aktuelle KI-Systeme “einfach nicht zuverlässig genug” für vollautonome Waffen sind.
Michael betonte, dass das Militär ohnehin Verfahren für unterschiedliche Autonomielevel entwickelt, je nach Risiko. In einem Szenario mit nur 90 Sekunden Reaktionszeit gegen chinesische Hyperschallraketen könnten autonome Gegenmaßnahmen sinnvoll sein. Anthropic hielt dagegen, dass die Schutzbestimmungen eng gefasst waren und nicht auf bereits bestehende Claude-Anwendungen abzielten. Der Rechtsstreit wird sich nun vor Gericht abspielen.
Quelle: SecurityWeek
