Es ist die nächste Runde im Streit zwischen der US-Regierung und Anthropic: Eine Richterin hat die Sperre gegen die KI-Firma vorerst blockiert. Auslöser war die Nutzung von Künstlicher Intelligenz im Militär.
Anthropic hat einen Etappensieg im Streit mit dem Pentagon über die Verwendung Künstlicher Intelligenz (KI) im Militär errungen. Eine Richterin erließ eine einstweilige Verfügung, mit der die Einstufung der KI-Firma als Lieferketten-Risiko für die nationale Sicherheit blockiert werden soll. Sie tritt erst nach sieben Tagen in Kraft. Das soll der US-Regierung die Möglichkeit geben, die einstweilige Verfügung noch vor einem Berufungsgericht anzufechten.
Anthropic beharrt darauf, dass KI-Modelle des Unternehmens nicht zur Massenüberwachung von Amerikanern sowie in autonomen Waffensystemen genutzt werden dürfen. Das US-Verteidigungsministerium fordert hingegen die Rechte für “jede rechtmäßige Nutzung” ein und betont, dass kein Unternehmen der Regierung Vorschriften machen könne. Das Justizministerium argumentierte, die Weigerung könne militärische Systeme während laufender Einsätze gefährden. Insidern zufolge war die Technologie für Militäroperationen im Iran eingesetzt worden.
Recht auf freie Meinungsäußerung verletzt
Da Anthropic nicht nachgab, erklärte das Pentagon die Firma zum “Supply-Chain Risk to National Security” (Lieferketten-Risiko für die nationale Sicherheit). Präsident Donald Trump ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie, wozu etwa das Sprachmodell Claude gehört, einstellen sollen. Zudem hieß es von Verteidigungsminister Pete Hegseth, dass auch alle Unternehmen ihre Geschäftsbeziehungen zum Start-up kappen müssten, wenn sie das US-Militär beliefern wollten.
Es ist höchst ungewöhnlich, dass eine US-Firma zum Lieferketten-Risiko erklärt wird. Das schließt ein Unternehmen von Regierungsaufträgen aus. Richterin Rita Lin betonte in San Francisco, dass es dem Verteidigungsministerium zwar freistehe, keine Anthropic-Produkte zu verwenden. Die Regierung scheine mit ihrem Vorgehen aber nicht auf nationale Sicherheitsinteressen abzuzielen, sondern darauf, die Firma für deren öffentliche Kritik bestrafen zu wollen.
Dies sei eine illegale Vergeltungsmaßnahme und verletze das Recht auf freie Meinungsäußerung, erklärte Lin in ihrer Entscheidung. Die Einstufung als Lieferketten-Risiko sei daher wahrscheinlich rechtswidrig und willkürlich.
OpenAI will Lücke füllen
Anthropic-Chef Dario Amodei warnt, dass KI es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden.
Am 9. März hatte Anthropic gegen die Entscheidung geklagt. In Washington ist zudem eine zweite Klage des Unternehmens wegen einer weiteren Risiko-Einstufung des Pentagons anhängig, die zum Ausschluss von zivilen Regierungsaufträgen führen könnte. “Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt”, schrieb Amodei in einem Blogbeitrag.
Bisher war Anthropic die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war. Allerdings schloss inzwischen ChatGPT-Erfinder OpenAI eine Vereinbarung mit dem Verteidigungsministerium. Nach eigenen Angaben hat das Unternehmen dabei den wichtigsten Sicherheitsprinzipien zugestimmt – dem Verbot inländischer Massenüberwachung sowie der menschlichen Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme.

