Auf einen Blick
Das US-Verteidigungsministerium überprüft nach Medienberichten einen Vertrag zur Nutzung von “Claude” und stellt Anthropic nach Angaben aus Washington mögliche Beschaffungsauflagen in Aussicht. Kern des Konflikts ist der Streit über zulässige Einsatzfälle. Für EU-Behörden gewinnt damit die Frage an Gewicht, wie Nutzungsrechte und Sicherheitsnachweise in KI-Verträgen abgesichert werden.
Das Wichtigste
- Der Pentagon-Apparat lässt nach Berichten prüfen, ob die Zusammenarbeit mit Anthropic im Rahmen eines “Claude”-Vertrags fortgeführt oder eingeschränkt wird.
- Im Raum steht laut Axios ein Vertragsvolumen von bis zu 200 Millionen US-Dollar sowie die Drohung, Anthropic als “supply chain risk” einzustufen.
- Auslöser ist ein Streit über Nutzungsbedingungen, darunter Einschränkungen zu Massenüberwachung und vollautonomen Waffensystemen.
US-Verteidigungsministerium setzt KI-Anbieter unter Druck
Das US-Verteidigungsministerium überprüft nach Medienberichten einen Vertrag mit dem KI-Unternehmen Anthropic zur Nutzung des Sprachmodells “Claude”. Axios und die “New York Times” berichten, das Pentagon erwäge dabei auch Beschaffungsmaßnahmen, die über den konkreten Vertrag hinausreichen könnten. Der Vorgang betrifft die Bedingungen, unter denen ein kommerzielles LLM in militärischen Kontexten eingesetzt werden darf.
Worum es im Streit zwischen DoD und Anthropic geht
Nach Darstellung der Berichte verlangt das Pentagon weit gefasste Einsatzmöglichkeiten für “alle rechtmäßigen Zwecke”. Anthropic knüpft den Einsatz seiner Modelle demnach an Einschränkungen, unter anderem gegen Massenüberwachung von US-Bürgern und gegen den Einsatz für vollautonome Waffensysteme. Axios berichtet in diesem Zusammenhang über eine mögliche Einstufung Anthropic’ als “supply chain risk” sowie über ein Vertragsvolumen von bis zu 200 Millionen US-Dollar. Die “New York Times” beschreibt den Konflikt als Auseinandersetzung über Sicherheits- und Einsatzgrenzen von KI in staatlichen Strukturen.
Anthropic veröffentlicht zu seinen Modellen technische Sicherheitsdokumente, darunter eine Systemkarte zu “Claude Opus 4” und “Claude Sonnet 4”. Darin beschreibt das Unternehmen interne Tests und Schutzmaßnahmen gegen Missbrauch und sogenannte Prompt-Injection-Angriffe. Diese Unterlagen sind ein Bestandteil der öffentlichen Selbstdarstellung, ersetzen aber keine behördliche Abnahme im jeweiligen Einsatzumfeld.
Bedeutung für EU-Behörden und Beschaffung
Für europäische Behörden und öffentliche Auftraggeber verschärft der Vorgang die praktische Frage, wie weit Nutzungsrechte an KI-Systemen in Verträgen tatsächlich reichen und welche Einschränkungen aus Unternehmensrichtlinien folgen. In vielen EU-Vergaben sind Nachweise zu IT-Sicherheit, Datenverarbeitung und Lieferkettenrisiken bereits Teil der Eignungs- und Vertragsbedingungen. Hinzu kommt die EU-KI-Verordnung (AI Act), die für Hochrisiko-Anwendungen Pflichten für Anbieter und Betreiber vorsieht, etwa zu Risikomanagement und Dokumentation.
Ein öffentlich ausgetragener Konflikt um Klauseln, Einsatzgrenzen und mögliche Lieferkettenbewertungen kann Ausschreibungen beeinflussen, wenn Behörden in Leistungsbeschreibungen stärker zwischen “zulässigem Zweck” und “zulässigem Einsatz” unterscheiden. Ob und in welchem Umfang europäische Vergabestellen laufende oder geplante Verträge mit Anthropic konkret überprüfen, ist derzeit nicht bekannt.
Wie die nächsten Entscheidungen aussehen könnten
Nach den Berichten stehen mehrere Optionen im Raum: eine Fortführung des Vertrags unter geänderten Bedingungen, eine Einschränkung des Umfangs oder ein Abbruch der Zusammenarbeit. Ein formaler Schritt wie eine Lieferketten-Risikoeinstufung hätte potenziell Auswirkungen auf nachgelagerte Beschaffungsvorhaben und Subunternehmerbeziehungen im US-Verteidigungsbereich. Ein Zeitplan für eine Entscheidung wurde in den genannten Berichten nicht genannt.
Für den europäischen Markt dürfte der Vorgang vor allem als Referenz für Vertragsgestaltung wirken. Öffentliche Auftraggeber dürften stärker darauf achten, dass Einsatzklauseln, Audit- und Nachweispflichten sowie Exit-Regelungen bei einem Anbieterwechsel eindeutig definiert sind.
Fazit
Die Berichte über die Überprüfung des “Claude”-Vertrags markieren eine konkrete Beschaffungsauseinandersetzung zwischen dem Pentagon und Anthropic. Im Mittelpunkt stehen Nutzungsrechte und Sicherheitsgrenzen für KI-Anwendungen in staatlichen Systemen. Für EU-Behörden erhöht der Fall den Druck, Vertragsklauseln zu Einsatzgrenzen, Nachweisen und Lieferkettenrisiken klar zu fassen.





