Freitag, 24. April 2026

IT Security

Pentagon stuft Anthropic als Lieferkettenrisiko ein

Stand: 28. February 2026, 17:45 Uhr Berlin Auf einen Blick Das US-Verteidigungsministerium hat Anthropic als Lieferkettenrisiko eingestuft, nachdem das Unternehmen eine Vertragsklausel zur uneingeschränkten militärischen…

Von Wolfgang

28. Feb. 20262 Min. Lesezeit

Pentagon stuft Anthropic als Lieferkettenrisiko ein

Das US-Verteidigungsministerium hat Anthropic als Lieferkettenrisiko eingestuft, nachdem das Unternehmen eine Vertragsklausel zur uneingeschränkten militärischen Nutzung seiner KI-Modelle ablehnte. Die Entscheidung könnte den Einsatz von Claude in laufenden und künftigen Pentagon-Projekten einschränken.

Stand: 28. February 2026, 17:45 Uhr
Berlin

Auf einen Blick

Das US-Verteidigungsministerium hat Anthropic als Lieferkettenrisiko eingestuft, nachdem das Unternehmen eine Vertragsklausel zur uneingeschränkten militärischen Nutzung seiner KI-Modelle ablehnte. Die Entscheidung könnte den Einsatz von Claude in laufenden und künftigen Pentagon-Projekten einschränken.

Das Wichtigste

  • Pentagon stuft Anthropic als Lieferkettenrisiko ein.
  • Auslöser ist die Weigerung, eine “All-Lawful-Use”-Klausel zu akzeptieren.
  • Behörden und Rüstungsauftragnehmer prüfen Alternativen für KI-Modelle.

Pentagon reagiert auf Vertragsstreit

Das US-Verteidigungsministerium hat den KI-Anbieter Anthropic als Lieferkettenrisiko eingestuft. Hintergrund ist ein Streit über Vertragsbedingungen für den Einsatz des Sprachmodells Claude in militärischen Projekten. Die Maßnahme kann bestehende Kooperationen betreffen und künftige Vergaben beeinflussen.

Streit über Nutzungsrechte

Nach Berichten unter anderem von Reuters und der New York Times verlangte das Pentagon eine Vertragsklausel, die jede rechtlich zulässige Nutzung der KI-Systeme erlaubt. Anthropic lehnte dies ab und verwies in einer öffentlichen Stellungnahme auf interne Leitlinien, die den Einsatz für Massenüberwachung im Inland sowie für vollständig autonome Waffensysteme ohne menschliche Kontrolle ausschließen. In der Folge informierte das Verteidigungsministerium Auftragnehmer über die neue Risikoeinstufung und forderte Einschätzungen zur Abhängigkeit von Anthropic-Technologie an.

Folgen für Projekte und Beschaffung

Die Einstufung als Lieferkettenrisiko kann dazu führen, dass Behörden den Einsatz von Claude in sensiblen Programmen aussetzen oder Alternativen prüfen. Für Hauptauftragnehmer bedeutet dies zusätzliche Prüfungen und mögliche Umstellungen in laufenden Entwicklungsprojekten. Konkrete Fristen oder Vertragskündigungen sind bislang offen.

Weitere Verhandlungen möglich

Beide Seiten signalisierten zuletzt Gesprächsbereitschaft. Ob es zu einer Anpassung der Vertragsklauseln kommt, ist derzeit nicht bekannt. Beobachtet wird, wie andere KI-Anbieter auf ähnliche Forderungen reagieren und ob das Pentagon seine Beschaffungsrichtlinien für generative KI präzisiert.

Fazit

Mit der Einstufung von Anthropic als Lieferkettenrisiko verschärft das Pentagon den Konflikt um die militärische Nutzung generativer KI. Die Entscheidung hat unmittelbare Auswirkungen auf laufende Projekte und setzt ein Signal für künftige Vertragsverhandlungen zwischen Technologiefirmen und staatlichen Stellen.