Auf einen Blick
Das US-Verteidigungsministerium hat Anthropic als Lieferkettenrisiko eingestuft, nachdem das Unternehmen eine Vertragsklausel zur uneingeschränkten militärischen Nutzung seiner KI-Modelle ablehnte. Die Entscheidung könnte den Einsatz von Claude in laufenden und künftigen Pentagon-Projekten einschränken.
Das Wichtigste
- Pentagon stuft Anthropic als Lieferkettenrisiko ein.
- Auslöser ist die Weigerung, eine “All-Lawful-Use”-Klausel zu akzeptieren.
- Behörden und Rüstungsauftragnehmer prüfen Alternativen für KI-Modelle.
Pentagon reagiert auf Vertragsstreit
Das US-Verteidigungsministerium hat den KI-Anbieter Anthropic als Lieferkettenrisiko eingestuft. Hintergrund ist ein Streit über Vertragsbedingungen für den Einsatz des Sprachmodells Claude in militärischen Projekten. Die Maßnahme kann bestehende Kooperationen betreffen und künftige Vergaben beeinflussen.
Streit über Nutzungsrechte
Nach Berichten unter anderem von Reuters und der New York Times verlangte das Pentagon eine Vertragsklausel, die jede rechtlich zulässige Nutzung der KI-Systeme erlaubt. Anthropic lehnte dies ab und verwies in einer öffentlichen Stellungnahme auf interne Leitlinien, die den Einsatz für Massenüberwachung im Inland sowie für vollständig autonome Waffensysteme ohne menschliche Kontrolle ausschließen. In der Folge informierte das Verteidigungsministerium Auftragnehmer über die neue Risikoeinstufung und forderte Einschätzungen zur Abhängigkeit von Anthropic-Technologie an.
Folgen für Projekte und Beschaffung
Die Einstufung als Lieferkettenrisiko kann dazu führen, dass Behörden den Einsatz von Claude in sensiblen Programmen aussetzen oder Alternativen prüfen. Für Hauptauftragnehmer bedeutet dies zusätzliche Prüfungen und mögliche Umstellungen in laufenden Entwicklungsprojekten. Konkrete Fristen oder Vertragskündigungen sind bislang offen.
Weitere Verhandlungen möglich
Beide Seiten signalisierten zuletzt Gesprächsbereitschaft. Ob es zu einer Anpassung der Vertragsklauseln kommt, ist derzeit nicht bekannt. Beobachtet wird, wie andere KI-Anbieter auf ähnliche Forderungen reagieren und ob das Pentagon seine Beschaffungsrichtlinien für generative KI präzisiert.
Fazit
Mit der Einstufung von Anthropic als Lieferkettenrisiko verschärft das Pentagon den Konflikt um die militärische Nutzung generativer KI. Die Entscheidung hat unmittelbare Auswirkungen auf laufende Projekte und setzt ein Signal für künftige Vertragsverhandlungen zwischen Technologiefirmen und staatlichen Stellen.