Auf einen Blick
Die EU konkretisiert Pflichten für Anbieter von General-Purpose-KI im Rahmen des AI Acts. Für Systeme wie “Claude” betreffen die Vorgaben Dokumentation, Meldewege und Risikomaßnahmen. Beim Thema Claude Militär rücken damit auch Vertrags- und Compliance-Anforderungen in den Fokus, sofern Anbieter in der EU tätig werden.
Das Wichtigste
- Ein Konsultationspapier des EU AI Office beschreibt, welche Pflichten Anbieter von General-Purpose-AI-Modellen nach dem AI Act erfüllen sollen.
- Als Vermutungswerte nennt das Papier Trainingsaufwände von 10^22 FLOP für GPAI-Modelle und 10^25 FLOP für “systemisches Risiko” sowie eine Meldefrist von bis zu zwei Wochen nach Erreichen der Schwelle.
- Für Anthropic ist das relevant, weil das Unternehmen “Claude” laut Palantir seit 2024 über Palantir AIP auf AWS für US-Verteidigungs- und Nachrichtendienstkunden bereitstellt.
Regeln für Basismodelle treffen auf Sicherheitsanwendungen
Der EU AI Act legt für Anbieter großer Basismodelle neue Anforderungen an Transparenz und Risikosteuerung fest. Damit wachsen die formalen Pflichten, wenn Modelle wie “Claude” in Europa angeboten oder in sicherheitsnahen Projekten eingesetzt werden. Zugleich stehen US-Partnerschaften mit Behörden und Militär im Raum, die die Lieferketten für KI-Anwendungen prägen.
Welche Vorgaben die EU für General-Purpose-KI beschreibt
Das EU AI Office hat in einem Konsultationspapier zur Auslegung von Pflichten für General-Purpose-AI-Modelle Schwellenwerte auf Basis des Trainingsaufwands in FLOP beschrieben. Modelle mit generativen Fähigkeiten und einem Trainingsaufwand von mehr als 10^22 FLOP werden darin als General-Purpose-AI-Modelle vermutet. Ab 10^25 FLOP wird ein Modell als potenziell “systemisch” eingestuft. In diesen Fällen sieht das Papier unter anderem zusätzliche Risikobewertungen und eine Pflicht zur Benachrichtigung der Kommission vor. Als Frist nennt das Dokument “ohne Verzögerung” und spätestens innerhalb von zwei Wochen nach Erreichen der Schwelle.
Parallel dazu bleibt der militärische Kontext für einzelne Anbieter sichtbar. Palantir, Anthropic und AWS teilten im November 2024 mit, dass “Claude”-Modelle in Palantirs AI Platform (AIP) auf AWS für US-Regierungsstellen in Verteidigung und Nachrichtendiensten verfügbar gemacht werden sollen, einschließlich Betrieb in einer IL6-akkreditierten Umgebung.
Folgen für Anbieter, Beschaffer und Integratoren in der EU
Für Anbieter von General-Purpose-Modellen ergeben sich aus den EU-Vorgaben vor allem Dokumentations- und Nachweispflichten. Dazu zählen nach dem Konsultationspapier technische Unterlagen, eine urheberrechtliche Policy sowie eine standardisierte Zusammenfassung über Trainingsinhalte. Für Modelle, die als systemisch eingestuft werden, kommen Anforderungen an Risikomanagement und Maßnahmen zur Minderung systemischer Risiken hinzu.
Für europäische Unternehmen und Behörden, die Basismodelle in Produkte oder Verfahren integrieren, kann das die Vertragsgestaltung beeinflussen. Typisch sind Regelungen zu Auditierbarkeit, Berichtspflichten, Update-Prozessen und zur Einhaltung von Transparenzanforderungen entlang der Lieferkette. Ob Anthropic “Claude” in vergleichbaren Konstellationen an europäische Militär- oder Sicherheitskunden liefern will, ist derzeit nicht bekannt.
Wie Aufsicht und Standards die Umsetzung steuern sollen
Für die praktische Anwendung des AI Acts sind neben Leitlinien auch Standardisierung und Umsetzungsregeln maßgeblich. Der Rat der EU führt dazu unter anderem ein Dokument zu einem “Digital Omnibus” an, das Anpassungen an der Umsetzung und zeitlichen Staffelung vorsieht. Für Anbieter von General-Purpose-Modellen bleibt entscheidend, wie verbindlich die Leitlinien und Standards konkret werden und wie die Aufsichtspraxis des AI Office ausgestaltet wird.
Einordnung
Die EU koppelt Pflichten für General-Purpose-KI an messbare Schwellenwerte und an zusätzliche Anforderungen bei systemischem Risiko. Für Anbieter wie Anthropic, deren Modelle im Militärumfeld bereits in US-Partnerschaften verankert sind, erhöht das den Bedarf an belastbarer Dokumentation und klaren Verantwortlichkeiten, sobald europäische Märkte und Behörden adressiert werden.





