KI-Chatbots im UK: Neue OSA-Pflichten und Bußgeldrisiko

Der UK Online Safety Act verändert, wie KI-Chatbots in Apps funktionieren. Anbieter müssen laut Ofcom nachweisen, dass sie Kinder wirksam schützen, Risiken bewerten und Inhalte moderieren. Das betrifft Altersprüfungen, Filter, Protokollierung und Beschwerdewege. Wer die Pflichten nicht erfüllt, riskiert empfindliche Bußgelder und weitere Maßnahmen. Für Nutzer heißt das: mehr Altersabfragen, strengere Voreinstellungen und häufiger ein „Safe Mode“. Für Entwickler steigen Aufwand, Haftungsdruck und laufende Compliance-Kosten.

Einleitung

Wenn dein Kind einen KI-Chatbot nutzt oder du selbst regelmäßig mit Sprachmodellen arbeitest, merkst du es vielleicht schon: mehr Altersabfragen, gesperrte Antworten, neue Hinweise zu Risiken. Dahinter steht im Vereinigten Königreich der Online Safety Act. Er verpflichtet Plattformen, Kinder besser zu schützen und illegale Inhalte konsequent zu begrenzen.

Für KI-Chatbots heißt das mehr als nur ein Warnhinweis. Anbieter müssen dokumentieren, wie sie Risiken bewerten, wie zuverlässig ihre Altersprüfung ist und wie sie problematische Inhalte erkennen. Die Regulierungsbehörde Ofcom hat dazu im Januar 2025 konkrete Leitlinien zur „highly effective age assurance“ veröffentlicht. Seit März 2025 greifen erste Pflichten zum Umgang mit illegalen Inhalten.

Die Folge: Apps verändern ihre Standardeinstellungen, schalten Funktionen für Minderjährige ab oder führen strengere Kontrollen ein. Gleichzeitig wächst das Bußgeldrisiko für Anbieter, die diese Anforderungen nicht nachweisbar erfüllen.

Was der Online Safety Act konkret verlangt

Der Online Safety Act verpflichtet Online-Dienste, Risiken für Kinder systematisch zu prüfen und zu mindern. Für KI-Chatbots bedeutet das vor allem drei Dinge: eine belastbare Altersprüfung, eine Risikoanalyse für Kinder und technische Maßnahmen gegen illegale oder schädliche Inhalte.

Ofcom verlangt in seinen Leitlinien zur Altersabsicherung, dass Anbieter eine „highly effective age assurance“ einsetzen, wenn ihr Dienst für Kinder zugänglich ist und Risiken birgt. Gemeint sind Verfahren, die nicht leicht zu umgehen sind und deren Wirksamkeit belegt werden kann. Ein einfaches Häkchen bei „Ich bin über 18“ reicht dafür nicht.

Zusätzlich müssen Unternehmen eine Kinder-Risikoanalyse erstellen. Darin bewerten sie, welche Gefahren durch ihren Chatbot entstehen können, etwa durch sexuelle Inhalte, Gewaltbeschreibungen oder die Weitergabe sensibler Daten. Diese Analyse darf kein einmaliges Dokument bleiben. Sie muss aktualisiert werden, wenn sich das Produkt oder das Modell ändert.

Seit dem 16. März 2025 gelten laut Ofcom erste Pflichten im Bereich illegaler Inhalte. Plattformen müssen zeigen, wie sie solche Inhalte erkennen und entfernen. Dazu gehören klare Meldewege, dokumentierte Entscheidungen und interne Prozesse für Beschwerden.

Altersprüfung, Filter, Logging: die Technik dahinter

Hinter den neuen Pflichten steckt viel Technik. Eine „wirksame“ Altersprüfung kann über verifizierte Accounts laufen, über externe Identitätsdienste oder über andere Verfahren, die ein bestimmtes Alter plausibel machen. Ofcom erwartet, dass Anbieter ihr gewähltes Verfahren begründen und dessen Genauigkeit belegen.

Parallel dazu brauchen Chatbots mehrstufige Filtersysteme. Zunächst prüfen einfache Regeln und schnelle Klassifikatoren, ob ein Inhalt riskant sein könnte. Bei auffälligen Ergebnissen folgt eine genauere Analyse durch leistungsfähigere Modelle oder menschliche Prüfer. Jede Entscheidung muss nachvollziehbar dokumentiert werden.

Diese Protokollierung ist kein Detail. Ofcom kann im Rahmen seiner Aufsicht Nachweise verlangen, wie eine Plattform zu einer Entscheidung kam. Deshalb speichern viele Anbieter interne Protokolle mit Modellversionen, Bewertungswerten und angewendeten Richtlinien. Das erhöht den Entwicklungsaufwand und die laufenden Betriebskosten.

Für Minderjährige führen viele Dienste strengere Standardeinstellungen ein. Funktionen werden deaktiviert, bestimmte Themen blockiert oder Konversationen stärker überwacht. Das verändert die Nutzererfahrung spürbar.

Bußgeldrisiko und wirtschaftliche Folgen für Apps

Der Online Safety Act gibt Ofcom weitreichende Befugnisse. Bei Verstößen drohen empfindliche Geldbußen und weitere Maßnahmen bis hin zu Einschränkungen des Dienstes. Die Behörde hat 2025 und 2026 deutlich gemacht, dass sie ihre neuen Kompetenzen aktiv nutzt und Untersuchungen einleitet.

Für Anbieter entsteht dadurch ein spürbares Bußgeldrisiko. Wer keine belastbare Altersprüfung vorweisen kann oder Risiken für Kinder nicht dokumentiert, steht unter Druck. Gleichzeitig kosten zusätzliche Prüfprozesse, Moderationsteams und externe Verifizierungsdienste Geld.

Konkrete Gesamtkosten pro App variieren stark je nach Größe und Risikoprofil. Klar ist jedoch: Mehrstufige Moderation, Audit-Logging und regelmäßige Risikoanalysen binden Personal und Infrastruktur. Kleinere Anbieter könnten Funktionen einschränken oder Preismodelle anpassen, um diese Aufwände zu decken.

Für Nutzer zeigt sich das in strengeren Zugangshürden oder in Abo-Preisen, die nicht mehr nur die KI-Rechenleistung abbilden, sondern auch Compliance und Moderation finanzieren.

Was du als Nutzer oder Anbieter jetzt prüfen solltest

Wenn du einen KI-Chatbot nutzt, lohnt sich ein Blick in die Einstellungen. Gibt es spezielle Modi für Minderjährige, klare Meldefunktionen und transparente Hinweise zur Altersprüfung? Bei Geräten in Schulen oder Familienkonten können zusätzliche Beschränkungen aktiv sein.

Eltern sollten prüfen, ob ein Dienst tatsächlich ein wirksames Altersverfahren nutzt oder nur eine Selbstauskunft abfragt. Auch wichtig ist, wie leicht sich problematische Inhalte melden lassen und ob es nachvollziehbare Rückmeldungen gibt.

Für App- und SaaS-Anbieter heißt die Checkliste anders: Risikoanalyse dokumentieren, Altersabsicherung begründen, Moderationsprozesse technisch absichern und Entscheidungen revisionssicher protokollieren. Änderungen am Modell erfordern eine erneute Bewertung der Risiken.

Der Zeitrahmen ist klar vorgegeben. Mit den Leitlinien zur Altersabsicherung vom 16. Januar 2025 und den seit März 2025 geltenden Pflichten im Bereich illegaler Inhalte setzt Ofcom konkrete Meilensteine. Wer im UK-Markt aktiv ist, kann diese Anforderungen nicht ignorieren.

Fazit

Der Online Safety Act verändert die Spielregeln für KI-Chatbots im Vereinigten Königreich. Altersprüfung, Risikobewertung und Moderation sind keine freiwilligen Zusatzfunktionen mehr, sondern regulatorische Pflicht. Für Nutzer bedeutet das mehr Schutz, aber auch mehr Hürden und eingeschränkte Funktionen. Für Anbieter steigen Aufwand und Haftungsdruck, begleitet von einem realen Bußgeldrisiko.

Wie erlebst du die neuen Beschränkungen bei KI-Apps? Teile deine Erfahrungen und diskutiere mit.

In diesem Artikel

Newsletter

Die wichtigsten Tech- & Wirtschaftsthemen – 1× pro Woche.

Avatar von Artisan Baumeister

→ Weitere Artikel des Autors

Newsletter

Einmal pro Woche die wichtigsten Tech- und Wirtschafts-Takeaways.

Kurz, kuratiert, ohne Bullshit. Perfekt für den Wochenstart.

[newsletter_form]