Samstag, 25. April 2026

Unternehmen

Meta verlagert Inhaltskontrollen stärker auf KI

Stand: 20. March 2026, 17:45 Uhr Berlin Auf einen Blick Meta hat einen schrittweisen Ausbau seiner KI-gestützten Inhaltskontrollen angekündigt. Nach Angaben des Unternehmens sollen die…

Von Wolfgang

20. März 20263 Min. Lesezeit

Meta verlagert Inhaltskontrollen stärker auf KI

Meta hat einen schrittweisen Ausbau seiner KI-gestützten Inhaltskontrollen angekündigt. Nach Angaben des Unternehmens sollen die Systeme Verstöße in Sprachen erfassen, die 98 Prozent der Internetnutzer abdecken. Für Richtlinien, Training, Einsprüche und Entscheidungen mit hoher…

Stand: 20. March 2026, 17:45 Uhr
Berlin

Auf einen Blick

Meta hat einen schrittweisen Ausbau seiner KI-gestützten Inhaltskontrollen angekündigt. Nach Angaben des Unternehmens sollen die Systeme Verstöße in Sprachen erfassen, die 98 Prozent der Internetnutzer abdecken. Für Richtlinien, Training, Einsprüche und Entscheidungen mit hoher Tragweite sollen weiterhin Menschen zuständig bleiben.

Das Wichtigste

  • Meta hat am 20. März eine Ausweitung der KI-basierten Durchsetzung von Inhaltsregeln veröffentlicht.
  • Laut Meta sollen die Systeme Sprachen abdecken, die 98 Prozent der Menschen online sprechen.
  • Betroffen sind die Moderationsabläufe auf den Plattformen des Konzerns. Drittanbieter sollen nach Medienberichten eine geringere Rolle spielen.

Meta kündigt schrittweisen Ausbau der KI-Moderation an

Meta verlagert seine Inhaltskontrollen stärker auf KI-Systeme. Das Unternehmen teilte am Freitag in seinem Transparency Center mit, dass die neuen Systeme schrittweise eingeführt werden und nur dann breiter zum Einsatz kommen sollen, wenn sie in internen Tests besser abschneiden als die bisherigen Verfahren. Menschen sollen nach Angaben des Konzerns weiterhin Richtlinien festlegen, Modelle trainieren und überwachen sowie Einsprüche und andere Fälle mit hoher Tragweite bearbeiten.

Meta nennt mehr Sprachabdeckung und interne Leistungswerte

Nach Unternehmensangaben sollen die Systeme Verstöße in Sprachen erkennen, die 98 Prozent der Internetnutzer abdecken. Zuvor sprach Meta von rund 80 unterstützten Sprachen. Für einzelne Bereiche nennt der Konzern interne Kennzahlen, darunter 5000 erkannte Betrugsversuche pro Tag, mehr als doppelt so viele erkannte Verstöße bei sexueller Anbahnung im Vergleich zu menschlichen Prüfern sowie einen Rückgang von Fehlentscheidungen in einem Politikbereich um mehr als 60 Prozent. Zudem seien Berichte über Identitätsmissbrauch um mehr als 80 Prozent gesunken und Aufrufe von Anzeigen mit Betrugsinhalten um 7 Prozent zurückgegangen.

Drittanbieter verlieren nach Medienberichten an Bedeutung

Die Ankündigung fällt mit einer organisatorischen Verschiebung in der Moderation zusammen. CNBC berichtete unter Berufung auf das Unternehmen, Meta wolle den Einsatz externer Moderationsdienstleister in den kommenden Jahren zurückfahren und stärker auf automatisierte Durchsetzung setzen. Damit verändert sich vor allem der operative Ablauf bei der Prüfung großer Mengen an Inhalten auf Facebook, Instagram und weiteren Diensten des Konzerns.

Einführung erfolgt schrittweise mit weiteren Tests

Meta beschreibt den Rollout als mehrstufigen Prozess. Vor einer breiteren Einführung sollen die Systeme in mehreren Testphasen mit erfahrenen Prüfern verglichen werden. Der Konzern kündigte an, Genauigkeit, Fairness, Konsistenz und Fehlerquoten fortlaufend zu überwachen. Ein konkreter Zeitplan für alle Plattformen wurde nicht genannt.

Meta verschiebt einen Kernprozess seiner Plattformaufsicht

Die Mitteilung markiert eine operative Änderung in einem zentralen Bereich des Konzerns. Neu ist nicht der Einsatz von KI in der Moderation, sondern der angekündigte breitere Einsatz in der Durchsetzung von Regeln bei gleichzeitiger geringerer Rolle externer Prüfer.