Auf einen Blick
Meta hat einen schrittweisen Ausbau seiner KI-gestützten Inhaltskontrollen angekündigt. Nach Angaben des Unternehmens sollen die Systeme Verstöße in Sprachen erfassen, die 98 Prozent der Internetnutzer abdecken. Für Richtlinien, Training, Einsprüche und Entscheidungen mit hoher Tragweite sollen weiterhin Menschen zuständig bleiben.
Das Wichtigste
- Meta hat am 20. März eine Ausweitung der KI-basierten Durchsetzung von Inhaltsregeln veröffentlicht.
- Laut Meta sollen die Systeme Sprachen abdecken, die 98 Prozent der Menschen online sprechen.
- Betroffen sind die Moderationsabläufe auf den Plattformen des Konzerns. Drittanbieter sollen nach Medienberichten eine geringere Rolle spielen.
Meta kündigt schrittweisen Ausbau der KI-Moderation an
Meta verlagert seine Inhaltskontrollen stärker auf KI-Systeme. Das Unternehmen teilte am Freitag in seinem Transparency Center mit, dass die neuen Systeme schrittweise eingeführt werden und nur dann breiter zum Einsatz kommen sollen, wenn sie in internen Tests besser abschneiden als die bisherigen Verfahren. Menschen sollen nach Angaben des Konzerns weiterhin Richtlinien festlegen, Modelle trainieren und überwachen sowie Einsprüche und andere Fälle mit hoher Tragweite bearbeiten.
Meta nennt mehr Sprachabdeckung und interne Leistungswerte
Nach Unternehmensangaben sollen die Systeme Verstöße in Sprachen erkennen, die 98 Prozent der Internetnutzer abdecken. Zuvor sprach Meta von rund 80 unterstützten Sprachen. Für einzelne Bereiche nennt der Konzern interne Kennzahlen, darunter 5000 erkannte Betrugsversuche pro Tag, mehr als doppelt so viele erkannte Verstöße bei sexueller Anbahnung im Vergleich zu menschlichen Prüfern sowie einen Rückgang von Fehlentscheidungen in einem Politikbereich um mehr als 60 Prozent. Zudem seien Berichte über Identitätsmissbrauch um mehr als 80 Prozent gesunken und Aufrufe von Anzeigen mit Betrugsinhalten um 7 Prozent zurückgegangen.
Drittanbieter verlieren nach Medienberichten an Bedeutung
Die Ankündigung fällt mit einer organisatorischen Verschiebung in der Moderation zusammen. CNBC berichtete unter Berufung auf das Unternehmen, Meta wolle den Einsatz externer Moderationsdienstleister in den kommenden Jahren zurückfahren und stärker auf automatisierte Durchsetzung setzen. Damit verändert sich vor allem der operative Ablauf bei der Prüfung großer Mengen an Inhalten auf Facebook, Instagram und weiteren Diensten des Konzerns.
Einführung erfolgt schrittweise mit weiteren Tests
Meta beschreibt den Rollout als mehrstufigen Prozess. Vor einer breiteren Einführung sollen die Systeme in mehreren Testphasen mit erfahrenen Prüfern verglichen werden. Der Konzern kündigte an, Genauigkeit, Fairness, Konsistenz und Fehlerquoten fortlaufend zu überwachen. Ein konkreter Zeitplan für alle Plattformen wurde nicht genannt.
Meta verschiebt einen Kernprozess seiner Plattformaufsicht
Die Mitteilung markiert eine operative Änderung in einem zentralen Bereich des Konzerns. Neu ist nicht der Einsatz von KI in der Moderation, sondern der angekündigte breitere Einsatz in der Durchsetzung von Regeln bei gleichzeitiger geringerer Rolle externer Prüfer.