Freitag, 24. April 2026

KI

Grammarly „Expert Review“: Sammelklage wirft Fragen zu KI‑Labels auf

Die Funktion „Grammarly Expert Review“ sollte Texte mit Feedback von bekannten Autorinnen und Autoren verbessern. Stattdessen steht sie im Zentrum einer Sammelklage. Der Vorwurf: Vorschläge…

Von Wolfgang

12. März 20266 Min. Lesezeit

Grammarly „Expert Review“: Sammelklage wirft Fragen zu KI‑Labels auf

Die Funktion „Grammarly Expert Review“ sollte Texte mit Feedback von bekannten Autorinnen und Autoren verbessern. Stattdessen steht sie im Zentrum einer Sammelklage. Der Vorwurf: Vorschläge seien von KI erzeugt worden, während reale Namen daneben…

Die Funktion „Grammarly Expert Review“ sollte Texte mit Feedback von bekannten Autorinnen und Autoren verbessern. Stattdessen steht sie im Zentrum einer Sammelklage. Der Vorwurf: Vorschläge seien von KI erzeugt worden, während reale Namen daneben standen. Der Fall zeigt ein größeres Problem moderner Schreibtools. Nutzer müssen erkennen können, ob eine Korrektur von Menschen stammt oder von einem Sprachmodell. Genau hier geraten Transparenz und Vertrauen bei KI‑gestützter Textbearbeitung unter Druck.

Einleitung

Viele Menschen verlassen sich bei Bewerbungen, Hausarbeiten oder E‑Mails auf automatische Schreibtools. Ein Klick, und der Text bekommt scheinbar professionelles Feedback. Genau dieses Vertrauen steht jetzt zur Debatte. Eine Sammelklage in den USA richtet sich gegen die Funktion „Expert Review“ von Grammarly. Die Kritik lautet, dass Hinweise angeblich von bekannten Autorinnen oder Journalisten stammen sollten, obwohl sie von einem Sprachmodell erzeugt wurden.

Der Vorwurf ist mehr als ein Detailproblem. Wenn KI‑Systeme Ratschläge im Namen realer Personen geben, verschwimmen Grenzen zwischen menschlicher Expertise und automatischer Textgenerierung. Für Nutzer wird damit unklar, wie verlässlich das Feedback tatsächlich ist. Laut Berichten mehrerer Technikmedien hat Grammarly die Funktion inzwischen deaktiviert und angekündigt, sie neu zu überarbeiten.

Der Fall wirft eine größere Frage auf. Wie transparent müssen KI‑Werkzeuge sein, wenn sie in Arbeits‑ oder Lernprozessen eingreifen? Und woran kannst du erkennen, ob eine Korrektur von einem Menschen stammt oder von einer Maschine?

Was hinter der Sammelklage gegen Grammarly steckt

Die Funktion „Expert Review“ wurde laut Berichten im Jahr 2025 eingeführt. Nutzer konnten ihren Text von angeblichen Expertinnen und Experten kommentieren lassen. Die Oberfläche zeigte konkrete Vorschläge und kurze Begründungen. Neben den Kommentaren erschien der Name einer realen Person aus Journalismus oder Literatur.

Mehrere Betroffene stellten fest, dass sie nie an diesem Projekt beteiligt waren. Journalistin Julia Angwin reichte daraufhin eine Sammelklage ein. Der Kern des Vorwurfs lautet, dass ihre Identität und die anderer Personen ohne Zustimmung genutzt wurden. Die Vorschläge stammten nach Darstellung der Klage von einer KI, nicht von den genannten Fachleuten.

Der zentrale Konflikt dreht sich nicht um KI selbst, sondern um die Darstellung von KI‑Feedback als menschliche Expertise.

Nach öffentlicher Kritik deaktivierte Grammarly die Funktion. Das Unternehmen erklärte laut Medienberichten, man habe das Konzept überarbeiten wollen und künftig stärker auf Kontrolle durch die genannten Experten setzen wollen. Wie eine mögliche neue Version aussehen könnte, blieb offen.

Für Nutzer zeigt der Vorfall ein strukturelles Problem moderner KI‑Software. Modelle können Tonfall oder Stil einer Person imitieren. Doch wenn ein Name direkt neben einer Empfehlung erscheint, entsteht leicht der Eindruck einer echten Zusammenarbeit. Genau dieser Eindruck ist nun Gegenstand der juristischen Auseinandersetzung.

Wie Nutzer erkennen können, ob Feedback von KI stammt

Die meisten Schreibtools kombinieren inzwischen mehrere Ebenen von Analyse. Ein Sprachmodell prüft Grammatik, Stil und Struktur. Manchmal greifen zusätzliche Module auf Datenbanken oder Trainingsbeispiele zurück. Für dich als Nutzer bleibt oft unsichtbar, welche Quelle hinter einem konkreten Vorschlag steht.

Ein erster Hinweis ist die Kennzeichnung im Interface. Seriöse Anwendungen markieren KI‑Vorschläge deutlich, etwa mit Labels wie „AI‑generated suggestion“. Auch kurze Hinweise unter dem Kommentar sind üblich. Dort steht dann, dass das Feedback automatisch erzeugt wurde.

Ein zweites Signal sind Quellenangaben. Manche Systeme verlinken auf Beispiele oder Textstellen, aus denen eine Empfehlung abgeleitet wurde. Fehlen solche Hinweise komplett, stammt das Feedback meist aus einer reinen Modellberechnung.

Ein dritter Punkt betrifft die Formulierung selbst. KI‑Vorschläge folgen oft ähnlichen Mustern. Sie konzentrieren sich stark auf Klarheit, Kürze oder Tonfall. Ein menschlicher Lektor reagiert dagegen häufiger auf Inhalt, Argumentation oder Kontext.

Der Streit um Grammarly zeigt, warum diese Unterscheidung wichtig ist. Sobald reale Namen neben automatisch erzeugten Texten stehen, entsteht schnell ein falscher Eindruck über die Herkunft der Empfehlung.

Risiken von KI‑Korrekturen in Job und Studium

Automatische Schreibassistenten sparen Zeit. Gleichzeitig verschieben sie Verantwortung. Wenn ein Text durch KI verändert wird, bleibt oft unklar, wer für Fehler oder problematische Formulierungen haftet.

Im Studium kann das zu Schwierigkeiten führen. Einige Hochschulen verlangen, dass Studierende KI‑Hilfen offen angeben. Werden Formulierungen stark von einem Modell geprägt, kann die Eigenleistung infrage gestellt werden.

Auch im Berufsalltag entstehen neue Risiken. Ein automatisch generierter Vorschlag kann Inhalte verfälschen oder zu stark vereinfachen. In sensiblen Bereichen wie Recht, Medizin oder Unternehmenskommunikation kann das Folgen haben.

Hinzu kommt ein oft übersehener Punkt. Viele Schreibtools analysieren Texte in der Cloud. Wenn vertrauliche Dokumente eingegeben werden, gelangen Inhalte möglicherweise auf externe Server. Für interne Berichte oder Vertragsentwürfe kann das problematisch sein.

Der Fall rund um „Expert Review“ zeigt deshalb eine praktische Konsequenz. KI‑Feedback sollte als Unterstützung betrachtet werden, nicht als endgültige Entscheidung über einen Text.

Wann KI‑Feedback sinnvoll ist und wann eine Zweitmeinung hilft

Trotz der aktuellen Debatte bleibt KI‑gestützte Textanalyse ein nützliches Werkzeug. Für schnelle Korrekturen bei Grammatik, Rechtschreibung oder Satzstruktur liefern Systeme oft zuverlässige Ergebnisse. Gerade bei längeren Texten hilft das, offensichtliche Schwächen schnell zu erkennen.

Schwieriger wird es bei strategischen Fragen. Dazu gehören Argumentationslogik, Ton gegenüber einem bestimmten Publikum oder juristische Feinheiten. Hier fehlt Sprachmodellen häufig der Kontext.

Eine einfache Praxis hat sich deshalb bewährt. Nutze KI‑Tools für erste Überarbeitungen, aber hole dir bei wichtigen Texten eine zweite Meinung. Das kann ein Kollege sein, ein Lektorat oder ein Fachkollege aus deinem Bereich.

Der Streit um die Grammarly‑Funktion könnte genau in diese Richtung wirken. Entwickler werden stärker erklären müssen, welche Rolle ihre Modelle tatsächlich spielen. Gleichzeitig werden Nutzer kritischer prüfen, wo automatisches Feedback endet und echte Expertise beginnt.

Fazit

Die Sammelklage rund um „Grammarly Expert Review“ ist mehr als ein einzelner Produktstreit. Sie zeigt, wie sensibel der Umgang mit KI‑Feedback geworden ist. Sobald ein System den Eindruck erweckt, reale Fachleute hätten einen Text kommentiert, erwarten Nutzer Transparenz. Fehlt diese Klarheit, entsteht schnell ein Vertrauensproblem.

Für dich bedeutet das vor allem eines. Prüfe bei Schreibtools genauer, woher Vorschläge stammen und wie sie gekennzeichnet sind. KI kann beim Formulieren helfen, ersetzt aber keine echte fachliche Bewertung. Gerade bei wichtigen Dokumenten lohnt sich eine zweite Perspektive.

Wenn du regelmäßig mit KI‑Schreibtools arbeitest, lohnt sich ein Blick auf deren Kennzeichnungen und Einstellungen. Transparenz entscheidet darüber, wie verlässlich solche Systeme im Alltag wirklich sind.