Der Übergang von einem hilfreichen Grammatikprüfer zu einem allumfassenden KI-Agenten ist ein Weg voller rechtlicher und ethischer Hindernisse. Genau das ist Grammarly (jetzt umbenannt in Superhuman ) passiert, nachdem die Funktion „Expert Review“ kontrovers eingeführt und schnell eingestellt wurde.
Was als Versuch begann, KI-generierten Vorschlägen Autorität zu verleihen, hat sich zu einer Krise entwickelt, die mit der unbefugten Verwendung von Bildnissen, fehlerhaften Zitaten und einer drohenden Sammelklage einhergeht.
Aufstieg und Fall von „Expert Review“
Um über die einfache Rechtschreibprüfung hinauszugehen, hat Grammarly eine Funktion namens Expert Review eingeführt. Die Prämisse war ehrgeizig: Die KI würde Schreibvorschläge liefern, „inspiriert von“ weltbekannten Fachleuten, Autoren und Akademikern.
Um den Anschein von Glaubwürdigkeit zu erwecken, wurden diese Vorschläge auf der Benutzeroberfläche zusammen mit den Namen und Verifizierungssymbolen berühmter Persönlichkeiten angezeigt. Allerdings war die Umsetzung zutiefst fehlerhaft:
- Unerlaubte Ähnlichkeiten: Das Feature verwendete die Namen lebender Journalisten (einschließlich Mitarbeiter von The Verge ), berühmter Autoren wie Stephen King und sogar verstorbener Akademiker wie Carl Sagan – alles ohne deren Zustimmung oder Entschädigung.
- Halluzinierte Autorität: Anstatt echte Erkenntnisse zu liefern, erzeugte die KI oft generischen „Wortsalat“. In einem Fall schlug der dem Journalisten Nilay Patel zugeschriebene Rat lediglich vor, den Schlagzeilen „Dringlichkeit“ und „Intrige“ hinzuzufügen.
- Defekte Links und Paywall-Umgehung: Während die Funktion angeblich von veröffentlichten Werken „inspiriert“ wurde, waren die bereitgestellten Quelllinks oft defekt oder wurden zu Webarchiven von Paywall-Artikeln umgeleitet, die keine relevanten Bearbeitungshinweise enthielten.
Ein Verstoß gegen Einwilligung und Namensnennung
Die Folgen der Entdeckung des Features lösten eine hitzige Debatte über die Definition von Attribution versus Aneignung aus.
Als Shishir Mehrotra, CEO von Superhuman, damit konfrontiert wurde, verteidigte er die Praxis mit dem Argument, dass die KI sich lediglich auf öffentlich zugängliche Arbeiten beziehe. Kritiker – darunter auch die Journalisten, deren Namen verwendet wurden – argumentierten jedoch, dass es einen grundlegenden Unterschied zwischen dem Zitieren einer Quelle und dem „Erfinden“ und dem Anbringen des Namens einer Person gebe, um eine Dienstleistung zu verkaufen.
„Das war keine Zuschreibung“, argumentierte Nilay Patel während einer Konfrontation im Decoder -Podcast. „Du hast dir gerade etwas ausgedacht und meinen Namen darauf geschrieben … Das würde ich nie sagen.“
Die erste Reaktion des Unternehmens – das Anbieten eines E-Mail-Posteingangs für Experten zum „Opt-out“ – wurde allgemein als unzureichende Möglichkeit kritisiert, mit der unbefugten Verwendung beruflicher Identitäten umzugehen. Unter großem Druck deaktivierte Superhuman die Funktion schließlich vollständig und versprach, sie mit besserer Steuerung für Experten „neu zu erfinden“.
Die rechtlichen und kulturellen Folgen
Die „Expert Review“-Saga ist nicht nur ein PR-Fehler; es hat den Gerichtssaal betreten. Die investigative Journalistin Julia Angwin hat eine Sammelklage gegen Superhuman eingereicht, in der sie Verletzungen der Privatsphäre und der Publizitätsrechte nach New Yorker und kalifornischem Recht geltend macht.
Über die Legalität hinaus verdeutlicht dieser Vorfall eine wachsende Spannung im KI-Zeitalter: die extraktive Natur generativer Modelle.
Der Trend ist klar: KI-Unternehmen übernehmen riesige Mengen menschlichen geistigen Eigentums, um Produkte zu entwickeln, die das Fachwissen genau der Menschen nachahmen, von denen sie „lernen“ – oft ohne Erlaubnis, Kredit oder Vergütung. Dadurch entsteht eine parasitäre Beziehung, bei der die Arbeit des Schöpfers dazu genutzt wird, ein Werkzeug zu entwickeln, das schließlich mit ihm konkurrieren könnte.
Fazit
Die Grammarly/Superhuman-Kontroverse dient als warnendes Beispiel für die KI-Branche und beweist, dass das Hinzufügen eines berühmten Namens zu einem KI-Vorschlag keine Autorität schafft, sondern eine Verbindlichkeit. Während Unternehmen um die Entwicklung von „KI-Agenten“ wetteifern, muss die Branche entscheiden, ob sie mit menschlichen Experten zusammenarbeiten oder weiterhin versuchen wird, deren Identitäten ohne Zustimmung zu automatisieren.
