De overgang van een behulpzame grammaticacontrole naar een allesomvattende AI-agent is een pad vol juridische en ethische landmijnen. Dit is precies wat er gebeurde met Grammarly (nu omgedoopt tot Superhuman ) na de controversiële lancering en snelle ondergang van de functie “Expert Review”.
Wat begon als een poging om autoriteit te verlenen aan door AI gegenereerde suggesties is uitgegroeid tot een crisis met ongeoorloofd gebruik van gelijkenissen, afgebroken citaten en een dreigende class action-rechtszaak.
De opkomst en ondergang van “expertbeoordeling”
In een poging om verder te gaan dan eenvoudige spellingcontrole heeft Grammarly een functie gelanceerd met de naam Expert Review. Het uitgangspunt was ambitieus: de AI zou schrijfsuggesties geven ‘geïnspireerd door’ wereldberoemde professionals, auteurs en academici.
Om een laagje geloofwaardigheid toe te voegen, gaf de interface deze suggesties weer naast de namen en verificatiestijliconen van beroemde figuren. De implementatie vertoonde echter grote gebreken:
- Ongeautoriseerde gelijkenissen: De functie gebruikte de namen van levende journalisten (inclusief personeel van The Verge ), beroemde auteurs zoals Stephen King en zelfs overleden academici zoals Carl Sagan – allemaal zonder hun toestemming of compensatie.
- Gehallucineerde autoriteit: In plaats van echte inzichten te bieden, genereerde de AI vaak generieke ‘woordsalade’. In één geval suggereerde het advies van journalist Nilay Patel eenvoudigweg het toevoegen van ‘urgentie’ en ‘intriges’ aan de krantenkoppen.
- Verbroken links en omzeilen van de betaalmuur: Hoewel de functie beweerde ‘geïnspireerd’ te zijn door gepubliceerde werken, werden de opgegeven bronlinks vaak verbroken of omgeleid naar webarchieven van artikelen met een betaalmuur die geen relevant bewerkingsadvies bevatten.
Een gebrek aan toestemming en toeschrijving
De gevolgen van de ontdekking van het kenmerk leidden tot een verhit debat over de definitie van attributie versus toe-eigening.
Toen Shishir Mehrotra, CEO van Superhuman, ermee werd geconfronteerd, verdedigde hij de praktijk door te stellen dat de AI alleen maar verwees naar openbaar beschikbaar werk. Critici – inclusief de journalisten wier namen werden gebruikt – voerden echter aan dat er een fundamenteel verschil is tussen het citeren van een bron en het ‘verzinnen van iets’, en het erop plakken van de naam van een persoon om een dienst te verkopen.
“Dit was geen toeschrijving”, betoogde Nilay Patel tijdens een confrontatie op de Decoder -podcast. “Je hebt zojuist iets verzonnen en mijn naam erop gezet… Het is niet iets dat ik ooit zou zeggen.”
De eerste reactie van het bedrijf – het aanbieden van een e-mailinbox waar experts zich konden afmelden – werd breed bekritiseerd omdat het een onvoldoende manier was om het ongeoorloofde gebruik van professionele identiteiten aan te pakken. Onder grote druk schakelde Superhuman de functie uiteindelijk volledig uit, met de belofte deze “opnieuw uit te vinden” met betere bedieningselementen voor experts.
De juridische en culturele gevolgen
De ‘Expert Review’-saga is niet alleen een PR-blunder; het is de rechtszaal binnengekomen. Onderzoeksjournalist Julia Angwin heeft een class action-rechtszaak aangespannen tegen Superhuman, wegens schending van de privacy- en publiciteitsrechten onder de wetten van New York en Californië.
Afgezien van de juridische aspecten benadrukt dit incident een groeiende spanning in het AI-tijdperk: de extractieve aard van generatieve modellen.
De trend is duidelijk: AI-bedrijven nemen enorme hoeveelheden menselijk intellectueel eigendom in beslag om producten te creëren die de expertise nabootsen van de mensen van wie ze ‘leren’ – vaak zonder toestemming, krediet of compensatie. Hierdoor ontstaat een parasitaire relatie waarbij het werk van de maker wordt gebruikt om een tool te bouwen die uiteindelijk met hem zou kunnen concurreren.
Conclusie
De grammaticale/bovenmenselijke controverse dient als waarschuwend verhaal voor de AI-industrie en bewijst dat het toevoegen van een beroemde naam aan een AI-suggestie geen autoriteit schept – het creëert een aansprakelijkheid. Terwijl bedrijven racen om ‘AI-agenten’ te bouwen, moet de industrie beslissen of ze zal samenwerken met menselijke experts of zal blijven proberen hun identiteit zonder toestemming te automatiseren.































