Selhání funkce „Expert Review“: jak Grammarlyho AI ambice narazily na etickou zeď

4

Přechod od užitečného gramatického korektoru k univerzálnímu agentovi umělé inteligence je cesta plná legálních a etických nášlapných min. To je přesně to, co se stalo Grammarly (která je nyní přeznačena na Superhuman ) po kontroverzním spuštění a rychlém zániku funkce Expert Review.

To, co začalo jako pokus dát váhu doporučením AI, přerostlo v masivní krizi zahrnující neoprávněné používání jmen, nesprávné citace zdrojů a hrozící hromadnou žalobu.

Vzestup a pád odborného hodnocení

Ve snaze jít nad rámec pouhé kontroly pravopisu spustilo Grammarly funkci nazvanou Expert Review. Nápad to byl ambiciózní: AI by navrhla úpravy „inspirované“ světovými odborníky, spisovateli a vědci.

Aby se vytvořil dojem autority, zobrazovalo rozhraní tato doporučení vedle jmen celebrit a odznaků, které simulovaly ověření profilu. Implementace se však ukázala jako extrémně neúspěšná:

  • Použití jmen bez povolení: Tato funkce používala jména žijících novinářů (včetně zaměstnanců The Verge ), slavných autorů, jako je Stephen King, a dokonce i zesnulých vědců, jako je Carl Sagan – to vše bez jejich souhlasu nebo náhrady.
  • Halucinace místo autority: Místo skutečných odborných rad AI často vydávala nesmyslný „slovní salát“. V jednom případě se rada připisovaná novináři Nilayi Patelovi rovnala banálnímu návrhu přidat do titulků „naléhavost“ a „intriky“.
  • Broken Links and Paywall Bypass: Ačkoli se o této funkci tvrdilo, že je „inspirována“ publikovanými díly, poskytnuté odkazy často vedly k nefunkčním stránkám nebo webovým archivům placených článků, které neobsahovaly žádné užitečné informace o úpravách.

Krize souhlasu a autorství

Objev této funkce vyvolal vášnivou debatu o tom, kde leží hranice mezi citací a přivlastněním.

Tváří v tvář obviněním generální ředitel společnosti Superhuman Shishir Mehrotra hájil společnost a tvrdil, že AI se odvolávala pouze na veřejné práce. Ale kritici – včetně samotných novinářů, jejichž jména byla používána – trvali na zásadním rozdílu mezi platným uvedením zdroje a „fikcí“, která na něj jednoduše plácne jménem osoby, aby prodala službu.

“Nebyl to citát,” řekl Nilay Patel během diskuse v podcastu Decoder. “Právě sis něco vymyslel a připsal jsi to mně… To bych nikdy neřekl.”

Počáteční reakce společnosti – pozvání odborníků, aby poslali e-mail, aby se „odhlásili“, byla silně kritizována jako žalostně nedostatečná při řešení problému neoprávněného používání profesních identit. Pod silným tlakem nakonec Superhuman tuto funkci úplně deaktivoval a slíbil, že ji „přehodnotí“ a zavede přísnější kontroly pro odborníky.

Právní a kulturní důsledky

Sága Expert Review není jen selháním PR; případ se přesunul do soudních síní. Investigativní novinářka Julia Angwinová podala hromadnou žalobu na Superhuman, která tvrdí, že společnost porušila práva na soukromí a publicitu podle zákonů New Yorku a Kalifornie.

Kromě právních důsledků incident zdůrazňuje rostoucí napětí ve věku umělé inteligence: vykořisťovatelská povaha generativních modelů.

Trend je jasný: společnosti s umělou inteligencí spolykají obrovské množství duševního vlastnictví lidí, aby vytvořily produkty, které napodobují odborné znalosti lidí, z jejichž dat se „učí“ – často bez povolení, připisování nebo kompenzace. Vzniká tak parazitický vztah, kde je práce tvůrce využita k vybudování nástroje, který mu může nakonec konkurovat.

Závěr

Skandál Grammarly/Superhuman slouží jako varovný příběh pro celý průmysl AI. Tvrdí, že přidání jména celebrity k radě neuronové sítě nevytváří autoritu – vytváří právní odpovědnost. Zatímco společnosti soutěží o vytvoření „agentů umělé inteligence“, musí se průmysl rozhodnout, zda bude spolupracovat s lidskými odborníky, nebo se bude nadále snažit automatizovat jejich osobnosti bez jejich souhlasu.