Přechod od užitečného gramatického korektoru k univerzálnímu agentovi umělé inteligence je cesta plná legálních a etických nášlapných min. To je přesně to, co se stalo Grammarly (která je nyní přeznačena na Superhuman ) po kontroverzním spuštění a rychlém zániku funkce Expert Review.
To, co začalo jako pokus dát váhu doporučením AI, přerostlo v masivní krizi zahrnující neoprávněné používání jmen, nesprávné citace zdrojů a hrozící hromadnou žalobu.
Vzestup a pád odborného hodnocení
Ve snaze jít nad rámec pouhé kontroly pravopisu spustilo Grammarly funkci nazvanou Expert Review. Nápad to byl ambiciózní: AI by navrhla úpravy „inspirované“ světovými odborníky, spisovateli a vědci.
Aby se vytvořil dojem autority, zobrazovalo rozhraní tato doporučení vedle jmen celebrit a odznaků, které simulovaly ověření profilu. Implementace se však ukázala jako extrémně neúspěšná:
- Použití jmen bez povolení: Tato funkce používala jména žijících novinářů (včetně zaměstnanců The Verge ), slavných autorů, jako je Stephen King, a dokonce i zesnulých vědců, jako je Carl Sagan – to vše bez jejich souhlasu nebo náhrady.
- Halucinace místo autority: Místo skutečných odborných rad AI často vydávala nesmyslný „slovní salát“. V jednom případě se rada připisovaná novináři Nilayi Patelovi rovnala banálnímu návrhu přidat do titulků „naléhavost“ a „intriky“.
- Broken Links and Paywall Bypass: Ačkoli se o této funkci tvrdilo, že je „inspirována“ publikovanými díly, poskytnuté odkazy často vedly k nefunkčním stránkám nebo webovým archivům placených článků, které neobsahovaly žádné užitečné informace o úpravách.
Krize souhlasu a autorství
Objev této funkce vyvolal vášnivou debatu o tom, kde leží hranice mezi citací a přivlastněním.
Tváří v tvář obviněním generální ředitel společnosti Superhuman Shishir Mehrotra hájil společnost a tvrdil, že AI se odvolávala pouze na veřejné práce. Ale kritici – včetně samotných novinářů, jejichž jména byla používána – trvali na zásadním rozdílu mezi platným uvedením zdroje a „fikcí“, která na něj jednoduše plácne jménem osoby, aby prodala službu.
“Nebyl to citát,” řekl Nilay Patel během diskuse v podcastu Decoder. “Právě sis něco vymyslel a připsal jsi to mně… To bych nikdy neřekl.”
Počáteční reakce společnosti – pozvání odborníků, aby poslali e-mail, aby se „odhlásili“, byla silně kritizována jako žalostně nedostatečná při řešení problému neoprávněného používání profesních identit. Pod silným tlakem nakonec Superhuman tuto funkci úplně deaktivoval a slíbil, že ji „přehodnotí“ a zavede přísnější kontroly pro odborníky.
Právní a kulturní důsledky
Sága Expert Review není jen selháním PR; případ se přesunul do soudních síní. Investigativní novinářka Julia Angwinová podala hromadnou žalobu na Superhuman, která tvrdí, že společnost porušila práva na soukromí a publicitu podle zákonů New Yorku a Kalifornie.
Kromě právních důsledků incident zdůrazňuje rostoucí napětí ve věku umělé inteligence: vykořisťovatelská povaha generativních modelů.
Trend je jasný: společnosti s umělou inteligencí spolykají obrovské množství duševního vlastnictví lidí, aby vytvořily produkty, které napodobují odborné znalosti lidí, z jejichž dat se „učí“ – často bez povolení, připisování nebo kompenzace. Vzniká tak parazitický vztah, kde je práce tvůrce využita k vybudování nástroje, který mu může nakonec konkurovat.
Závěr
Skandál Grammarly/Superhuman slouží jako varovný příběh pro celý průmysl AI. Tvrdí, že přidání jména celebrity k radě neuronové sítě nevytváří autoritu – vytváří právní odpovědnost. Zatímco společnosti soutěží o vytvoření „agentů umělé inteligence“, musí se průmysl rozhodnout, zda bude spolupracovat s lidskými odborníky, nebo se bude nadále snažit automatizovat jejich osobnosti bez jejich souhlasu.































