Przejście od użytecznego korektora gramatycznego do uniwersalnego agenta AI to droga usiana minami prawnymi i etycznymi. Dokładnie to samo przydarzyło się Grammarly (które obecnie zmienia nazwę na Superhuman ) po kontrowersyjnym wprowadzeniu i szybkim upadku funkcji Expert Review.
To, co zaczęło się jako próba nadania wagi zaleceniom sztucznej inteligencji, przerodziło się w ogromny kryzys obejmujący nieuprawnione użycie nazw, nieprawidłowe cytowania źródeł i grożący pozew zbiorowy.
Powstanie i upadek recenzji eksperckiej
Aby wyjść poza samo sprawdzanie pisowni, firma Grammarly uruchomiła funkcję o nazwie Przegląd eksperta. Pomysł był ambitny: sztuczna inteligencja miała sugerować zmiany „inspirowane” światowymi ekspertami, pisarzami i naukowcami.
Aby stworzyć wrażenie autorytetu, interfejs wyświetlał te rekomendacje obok nazwisk i plakietek gwiazd, co symulowało weryfikację profilu. Realizacja okazała się jednak wyjątkowo nieudana:
- Wykorzystanie nazwisk bez pozwolenia: w artykule wykorzystano nazwiska żyjących dziennikarzy (w tym pracowników The Verge ), znanych autorów, takich jak Stephen King, a nawet zmarłych naukowców, takich jak Carl Sagan – a wszystko to bez ich zgody i wynagrodzenia.
- Halucynacje zamiast władzy: Zamiast prawdziwych porad ekspertów, sztuczna inteligencja często dawała bezsensowną „sałatkę słowną”. W jednym przypadku rada przypisywana dziennikarzowi Nilayowi Patelowi sprowadzała się do banalnej sugestii dodania na nagłówkach słów „pilność” i „intryga”.
- Niedziałające linki i obejście Paywall: Chociaż funkcja ta rzekomo jest „inspirowana” opublikowanymi pracami, podane linki często prowadziły do uszkodzonych stron lub archiwów internetowych zawierających artykuły płatne, które nie zawierały żadnych przydatnych informacji redakcyjnych.
Kryzys zgody i autorstwa
Odkrycie tej funkcji wywołało gorącą debatę na temat tego, gdzie leży granica między cytowaniem a zawłaszczaniem.
W obliczu zarzutów dyrektor generalny Superhuman Shishir Mehrotra stanął w obronie firmy, argumentując, że sztuczna inteligencja odniosła się jedynie do robót publicznych. Jednak krytycy – w tym sami dziennikarze, których nazwiska zostały użyte – upierali się przy zasadniczej różnicy między prawidłowym przypisaniem a „fikcją”, która po prostu podaje nazwisko danej osoby w celu sprzedaży usługi.
„To nie był cytat” – powiedział Nilay Patel podczas dyskusji na temat podcastu Decoder. „Właśnie coś wymyśliłeś i przypisałeś mi to… Nigdy bym tak nie powiedział”.
Początkowa reakcja firmy — zaproszenie ekspertów do wysyłania wiadomości e-mail w celu „zrezygnowania” — została ostro skrytykowana jako żałośnie nieodpowiednia w rozwiązaniu problemu nieuprawnionego używania tożsamości zawodowej. Pod silną presją Superhuman ostatecznie całkowicie wyłączył tę funkcję, obiecując „przemyślić ją” i wdrożyć bardziej rygorystyczną kontrolę dla ekspertów.
Implikacje prawne i kulturowe
Saga Expert Review to nie tylko porażka PR; sprawa trafiła na sale sądowe. Dziennikarka śledcza Julia Angwin złożyła pozew zbiorowy przeciwko Superhuman, zarzucając firmie naruszenie praw do prywatności i reklamy zgodnie z przepisami Nowego Jorku i Kalifornii.
Oprócz konsekwencji prawnych incydent ten uwydatnia rosnące napięcie w epoce sztucznej inteligencji: wyzyskowy charakter modeli generatywnych.
Tendencja jest jasna: firmy zajmujące się sztuczną inteligencją pożerają ogromne ilości własności intelektualnej ludzi, aby tworzyć produkty naśladujące wiedzę tych samych osób, od których „uczą się” danych – często bez pozwolenia, przypisania lub wynagrodzenia. Tworzy to pasożytniczy związek, w którym praca twórcy jest wykorzystywana do zbudowania narzędzia, które ostatecznie może z nim konkurować.
Wniosek
Skandal Grammarly/Superhuman stanowi przestrogę dla całej branży sztucznej inteligencji. Twierdzi, że dodanie nazwiska celebryty do porad sieci neuronowej nie tworzy autorytetu – stwarza odpowiedzialność prawną. Ponieważ firmy konkurują w tworzeniu „agentów sztucznej inteligencji”, branża musi zdecydować, czy będzie współpracować z ludzkimi ekspertami, czy też będzie nadal próbować automatyzować ich osobowości bez ich zgody.
