Niepowodzenie funkcji „Przegląd eksperta”: jak ambicje AI firmy Grammarly rozbiły się o ścianę etyczną

9

Przejście od użytecznego korektora gramatycznego do uniwersalnego agenta AI to droga usiana minami prawnymi i etycznymi. Dokładnie to samo przydarzyło się Grammarly (które obecnie zmienia nazwę na Superhuman ) po kontrowersyjnym wprowadzeniu i szybkim upadku funkcji Expert Review.

To, co zaczęło się jako próba nadania wagi zaleceniom sztucznej inteligencji, przerodziło się w ogromny kryzys obejmujący nieuprawnione użycie nazw, nieprawidłowe cytowania źródeł i grożący pozew zbiorowy.

Powstanie i upadek recenzji eksperckiej

Aby wyjść poza samo sprawdzanie pisowni, firma Grammarly uruchomiła funkcję o nazwie Przegląd eksperta. Pomysł był ambitny: sztuczna inteligencja miała sugerować zmiany „inspirowane” światowymi ekspertami, pisarzami i naukowcami.

Aby stworzyć wrażenie autorytetu, interfejs wyświetlał te rekomendacje obok nazwisk i plakietek gwiazd, co symulowało weryfikację profilu. Realizacja okazała się jednak wyjątkowo nieudana:

  • Wykorzystanie nazwisk bez pozwolenia: w artykule wykorzystano nazwiska żyjących dziennikarzy (w tym pracowników The Verge ), znanych autorów, takich jak Stephen King, a nawet zmarłych naukowców, takich jak Carl Sagan – a wszystko to bez ich zgody i wynagrodzenia.
  • Halucynacje zamiast władzy: Zamiast prawdziwych porad ekspertów, sztuczna inteligencja często dawała bezsensowną „sałatkę słowną”. W jednym przypadku rada przypisywana dziennikarzowi Nilayowi Patelowi sprowadzała się do banalnej sugestii dodania na nagłówkach słów „pilność” i „intryga”.
  • Niedziałające linki i obejście Paywall: Chociaż funkcja ta rzekomo jest „inspirowana” opublikowanymi pracami, podane linki często prowadziły do ​​uszkodzonych stron lub archiwów internetowych zawierających artykuły płatne, które nie zawierały żadnych przydatnych informacji redakcyjnych.

Kryzys zgody i autorstwa

Odkrycie tej funkcji wywołało gorącą debatę na temat tego, gdzie leży granica między cytowaniem a zawłaszczaniem.

W obliczu zarzutów dyrektor generalny Superhuman Shishir Mehrotra stanął w obronie firmy, argumentując, że sztuczna inteligencja odniosła się jedynie do robót publicznych. Jednak krytycy – w tym sami dziennikarze, których nazwiska zostały użyte – upierali się przy zasadniczej różnicy między prawidłowym przypisaniem a „fikcją”, która po prostu podaje nazwisko danej osoby w celu sprzedaży usługi.

„To nie był cytat” – powiedział Nilay Patel podczas dyskusji na temat podcastu Decoder. „Właśnie coś wymyśliłeś i przypisałeś mi to… Nigdy bym tak nie powiedział”.

Początkowa reakcja firmy — zaproszenie ekspertów do wysyłania wiadomości e-mail w celu „zrezygnowania” — została ostro skrytykowana jako żałośnie nieodpowiednia w rozwiązaniu problemu nieuprawnionego używania tożsamości zawodowej. Pod silną presją Superhuman ostatecznie całkowicie wyłączył tę funkcję, obiecując „przemyślić ją” i wdrożyć bardziej rygorystyczną kontrolę dla ekspertów.

Implikacje prawne i kulturowe

Saga Expert Review to nie tylko porażka PR; sprawa trafiła na sale sądowe. Dziennikarka śledcza Julia Angwin złożyła pozew zbiorowy przeciwko Superhuman, zarzucając firmie naruszenie praw do prywatności i reklamy zgodnie z przepisami Nowego Jorku i Kalifornii.

Oprócz konsekwencji prawnych incydent ten uwydatnia rosnące napięcie w epoce sztucznej inteligencji: wyzyskowy charakter modeli generatywnych.

Tendencja jest jasna: firmy zajmujące się sztuczną inteligencją pożerają ogromne ilości własności intelektualnej ludzi, aby tworzyć produkty naśladujące wiedzę tych samych osób, od których „uczą się” danych – często bez pozwolenia, przypisania lub wynagrodzenia. Tworzy to pasożytniczy związek, w którym praca twórcy jest wykorzystywana do zbudowania narzędzia, które ostatecznie może z nim konkurować.

Wniosek

Skandal Grammarly/Superhuman stanowi przestrogę dla całej branży sztucznej inteligencji. Twierdzi, że dodanie nazwiska celebryty do porad sieci neuronowej nie tworzy autorytetu – stwarza odpowiedzialność prawną. Ponieważ firmy konkurują w tworzeniu „agentów sztucznej inteligencji”, branża musi zdecydować, czy będzie współpracować z ludzkimi ekspertami, czy też będzie nadal próbować automatyzować ich osobowości bez ich zgody.