Провал функции «Expert Review»: как амбиции Grammarly в сфере ИИ разбились о стену этики

19

Переход от полезного корректора грамматики к универсальному ИИ-агенту — это путь, усеянный юридическими и этическими минами. Именно это произошло с компанией Grammarly (которая сейчас проводит ребрендинг в Superhuman ) после скандального запуска и стремительного закрытия функции «Expert Review» («Экспертная проверка»).

То, что начиналось как попытка придать вес рекомендациям ИИ, переросло в масштабный кризис, связанный с несанкционированным использованием имен, некорректными ссылками на источники и надвигающимся коллективным иском.

Взлет и падение «Expert Review»

Стремясь выйти за рамки простой проверки орфографии, Grammarly запустила функцию под названием Expert Review. Идея была амбициозной: ИИ должен был предлагать правки, «вдохновленные» мировыми экспертами, писателями и учеными.

Чтобы создать видимость авторитетности, интерфейс отображал эти рекомендации рядом с именами знаменитостей и значками, имитирующими верификацию профиля. Однако реализация оказалась крайне неудачной:

  • Использование имен без разрешения: Функция использовала имена ныне живущих журналистов (включая сотрудников The Verge ), знаменитых авторов вроде Стивена Кинга и даже покойных ученых, таких как Карл Саган — и всё это без их согласия или выплаты компенсаций.
  • Галлюцинации вместо авторитета: Вместо реальных экспертных советов ИИ зачастую выдавал бессмысленный «словесный салат». В одном из случаев совет, приписываемый журналисту Нилаю Пателю, сводился к банальному предложению добавить в заголовки «срочности» и «интриги».
  • Битые ссылки и обход пейволлов: Хотя функция заявляла, что она «вдохновлена» опубликованными работами, предоставленные ссылки часто вели на нерабочие страницы или веб-архивы статей, закрытых платным доступом, которые не содержали никакой полезной информации по редактированию.

Кризис согласия и авторства

Обнаружение этой функции спровоцировало жаркие споры о том, где проходит грань между цитированием и присвоением.

Столкнувшись с обвинениями, генеральный директор Superhuman Шишир Мехротра встал на защиту компании, утверждая, что ИИ лишь ссылается на общедоступные работы. Однако критики — включая тех самых журналистов, чьи имена использовались — настаивали на фундаментальной разнице между корректной ссылкой на источник и «выдумкой», к которой просто приклеивают имя человека, чтобы продать услугу.

«Это не было цитированием, — заявил Нилай Патель во время дискуссии в подкасте Decoder. — Вы просто что-то выдумали и приписали это мне… Я бы никогда так не сказал».

Первоначальная реакция компании — предложение экспертам написать на электронную почту, чтобы «отказаться от участия» — была подвергнута резкой критике как крайне недостаточная мера для решения проблемы несанкционированного использования профессиональной идентичности. Под сильным давлением Superhuman в итоге полностью отключила функцию, пообещав «переосмыслить» её и внедрить более строгий контроль для экспертов.

Юридические и культурные последствия

Сага с «Expert Review» — это не просто провал в PR; дело перешло в залы суда. Журналист-расследователь Джулия Энгвин подала коллективный иск против Superhuman, утверждая, что компания нарушила права на конфиденциальность и публичность в соответствии с законами Нью-Йорка и Калифорнии.

Помимо юридических аспектов, этот инцидент подсвечивает растущее напряжение в эпоху ИИ: эксплуататорскую природу генеративных моделей.

Тенденция очевидна: ИИ-компании поглощают колоссальные объемы интеллектуальной собственности людей, чтобы создавать продукты, имитирующие экспертность тех самых людей, на чьих данных они «учатся» — зачастую без разрешения, упоминания авторства или компенсации. Это создает паразитические отношения, когда труд создателя используется для построения инструмента, который в конечном итоге может с ним конкурировать.

Заключение

Скандал вокруг Grammarly/Superhuman служит предостережением для всей индустрии ИИ. Он доказывает, что добавление имени знаменитости к совету нейросети не создает авторитета — оно создает юридическую ответственность. Пока компании соревнуются в создании «ИИ-агентов», индустрии предстоит решить: будет ли она сотрудничать с экспертами-людьми или продолжит пытаться автоматизировать их личности без их на то согласия.