Переход от полезного корректора грамматики к универсальному ИИ-агенту — это путь, усеянный юридическими и этическими минами. Именно это произошло с компанией Grammarly (которая сейчас проводит ребрендинг в Superhuman ) после скандального запуска и стремительного закрытия функции «Expert Review» («Экспертная проверка»).
То, что начиналось как попытка придать вес рекомендациям ИИ, переросло в масштабный кризис, связанный с несанкционированным использованием имен, некорректными ссылками на источники и надвигающимся коллективным иском.
Взлет и падение «Expert Review»
Стремясь выйти за рамки простой проверки орфографии, Grammarly запустила функцию под названием Expert Review. Идея была амбициозной: ИИ должен был предлагать правки, «вдохновленные» мировыми экспертами, писателями и учеными.
Чтобы создать видимость авторитетности, интерфейс отображал эти рекомендации рядом с именами знаменитостей и значками, имитирующими верификацию профиля. Однако реализация оказалась крайне неудачной:
- Использование имен без разрешения: Функция использовала имена ныне живущих журналистов (включая сотрудников The Verge ), знаменитых авторов вроде Стивена Кинга и даже покойных ученых, таких как Карл Саган — и всё это без их согласия или выплаты компенсаций.
- Галлюцинации вместо авторитета: Вместо реальных экспертных советов ИИ зачастую выдавал бессмысленный «словесный салат». В одном из случаев совет, приписываемый журналисту Нилаю Пателю, сводился к банальному предложению добавить в заголовки «срочности» и «интриги».
- Битые ссылки и обход пейволлов: Хотя функция заявляла, что она «вдохновлена» опубликованными работами, предоставленные ссылки часто вели на нерабочие страницы или веб-архивы статей, закрытых платным доступом, которые не содержали никакой полезной информации по редактированию.
Кризис согласия и авторства
Обнаружение этой функции спровоцировало жаркие споры о том, где проходит грань между цитированием и присвоением.
Столкнувшись с обвинениями, генеральный директор Superhuman Шишир Мехротра встал на защиту компании, утверждая, что ИИ лишь ссылается на общедоступные работы. Однако критики — включая тех самых журналистов, чьи имена использовались — настаивали на фундаментальной разнице между корректной ссылкой на источник и «выдумкой», к которой просто приклеивают имя человека, чтобы продать услугу.
«Это не было цитированием, — заявил Нилай Патель во время дискуссии в подкасте Decoder. — Вы просто что-то выдумали и приписали это мне… Я бы никогда так не сказал».
Первоначальная реакция компании — предложение экспертам написать на электронную почту, чтобы «отказаться от участия» — была подвергнута резкой критике как крайне недостаточная мера для решения проблемы несанкционированного использования профессиональной идентичности. Под сильным давлением Superhuman в итоге полностью отключила функцию, пообещав «переосмыслить» её и внедрить более строгий контроль для экспертов.
Юридические и культурные последствия
Сага с «Expert Review» — это не просто провал в PR; дело перешло в залы суда. Журналист-расследователь Джулия Энгвин подала коллективный иск против Superhuman, утверждая, что компания нарушила права на конфиденциальность и публичность в соответствии с законами Нью-Йорка и Калифорнии.
Помимо юридических аспектов, этот инцидент подсвечивает растущее напряжение в эпоху ИИ: эксплуататорскую природу генеративных моделей.
Тенденция очевидна: ИИ-компании поглощают колоссальные объемы интеллектуальной собственности людей, чтобы создавать продукты, имитирующие экспертность тех самых людей, на чьих данных они «учатся» — зачастую без разрешения, упоминания авторства или компенсации. Это создает паразитические отношения, когда труд создателя используется для построения инструмента, который в конечном итоге может с ним конкурировать.
Заключение
Скандал вокруг Grammarly/Superhuman служит предостережением для всей индустрии ИИ. Он доказывает, что добавление имени знаменитости к совету нейросети не создает авторитета — оно создает юридическую ответственность. Пока компании соревнуются в создании «ИИ-агентов», индустрии предстоит решить: будет ли она сотрудничать с экспертами-людьми или продолжит пытаться автоматизировать их личности без их на то согласия.
































