A transição de um verificador gramatical útil para um agente de IA abrangente é um caminho repleto de minas terrestres legais e éticas. Isso é exatamente o que aconteceu com Grammarly (agora renomeado como Superhuman ) após o polêmico lançamento e rápido desaparecimento de seu recurso “Expert Review”.
O que começou como uma tentativa de dar autoridade às sugestões geradas pela IA evoluiu para uma crise que envolveu o uso não autorizado de imagens, citações quebradas e uma ação judicial coletiva iminente.
A ascensão e queda da “revisão de especialistas”
Em um esforço para ir além da simples verificação ortográfica, a Grammarly lançou um recurso chamado Expert Review. A premissa era ambiciosa: a IA forneceria sugestões de redação “inspiradas” por profissionais, autores e acadêmicos de renome mundial.
Para adicionar uma aparência de credibilidade, a interface exibia essas sugestões ao lado de nomes e ícones de estilo de verificação de figuras famosas. No entanto, a implementação foi profundamente falha:
- Semelhanças não autorizadas: o recurso usou nomes de jornalistas vivos (incluindo funcionários do The Verge ), autores famosos como Stephen King e até mesmo acadêmicos falecidos como Carl Sagan — tudo sem seu consentimento ou compensação.
- Autoridade Alucinada: Em vez de fornecer insights genuínos, a IA muitas vezes gerava uma “salada de palavras” genérica. Num caso, o conselho atribuído ao jornalista Nilay Patel sugeriu simplesmente acrescentar “urgência” e “intriga” às manchetes.
- Links quebrados e desvio de acesso pago: Embora o recurso alegasse ser “inspirado” em trabalhos publicados, os links de origem fornecidos eram frequentemente quebrados ou redirecionados para arquivos da web de artigos com acesso pago que não continham conselhos de edição relevantes.
Uma falha de consentimento e atribuição
As consequências da descoberta do recurso geraram um debate acalorado sobre a definição de atribuição versus apropriação.
Quando confrontado, o CEO da Superhuman, Shishir Mehrotra, defendeu a prática argumentando que a IA estava apenas fazendo referência ao trabalho disponível publicamente. No entanto, os críticos – incluindo os próprios jornalistas cujos nomes foram usados – argumentaram que existe uma diferença fundamental entre citar uma fonte e “inventar algo” e colocar o nome de uma pessoa nela para vender um serviço.
“Isso não foi uma atribuição”, argumentou Nilay Patel durante um confronto no podcast Decoder. “Você acabou de inventar algo e colocou meu nome nisso… Não é algo que eu diria.”
A resposta inicial da empresa – oferecendo uma caixa de entrada de e-mail para que os especialistas “desistissem” – foi amplamente criticada como uma forma insuficiente de lidar com o uso não autorizado de identidades profissionais. Sob intensa pressão, Superhuman acabou desativando totalmente o recurso, prometendo “reimaginá-lo” com melhores controles para especialistas.
As consequências jurídicas e culturais
A saga “Expert Review” não é apenas um erro de relações públicas; entrou na sala do tribunal. A jornalista investigativa Julia Angwin entrou com uma ação coletiva contra Superhuman, alegando violações de privacidade e direitos de publicidade sob as leis de Nova York e Califórnia.
Além das questões legais, este incidente destaca uma tensão crescente na era da IA: a natureza extrativa dos modelos generativos.
A tendência é clara: as empresas de IA estão a ingerir grandes quantidades de propriedade intelectual humana para criar produtos que imitem a experiência das próprias pessoas com quem estão a “aprender” – muitas vezes sem permissão, crédito ou compensação. Isto cria uma relação parasitária onde o trabalho do criador é usado para construir uma ferramenta que possa eventualmente competir com ele.
Conclusão
A controvérsia Grammarly/Superhuman serve como um conto de advertência para a indústria da IA, provando que adicionar um nome famoso a uma sugestão de IA não cria autoridade – cria uma responsabilidade. À medida que as empresas correm para construir “agentes de IA”, a indústria deve decidir se irá colaborar com especialistas humanos ou se continuará a tentar automatizar as suas identidades sem consentimento.
































