A inteligência artificial está corroendo rapidamente o anonimato online, de acordo com uma nova pesquisa da ETH Zurich. Os cientistas demonstraram que as ferramentas de IA podem identificar de forma confiável indivíduos por trás de contas pseudônimas nas redes sociais, através do cruzamento de detalhes aparentemente inócuos compartilhados ao longo do tempo. Este desenvolvimento tem implicações significativas para a privacidade, vigilância e segurança online.
A ascensão da deanonimização baseada em IA
Durante anos, muitos utilizadores da Internet confiaram no anonimato para expressar opiniões, partilhar informações sensíveis ou participar em comunidades de nicho sem medo das consequências no mundo real. No entanto, esta suposição de privacidade não é mais garantida. O estudo suíço revela que os grandes modelos de linguagem (LLMs) podem agora corresponder contas anônimas às suas contrapartes do mundo real com até 68% de exatidão e 90% de precisão – superando significativamente os métodos de investigação manual.
O processo é simples: os LLMs examinam a web em busca de detalhes pessoais fragmentados (histórico de emprego, localização, hobbies) que os indivíduos vazam inadvertidamente nas plataformas. Mesmo menções aparentemente inofensivas a locais de trabalho ou cidades natais anteriores, espalhadas ao longo dos anos, podem ser suficientes para quebrar o anonimato. Não se trata de IA sobre-humana; trata-se de automação. Os LLMs podem filtrar dados de forma muito mais rápida e barata do que qualquer investigador humano.
Quem corre maior risco?
Os utilizadores mais vulneráveis são aqueles que partilham consistentemente dados pessoais sob pseudónimos – especialmente indivíduos mais velhos ou aqueles que não estão familiarizados com práticas avançadas de privacidade. Os pesquisadores descobriram que quanto mais informações alguém revela ao longo do tempo, mais fácil é desmascará-lo.
Isto representa uma ameaça direta para denunciantes, ativistas, jornalistas e qualquer outra pessoa que dependa do anonimato para se proteger da vigilância, do assédio ou da censura. Os governos poderiam explorar esta tecnologia para identificar dissidentes; as empresas poderiam usá-lo para publicidade hiperdirecionada ou para criar perfis de clientes; e atores mal-intencionados poderiam lançar ataques de engenharia social altamente personalizados.
A tecnologia por trás da inovação
Os pesquisadores construíram seu sistema usando conjuntos de dados disponíveis publicamente em plataformas como Hacker News, LinkedIn e Reddit. Eles testaram LLMs dividindo deliberadamente contas anônimas do Reddit e desafiando a IA a combiná-las com suas identidades originais. Os resultados foram claros: A desanonimização baseada em IA não é apenas possível; está se tornando cada vez mais eficiente.
Os autores do estudo enfatizam que a tecnologia não requer poder computacional extraordinário ou conhecimento especializado. A mecânica subjacente já está em vigor e prevê-se que dentro de alguns anos, os utilizadores comuns terão acesso a ferramentas capazes de desmascarar contas anónimas.
A solução: contas descartáveis
A maneira mais eficaz de proteger o anonimato online é surpreendentemente simples: use contas descartáveis para postagens confidenciais. Criar um perfil de uso único elimina o rastro de dados pessoais que os LLMs exploram. Se você precisar compartilhar algo verdadeiramente confidencial, não use a mesma conta que usa há anos; crie um novo especificamente para esse fim.
“Se você se preocupa com o anonimato de algo, se você tem algo a proteger, esteja atento a isso”, diz Daniel Paleka, principal autor do estudo. “Os fundamentos da tecnologia estão aí. Se não houver guardas, espero que alguém faça mau uso dela.”
A janela para resolver esse problema está se fechando. À medida que as ferramentas de IA se tornam mais acessíveis, a erosão do anonimato online irá acelerar. O estudo serve como um alerta: os utilizadores, as plataformas e os decisores políticos devem agir agora para salvaguardar a privacidade antes que esta desapareça completamente.
































