O Google revelou um aumento de ataques cibernéticos sofisticados com o objetivo de roubar a propriedade intelectual por trás de seu modelo Gemini AI. Esses ataques, chamados de “ataques de destilação”, envolvem adversários inundando o sistema com dezenas de milhares de solicitações de IA para fazer engenharia reversa de suas capacidades.
Roubo patrocinado pelo Estado
De acordo com o relatório Threat Tracker do Google, os principais atores por trás desses roubos são originários da Coreia do Norte, Rússia e China. O objetivo não é prejudicar diretamente os usuários, mas sim clonar a tecnologia da Gemini para uso em outros modelos de IA – particularmente em idiomas além do inglês. Isto representa uma tendência mais ampla de intervenientes estatais que exploram a IA para obter vantagens estratégicas.
Como funciona a extração de modelo
Esses ataques exploram uma técnica chamada extração de modelo. Os adversários aproveitam o acesso legítimo para investigar um sistema de IA, reunindo sistematicamente dados suficientes para treinar um modelo de réplica. O Google observa que isso é semelhante à espionagem industrial, onde os concorrentes roubam segredos comerciais.
Uma corrida armamentista crescente
O incidente destaca a escalada da concorrência no cenário da IA. Empresas como a ByteDance (empresa controladora do TikTok) na China estão desenvolvendo rapidamente ferramentas avançadas de IA, desafiando o domínio das empresas norte-americanas. No ano passado, a DeepSeek, outra empresa chinesa de IA, lançou um modelo que rivalizava com a tecnologia de ponta, gerando acusações de violação de propriedade intelectual da OpenAI.
Não se trata apenas de rivalidade técnica; é uma questão geopolítica. Os modelos de IA são agora infraestruturas críticas e o seu roubo representa riscos para a segurança nacional. Como aponta o analista do Google John Hultquist, isso provavelmente é apenas o começo: “Seremos o canário na mina de carvão para muito mais incidentes.”
O futuro da segurança de IA
O caso sublinha a necessidade de medidas mais fortes de segurança da IA. Embora o Google seja uma das primeiras grandes empresas a denunciar publicamente tais ataques, as vulnerabilidades em todo o setor são provavelmente generalizadas. A proteção da propriedade intelectual da IA exigirá uma combinação de defesas técnicas, aplicação da lei e cooperação internacional.
O roubo de modelos de IA é a nova fronteira da guerra cibernética. As empresas e os governos devem adaptar-se a esta realidade ou correm o risco de ficar para trás.
