Vol de modèle d’IA : les pirates ciblent Gemini avec des attaques massives

5

Google a révélé une recrudescence des cyberattaques sophistiquées visant à voler la propriété intellectuelle derrière son modèle Gemini AI. Ces attaques, surnommées « attaques par distillation », impliquent des adversaires inondant le système de dizaines de milliers d’invites d’IA pour procéder à une ingénierie inverse de ses capacités.

Vol parrainé par l’État

Selon le rapport Threat Tracker de Google, les principaux acteurs derrière ces vols proviennent de Corée du Nord, de Russie et de Chine. L’objectif n’est pas de nuire directement aux utilisateurs, mais de cloner la technologie de Gemini pour l’utiliser dans d’autres modèles d’IA, en particulier dans des langues autres que l’anglais. Cela représente une tendance plus large selon laquelle les acteurs étatiques exploitent l’IA pour obtenir un avantage stratégique.

Comment fonctionne l’extraction de modèles

Ces attaques exploitent une technique appelée extraction de modèle. Les adversaires exploitent un accès légitime pour sonder un système d’IA, collectant systématiquement suffisamment de données pour former un modèle de réplique. Google note que cela s’apparente à de l’espionnage industriel, où les concurrents volent des secrets commerciaux.

Une course aux armements croissante

L’incident met en évidence la concurrence croissante dans le paysage de l’IA. Des entreprises comme ByteDance (la société mère de TikTok) en Chine développent rapidement des outils d’IA avancés, remettant en question la domination des entreprises américaines. L’année dernière, DeepSeek, une autre société chinoise d’IA, a publié un modèle qui rivalisait avec la technologie de premier plan, ce qui a suscité des accusations de violation de propriété intellectuelle de la part d’OpenAI.

Il ne s’agit pas seulement de rivalité technique ; c’est une question géopolitique. Les modèles d’IA constituent désormais une infrastructure critique et leur vol présente des risques pour la sécurité nationale. Comme le souligne l’analyste de Google John Hultquist, ce n’est probablement qu’un début : “Nous allons être le canari dans la mine de charbon pour bien d’autres incidents.”

L’avenir de la sécurité de l’IA

Cette affaire souligne la nécessité de mesures de sécurité plus strictes en matière d’IA. Bien que Google soit l’une des premières grandes entreprises à signaler publiquement de telles attaques, les vulnérabilités à l’échelle du secteur sont probablement répandues. La protection de la propriété intellectuelle de l’IA nécessitera une combinaison de défenses techniques, d’application des lois et de coopération internationale.

Le vol de modèles d’IA constitue la nouvelle frontière de la cyberguerre. Les entreprises et les gouvernements doivent s’adapter à cette réalité, sinon ils risquent de prendre du retard.