Robo de modelos de IA: los piratas informáticos atacan a Géminis con ataques rápidos masivos

4

Google ha revelado un aumento en los ciberataques sofisticados destinados a robar la propiedad intelectual detrás de su modelo Gemini AI. Estos ataques, denominados “ataques de destilación”, implican que los adversarios inunden el sistema con decenas de miles de mensajes de IA para aplicar ingeniería inversa a sus capacidades.

Robo patrocinado por el Estado

Según el informe Threat Tracker de Google, los principales actores detrás de estos robos provienen de Corea del Norte, Rusia y China. El objetivo no es dañar directamente a los usuarios, sino clonar la tecnología de Gemini para usarla en otros modelos de IA, particularmente en idiomas además del inglés. Esto representa una tendencia más amplia de actores estatales que explotan la IA para obtener ventajas estratégicas.

Cómo funciona la extracción de modelos

Estos ataques explotan una técnica llamada extracción de modelos. Los adversarios aprovechan el acceso legítimo para probar un sistema de inteligencia artificial y recopilan sistemáticamente datos suficientes para entrenar un modelo de réplica. Google señala que esto es similar al espionaje industrial, donde los competidores roban secretos comerciales.

Una creciente carrera armamentista

El incidente pone de relieve la creciente competencia en el panorama de la IA. Empresas como ByteDance (la empresa matriz de TikTok) en China están desarrollando rápidamente herramientas avanzadas de inteligencia artificial, desafiando el dominio de las empresas estadounidenses. El año pasado, DeepSeek, otra empresa china de inteligencia artificial, lanzó un modelo que rivalizaba con la tecnología de primer nivel, lo que provocó acusaciones de infracción de propiedad intelectual por parte de OpenAI.

No se trata sólo de rivalidad técnica; es una cuestión geopolítica. Los modelos de IA son ahora una infraestructura crítica y su robo plantea riesgos para la seguridad nacional. Como señala el analista de Google John Hultquist, esto probablemente sea sólo el comienzo: “Vamos a ser el canario en la mina de carbón de muchos más incidentes”.

El futuro de la seguridad de la IA

El caso subraya la necesidad de medidas de seguridad más estrictas para la IA. Si bien Google es una de las primeras empresas importantes en informar públicamente de este tipo de ataques, es probable que las vulnerabilidades en toda la industria estén generalizadas. Proteger la propiedad intelectual de la IA requerirá una combinación de defensas técnicas, aplicación de la ley y cooperación internacional.

El robo de modelos de IA es la nueva frontera de la guerra cibernética. Las empresas y los gobiernos deben adaptarse a esta realidad o corren el riesgo de quedarse atrás.