Google ha rivelato un’ondata di attacchi informatici sofisticati volti a rubare la proprietà intellettuale dietro il suo modello di intelligenza artificiale Gemini. Questi attacchi, soprannominati “attacchi di distillazione”, coinvolgono gli avversari che inondano il sistema con decine di migliaia di richieste di intelligenza artificiale per decodificare le sue capacità.
Furto sponsorizzato dallo Stato
Secondo il rapporto Threat Tracker di Google, i principali attori dietro questi furti provengono da Corea del Nord, Russia e Cina. L’obiettivo non è danneggiare direttamente gli utenti, ma clonare la tecnologia di Gemini per utilizzarla in altri modelli di intelligenza artificiale, in particolare in lingue diverse dall’inglese. Ciò rappresenta una tendenza più ampia di attori statali che sfruttano l’intelligenza artificiale per un vantaggio strategico.
Come funziona l’estrazione del modello
Questi attacchi sfruttano una tecnica chiamata estrazione del modello. Gli avversari sfruttano l’accesso legittimo per sondare un sistema di intelligenza artificiale, raccogliendo sistematicamente dati sufficienti per addestrare un modello di replica. Google nota che questo è simile allo spionaggio industriale, in cui i concorrenti rubano segreti commerciali.
Una corsa agli armamenti in crescita
L’incidente evidenzia la crescente concorrenza nel panorama dell’intelligenza artificiale. Aziende come ByteDance (società madre di TikTok) in Cina stanno rapidamente sviluppando strumenti avanzati di intelligenza artificiale, sfidando il dominio delle aziende statunitensi. L’anno scorso, DeepSeek, un’altra società cinese di intelligenza artificiale, ha rilasciato un modello che rivaleggiava con la tecnologia di alto livello, suscitando accuse di violazione della proprietà intellettuale da parte di OpenAI.
Non si tratta solo di rivalità tecnica; è una questione geopolitica. I modelli di intelligenza artificiale sono ora infrastrutture critiche e il loro furto comporta rischi per la sicurezza nazionale. Come sottolinea l’analista di Google John Hultquist, questo è probabilmente solo l’inizio: “Saremo il canarino nella miniera di carbone per molti altri incidenti.”
Il futuro della sicurezza dell’intelligenza artificiale
Il caso sottolinea la necessità di misure di sicurezza dell’IA più forti. Sebbene Google sia una delle prime grandi aziende a segnalare pubblicamente tali attacchi, è probabile che le vulnerabilità a livello di settore siano diffuse. La protezione della proprietà intellettuale dell’IA richiederà una combinazione di difese tecniche, applicazione della legge e cooperazione internazionale.
Il furto di modelli di IA è la nuova frontiera della cyberwarfare. Le aziende e i governi devono adattarsi a questa realtà o rischiano di rimanere indietro.
