Proteggere la frontiera dell’intelligenza artificiale: MBZUAI presenta DP-Fusion per proteggere i dati sensibili durante l’inferenza

8

I ricercatori della Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) hanno introdotto un metodo rivoluzionario chiamato DP-Fusion, progettato per risolvere una vulnerabilità critica dell’intelligenza artificiale: la perdita accidentale di informazioni sensibili durante le interazioni dal vivo.

Presentato alla prestigiosa conferenza ICLR 2026 a Rio de Janeiro, DP-Fusion affronta i crescenti rischi per la sicurezza affrontati dalle industrie che si affidano a Large Language Models (LLM) per elaborare dati altamente regolamentati.

Il problema: il “gap di inferenza” nella privacy dell’IA

Mentre gran parte della comunità scientifica si è concentrata sulla protezione dei dati durante la fase di addestramento dell’intelligenza artificiale, rimane una significativa lacuna di sicurezza durante l’inferenza, la fase in cui un utente interagisce effettivamente con un modello dal vivo.

Man mano che l’intelligenza artificiale generativa passa da strumenti sperimentali a infrastrutture essenziali, viene implementata in ambienti ad alto rischio, tra cui:
Assistenza sanitaria: analisi delle cartelle cliniche dei pazienti.
Finanza: Elaborazione di transazioni e dati di clienti privati.
Governo: gestione di documentazione riservata o sensibile.

In queste impostazioni, un modello potrebbe inavvertitamente “far trapelare” dettagli privati ​​attraverso le risposte generate. Gli attuali metodi per prevenire ciò, come lo scrubbing o la parafrasi del testo, mancano di prove matematiche formali di sicurezza, lasciando le organizzazioni vulnerabili a sofisticate estrazioni di dati.

Come funziona DP-Fusion: uno scudo matematico

DP-Fusion si distingue offrendo garanzie sulla privacy matematicamente dimostrabili a “livello di token”. Invece di cercare semplicemente di nascondere le parole, utilizza un sofisticato processo in quattro fasi per garantire la privacy senza sacrificare l’intelligenza dell’intelligenza artificiale:

  1. Identificazione: i token sensibili (bit di informazioni) nell’input sono etichettati.
  2. Stabilimento della linea di base: il modello viene eseguito senza i token sensibili per creare una linea di base “neutrale”.
  3. Elaborazione contestuale: il modello viene eseguito nuovamente con i token sensibili inclusi.
  4. Miscelazione della distribuzione: il sistema unisce i due output in modo che la risposta finale rimanga matematicamente delimitata dalla linea di base.

Ciò garantisce che le informazioni sensibili siano effettivamente nascoste all’interno dell’output, mentre la capacità dell’intelligenza artificiale di fornire risposte utili e coerenti rimane intatta.

Prestazioni e versatilità superiori

Uno dei risultati più significativi di DP-Fusion è la sua capacità di risolvere il “compromesso privacy-utilità”. Di solito, l’aumento della privacy rende un’intelligenza artificiale meno coerente (un concetto noto come perplessità ).

DP-Fusion raggiunge un livello di perplessità sei volte inferiore rispetto ai metodi di privacy concorrenti, il che significa che produce testo molto più utile e leggibile pur mantenendo una maggiore sicurezza.

Inoltre, la tecnologia offre due distinti vantaggi:
Controllo personalizzabile: gli operatori possono utilizzare un singolo parametro per bilanciare la protezione. Impostarlo su zero fornisce la massima privacy (nascondendo completamente i token), mentre valori più alti consentono maggiore “utilità” o precisione a seconda del caso d’uso.
Difesa a doppio scopo: trattando i dati provenienti da fonti esterne non attendibili come “sensibili”, DP-Fusion agisce anche come difesa contro l’iniezione rapida e gli attacchi jailbreak, proteggendo il modello dalla manipolazione da parte di avversari.

Il contesto economico e operativo

L’urgenza di questa ricerca è sottolineata dalla vastità del mercato dell’intelligenza artificiale. Secondo McKinsey, l’inferenza dell’intelligenza artificiale rappresenterà oltre il 40% della domanda totale dei data center, con una crescita annua del 35%.

Con un mercato globale dell’inferenza dell’intelligenza artificiale che, secondo le previsioni, raggiungerà un valore compreso tra 250 e 350 miliardi di dollari entro il 2030, la “superficie di attacco”, ovvero il numero di momenti in cui un modello live entra in contatto con dati del mondo reale, si sta espandendo in modo esponenziale. Poiché l’inferenza rappresenta fino al 90% del costo totale del ciclo di vita di un sistema di intelligenza artificiale, garantire questa fase non è solo una questione di privacy, ma di fattibilità operativa a lungo termine per l’economia digitale globale.


Conclusione
Fornendo un modo matematicamente rigoroso per proteggere i dati durante le interazioni con l’intelligenza artificiale dal vivo, DP-Fusion apre la strada all’adozione sicura dell’intelligenza artificiale generativa in settori altamente regolamentati come la medicina e la finanza. Questa ricerca segna un passaggio fondamentale dalla privacy “probabilistica” alla sicurezza “dimostrabile” nell’era dell’implementazione dell’intelligenza artificiale su larga scala.