Des chercheurs de l’Université d’intelligence artificielle Mohammed bin Zayed (MBZUAI) ont introduit une méthode révolutionnaire appelée DP-Fusion, conçue pour résoudre une vulnérabilité critique de l’intelligence artificielle : la fuite accidentelle d’informations sensibles lors d’interactions en direct.
Présenté lors de la prestigieuse conférence ICLR 2026 à Rio de Janeiro, DP-Fusion aborde les risques de sécurité croissants auxquels sont confrontées les industries qui s’appuient sur des modèles linguistiques étendus (LLM) pour traiter des données hautement réglementées.
Le problème : le « écart d’inférence » dans la confidentialité de l’IA
Alors qu’une grande partie de la communauté scientifique s’est concentrée sur la protection des données pendant la phase de formation de l’IA, une faille de sécurité importante demeure lors de l’inférence, l’étape où un utilisateur interagit réellement avec un modèle réel.
À mesure que l’IA générative passe d’outils expérimentaux à une infrastructure essentielle, elle est déployée dans des environnements à enjeux élevés, notamment :
– Soins de santé : Analyse des dossiers médicaux des patients.
– Finance : Traitement des transactions et des données des clients privés.
– Gouvernement : Gestion de documents classifiés ou sensibles.
Dans ces contextes, un modèle peut par inadvertance « divulguer » des détails privés via ses réponses générées. Les méthodes actuelles pour éviter cela, comme le nettoyage ou la paraphrase de texte, manquent de preuves mathématiques formelles de sécurité, laissant les organisations vulnérables à une extraction de données sophistiquée.
Comment fonctionne DP-Fusion : un bouclier mathématique
DP-Fusion se distingue en offrant des garanties de confidentialité mathématiquement prouvables au « niveau symbolique ». Plutôt que d’essayer simplement de cacher des mots, il utilise un processus sophistiqué en quatre étapes pour garantir la confidentialité sans sacrifier l’intelligence de l’IA :
- Identification : Les jetons sensibles (bits d’informations) dans l’entrée sont étiquetés.
- Établissement de la ligne de base : Le modèle s’exécute sans ces jetons sensibles pour créer une ligne de base « neutre ».
- Traitement contextuel : Le modèle s’exécute à nouveau avec les jetons sensibles inclus.
- Mélange de distribution : Le système mélange les deux sorties afin que la réponse finale reste mathématiquement délimitée par la ligne de base.
Cela garantit que les informations sensibles sont effectivement cachées dans le résultat, tandis que la capacité de l’IA à fournir des réponses cohérentes et utiles reste intacte.
Performances et polyvalence supérieures
L’une des réalisations les plus significatives de DP-Fusion est sa capacité à résoudre le « compromis entre confidentialité et utilité ». Habituellement, l’augmentation de la confidentialité rend une IA moins cohérente (un concept connu sous le nom de perplexité ).
DP-Fusion atteint une perplexité six fois inférieure à celle des méthodes de confidentialité concurrentes, ce qui signifie qu’il produit un texte nettement plus utile et lisible tout en maintenant une sécurité renforcée.
De plus, la technologie offre deux avantages distincts :
– Contrôle personnalisable : Les opérateurs peuvent utiliser un seul paramètre pour équilibrer la protection. Le définir sur zéro offre une confidentialité maximale (en masquant entièrement les jetons), tandis que des valeurs plus élevées permettent plus d’« utilité » ou de précision selon le cas d’utilisation.
– Défense à double objectif : En traitant les données provenant de sources externes non fiables comme « sensibles », DP-Fusion agit également comme une défense contre l’injection rapide et les attaques par jailbreak, protégeant le modèle des manipulations adverses.
Le contexte économique et opérationnel
L’urgence de cette recherche est soulignée par l’ampleur du marché de l’IA. Selon McKinsey, l’inférence de l’IA devrait représenter plus de 40 % de la demande totale des centres de données, avec une croissance annuelle de 35 %.
Alors que le marché mondial de l’inférence par l’IA devrait atteindre entre 250 et 350 milliards de dollars d’ici 2030, la « surface d’attaque » (le nombre de moments où un modèle réel touche des données du monde réel) augmente de façon exponentielle. Étant donné que l’inférence représente jusqu’à 90 % du coût total de la durée de vie d’un système d’IA, la sécurisation de cette phase n’est pas seulement une question de confidentialité, mais aussi de viabilité opérationnelle à long terme pour l’économie numérique mondiale.
Conclusion
En fournissant un moyen mathématiquement rigoureux de protéger les données lors des interactions en direct avec l’IA, DP-Fusion ouvre la voie à l’adoption en toute sécurité de l’IA générative dans des secteurs hautement réglementés comme la médecine et la finance. Cette recherche marque un changement crucial d’une confidentialité « probabiliste » vers une sécurité « prouvable » à l’ère du déploiement de l’IA à grande échelle.
































