De AI-grens beveiligen: MBZUAI onthult DP-Fusion om gevoelige gegevens te beschermen tijdens inferentie

20

Onderzoekers van de Mohamed bin Zayed Universiteit voor Kunstmatige Intelligentie (MBZUAI) hebben een baanbrekende methode geïntroduceerd genaamd DP-Fusion, ontworpen om een kritieke kwetsbaarheid in kunstmatige intelligentie op te lossen: het per ongeluk lekken van gevoelige informatie tijdens live interacties.

DP-Fusion, gepresenteerd op de prestigieuze ICLR 2026 -conferentie in Rio de Janeiro, richt zich op de groeiende veiligheidsrisico’s waarmee industrieën worden geconfronteerd die afhankelijk zijn van grote taalmodellen (LLM’s) om sterk gereguleerde gegevens te verwerken.

Het probleem: de “inferentiekloof” in AI-privacy

Hoewel een groot deel van de wetenschappelijke gemeenschap zich heeft geconcentreerd op het beschermen van gegevens tijdens de trainingsfase van AI, blijft er een aanzienlijk beveiligingslek bestaan tijdens gevolgtrekking – de fase waarin een gebruiker daadwerkelijk interactie heeft met een live model.

Terwijl generatieve AI zich ontwikkelt van experimentele tools naar essentiële infrastructuur, wordt deze ingezet in omgevingen waar veel op het spel staat, waaronder:
Zorg: Analyseren van medische dossiers van patiënten.
Financiën: Verwerking van transacties en gegevens van particuliere klanten.
Overheid: Omgaan met geheime of gevoelige documentatie.

In deze instellingen kan een model onbedoeld privégegevens “lekken” via de gegenereerde reacties. De huidige methoden om dit te voorkomen, zoals het opschonen of parafraseren van tekst, ontberen formeel wiskundig bewijs van beveiliging, waardoor organisaties kwetsbaar zijn voor geavanceerde gegevensextractie.

Hoe DP-Fusion werkt: een wiskundig schild

DP-Fusion onderscheidt zich door het aanbieden van wiskundig aantoonbare privacygaranties op ‘tokenniveau’. In plaats van eenvoudigweg te proberen woorden te verbergen, gebruikt het een geavanceerd proces in vier stappen om de privacy te waarborgen zonder de intelligentie van de AI op te offeren:

  1. Identificatie: Gevoelige tokens (stukjes informatie) in de invoer zijn gelabeld.
  2. Basislijnbepaling: Het model wordt uitgevoerd zonder deze gevoelige tokens om een ​​”neutrale” basislijn te creëren.
  3. Contextuele verwerking: Het model wordt opnieuw uitgevoerd, inclusief de gevoelige tokens.
  4. Distributiemenging: Het systeem combineert de twee outputs zodat de uiteindelijke respons wiskundig begrensd blijft door de basislijn.

Dit zorgt ervoor dat de gevoelige informatie effectief verborgen blijft in de output, terwijl het vermogen van de AI om coherente, nuttige antwoorden te geven intact blijft.

Superieure prestaties en veelzijdigheid

Een van de belangrijkste prestaties van DP-Fusion is het vermogen om de ‘trade-off tussen privacy en nutsvoorzieningen’ op te lossen. Doorgaans maakt het vergroten van de privacy een AI minder coherent (een concept dat bekend staat als perplexity ).

DP-Fusion bereikt zes keer minder perplexiteit dan concurrerende privacymethoden, wat betekent dat het aanzienlijk nuttiger en leesbaarder tekst produceert, terwijl de beveiliging sterker blijft.

Bovendien biedt de technologie twee duidelijke voordelen:
Aanpasbare bediening: Operators kunnen één enkele parameter gebruiken om de bescherming in evenwicht te brengen. Als u deze op nul zet, krijgt u maximale privacy (tokens worden volledig verborgen), terwijl hogere waarden meer “nut” of nauwkeurigheid mogelijk maken, afhankelijk van de gebruikssituatie.
Dual-Purpose Defense: Door gegevens uit onbetrouwbare externe bronnen als ‘gevoelig’ te behandelen, fungeert DP-Fusion ook als verdediging tegen prompt injection en jailbreak-aanvallen, waardoor het model wordt beschermd tegen vijandige manipulatie.

De economische en operationele context

De urgentie van dit onderzoek wordt onderstreept door de enorme omvang van de AI-markt. Volgens McKinsey zal AI-inferentie ruim 40% van de totale vraag naar datacenters voor zijn rekening nemen, en jaarlijks met 35% groeien.

Nu de mondiale AI-inferentiemarkt in 2030 naar verwachting tussen de $250 miljard en $350 miljard** zal stijgen, breidt het ‘aanvalsoppervlak’ (het aantal momenten waarop een live model in aanraking komt met gegevens uit de echte wereld) zich exponentieel uit. Omdat inferentie tot 90% van de totale levensduurkosten van een AI-systeem vertegenwoordigt, is het veiligstellen van deze fase niet alleen een kwestie van privacy, maar van de operationele levensvatbaarheid op de lange termijn voor de mondiale digitale economie.


Conclusie
Door een wiskundig rigoureuze manier te bieden om gegevens te beschermen tijdens live AI-interacties, maakt DP-Fusion de weg vrij voor de veilige adoptie van generatieve AI in sterk gereguleerde sectoren zoals de geneeskunde en de financiële wereld. Dit onderzoek markeert een cruciale verschuiving van ‘probabilistische’ privacy naar ‘aantoonbare’ beveiliging in het tijdperk van grootschalige AI-implementatie.