Sicherung der KI-Grenze: MBZUAI stellt DP-Fusion vor, um sensible Daten während der Inferenz zu schützen

6

Forscher der Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) haben eine bahnbrechende Methode namens DP-Fusion eingeführt, die darauf abzielt, eine kritische Schwachstelle in der künstlichen Intelligenz zu schließen: den versehentlichen Verlust sensibler Informationen während Live-Interaktionen.

DP-Fusion wird auf der prestigeträchtigen ICLR 2026 -Konferenz in Rio de Janeiro vorgestellt und befasst sich mit den wachsenden Sicherheitsrisiken, denen Branchen ausgesetzt sind, die bei der Verarbeitung stark regulierter Daten auf Large Language Models (LLMs) angewiesen sind.

Das Problem: Die „Inferenzlücke“ im KI-Datenschutz

Während sich ein Großteil der wissenschaftlichen Gemeinschaft auf den Schutz von Daten während der Trainingsphase der KI konzentriert hat, bleibt während der Inferenz – der Phase, in der ein Benutzer tatsächlich mit einem Live-Modell interagiert – eine erhebliche Sicherheitslücke bestehen.

Während sich generative KI von experimentellen Werkzeugen zu einer wesentlichen Infrastruktur entwickelt, wird sie in anspruchsvollen Umgebungen eingesetzt, darunter:
Gesundheitswesen: Analyse der Krankenakten von Patienten.
Finanzen: Verarbeitung von Privatkundentransaktionen und -daten.
Regierung: Umgang mit geheimer oder sensibler Dokumentation.

In diesen Einstellungen kann es passieren, dass ein Modell durch seine generierten Antworten unbeabsichtigt private Details „durchsickern“ lässt. Aktuelle Methoden, um dies zu verhindern, wie etwa das Scrubben oder Paraphrasieren von Text, verfügen über keinen formalen mathematischen Sicherheitsnachweis, sodass Unternehmen anfällig für eine ausgefeilte Datenextraktion sind.

So funktioniert DP-Fusion: Ein mathematischer Schutzschild

DP-Fusion zeichnet sich dadurch aus, dass es mathematisch nachweisbare Datenschutzgarantien auf „Token-Ebene“ bietet. Anstatt einfach nur zu versuchen, Wörter zu verbergen, nutzt es einen ausgeklügelten vierstufigen Prozess, um die Privatsphäre zu gewährleisten, ohne die Intelligenz der KI zu opfern:

  1. Identifizierung: Sensible Token (Informationsbits) in der Eingabe werden gekennzeichnet.
  2. Grundlinienfestlegung: Das Modell läuft ohne diese sensiblen Token, um eine „neutrale“ Grundlinie zu erstellen.
  3. Kontextverarbeitung: Das Modell wird erneut mit den enthaltenen sensiblen Token ausgeführt.
  4. Verteilungsmischung: Das System mischt die beiden Ausgaben, sodass die endgültige Antwort mathematisch durch die Basislinie begrenzt bleibt.

Dadurch wird sichergestellt, dass die sensiblen Informationen effektiv in der Ausgabe verborgen bleiben, während die Fähigkeit der KI, kohärente, nützliche Antworten zu liefern, erhalten bleibt.

Überlegene Leistung und Vielseitigkeit

Eine der bedeutendsten Errungenschaften von DP-Fusion ist seine Fähigkeit, den „Kompromiss zwischen Privatsphäre und Nutzen“ zu lösen. Normalerweise führt eine zunehmende Privatsphäre dazu, dass eine KI weniger kohärent ist (ein Konzept, das als Perplexität bekannt ist).

DP-Fusion erreicht eine sechsmal geringere Verwirrung als konkurrierende Datenschutzmethoden, was bedeutet, dass es deutlich nützlicheren und lesbareren Text erzeugt und gleichzeitig eine höhere Sicherheit gewährleistet.

Darüber hinaus bietet die Technologie zwei entscheidende Vorteile:
Anpassbare Steuerung: Bediener können einen einzigen Parameter verwenden, um den Schutz auszugleichen. Wenn Sie den Wert auf Null setzen, erhalten Sie maximale Privatsphäre (Token werden vollständig ausgeblendet), während höhere Werte je nach Anwendungsfall mehr „Nützlichkeit“ oder Genauigkeit ermöglichen.
Dual-Purpose-Verteidigung: Durch die Behandlung von Daten aus nicht vertrauenswürdigen externen Quellen als „sensibel“ fungiert DP-Fusion auch als Abwehr gegen Prompt-Injection – und Jailbreak-Angriffe und schützt das Modell vor gegnerischer Manipulation.

Der wirtschaftliche und betriebliche Kontext

Die Dringlichkeit dieser Forschung wird durch die schiere Größe des KI-Marktes unterstrichen. Laut McKinsey wird KI-Inferenz voraussichtlich über 40 % des gesamten Rechenzentrumsbedarfs ausmachen und mit einer jährlichen Rate von 35 % wachsen.

Da der weltweite KI-Inferenzmarkt bis 2030 voraussichtlich zwischen 250 und 350 Milliarden US-Dollar erreichen wird, wächst die „Angriffsfläche“ – die Anzahl der Momente, in denen ein Live-Modell reale Daten berührt – exponentiell. Da Inferenz bis zu 90 % der gesamten Lebenszeitkosten eines KI-Systems ausmacht, ist die Sicherung dieser Phase nicht nur eine Frage des Datenschutzes, sondern auch der langfristigen Betriebsfähigkeit der globalen digitalen Wirtschaft.


Schlussfolgerung
Durch die Bereitstellung einer mathematisch strengen Methode zum Schutz von Daten während Live-KI-Interaktionen ebnet DP-Fusion den Weg für die sichere Einführung generativer KI in stark regulierten Sektoren wie Medizin und Finanzen. Diese Forschung markiert einen entscheidenden Wandel vom „probabilistischen“ Datenschutz hin zur „nachweisbaren“ Sicherheit im Zeitalter des groß angelegten KI-Einsatzes.