Nvidia BlueField-4 STX: het opslagknelpunt van AI oplossen

19

Nvidia heeft BlueField-4 STX onthuld, een nieuwe referentiearchitectuur die is ontworpen om een kritische prestatiebeperking op het gebied van kunstmatige intelligentie aan te pakken: de snelheid waarmee AI-agenten toegang kunnen krijgen tot gegevens en deze kunnen verwerken. Het kernprobleem zijn niet de AI-modellen zelf, maar het onvermogen van traditionele opslagsystemen om gelijke tred te houden met de eisen van moderne gevolgtrekkingen. Dit knelpunt heeft invloed op het vermogen van AI om een ​​samenhangend ‘werkgeheugen’ te behouden tijdens complexe taken, tooloproepen en redeneerprocessen die uit meerdere stappen bestaan.

Het probleem met de huidige opslag

Grote taalmodellen (LLM’s) zijn afhankelijk van een sleutelwaarde-cache (KV) om tussentijdse berekeningen op te slaan, waardoor ze kunnen voorkomen dat dezelfde informatie herhaaldelijk opnieuw wordt berekend. Naarmate AI-agents langere contexten en complexere taken uitvoeren, groeit deze cache exponentieel. Wanneer die cache toegang moet krijgen tot langzame, traditionele opslag, nemen de inferentiesnelheden af ​​en lijdt het GPU-gebruik eronder. Dit is geen theoretisch probleem: de prestaties van AI worden direct beperkt door hoe snel eerder verwerkte gegevens kunnen worden opgehaald.

BlueField-4 STX: een contextgeheugenlaag

De oplossing van Nvidia is geen product dat ze rechtstreeks verkopen, maar een referentieontwerp voor opslagpartners. BlueField-4 STX voegt een speciale ‘contextgeheugenlaag’ in tussen GPU’s en conventionele opslag. De architectuur combineert Nvidia’s Vera CPU met de ConnectX-9 SuperNIC, draaiend op Spectrum-X Ethernet-netwerken en programmeerbaar via Nvidia’s DOCA-softwareplatform. Het doel is simpel: de KV-cache toegankelijk houden met snelheden die overeenkomen met GPU-verwerking. De eerste implementatie is het CMX-contextgeheugenopslagplatform, dat het GPU-geheugen uitbreidt met een hoogwaardige laag voor het opslaan en ophalen van KV-cachegegevens.

Partnerecosysteem en beschikbaarheid

Nvidia distribueert deze referentiearchitectuur onder zijn opslagpartners om een AI-native infrastructuur te bouwen. Het bedrijf heeft toezeggingen gekregen van grote spelers, waaronder Cloudian, Dell Technologies, HPE, IBM, NetApp, VAST Data en WEKA. Cloudproviders zoals CoreWeave, Mistral AI en Oracle Cloud Infrastructure hebben zich ook gecommitteerd aan het adopteren van STX voor contextgeheugenopslag.

Platformen gebaseerd op STX zullen naar verwachting in de tweede helft van 2026 beschikbaar komen van partners. De combinatie van gevestigde bedrijven op het gebied van opslag en AI-native cloudproviders geeft aan dat Nvidia van plan is om STX te positioneren als een nieuwe standaard voor AI-infrastructuur.

Prestatieverbeteringen in de echte wereld

IBM demonstreert nu al de impact van deze aanpak. Hun Storage Scale System 6000, gecertificeerd op Nvidia DGX-platforms, heeft aanzienlijke verbeteringen laten zien in de datavernieuwingscycli voor gestructureerde analyseworkloads. In een proof-of-concept met Nestlé daalde het vernieuwen van gegevens in 186 landen en 44 tabellen van 15 minuten naar slechts drie minuten, wat een kostenbesparing van 83% opleverde en een prijs-prestatieverbetering van 30x. Hoewel dit voorbeeld zich richt op gestructureerde gegevens, illustreert het het bredere punt: de opslaglaag is vaak de belangrijkste beperking bij AI-implementaties in ondernemingen.

Waarom dit belangrijk is

De verschuiving naar context-geoptimaliseerde opslag is van cruciaal belang omdat opslag voor algemene doeleinden niet is ontworpen voor de latentievereisten van agentische AI-workloads. Naarmate AI meer geïntegreerd raakt in bedrijfsactiviteiten, zal de opslaglaag een eersteklas infrastructuurbeslissing worden, en niet een bijzaak bij GPU-aankoop. Nvidia beweert dat STX 5x tokendoorvoer, 4x energie-efficiëntie en 2x data-opnamesnelheid levert vergeleken met traditionele CPU-gebaseerde opslag, hoewel specifieke basisconfiguraties voor deze metingen niet gespecificeerd blijven.

Concluderend vertegenwoordigt Nvidia’s BlueField-4 STX een fundamentele verandering in de manier waarop bedrijven de AI-infrastructuur benaderen. Door het opslagknelpunt aan te pakken, maakt het bedrijf de weg vrij voor snellere, efficiëntere en beter schaalbare AI-implementaties in een breed scala van industrieën.