Ein neues Unternehmen, Niv-AI, ist mit einer Startfinanzierung in Höhe von 12 Millionen US-Dollar gestartet, um einen kritischen Engpass in der boomenden KI-Branche zu beheben: die ineffiziente Stromnutzung in Rechenzentren. Das Kernproblem besteht darin, dass fortschrittliche GPUs, die für das Training und den Betrieb von KI-Modellen unerlässlich sind, unvorhersehbare Anstiege des Strombedarfs verursachen, was Betreiber dazu zwingt, entweder die Leistung einzuschränken oder zusätzliche Kosten für die Energiespeicherung zu zahlen. Dies führt zu verschwendeten Investitionen und einer langsameren KI-Entwicklung.
Das Machtproblem mit KI
Wie Jensen Huang, CEO von Nvidia, unverblümt erklärte, stellt jedes ungenutzte Watt Leistung in einer KI-Fabrik einen Umsatzverlust dar. Das Problem ist auf die Leistungsschwankungen im Millisekundenbereich zurückzuführen, die modernen GPU-Workloads innewohnen. Wenn Tausende von GPUs schnell zwischen Aufgaben wechseln, entstehen Spannungsspitzen, die bestehende Energieverwaltungssysteme überfordern. Rechenzentren reagieren, indem sie entweder die GPU-Nutzung drosseln (die Leistung verringern) oder zu viel für Backup-Energiereserven bezahlen.
Das Ausmaß der Verschwendung ist erheblich. Branchenexperten schätzen, dass bis zu 30 % der potenziellen GPU-Kapazität aufgrund von Leistungsbeschränkungen ungenutzt bleiben. Dies ist nicht nur ein wirtschaftliches Problem; Es behindert auch den Fortschritt der KI-Forschung und -Einführung.
Niv-AIs Ansatz: Echtzeitüberwachung und KI-gesteuerte Vorhersage
Niv-AI wurde in Tel Aviv gegründet und verfolgt einen zweigleisigen Ansatz:
- Präzise Leistungsmessung: Das Unternehmen setzt Sensoren auf Rack-Ebene ein, um den GPU-Stromverbrauch auf Millisekundenebene zu überwachen. Diese detaillierten Daten werden die spezifischen Leistungsprofile verschiedener Deep-Learning-Aufgaben offenbaren.
- KI-gestützte Optimierung: Niv-AI plant, ein KI-Modell anhand der gesammelten Daten zu trainieren, um die Stromlasten in gesamten Rechenzentren vorherzusagen und zu synchronisieren. Ziel ist es, einen „Copiloten“ für Rechenzentrumsingenieure zu schaffen, der es ihnen ermöglicht, die GPU-Nutzung zu maximieren, ohne das Netz zu überlasten.
Warum das jetzt wichtig ist
Der Zeitpunkt ist entscheidend. Hyperscaler (große Cloud-Anbieter) stehen beim Bau neuer Rechenzentren aufgrund von Landnutzungsbeschränkungen und Lieferkettenproblemen vor Hürden. Die Verbesserung der Effizienz bestehender Infrastruktur ist jetzt attraktiver denn je. Das aktuelle System erzwingt einen Kompromiss zwischen Leistung und Stabilität, und Niv-AI möchte dieses Problem lösen.
„Das Netz hat tatsächlich Angst davor, dass das Rechenzentrum zu einem bestimmten Zeitpunkt zu viel Strom verbraucht“, erklärt Tomer Timor, CEO von Niv-AI. Die Vision des Unternehmens besteht darin, eine fehlende „Intelligenzschicht“ zwischen dem Rechenzentrum und dem Stromnetz zu schaffen.
Niv-AI erwartet, innerhalb von 6–8 Monaten über ein funktionierendes System in US-Rechenzentren zu verfügen. Das Startup wird von namhaften Venture-Firmen wie Glilot Capital und Grove Ventures unterstützt.
Die langfristigen Auswirkungen sind klar: Da die KI weiter wächst, wird die Nachfrage nach Strom nur noch steigen. Unternehmen wie Niv-AI sind entscheidend dafür, dass dieses Wachstum nachhaltig und effizient ist.































