Innovatieve Oplossing Voor Geheugenbeheer in AI: Enfabrica Lanceert Emfasys
In de wereld van kunstmatige intelligentie (AI) is de druk op geheugenbronnen enorm toegenomen, vooral met de opkomst van grote taalmodellen (LLM). Enfabrica Corporation, een startup met steun van NVIDIA, heeft deze week de lancering van Emfasys aangekondigd, het eerste commerciële systeem voor elastisch geheugen dat volledig gebaseerd is op Ethernet. Deze nieuwe architectuur belooft een revolutie in efficiëntie voor grootschalige inferentie workloads door de geheugencapaciteit van GPU-servers uit te breiden met DDR5 DRAM die via netwerken is verbonden, zonder dat de systeeminfrastructuur hoeft te worden aangepast.
Geheugenuitbreiding Tot 18 TB per Node
Emfasys is ontworpen om de uitdagingen van schaalvergroting aan te pakken die ontstaan bij grote taalmodellen. Het systeem biedt tot 18 TB DDR5-geheugen per node, toegankelijk via standaard Ethernet-verbindingen van 400 en 800 GbE. Dit gebeurt met behulp van technologieën zoals RDMA en CXL. Volgens Enfabrica kan deze oplossing de kosten per gegenereerde token met maar liefst 50% verlagen, vooral bij workloads met meerdere rondes, uitgebreide contextvensters of autonome agentinferentie.
Rochan Sankar, CEO van Enfabrica, zegt: “De inferentie van AI heeft een probleem met geheugenschaalbandbreedte en een probleem met margin stapeling. Naarmate modellen retentiever worden en minder conversatiegericht, heeft toegang tot geheugen een nieuwe benadering nodig. Emfasys is onze reactie op deze uitdaging.”
Een Nieuwe Paradigma in Geheugenarchitectuur
Deze technologie is gebaseerd op de ACF-S SuperNIC-chip, die een indrukwekkend rendement van 3,2 Tbps biedt en de interconnectiviteit van GPU-servers met DDR5-geheugen mogelijk maakt via het CXL.mem-protocol. Het systeem fungeert als een “geheugencontroller via Ethernet”, waarbij gegevens zonder tussenkomst van de CPU worden overgedragen en met latenties gemeten in microseconden — aanzienlijk lager dan wat flash-gebaseerde systemen kunnen bieden.
Het systeem bevat ook software voor remote memory die compatibel is met RDMA en standaard besturingssystemen, wat de implementatie vergemakkelijkt zonder dat er een herontwerp van de hardware- of softwarestack van bestaande servers nodig is. Dit zorgt voor een betere benutting van rekenkracht, vermindert verspilling van dure en beperkte HBM-geheugen en verlicht knelpunten in intensieve multi-clientscenario’s.
Toepassingen Voor De Nieuwe Generatie Van Generatieve AI
De exponentiële groei van generatieve en agentieve modellen, die 10 tot 100 keer hogere eisen stellen dan eerdere implementaties van LLM’s, legt een enorme druk op de wereldwijde AI-infrastructuur. Enfabrica biedt Emfasys aan als een schaalbare oplossing voor cloudomgevingen waar tokens per seconde en contextgeheugen de totale eigendomskosten (TCO) bepalen.
De eerste klanten testen de technologie al. Hoewel Enfabrica nog niet heeft aangekondigd wanneer het publiek toegang zal krijgen, bevindt de oplossing zich in een actieve evaluatie- en pilotfase. Bovendien maakt het bedrijf deel uit van het Ultra Ethernet Consortium (UEC) en werkt het samen met de opkomende standaard Ultra Accelerator Link (UALink).
Strategische Ondersteuning Voor Enfabrica
Dit nieuws komt na een recente financiële impuls voor het bedrijf, dat in 2023 een Serie B-investeringsronde van 125 miljoen dollar heeft afgerond, met participatie van Sutter Hill Ventures en NVIDIA. In april 2025 begon Enfabrica met het distribueren van monsters van zijn ACF-S-chip, en in februari opende het een nieuw R&D-centrum in India om de ontwikkeling van netwerkinfrastructuuroplossingen voor AI te versnellen.
Met Emfasys streeft Enfabrica ernaar om een leidende rol te spelen in een nieuw segment van gedistribueerde geheugeninfrastructuur voor generatieve AI, waar de efficiëntie van geheugentoegang het verschil kan maken tussen economische haalbaarheid of een hulpbronnencrisis in de volgende golf van cognitieve toepassingen.
Bron: Enfabrica