Anslut dig till vÄrt nÀtverk!

Artificiell intelligens

Enfabrica presenterar Ethernet-baserad minnesstruktur som kan omdefiniera AI-inferens i stor skala

mm

publicerade

 on

Enfabrica, en startup baserad i Silicon Valley med stöd av Nvidia, har presenterat en banbrytande produkt som kan komma att omforma hur storskaliga AI-arbetsbelastningar distribueras och skalas. Företagets nya Elastic Memory Fabric System (EMFASYS) Àr den första kommersiellt tillgÀngliga Ethernet-baserade minnesstrukturen som Àr specifikt utformad för att ÄtgÀrda den centrala flaskhalsen inom generativ AI-inferens: minnesÄtkomst.

I en tid dĂ„ AI-modeller blir alltmer komplexa, kontextmedvetna och ihĂ„llande – och krĂ€ver enorma mĂ€ngder minne per anvĂ€ndarsession – levererar EMFASYS en ny metod för att frikoppla minne frĂ„n berĂ€kningsförmĂ„ga, vilket gör det möjligt för AI-datacenter att dramatiskt förbĂ€ttra prestanda, sĂ€nka kostnader och öka utnyttjandet av sina dyraste resurser: GPU:er.

Vad Ă€r ett minnestyg – och varför Ă€r det viktigt?

Traditionellt sett har minne i datacenter varit tĂ€tt bundet till servern eller noden dĂ€r det finns. Varje GPU eller CPU har endast tillgĂ„ng till det högbandbreddsminne som Ă€r direkt anslutet till det – vanligtvis HBM för GPU:er eller DRAM för CPU:er. Denna arkitektur fungerar bra nĂ€r arbetsbelastningarna Ă€r smĂ„ och förutsĂ€gbara. Men generativ AI har förĂ€ndrat spelet. LLM:er krĂ€ver tillgĂ„ng till stora kontextfönster, anvĂ€ndarhistorik och multiagentminne – som alla mĂ„ste bearbetas snabbt och utan dröjsmĂ„l. Dessa minneskrav överstiger ofta den tillgĂ€ngliga kapaciteten i lokalt minne, vilket skapar flaskhalsar som strandar GPU-kĂ€rnor och blĂ„ser upp infrastrukturkostnaderna.

A minnestyg löser detta genom att omvandla minne till en delad, distribuerad resurs – en sorts nĂ€tverksansluten minnespool som Ă€r tillgĂ€nglig för alla GPU:er eller processorer i klustret. TĂ€nk pĂ„ det som att skapa ett "minnesmoln" i datacentrets rack. IstĂ€llet för att replikera minne över servrar eller överbelasta dyr HBM, tillĂ„ter en fabric att minne aggregeras, disaggregeras och nĂ„s pĂ„ begĂ€ran över ett höghastighetsnĂ€tverk. Detta gör att AI-inferensarbetsbelastningar kan skalas mer effektivt utan att begrĂ€nsas av de fysiska minnesgrĂ€nserna för nĂ„gon enskild nod.

Enfabricas tillvÀgagÄngssÀtt: Ethernet och CXL, Àntligen tillsammans

EMFASYS uppnÄr denna rackminnesarkitektur genom att kombinera tvÄ kraftfulla tekniker: RDMA över Ethernet och Compute Express Link (CXL)Den förra möjliggör dataöverföring med extremt lÄg latens och hög genomströmning över vanliga Ethernet-nÀtverk. Den senare gör att minne kan kopplas bort frÄn processorer och grafikprocessorer och samlas i delade resurser, Ätkomliga via höghastighets-CXL-lÀnkar.

KĂ€rnan i EMFASYS Ă€r Enfabricas ACF-S-chip, ett 3.2 terabit per sekund (Tbps) "SuperNIC" som slĂ„r samman nĂ€tverk och minneskontroll i en enda enhet. Detta chip gör det möjligt för servrar att interagera med massiva pooler av standard DDR5 DRAM – upp till 18 terabyte per nod – fördelade över racket. Avgörande Ă€r att det gör det med hjĂ€lp av vanliga Ethernet-portar, vilket gör det möjligt för operatörer att utnyttja sin befintliga datacenterinfrastruktur utan att investera i proprietĂ€ra sammankopplingar.

Det som gör EMFASYS sÀrskilt attraktivt Àr dess förmÄga att dynamiskt avlasta minnesbundna arbetsbelastningar frÄn dyra GPU-anslutna HBM till betydligt mer prisvÀrda DRAM, samtidigt som Ätkomstlatens pÄ mikrosekundnivÄ bibehÄlls. Programvarustacken bakom EMFASYS inkluderar intelligenta cachnings- och lastbalanseringsmekanismer som döljer latens och orkestrerar minnesrörelser pÄ sÀtt som Àr transparenta för de LLM:er som körs pÄ systemet.

Implikationer för AI-industrin

Detta Ă€r mer Ă€n bara en smart hĂ„rdvarulösning – det representerar ett filosofiskt skifte i hur AI-infrastruktur byggs och skalas upp. I takt med att generativ AI gĂ„r frĂ„n nyhet till nödvĂ€ndighet, med miljarder anvĂ€ndarfrĂ„gor som bearbetas dagligen, har kostnaden för att hantera dessa modeller blivit ohĂ„llbar för mĂ„nga företag. Grafikprocessorer Ă€r ofta underutnyttjade, inte pĂ„ grund av brist pĂ„ berĂ€kningskapacitet, utan för att de stĂ„r inaktiva och vĂ€ntar pĂ„ minne. EMFASYS Ă„tgĂ€rdar den obalansen direkt.

Genom att möjliggöra poolat, fabric-attached memory (fabric-attached minne) Ätkomligt via Ethernet erbjuder Enfabrica datacenteroperatörer ett skalbart alternativ till att kontinuerligt köpa fler GPU:er eller HBM. IstÀllet kan de öka minneskapaciteten modulÀrt med hjÀlp av standard DRAM och intelligent nÀtverkshantering, vilket minskar det totala fotavtrycket och förbÀttrar ekonomin för AI-inferens.

Implikationerna gÄr utöver omedelbara kostnadsbesparingar. Denna typ av disaggregerad arkitektur banar vÀg för minne-som-en-tjÀnst-modeller, dÀr kontext, historik och agenttillstÄnd kan bestÄ bortom en enda session eller server, vilket öppnar dörren för mer intelligenta och personliga AI-system. Det banar ocksÄ vÀg för mer motstÄndskraftiga AI-moln, dÀr arbetsbelastningar kan distribueras elastiskt över ett rack eller ett helt datacenter utan stela minnesbegrÀnsningar.

Ser framÄt

Enfabricas EMFASYS gör för nÀrvarande stickprov hos utvalda kunder, och Àven om företaget inte har avslöjat vilka dessa partners Àr, Reuters rapporterar att stora AI-molnleverantörer redan testar systemet. Detta positionerar Enfabrica inte bara som en komponentleverantör, utan som en viktig möjliggörare i nÀsta generations AI-infrastruktur.

Genom att frikoppla minne frĂ„n berĂ€kningsförmĂ„ga och göra det tillgĂ€ngligt över snabba, standardiserade Ethernet-nĂ€tverk lĂ€gger Enfabrica grunden för en ny era av AI-arkitektur – en dĂ€r inferens kan skalas utan kompromisser, dĂ€r resurser inte lĂ€ngre Ă€r strandsatta och dĂ€r ekonomin i att driftsĂ€tta stora sprĂ„kmodeller Ă€ntligen börjar bli meningsfull.

I en vĂ€rld som alltmer definieras av kontextrika AI-system med flera agenter Ă€r minnet inte lĂ€ngre en stödjande aktör – det Ă€r scenen. Och Enfabrica satsar pĂ„ att den som bygger den bĂ€sta scenen kommer att definiera AI:ns prestanda i mĂ„nga Ă„r framöver.

Antoine Àr en visionÀr ledare och grundande partner till Unite.AI, driven av en orubblig passion för att forma och frÀmja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika störande för samhÀllet som elektricitet, och fÄngas ofta pÄ att tjata om potentialen hos störande teknologier och AGI.

Som en futurist, Àr han dedikerad till att utforska hur dessa innovationer kommer att forma vÄr vÀrld. Dessutom Àr han grundare av Securities.io, en plattform fokuserad pÄ att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.