Anslut dig till vÄrt nÀtverk!

Artificiell intelligens

Cerebras introducerar vÀrldens snabbaste AI-inferenslösning: 20x hastighet till en brÄkdel av kostnaden

mm

Cerebras-system, en pionjÀr inom högpresterande AI-berÀkningar, har introducerat en banbrytande lösning som kommer att revolutionera AI-inferens. Den 27 augusti 2024 tillkÀnnagav företaget lanseringen av Cerebras Inference, den snabbaste AI-inferenstjÀnsten i vÀrlden. Med prestandamÄtt som överskrider de för traditionella GPU-baserade system, levererar Cerebras Inference 20 gÄnger hastigheten till en brÄkdel av kostnaden, vilket sÀtter ett nytt riktmÀrke inom AI-berÀkningar.

OövertrÀffad hastighet och kostnadseffektivitet

Cerebras Inference Àr designad för att leverera exceptionell prestanda över olika AI-modeller, sÀrskilt i det snabbt utvecklande segmentet av stora sprÄkmodeller (LLMs). Till exempel bearbetar den 1,800 3.1 tokens per sekund för Llama 8 450B-modellen och 3.1 tokens per sekund för Llama 70 20B-modellen. Denna prestanda Àr inte bara 10 gÄnger snabbare Àn den för NVIDIA GPU-baserade lösningar utan kommer ocksÄ till en betydligt lÀgre kostnad. Cerebras erbjuder denna tjÀnst frÄn bara 3.1 cent per miljon tokens för Llama 8 60B-modellen och 3.1 cent per miljon tokens för Llama 70 100B-modellen, vilket representerar en XNUMXx förbÀttring av pris-prestanda jÀmfört med befintliga GPU-baserade erbjudanden.

BibehÄll noggrannhet samtidigt som du tÀnjer pÄ grÀnserna för hastighet

En av de mest imponerande aspekterna av Cerebras Inference Àr dess förmÄga att upprÀtthÄlla toppmodern precision samtidigt som den levererar oövertrÀffad hastighet. Till skillnad frÄn andra tillvÀgagÄngssÀtt som offrar precision för hastighet, stannar Cerebras lösning inom 16-bitars domÀnen under hela slutledningskörningen. Detta sÀkerstÀller att prestandavinsterna inte sker pÄ bekostnad av kvaliteten pÄ AI-modellutdata, en avgörande faktor för utvecklare fokuserade pÄ precision.

Micah Hill-Smith, medgrundare och VD för artificiell analys, betonade betydelsen av denna prestation: "Cerebras levererar hastigheter en storleksordning snabbare Ă€n GPU-baserade lösningar för Metas Llama 3.1 8B och 70B AI-modeller. Vi mĂ€ter hastigheter över 1,800 3.1 output-tokens per sekund pĂ„ Llama 8 446B och över 3.1 output-tokens per sekund pĂ„ Llama 70 XNUMXB – ett nytt rekord i dessa riktmĂ€rken."

Den vÀxande betydelsen av AI-inferens

AI slutledning Ă€r det snabbast vĂ€xande segmentet av AI-berĂ€kningar och stĂ„r för cirka 40 % av den totala AI-hĂ„rdvarumarknaden. Tillkomsten av höghastighets AI-inferens, som den som erbjuds av Cerebras, Ă€r beslĂ€ktad med introduktionen av bredbandsinternet – som lĂ„ser upp nya möjligheter och förebĂ„dar en ny era för AI-applikationer. Med Cerebras Inference kan utvecklare nu bygga nĂ€sta generations AI-applikationer som krĂ€ver komplex prestanda i realtid, som AI-agenter och intelligenta system.

Andrew Ng, grundare av DeepLearning.AI, underströk vikten av snabbhet i AI-utveckling: "DeepLearning.AI har flera agentiska arbetsflöden som krÀver att en LLM uppmanas upprepade gÄnger för att fÄ ett resultat. Cerebras har byggt en imponerande snabb slutledningsförmÄga som kommer att vara till stor hjÀlp för sÄdana arbetsbelastningar."

Brett branschstöd och strategiska partnerskap

Cerebras har fÄtt starkt stöd frÄn branschledare och har bildat strategiska partnerskap för att pÄskynda utvecklingen av AI-applikationer. Kim Branson, SVP för AI/ML pÄ GlaxoSmithKline, en tidig Cerebras-kund, betonade den transformativa potentialen hos denna teknik: "Hastighet och skala förÀndrar allt."

Andra företag, som LiveKit, Bryderi, och Meter, har ocksÄ uttryckt entusiasm för den inverkan som Cerebras Inference kommer att ha pÄ deras verksamhet. Dessa företag utnyttjar kraften i Cerebras berÀkningskapacitet för att skapa mer lyhörda, mÀnniskoliknande AI-upplevelser, förbÀttra anvÀndarinteraktion i sökmotorer och förbÀttra nÀtverkshanteringssystem.

Cerebras inferens: nivÄer och tillgÀnglighet

Cerebras Inference Àr tillgÀnglig i tre konkurrenskraftiga nivÄer: Gratis, utvecklare och företag. Free Tier ger gratis API-Ätkomst med generösa anvÀndningsgrÀnser, vilket gör den tillgÀnglig för ett brett spektrum av anvÀndare. Developer Tier erbjuder ett flexibelt, serverlöst distributionsalternativ, med Llama 3.1-modeller prissatta till 10 cent och 60 cent per miljon tokens. Enterprise Tier vÀnder sig till organisationer med ihÄllande arbetsbelastning och erbjuder finjusterade modeller, anpassade servicenivÄavtal och dedikerad support, med prissÀttning tillgÀnglig pÄ begÀran.

Powering Cerebras Inference: The Wafer Scale Engine 3 (WSE-3)

I hjÀrtat av Cerebras Inference Àr Cerebras CS-3-systemet, som drivs av den branschledande Wafer Scale Engine 3 (WSE-3). Denna AI-processor Àr oövertrÀffad i sin storlek och hastighet och erbjuder 7,000 100 gÄnger mer minnesbandbredd Àn NVIDIAs H3. WSE-XNUMX:s enorma skala gör att den kan hantera mÄnga samtidiga anvÀndare, vilket sÀkerstÀller höga hastigheter utan att kompromissa med prestanda. Den hÀr arkitekturen gör att Cerebras kan kringgÄ de kompromisser som vanligtvis plÄgar GPU-baserade system, vilket ger klassens bÀsta prestanda för AI-arbetsbelastningar.

Sömlös integration och utvecklarvÀnligt API

Cerebras Inference Àr designad med utvecklare i Ätanke. Den har ett API som Àr helt kompatibelt med OpenAI Chat Completions API, vilket möjliggör enkel migrering med minimala kodÀndringar. Detta utvecklarvÀnliga tillvÀgagÄngssÀtt sÀkerstÀller att integrationen av Cerebras Inference i befintliga arbetsflöden Àr sÄ sömlös som möjligt, vilket möjliggör snabb implementering av högpresterande AI-applikationer.

Cerebras Systems: Driving Innovation Across Industries

Cerebras Systems Àr inte bara en ledare inom AI-datorer utan ocksÄ en nyckelaktör inom olika branscher, inklusive sjukvÄrd, energi, myndigheter, vetenskaplig datoranvÀndning och finansiella tjÀnster. Företagets lösningar har varit avgörande för att driva genombrott pÄ institutioner som National Laboratories, Aleph Alpha, The Mayo Clinic och GlaxoSmithKline.

Genom att tillhandahÄlla oövertrÀffad hastighet, skalbarhet och noggrannhet gör Cerebras det möjligt för organisationer över dessa sektorer att ta itu med nÄgra av de mest utmanande problemen inom AI och vidare. Oavsett om det handlar om att pÄskynda lÀkemedelsupptÀckten inom hÀlso- och sjukvÄrden eller att förbÀttra berÀkningskapaciteten inom vetenskaplig forskning, ligger Cerebras i framkant nÀr det gÀller att driva innovation.

Slutsats: En ny era för AI-inferens

Cerebras Systems sÀtter en ny standard för AI-inferens med lanseringen av Cerebras Inference. Genom att erbjuda 20 gÄnger snabbare hastighet Àn traditionella GPU-baserade system till en brÄkdel av kostnaden, gör Cerebras inte bara AI mer tillgÀngligt utan banar ocksÄ vÀg för nÀsta generations AI-applikationer. Med sin spetsteknologi, strategiska partnerskap och engagemang för innovation Àr Cerebras redo att leda AI-branschen in i en ny era av oövertrÀffad prestanda och skalbarhet.

För mer information om Cerebras Systems och för att prova Cerebras Inference, besök www.cerebras.ai.

Antoine Àr en visionÀr ledare och grundande partner till Unite.AI, driven av en orubblig passion för att forma och frÀmja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika störande för samhÀllet som elektricitet, och fÄngas ofta pÄ att tjata om potentialen hos störande teknologier och AGI.

Som en futurist, Àr han dedikerad till att utforska hur dessa innovationer kommer att forma vÄr vÀrld. Dessutom Àr han grundare av Securities.io, en plattform fokuserad pÄ att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.