Kunstig intelligens
Utnyttelse av silisium: Hvordan interne brikker former fremtiden til AI

Kunstig intelligens, som all programvare, er avhengig av to grunnleggende komponenter: AI-programmene, ofte referert til som modeller, og beregningsmaskinvaren, eller brikkene, som driver disse programmene. Så langt har fokuset i AI-utviklingen vært på å foredle modellene, mens maskinvaren typisk ble sett på som en standardkomponent levert av tredjepartsleverandører. Nylig har imidlertid denne tilnærmingen begynt å endre seg. Store AI-firmaer som Google, Meta og Amazon har begynt å utvikle sine egne AI-brikker. Den interne utviklingen av tilpassede AI-brikker innvarsler en ny æra innen AI-utvikling. Denne artikkelen vil utforske årsakene bak denne endringen i tilnærming og vil fremheve den siste utviklingen i dette utviklende området.
Hvorfor intern AI-brikkeutvikling?
Skiftet mot egenutvikling av tilpassede AI-brikker er drevet av flere kritiske faktorer, som inkluderer:
Økende etterspørsel etter AI-brikker
Å lage og bruke AI-modeller krever betydelige beregningsressurser for å effektivt håndtere store datamengder og generere presise spådommer eller innsikt. Tradisjonelle databrikker er ikke i stand til å håndtere beregningskrav når de trener på billioner av datapunkter. Denne begrensningen har ført til etableringen av banebrytende AI-brikker spesielt designet for å møte de høye ytelses- og effektivitetskravene til moderne AI-applikasjoner. Ettersom AI-forskning og -utvikling fortsetter å vokse, øker også etterspørselen etter disse spesialiserte brikkene.
Nvidia, en leder innen produksjon av avanserte AI-brikker og godt foran sine konkurrenter, står overfor utfordringer ettersom etterspørselen i stor grad overstiger produksjonskapasiteten. Denne situasjonen har ført til venteliste for NvidiaAI-brikkene utvides til flere måneder, en forsinkelse som fortsetter å vokse ettersom etterspørselen etter deres AI-brikker øker. Dessuten møter brikkemarkedet, som inkluderer store aktører som Nvidia og Intel, utfordringer i brikkeproduksjonen. Dette utstedelse stammer fra deres avhengighet av den taiwanske produsenten TSMC for brikkemontering. Denne avhengigheten av en enkelt produsent fører til forlengede ledetider for produksjon av disse avanserte brikkene.
Gjør AI Computing energieffektiv og bærekraftig
Den nåværende generasjonen av AI-brikker, som er designet for tunge beregningsoppgaver, pleier å gjøre det forbruker mye kraftog generere betydelig varme. Dette har ført til betydelige miljømessige implikasjoner for opplæring og bruk av AI-modeller. OpenAI-forskere noter det: Siden 2012 har datakraften som kreves for å trene avanserte AI-modeller doblet seg hver 3.4 måned, noe som tyder på at innen 2040 kan utslipp fra informasjons- og kommunikasjonsteknologi (IKT) utgjøre 14 % av globale utslipp. En annen studie viste som trener en enkelt storskala språkmodell kan slippe ut opptil 284,000 kg CO2, noe som tilsvarer omtrentlig energiforbruket til fem biler i løpet av levetiden. Dessuten er det det anslått at energiforbruket til datasentre vil vokse 28 prosent innen 2030. Disse funnene understreker nødvendigheten av å finne en balanse mellom AI-utvikling og miljøansvar. Som svar investerer mange AI-selskaper nå i utviklingen av mer energieffektive brikker, med sikte på å gjøre AI-trening og drift mer bærekraftig og miljøvennlig.
Skreddersy brikker for spesialiserte oppgaver
Ulike AI-prosesser har varierende beregningskrav. For eksempel krever opplæring av dyplæringsmodeller betydelig beregningskraft og høy gjennomstrømning for å håndtere store datasett og utføre komplekse beregninger raskt. Chips designet for trening er optimalisert for å forbedre disse operasjonene, forbedre hastigheten og effektiviteten. På den annen side krever slutningsprosessen, der en modell bruker sin lærte kunnskap for å lage spådommer, rask prosessering med minimalt energibruk, spesielt i avanserte enheter som smarttelefoner og IoT-enheter. Chips for inferens er konstruert for å optimalisere ytelsen per watt, og sikre rask respons og batterisparing. Denne spesifikke tilpasningen av brikkedesign for trenings- og slutningsoppgaver gjør at hver brikke kan justeres nøyaktig for den tiltenkte rollen, noe som forbedrer ytelsen på tvers av forskjellige enheter og applikasjoner. Denne typen spesialisering støtter ikke bare mer robuste AI-funksjoner, men fremmer også større energieffektivitet og kostnadseffektivitet bredt.
Redusere økonomiske byrder
Den økonomiske byrden med databehandling for opplæring og drift av AI-modeller er fortsatt betydelig. OpenAI, for eksempel, bruker en omfattende superdatamaskin laget av Microsoft for både opplæring og slutning siden 2020. Det kostet OpenAI rundt 12 millioner dollar å trene opp GPT-3-modellen, og utgiftene økte til $ 100 millioner for trening GPT-4. I følge a rapporterer av SemiAnalysis trenger OpenAI omtrent 3,617 100 HGX A28,936-servere, totalt 0.36 XNUMX GPUer, for å støtte ChatGPT, noe som bringer gjennomsnittskostnaden per forespørsel til omtrent $XNUMX. Med disse høye kostnadene i tankene, søker Sam Altman, administrerende direktør i OpenAI, etter sigende betydelige investeringer for å bygge et verdensomspennende nettverk av AI-brikkeproduksjonsanlegg, ifølge en Bloomberg rapporterer.
Utnytte kontroll og innovasjon
Tredjeparts AI-brikker kommer ofte med begrensninger. Bedrifter som er avhengige av disse brikkene kan finne seg begrenset av hylleløsninger som ikke er helt på linje med deres unike AI-modeller eller applikasjoner. Intern brikkeutvikling gir mulighet for tilpasning skreddersydd til spesifikke brukstilfeller. Enten det er for autonome biler eller mobile enheter, gjør styring av maskinvaren det mulig for bedrifter å utnytte AI-algoritmene sine fullt ut. Tilpassede brikker kan forbedre spesifikke oppgaver, redusere ventetiden og forbedre den generelle ytelsen.
Siste fremskritt innen AI-brikkeutvikling
Denne delen fordyper seg i de siste fremskritt gjort av Google, Meta og Amazon i å bygge AI-brikketeknologi.
Googles Axion-prosessorer
Google har hatt en jevn fremgang innen AI-brikketeknologi siden introduksjonen av Tensor Processing Unit (TPU) i 2015. Med utgangspunkt i dette grunnlaget har Google nylig lansert Axion-prosessorer, dens første tilpassede CPU-er spesielt utviklet for datasentre og AI-arbeidsbelastninger. Disse prosessorene er basert på Arm-arkitektur, kjent for sin effektivitet og kompakte design. Axion-prosessorene tar sikte på å forbedre effektiviteten til CPU-basert AI-trening og inferencing samtidig som energieffektiviteten opprettholdes. Denne fremgangen markerer også en betydelig forbedring av ytelsen for ulike generelle arbeidsbelastninger, inkludert nett- og appservere, containeriserte mikrotjenester, åpen kildekode-databaser, cacher i minnet, dataanalysemotorer, mediebehandling og mer.
Metas MTIA
Meta presser fremover innen AI-brikketeknologi med sin Meta Training and Inference Accelerator (MTIA). Dette verktøyet er utviklet for å øke effektiviteten til trenings- og slutningsprosesser, spesielt for rangerings- og anbefalingsalgoritmer. Nylig skisserte Meta hvordan MTIA er en sentral del av strategien for å styrke AI-infrastrukturen utover GPUer. Opprinnelig satt til lansering i 2025, har Meta allerede satt begge versjonene av MTIA i produksjon, og viser et raskere tempo i planene for brikkeutvikling. Mens MTIA for tiden fokuserer på å trene visse typer algoritmer, har Meta som mål å utvide bruken til å inkludere opplæring for generativ AI, som Lama-språkmodeller.
Amazons Trainium og Inferentia
Siden introduksjonen av sin skikk Nitro-brikke i 2013 har Amazon utvidet utviklingen av AI-brikke betydelig. Selskapet avduket nylig to innovative AI-brikker, Trainium og Inferens. Trainium er spesielt utviklet for å forbedre AI-modelltrening og skal innlemmes i EC2 UltraClusters. Disse klyngene, som kan være vert for opptil 100,000 XNUMX sjetonger, er optimalisert for opplæring av grunnleggende modeller og store språkmodeller på en energieffektiv måte. Inferentia, på den annen side, er skreddersydd for slutningsoppgaver der AI-modeller brukes aktivt, med fokus på å redusere latens og kostnader under slutninger for bedre å betjene behovene til millioner av brukere som samhandler med AI-drevne tjenester.
Bunnlinjen
Bevegelsen mot egenutvikling av tilpassede AI-brikker av store selskaper som Google, Microsoft og Amazon reflekterer et strategisk skifte for å møte de økende beregningsbehovene til AI-teknologier. Denne trenden fremhever nødvendigheten av løsninger som er spesielt skreddersydd for å effektivt støtte AI-modeller, og oppfyller de unike kravene til disse avanserte systemene. Ettersom etterspørselen etter AI-brikker fortsetter å vokse, vil industriledere som Nvidia sannsynligvis se en betydelig økning i markedsverdien, noe som understreker den viktige rollen som tilpassede brikker spiller for å fremme AI-innovasjon. Ved å lage sine egne brikker, forbedrer disse teknologigigantene ikke bare ytelsen og effektiviteten til AI-systemene sine, men fremmer også en mer bærekraftig og kostnadseffektiv fremtid. Denne utviklingen setter nye standarder i bransjen, driver teknologisk fremgang og konkurransefortrinn i et raskt skiftende globalt marked.