Connect with us

Kunstig intelligens

Omdefinering av skaleringslover i AI-utvikling

mm

Mens utviklere og forskere presser grensene for LLM-ytelse, dukker spørsmål om effisiens opp. Frem til nylig har fokuset vært på å øke størrelsen på modellene og volumet av treningdata, med liten oppmerksomhet gitt til numerisk presisjon – antall biter som brukes til å representere tall under beregninger.

En nylig studie fra forskere ved Harvard, Stanford og andre institusjoner har snudd denne tradisjonelle perspektivet på hodet. Deres funn tyder på at presisjon spiller en langt mer betydelig rolle i å optimalisere modell-ytelse enn tidligere anerkjent. Denne åpenbaringen har dyptgående implikasjoner for fremtiden til AI, og introduserer en ny dimensjon til skaleringslovene som guiden modellutvikling.

Presisjon i fokus

Numerisk presisjon i AI refererer til nivået av detalj som brukes til å representere tall under beregninger, vanligvis målt i biter. For eksempel representerer 16-bits presisjon tall med mer granularitet enn 8-bits presisjon, men krever mer beregningskraft. Mens dette kan se ut som en teknisk nuanse, påvirker presisjon direkte effisiensen og ytelsen til AI-modellene.

Studien, tittelen Skaleringslover for presisjon, dykker ned i den ofte oversette relasjonen mellom presisjon og modell-ytelse. Ved å gjennomføre en omfattende serie på over 465 treningkjør, testet forskerne modeller med varierende presisjoner, fra så lavt som 3 biter til 16 biter. Modellene, som inneholdt opptil 1,7 milliarder parametre, ble trent på opptil 26 milliarder token.

Resultatene avdekket en tydelig trend: presisjon ikke bare en bakgrunnsvariabel; det former fundamentalt hvordan modellene utfører seg effektivt. Merkverdig, over-trent modeller – de som er trenet på langt mer data enn den optimale ratioen for deres størrelse – var spesielt følsomme for ytelsesnedgang når de ble utsatt for kvantisering, en prosess som reduserer presisjon etter trening. Denne følsomheten understreket den kritiske balansen som er nødvendig når man designer modeller for virkelige anvendelser.

De nye skaleringslovene

En av studiens viktigste bidrag er innføringen av nye skaleringslover som inkorporerer presisjon sammen med tradisjonelle variabler som parameterantall og treningdata. Disse lovene gir en veikart for å bestemme den mest effektive måten å allokerer beregningsressursene under modelltrening.

Forskerne identifiserte at et presisjonsområde på 7-8 biter generelt er optimalt for store modeller. Dette slår en balanse mellom beregnings-effisiens og ytelse, og utfordrer den vanlige praksisen med å standardisere 16-bits presisjon, som ofte sløser med ressurser. Omvendt, å bruke for få biter – som 4-bits presisjon – krever ubalanseerde økninger i modellstørrelse for å opprettholde sammenlignbar ytelse.

Studien understreker også kontekst-avhengige strategier. Mens 7-8 biter er egnet for store, fleksible modeller, kan faste modeller, som LLaMA 3.1, dra nytte av høyere presisjonsnivåer, spesielt når deres kapasitet strekkes for å akkommodere omfattende datasett. Disse funnene er et betydelig skritt fremover, og tilbyr en mer nyansert forståelse av kompromissene involvert i presisjonsskaling.

Utlendingshjelp og praktiske implikasjoner

Mens studien presenterer overbevisende bevis for betydningen av presisjon i AI-skaleringslovene, møter dens anvendelse praktiske hindringer. En kritisk begrensning er maskinvare-kompatibilitet. De potensielle besparelsene fra lav-presisjonstrening er bare like gode som maskinens evne til å støtte det. Moderne GPU-er og TPU-er er optimert for 16-bits presisjon, med begrensede støtte for det mer beregnings-effektive 7-8-bits området. Før maskinvaren holder opp, kan fordelen av disse funnene forbli utilgjengelig for mange utviklere.

En annen utfordring ligger i risikoen forbundet med over-trening og kvantisering. Som studien avdekker, er over-trent modeller spesielt sårbare for ytelsesnedgang når de kvantiseres. Dette introduserer en dilemma for forskerne: mens omfattende treningdata generelt er en velsignelse, kan det utilsiktet forverre feil i lav-presisjonsmodeller. Å oppnå riktig balanse vil kreve forsiktig kalibrering av data-volum, parameter-størrelse og presisjon.

Til tross for disse utfordringene, tilbyr funnene en tydelig mulighet til å finjustere AI-utviklingspraksis. Ved å inkorporere presisjon som en kjerne-übervegelse, kan forskerne optimalisere beregnings-budsjett og unngå sløsing av ressurser, og åpne vei for mer bærekraftige og effektive AI-systemer.

Fremtiden til AI-skaleringslovene

Studiens funn signaliserer også en bredere skifte i AI-forskningens retning. I årevis har feltet vært dominert av en “større er bedre”-holdning, med fokus på stadig større modeller og datasett. Men når effisiens-gevinster fra lav-presisjonsmetoder som 8-bits trening nærmer seg grensene, kan denne æraen med ubegrenset skaleringslovene være på vei mot slutten.

Tim Dettmers, en AI-forsker fra Carnegie Mellon University, ser på denne studien som et vendepunkt. “Resultatene viser tydelig at vi har nådd de praktiske grensene for kvantisering”, forklarer han. Dettmers forutsier en skifte bort fra generell skaleringslovene mot mer målrettede tilnærminger, som spesialiserte modeller designet for bestemte oppgaver og menneske-sentrerte anvendelser som prioriterer brukervennlighet og tilgjengelighet over brutt beregningskraft.

Denne skiftet stemmer overens med bredere trender i AI, hvor etiske overvegelser og ressurs-begrensninger stadig mer påvirker utviklingsprioriteter. Etterhvert som feltet modnes, kan fokuset flytte seg mot å skape modeller som ikke bare utfører seg godt, men også integrerer sømløst i menneskelige arbeidsflyter og møter virkelige behov effektivt.

Bunnen av saken

Inkorporeringen av presisjon i skaleringslovene markerer et nytt kapittel i AI-forskning. Ved å sette fokus på rollen til numerisk presisjon, utfordrer studien langvarige antagelser og åpner døren for mer effektive, ressurs-bevisste utviklingspraksis.

Mens praktiske begrensninger som maskinvare-begrensninger fortsatt eksisterer, tilbyr funnene verdifulle innsikter for å optimalisere modell-trening. Etterhvert som grensene for lav-presisjons kvantisering blir åpenbare, er feltet på vei mot en paradigmeskifte – fra det uavlatte forfølgelsen av skala til en mer balansert tilnærming som understreker spesialiserte, menneske-sentrerte anvendelser.

Denne studien tjener som både en veileder og en utfordring til samfunnet: å innovere ikke bare for ytelse, men for effisiens, praktisitet og påvirkning.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.