Connect with us

Tankeledere

Udviklingen af AI-modellernes træning: Fra størrelse til effektivitet

mm

I det hurtigt udviklende landskab af kunstig intelligens undergår den traditionelle tilgang til at forbedre sprogmodeller gennem blot større modeller en afgørende forvandling. Denne ændring understreger en mere strategisk, datacentreret tilgang, som eksemplificeres af de seneste udviklinger i modeller som Llama3.

Data er alt, du behøver

Historisk set har den herskende tro på at fremme AI-kapaciteter været, at større er bedre.
I fortiden har vi oplevet en dramatisk stigning i dyb lærenings evner blot ved at tilføje flere lag til neurale netværk. Algoritmer og applikationer som billedgenkendelse, som tidligere kun var teoretisk mulige før dyb lærenings opkomst, blev hurtigt alment accepteret. Udviklingen af grafikkort forstærkede denne trend yderligere, så større modeller kunne køre med øget effektivitet. Denne trend har også ført til den nuværende hype omkring store sprogmodeller.
Periodisk kommer vi across annonceringer fra store AI-virksomheder om udgivelsen af modeller med titusinder eller endda hundredvis af milliarder af parametre. Det er let at forstå rationalet: jo flere parametre, en model har, jo mere kompetent bliver den. Men denne brute-kraft-metode til skalaering har nået et punkt med aftagende afkast, især når man betragter omkostningseffektiviteten af sådanne modeller i praktiske anvendelser. Meta’s seneste annoncering af Llama3-tilgangen, som anvender 8 milliarder parametre, men er beriget med 6-7 gange mængden af højkvalitets træningsdata, matcher – og i visse scenarier overgår – effekten af tidligere modeller som GPT3.5, som har over 100 milliarder parametre. Dette markerer en betydelig ændring i skalaeringsloven for sprogmodeller, hvor kvalitet og kvantitet af data begynder at have fortrin over ren størrelse.

Omkring vs. Præstation: En Delikat Balance

Da kunstig intelligens (AI)-modellerne bevæger sig fra udvikling til praktisk brug, bliver deres økonomiske impact, især de høje driftsomkostninger for store modeller, stadig mere betydningsfuld. Disse omkostninger overstiger ofte de oprindelige træningsudgifter, hvilket understreger behovet for en bæredygtig udviklingstilgang, der prioriterer effektiv dataanvendelse over udvidelse af modelstørrelse. Strategier som data-augmentation og transfer-læring kan forbedre datasæt og reducere behovet for omfattende gen-træning. Strømlining af modeller gennem funktionssælgelse og dimensionsreduktion forbedrer beregnings-effektiviteten og reducerer omkostninger. Teknikker som dropout og tidlig stopning forbedrer generalisering, så modeller kan fungere effektivt med mindre data. Alternative implementeringsstrategier som edge-computing reducerer afhængighed af dyre cloud-infrastruktur, mens serverless-computing tilbyder skalerbar og omkostningseffektiv ressourceanvendelse. Ved at fokusere på data-centreret udvikling og udforske økonomiske implementeringsmetoder kan organisationer etablere et mere bæredygtigt AI-økosystem, der balancerer præstation med omkostningseffektivitet.

Aftagende Afkast fra Større Modeller

Landskabet for AI-udvikling undergår en paradigmændring, med en stigende fokus på effektiv data-anvendelse og modeloptimering. Centraliserede AI-virksomheder har traditionelt afhængt af at skabe stadig større modeller for at opnå state-of-the-art-resultater. Men denne strategi bliver stadig mere uholdbar, både i forhold til beregningsressourcer og skalerbarhed.
Decentraliseret AI præsenterer en anden sæt udfordringer og muligheder. Decentraliserede blockchain-netværk, som danner grundlaget for Decentraliseret AI, har en fundamentalt anderledes design i forhold til centraliserede AI-virksomheder. Dette gør det vanskeligt for decentraliserede AI-foretagender at konkurrere med centraliserede enheder i forhold til at skala større modeller, samtidig med at de opretholder effektivitet i decentraliserede operationer.
Her kan decentraliserede fællesskaber maksimere deres potentiale og skabe en niche i AI-landskabet. Ved at udnytte kollektiv intelligens og ressourcer kan decentraliserede fællesskaber udvikle og implementere avancerede AI-modeller, der er både effektive og skalerbare. Dette vil enable dem til at konkurrere effektivt med centraliserede AI-virksomheder og drive fremtidens AI-udvikling.

At se fremad: Vejen til Bæredygtig AI-Udvikling

Trajektoren for fremtidig AI-udvikling bør fokusere på at skabe modeller, der ikke kun er innovative, men også integrative og økonomiske. Fokus skal skiftes mod systemer, der kan opnå høje niveauer af præcision og nytte med håndterbare omkostninger og ressourceanvendelse. En sådan strategi vil ikke kun sikre skalerbarheden af AI-teknologier, men også deres tilgængelighed og bæredygtighed på længere sigt.
Da feltet af kunstig intelligens modnes, må strategierne for AI-udvikling udvikle sig derefter. Skiftet fra at værdsætte størrelse til at prioritere effektivitet og omkostningseffektivitet i modeltræning er ikke blot en teknisk valg, men en strategisk imperativ, der vil definere den næste generation af AI-applikationer. Denne tilgang vil sandsynligvis katalysere en ny æra af innovation, hvor AI-udvikling drives af smarte, bæredygtige praksisser, der lover bredere adoption og større impact.​​​​​​​​​​​​​​​​

Jiahao Sun, grundlægger og administrerende direktør for FLock.io, er en Oxford-alumnus og er ekspert i AI og blockchain. Med tidligere roller som direktør for AI i Royal Bank of Canada og som AI-forskningsstipendiat på Imperial College London, grundlagde han FLock.io for at fokusere på løsninger til privatcenteret AI. Gennem hans ledelse er FLock.io en pioner inden for sikker, samarbejdende AI-modeltræning og -installation, hvilket viser hans engagement i at bruge teknologi til samfundsmæssig fremgang.