Connect with us

Tankeledere

Utviklingen av AI-modelltrening: Beyond størrelse til effisiens

mm

I det raskt utviklende landskapet av kunstig intelligens, gjennomgår den tradisjonelle tilnærmingen til å forbedre språkmodeller gjennom bare økning i modellstørrelse en avgjørende transformasjon. Denne skiftet understreker en mer strategisk, data-sentrert tilnærming, som eksemplifiseres av de nylige utviklingene i modeller som Llama3.

Data er alt du trenger

Historisk sett har den rådende troen på å fremme AI-egenskaper vært at større er bedre.

I fortiden har vi vært vitne til en dramatisk økning i evnene til dyp læring bare ved å legge til flere lag i neurale nettverk. Algoritmer og applikasjoner som bilde-gjenkjenning, som tidligere bare var teoretisk mulig før oppfinnelsen av dyp læring, raskt ble allment akseptert. Utviklingen av grafikkort forsterket denne trenden, og gjorde det mulig å kjøre større modeller med økende effisiens. Denne trenden har også ført til den nåværende store språkmodell-hypen.

Periodisk kommer vi over annonseringer fra store AI-selskaper som lanserer modeller med titall eller til og med hundre milliarder parametre. Det er lett å forstå begrunnelsen: jo flere parametre en modell har, jo mer kompetent blir den. Men denne bruttstyrke-metoden for skaling har nådd et punkt med avtagende avkastning, særlig når det gjelder kost- og ytelsesforholdet i praktiske anvendelser. Meta’s nylige annonsering av Llama3-tilnærmingen, som bruker 8 milliarder parametre, men er beriket med 6-7 ganger mengden høykvalitets treningdata, matcher – og i noen scenarier overgår – effekten av tidligere modeller som GPT3.5, som har over 100 milliarder parametre. Dette markerer en betydelig skifte i skala-loven for språkmodeller, hvor kvalitet og mengde data begynner å ta forrang over ren størrelse.

Kostnader vs. Ytelse: En ømtålig balanse

Ettersom kunstig intelligens (AI) modeller går fra utvikling til praktisk bruk, blir deres økonomiske innvirkning, særlig de høye driftskostnadene for store modeller, stadig mer betydelig. Disse kostnadene overstiger ofte de innledende treningkostnadene, og understreker behovet for en bærekraftig utviklingstilnærming som prioriterer effektiv data-bruk over å utvide modellstørrelsen. Strategier som data-forbedring og overføring av lærdom kan forbedre datasett og redusere behovet for omfattende om-trening. Strømlinje-forming av modeller gjennom funksjonsvalg og dimensjonsreduksjon forbedrer beregnings-effisiensen og senker kostnadene. Teknikker som dropout og tidlig stopp forbedrer generaliseringen, og gjør det mulig for modellene å fungere effektivt med mindre data. Alternative distribusjonsstrategier som edge computing reduserer avhengigheten av dyre sky-infrastrukturer, mens serverløs computing tilbyr skalerbar og kost-effektiv ressursbruk. Ved å fokusere på data-sentrert utvikling og utforske økonomiske distribusjonsmetoder, kan organisasjoner etablere en mer bærekraftig AI-økosystem som balanserer ytelse med kost- effisiens.

Den avtagende avkastningen av større modeller

Landskapet for AI-utvikling gjennomgår en paradigmeskifte, med en økende fokus på effektiv data-bruk og modell-optimering. Sentraliserte AI-selskaper har tradisjonelt sett på å skape stadig større modeller for å oppnå state-of-the-art resultater. Men denne strategien blir stadig mer uholdbar, både i terms of beregningsressurser og skalerbarhet.

Desentralisert AI, på den andre siden, presenterer en annen sett med utfordringer og muligheter. Desentraliserte blockchain-nettverk, som danner grunnlaget for desentralisert AI, har en fundamentalt annen design sammenlignet med sentraliserte AI-selskaper. Dette gjør det utfordrende for desentraliserte AI-foretak å konkurrere med sentraliserte enheter i terms of skaling større modeller samtidig som de opprettholder effisiens i desentraliserte operasjoner.

Dette er hvor desentraliserte samfunn kan maksimere deres potensiale og skjære ut en nisje i AI-landskapet. Ved å utnytte kollektiv intelligens og ressurser, kan desentraliserte samfunn utvikle og distribuere sofistikerte AI-modeller som er både effektive og skalerbare. Dette vil enable dem å konkurrere effektivt med sentraliserte AI-selskaper og drive fremtidens AI-utvikling.

Se fremover: Veien til bærekraftig AI-utvikling

Trajektoren for fremtidig AI-utvikling bør fokusere på å skape modeller som ikke bare er innovative, men også integrative og økonomiske. Fokuset bør skifte mot systemer som kan oppnå høye nivåer av nøyaktighet og nytte med håndterbare kostnader og ressursbruk. En slik strategi vil ikke bare sikre skalerbarheten av AI-teknologier, men også deres tilgjengelighet og bærekraft i lengden.

Ettersom feltet kunstig intelligens modnes, må strategiene for å utvikle AI utvikle seg i takt. Skiftet fra å verdsette størrelse til å prioritere effisiens og kost- effisiens i modell-trening er ikke bare en teknisk valg, men en strategisk imperativ som vil definere den neste generasjonen av AI-applikasjoner. Denne tilnærmingen vil sannsynligvis katalysere en ny æra av innovasjon, hvor AI-utvikling drives av smarte, bærekraftige praksiser som lover videre utbredelse og større innvirkning.​​​​​​​​​​​​​​​​

Jiahao Sun, grunnlegger og CEO av FLock.io, er en Oxford-alumnus og er en ekspert på AI og blockchain. Med tidligere roller som direktør for AI i Royal Bank of Canada og som AI-forskningsstipendiat ved Imperial College London, grunnla han FLock.io for å fokusere på løsninger for AI-sikkerhet sentrert rundt personvern. Gjennom hans lederskap, er FLock.io en pionér innen sikker, samarbeidende AI-modelltrening og -utvikling, og viser hans dedikasjon til å bruke teknologi for samfunnsutvikling.