Connect with us

Kunstmatige intelligentie

Het opnieuw bekijken van schaalwetten in AI-ontwikkeling

mm

Als ontwikkelaars en onderzoekers de grenzen van de prestaties van LLM’s verleggen, rijzen er vragen over efficiëntie. Tot voor kort lag de focus op het vergroten van de grootte van modellen en de hoeveelheid trainingsgegevens, met weinig aandacht voor numerieke precisie – het aantal bits dat wordt gebruikt om getallen te representeren tijdens berekeningen.

Een recente studie van onderzoekers van Harvard, Stanford en andere instellingen heeft deze traditionele perspectief omgekeerd. Hun bevindingen suggereren dat precisie een veel belangrijkere rol speelt bij het optimaliseren van modelprestaties dan eerder erkend. Deze openbaring heeft verstrekkende gevolgen voor de toekomst van AI, waarbij een nieuwe dimensie wordt toegevoegd aan de schaalwetten die modelontwikkeling leiden.

Precisie in focus

Numerieke precisie in AI verwijst naar het niveau van detail dat wordt gebruikt om getallen te representeren tijdens berekeningen, meestal gemeten in bits. Bijvoorbeeld, een precisie van 16 bits vertegenwoordigt getallen met meer granulariteit dan 8-bit precisie, maar vereist meer rekenkracht. Hoewel dit een technische nuance kan lijken, heeft precisie een directe invloed op de efficiëntie en prestaties van AI-modellen.

De studie, getiteld Schaalwetten voor precisie, gaat dieper in op de vaak over het hoofd gezien relatie tussen precisie en modelprestaties. Door een uitgebreide reeks van meer dan 465 trainingsruns uit te voeren, testten de onderzoekers modellen met variabele precisie, variërend van zo laag als 3 bits tot 16 bits. De modellen, die tot 1,7 miljard parameters bevatten, werden getraind op maximaal 26 miljard tokens.

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.