Verbind je met ons

Artificial Intelligence

Heroverweging van schaalwetten in AI-ontwikkeling

mm

Nu ontwikkelaars en onderzoekers de grenzen van LLM-prestaties verleggen, rijzen er vragen over efficiëntie weefgetouw grootTot voor kort lag de focus op het vergroten van de omvang van modellen en het volume aan trainingsdata, met weinig aandacht voor numerieke precisie: het aantal bits dat wordt gebruikt om getallen weer te geven tijdens berekeningen.

A recente studie van onderzoekers van Harvard, Stanford en andere instituten heeft dit traditionele perspectief op zijn kop gezet. Hun bevindingen suggereren dat precisie een veel belangrijkere rol speelt bij het optimaliseren van modelprestaties dan eerder werd erkend. Deze onthulling heeft diepgaande implicaties voor de toekomst van AI en introduceert een nieuwe dimensie in de schaalwetten die modelontwikkeling sturen.

Precisie in focus

Numerieke precisie in AI verwijst naar het detailniveau dat wordt gebruikt om getallen weer te geven tijdens berekeningen, meestal gemeten in bits. Een precisie van 16 bits geeft bijvoorbeeld getallen weer met meer granulariteit dan een precisie van 8 bits, maar vereist meer rekenkracht. Hoewel dit misschien een technische nuance lijkt, heeft precisie direct invloed op de efficiëntie en prestaties van AI-modellen.

De studie, getiteld Schaalwetten voor precisie, duikt in de vaak over het hoofd geziene relatie tussen precisie en modelprestaties. Door een uitgebreide serie van meer dan 465 trainingsruns uit te voeren, testten de onderzoekers modellen met verschillende precisies, variërend van zo laag als 3 bits tot 16 bits. De modellen, die tot 1.7 miljard parameters bevatten, werden getraind op maar liefst 26 miljard tokens.

De resultaten lieten een duidelijke trend zien: precisie is niet zomaar een achtergrondvariabele; het bepaalt fundamenteel hoe effectief modellen presteren. Opvallend is dat overgetrainde modellen – die getraind zijn met veel meer data dan de optimale verhouding voor hun grootte – bijzonder gevoelig waren voor prestatieverslechtering wanneer ze werden blootgesteld aan kwantisering, een proces dat de precisie na de training vermindert. Deze gevoeligheid benadrukte de kritische balans die nodig is bij het ontwerpen van modellen voor real-world-toepassingen.

De opkomende schaalwetten

Een van de belangrijkste bijdragen van de studie is de introductie van nieuwe schaalwetten die precisie combineren met traditionele variabelen zoals parametertelling en trainingsdata. Deze wetten bieden een stappenplan voor het bepalen van de meest efficiënte manier om rekenkracht toe te wijzen tijdens de modeltraining.

De onderzoekers stelden vast dat een precisiebereik van 7-8 bits over het algemeen optimaal is voor grootschalige modellen. Dit zorgt voor een balans tussen rekenefficiëntie en prestaties, en daagt de gangbare praktijk uit om standaard 16-bits precisie te gebruiken, wat vaak bronnen verspilt. Omgekeerd vereist het gebruik van te weinig bits, zoals 4-bits precisie, onevenredige toenames in modelgrootte om vergelijkbare prestaties te behouden.

De studie benadrukt ook contextafhankelijke strategieën. Hoewel 7–8 bits geschikt zijn voor grote, flexibele modellen, profiteren modellen met een vaste grootte, zoals LLaMA 3.1, van hogere precisieniveaus, vooral wanneer hun capaciteit wordt opgerekt om uitgebreide datasets te accommoderen. Deze bevindingen zijn een belangrijke stap voorwaarts en bieden een genuanceerder begrip van de afwegingen die betrokken zijn bij precisieschaling.

Uitdagingen en praktische implicaties

Hoewel de studie overtuigend bewijs levert voor het belang van precisie bij AI-schaalvergroting, stuit de toepassing ervan op praktische obstakels. Een belangrijke beperking is hardwarecompatibiliteit. De potentiële besparingen door training met lage precisie zijn slechts zo groot als de hardware dit kan ondersteunen. Moderne GPU's en TPU's zijn geoptimaliseerd voor 16-bits precisie, met beperkte ondersteuning voor het rekenefficiëntere bereik van 7-8 bits. Totdat de hardware zich aanpast, blijven de voordelen van deze bevindingen mogelijk buiten bereik van veel ontwikkelaars.

Een andere uitdaging ligt in de risico's die gepaard gaan met overtraining en kwantisering. Zoals de studie onthult, zijn overgetrainde modellen bijzonder kwetsbaar voor prestatieverslechtering wanneer ze gekwantiseerd worden. Dit introduceert een dilemma voor onderzoekers: hoewel uitgebreide trainingsdata over het algemeen een zegen is, kan het onbedoeld fouten in modellen met lage precisie verergeren. Om de juiste balans te bereiken, is een zorgvuldige kalibratie van datavolume, parametergrootte en precisie vereist.

Ondanks deze uitdagingen bieden de bevindingen een duidelijke kans om AI-ontwikkelingspraktijken te verfijnen. Door precisie als kernoverweging op te nemen, kunnen onderzoekers computerbudgetten optimaliseren en verspilling van overmatig gebruik van middelen voorkomen, wat de weg vrijmaakt voor duurzamere en efficiëntere AI-systemen.

De toekomst van AI-schaalvergroting

De bevindingen van het onderzoek duiden ook op een bredere verschuiving in de richting van AI-onderzoek. Jarenlang werd het vakgebied gedomineerd door een "groter is beter"-mentaliteit, met een focus op steeds grotere modellen en datasets. Maar nu de efficiëntiewinsten van methoden met lage precisie, zoals 8-bits training, hun grenzen naderen, loopt dit tijdperk van onbeperkte schaalbaarheid mogelijk ten einde.

Tim Dettmers, AI-onderzoeker aan Carnegie Mellon University, beschouwt deze studie als een keerpunt. "De resultaten laten duidelijk zien dat we de praktische grenzen van kwantificering hebben bereikt", legt hij uit. Dettmers voorspelt een verschuiving van algemene schaalvergroting naar meer gerichte benaderingen, zoals gespecialiseerde modellen die zijn ontworpen voor specifieke taken en mensgerichte applicaties die bruikbaarheid en toegankelijkheid belangrijker vinden dan brute rekenkracht.

Deze wending sluit aan bij bredere trends in AI, waarbij ethische overwegingen en resourcebeperkingen steeds meer invloed hebben op ontwikkelingsprioriteiten. Naarmate het veld volwassener wordt, kan de focus verschuiven naar het creëren van modellen die niet alleen goed presteren, maar ook naadloos integreren in menselijke workflows en effectief inspelen op echte behoeften.

The Bottom Line

De integratie van precisie in schaalwetten markeert een nieuw hoofdstuk in AI-onderzoek. Door de rol van numerieke precisie te belichten, daagt de studie lang bestaande aannames uit en opent de deur naar efficiëntere, resource-bewuste ontwikkelingspraktijken.

Hoewel praktische beperkingen zoals hardwarebeperkingen blijven bestaan, bieden de bevindingen waardevolle inzichten voor het optimaliseren van modeltraining. Nu de grenzen van lage-precisie kwantificering duidelijk worden, staat het veld op het punt van een paradigmaverschuiving: van de meedogenloze zoektocht naar schaal naar een meer evenwichtige benadering die de nadruk legt op gespecialiseerde, mensgerichte toepassingen.

Deze studie dient als leidraad en uitdaging voor de gemeenschap: innoveren niet alleen op het gebied van prestaties, maar ook op het gebied van efficiëntie, bruikbaarheid en impact.

Alex McFarland is een AI-journalist en -schrijver die de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met tal van AI-startups en publicaties over de hele wereld.