Kunstmatige intelligentie
Liquid AI lanceert Liquid Foundation Models: een game-changer in generatieve AI
In een baanbrekende aankondiging heeft Liquid AI, een spin-off van het MIT, zijn eerste reeks Liquid Foundation Models (LFM’s) geïntroduceerd. Deze modellen, ontworpen vanuit de eerste beginselen, zetten een nieuwe benchmark in de generatieve AI-ruimte, met ongeëvenaarde prestaties op verschillende schalen. LFM’s, met hun innovatieve architectuur en geavanceerde mogelijkheden, zijn klaar om industrieleidende AI-modellen, waaronder ChatGPT, uit te dagen.
Liquid AI is opgericht door een team van MIT-onderzoekers, waaronder Ramin Hasani, Mathias Lechner, Alexander Amini en Daniela Rus. Het bedrijf, gevestigd in Boston, Massachusetts, heeft als missie om capabele en efficiënte algemene AI-systemen te creëren voor ondernemingen van alle maten. Het team heeft oorspronkelijk liquid neural networks gepionierd, een klasse van AI-modellen geïnspireerd door hersendynamica, en streeft ernaar om de mogelijkheden van AI-systemen op elke schaal uit te breiden, van edge-apparaten tot ondernemingsbrede implementaties.
Wat zijn Liquid Foundation Models (LFM’s)?
Liquid Foundation Models vertegenwoordigen een nieuwe generatie AI-systemen die hooguit efficiënt zijn in zowel geheugengebruik als rekenkracht. Gebouwd met een basis in dynamische systemen, signaalverwerking en numerieke lineaire algebra, zijn deze modellen ontworpen om verschillende soorten sequentiële gegevens – zoals tekst, video, audio en signalen – met opmerkelijke nauwkeurigheid te verwerken.
Liquid AI heeft drie primaire taalmodellen ontwikkeld als onderdeel van deze lancering:
- LFM-1B: Een dicht model met 1,3 miljard parameters, geoptimaliseerd voor omgevingen met beperkte middelen.
- LFM-3B: Een model met 3,1 miljard parameters, ideaal voor edge-implementatiescenario’s, zoals mobiele applicaties.
- LFM-40B: Een model met 40,3 miljard parameters van het type Mixture of Experts (MoE), ontworpen om complexe taken met uitzonderlijke prestaties te verwerken.
Deze modellen hebben reeds state-of-the-art-resultaten behaald op belangrijke AI-benchmarks, waardoor ze een formidabele concurrent zijn voor bestaande generatieve AI-modellen.
State-of-the-art-prestaties
Liquid AI’s LFM’s leveren de beste prestaties in hun klasse op verschillende benchmarks. Zo LFM-1B bijvoorbeeld transformer-gebaseerde modellen in hun grootteklasse overtreft, terwijl LFM-3B concurreert met grotere modellen zoals Microsoft’s Phi-3.5 en Meta’s Llama-serie. Het LFM-40B-model is, ondanks zijn grootte, efficiënt genoeg om modellen met nog meer parameters te evenaren, waardoor het een unieke balans biedt tussen prestaties en middelenefficiëntie.
Enkele highlights van de LFM-prestaties zijn:
- LFM-1B: Domineert benchmarks zoals MMLU en ARC-C, en zet een nieuwe standaard voor 1B-parametermodellen.
- LFM-3B: Overstijgt modellen zoals Phi-3.5 en Google’s Gemma 2 in efficiëntie, terwijl het een kleine geheugenvoetafdruk behoudt, waardoor het ideaal is voor mobiele en edge-AI-toepassingen.
- LFM-40B: De MoE-architectuur van dit model biedt een vergelijkbare prestatie als grotere modellen, met 12 miljard actieve parameters op elk moment.
Een nieuwe era in AI-efficiëntie
Een significante uitdaging in de moderne AI is het beheersen van geheugen en rekenkracht, vooral bij het werken met lange-contexttaken zoals documentensamenvatting of chatbot-interacties. LFM’s excelleren op dit gebied door invoergegevens efficiënt te compressen, waardoor het geheugengebruik tijdens inferentie wordt verminderd. Dit stelt de modellen in staat om langere sequenties te verwerken zonder dat dure hardware-upgrades nodig zijn.
Bijvoorbeeld biedt LFM-3B een 32k token context lengte – waardoor het een van de meest efficiënte modellen is voor taken die grote hoeveelheden gegevens tegelijkertijd verwerken.
Een revolutionaire architectuur
LFM’s zijn gebouwd op een unieke architecturale framework, die afwijkt van traditionele transformer-modellen. De architectuur is gecentreerd rond adaptieve lineaire operatoren, die de berekening baseren op de invoergegevens. Deze benadering stelt Liquid AI in staat om de prestaties aanzienlijk te optimaliseren op verschillende hardware-platforms, waaronder NVIDIA, AMD, Cerebras en Apple-hardware.
De ontwerpruimte voor LFM’s omvat een novelle combinatie van token-mixing en channel-mixing structuren die de manier waarop het model gegevens verwerkt, verbeteren. Dit leidt tot superieure generalisatie- en redeneercapaciteiten, met name bij lange-contexttaken en multimodale toepassingen.
De AI-grens uitbreiden
Liquid AI heeft grote ambities voor LFM’s. Naast taalmodellen werkt het bedrijf aan het uitbreiden van zijn foundation-modellen om verschillende gegevensmodaliteiten te ondersteunen, waaronder video, audio en tijdsreeksgegevens. Deze vooruitgang zal LFM’s in staat stellen om te schalen over meerdere industrieën, zoals financiële dienstverlening, biotechnologie en consumentenelektronica.
Het bedrijf is ook gefocust op het bijdragen aan de open science-gemeenschap. Hoewel de modellen zelf niet open-source zijn op dit moment, plant Liquid AI om relevante onderzoeksresultaten, methoden en datasets vrij te geven aan de bredere AI-gemeenschap, waardoor samenwerking en innovatie worden aangemoedigd.
Vroeg toegang en adoptie
Liquid AI biedt op dit moment vroeg toegang tot zijn LFM’s via verschillende platforms, waaronder Liquid Playground, Lambda (Chat UI en API) en Perplexity Labs. Ondernemingen die cutting-edge AI-systemen in hun operaties willen integreren, kunnen de potentie van LFM’s verkennen over verschillende implementatieomgevingen, van edge-apparaten tot on-premise-oplossingen.
Liquid AI’s open-science-benadering moedigt vroege adoptanten aan om hun ervaringen en inzichten te delen. Het bedrijf zoekt actief naar feedback om zijn modellen te verfijnen en te optimaliseren voor real-world-toepassingen. Ontwikkelaars en organisaties die geïnteresseerd zijn om deel te nemen aan deze reis, kunnen bijdragen aan red team-inspanningen en helpen Liquid AI zijn AI-systemen te verbeteren.
Conclusie
De release van Liquid Foundation Models markeert een significante vooruitgang in het AI-landschap. Met een focus op efficiëntie, adaptiviteit en prestaties, staan LFM’s klaar om de manier waarop ondernemingen AI-integratie benaderen, te herschikken. Naarmate meer organisaties deze modellen adopteren, zal Liquid AI’s visie van schaalbare, algemene AI-systemen waarschijnlijk een hoeksteen worden van de volgende era van kunstmatige intelligentie.
Als u geïnteresseerd bent om de potentie van LFM’s voor uw organisatie te verkennen, nodigt Liquid AI u uit om contact op te nemen en deel te nemen aan de groeiende gemeenschap van vroege adoptanten die de toekomst van AI vormgeven.
Voor meer informatie, bezoekt u Liquid AI’s officiële website en start u vandaag met experimenteren met LFM’s.












