Connect with us

Den AI som lÀr sig sjÀlv Àr inte lÀngre science fiction

Artificiell intelligens

Den AI som lÀr sig sjÀlv Àr inte lÀngre science fiction

mm

Nyutvecklade AI-ramverk är på väg mot ett radikalt språng: maskiner som förbättrar sig själva, utan mänsklig insikt.

Under många år har även de mest avancerade AI-modellerna förblivit passiva motorer, som förutsäger svar baserat på träningsdata som de inte kan modifiera. Men idag är det inte modellens storlek som definierar nästa kapitel i artificiell intelligens; det är om modellen kan utvecklas på egen hand.

Nyligen presenterade MIT-forskare ett nytt AI-ramverk som kallas Self-Adapting LLMs (SEAL). Tillvägagångssättet tillåter stora språkmodeller (LLM) att förbättra sig själva autonomt, vilket möjliggör för AI att diagnostisera sina begränsningar och permanent uppdatera sina egna neuronnät genom en intern återkopplingsloop som drivs av förstärkt inlärning. Istället för att kräva att forskare upptäcker fel, skriver nya prompter eller matar in ytterligare exempel, tar modellen full äganderätt till sin egen utveckling.

“Stora språkmodeller (LLM) är kraftfulla men statiska; de saknar mekanismer för att anpassa sina vikter i svar på nya uppgifter, kunskap eller exempel”, skrev MIT-forskarna i en bloggpost. “Experiment på kunskapsinkorporering och fåskottsgeneralisering visar att SEAL är ett lovande steg mot språkmodeller som kan anpassa sig själva i svar på nya data.”

I tidiga tester tillät denna självredigeringsloop modellerna att gå från totalt misslyckande till framgång på komplexa abstrakta resonemangspussel, och överträffade till och med mycket större modeller som GPT-4.1 med en framgångsgrad på 72,5 procent, där traditionella metoder misslyckades. Dessutom reducerar SEAL rapporterat mänsklig tillsyn med 85 procent samtidigt som noggrannheten och anpassningsförmågan ökar.

Uppkomsten av självinlärda AI-ramverk

SEAL är en del av en bredare trend mot autonom maskinintelligens. Forskare på Sakana AI har till exempel introducerat Darwin-Gödel Machine—en AI-agent som skriver om sin egen kod med hjälp av öppna evolutionära strategier.

“Den skapar olika självförbättringar, såsom en patchvalideringssteg, bättre filvisning, förbättrade redigeringsverktyg, generering och rangordning av flera lösningar för att välja den bästa, och lägger till en historik över vad som har försökts tidigare (och varför det misslyckades) när man gör nya ändringar”, skrev Sakana AI i en bloggpost.

På samma sätt kan Anthropics AI-agenter, drivna av Claude 4, nu autonomt orkestrera arbetsflöden över kodbas och affärssystem.

“Ett system som omkonfigurerar sig själv baserat på typen av tillgång, dess miljö och dess historia möjliggör att gå från en reaktiv respons till en kontinuerlig förebyggande strategi”, berättade Christian Struve, VD och medgrundare på Fracttal, för mig. “Det handlar inte om fler lager eller fler parametrar, utan om mer autonoma och mer användbara system.”

Vad som förenar dessa insatser är en gemensam övertygelse: AI behöver inte bli större för att bli smartare. Den behöver bli mer anpassningsbar.

“Skalning har gett stora vinster, men vi når gränsen för vad storleken ensam kan uppnå. Självadaptiva inlärningsmodeller som SEAL erbjuder ett övertygande nästa steg genom att möjliggöra för system att växa och förbättras över tid”, berättade Jorge Riera, grundare och VD på full-stack datakonsultplattformen Dataco, för mig. “Självutvecklande modeller förskjuter också framstegsmätare från statiska benchmark till mått på anpassningsförmåga, inlärningseffektivitet och säker långsiktig förbättring. Istället för att bara testa vad en modell kan vid distribution, kan vi utvärdera hur väl den lär sig, behåller och utvecklas över tid.”

Impact på AI-ekosystemet och den globala kapplöpningen mot autonomi

Denna nivå av autonomi omdefinierar också ekonomin för AI-distribution. Tänk er bedrägeridetekteringssystem som uppdaterar sig själva omedelbart för att motverka nya hot, eller AI-lärare som ändrar sin undervisningsstil baserat på en students beteende. Inom robotteknik kan självadaptiva ramverk leda till autonoma maskiner som lär sig nya rörelsemönster utan att behöva omprogrammeras.

I hela Mellanöstern bygger länder som Förenade Arabemiraten och Saudiarabien snabbt grundläggande modeller som är utformade för anpassning. Förenade Arabemiratens Falcon och G42:s Jais är öppen källkod LLM som byggs med regional relevans i åtanke, medan Saudiarabiens ALLaM och Aramco Digitals Metabrain tränger in i området för autonoma AI-agenter för smarta städer, hälsovård och logistik.

Dessa insatser är ännu inte jämförbara med MIT:s SEAL när det gäller självredigeringsförmåga, men de speglar en gemensam bana: från passiva AI-system till aktiva, utvecklande agenter som kan navigera komplexitet med begränsad mänsklig vägledning. Och precis som SEAL backas dessa initiativ upp av robusta styrningsramverk, vilket belyser den växande medvetenheten om att AI-autonomi måste kombineras med ansvar.

“Detta är ett första steg mot självhanterande system som modifierar sin logik utan konstant ingripande”, säger Struve. “Jag tror att artificiell intelligens inte omdefinierar vad intelligens är, men den tvingar oss att omdefiniera vår relation till den. Det viktiga är inte att en modell utvecklas, utan att den gör det i linje med de mål vi definierar som människor.”

Jeff Townes, CTO på Gorilla Logic, betonar också vikten av att styrningen håller jämna steg med AI-utvecklingen: “Frågan är inte om AI kan utvecklas – det är om företaget kan utvecklas med det. Styrningen måste förankra varje AI-anpassning till tydliga resultat och KPI:er som ledare kan mäta och lita på, så att innovationen skalar med tillförsikt istället för risk.”

Är vi redo för AI som skriver om sig själv?

Den mest provokativa frågan SEAL väcker är inte teknisk – den är att om modeller kan bestämma hur de ska lära sig själva, vilken roll spelar vi i att forma deras värderingar, prioriteringar och riktning?

Experter varnar för att när självadaptiva AI-system får autonomi, måste rusningen mot självförbättring inte överträffa etableringen av etiska skydd. “Jag tror att alla AI-system måste inkorporera minst tre grundläggande etiska principer”, säger Jacob Evans, CTO på Kryterion.

“Först, och det kanske går utan att säga, men AI behöver identifiera sig själva som AI. För det andra måste AI vara människocentrerad, förstärka och inte ersätta mänskligt omdöme. Och slutligen måste den erkänna sina begränsningar och osäkerheter, samtidigt som den vägrar att tillhandahålla information som kan underlätta allvarlig skada. Utan dessa skydd kan AI bli ett verktyg för manipulation snarare än pålitligt stöd.”

“För att möjliggöra för modeller att självförbättra i produktion, behöver de en dynamisk återkopplingsloop, inte bara statisk utbildning. En kraftfull metod är att använda en ‘digital tvilling’ eller en sofistikerad sandlådemiljö där AI kan säkert testa och validera sina egna självgenererade förbättringar innan de distribueras till användare”, delade Ganesh Vanama, datorseendeingenjör på Automotus.

När det gäller styrning tillade Vanama, “den oåterkalleliga kontrollen är ‘människa-i-slingan’-tillsyn”. Han sa att medan vi vill att modellerna ska anpassa sig, “du måste ha kontinuerlig övervakning för att upptäcka ‘aligneringsavvikelse’ där modellen avviker från sina avsedda mål eller säkerhetsbegränsningar. Detta system måste ge en mänsklig revisor makten att veto eller omedelbart återställa varje autonom uppdatering som misslyckas med en säkerhets- eller prestandarevision.”

Men andra experter tror att det fortfarande finns tid att utveckla dessa skydd, och hävdar att att bygga en riktigt robust, allmän, självförbättrande AI fortfarande är en monumental utmaning.

“Sådana modeller saknar fortfarande förmågan att tillförlitligt omprogrammera sig själva i realtid. Viktiga utmaningar kvarstår, inklusive att förhindra fel förstärkning, undvika katastrofalt glömska, säkerställa stabilitet under uppdateringar och upprätthålla transparens kring interna ändringar”, säger Riera. “Tills dess är fullständig självstyrd anpassning fortfarande en gräns snarare än en verklighet.”

MIT:s forskare ser SEAL som en nödvändig utveckling. Som en av MIT:s ledande forskare uttryckte det, speglar detta ramverk för närvarande bara mänskligt lärande mer exakt än något som kommit före.

“Dessa system antyder en förändring från statiska, engångsmodeller till adaptiva arkitekturer som kan lära sig av erfarenhet, hantera minne och följa mål över tid. Riktningen är tydlig: mot modulär, kontextmedveten intelligens som kan anpassa sig kontinuerligt”, berättade Riera för mig. “Även om det fortfarande är i experimentfasen, markerar detta tillvägagångssätt ett meningsfullt steg mot mer autonoma och robusta AI-system.”

Oavsett om detta leder till mer personliga system eller helt nya former av maskinell agentlighet återstår att se. Erans AI som lär sig själv har anlänt – och den omdefinierar inte bara sin egen kod, utan också reglerna för vad maskiner kan bli.

Victor Dey Àr en tech-redaktör och författare som tÀcker A.I., crypto, data science, metaverse och cybersecurity inom företagsvÀrlden. Han har ett halvt decennium av media- och AI-erfarenhet frÄn att ha arbetat pÄ vÀlkÀnda mediekanaler som VentureBeat, Metaverse Post, Observer och andra. Victor har handledat studentgrundare i acceleratorprogram vid ledande universitet, inklusive University of Oxford och University of Southern California, och har en masterexamen i data science och analys.