Connect with us

Kunstig intelligens

Den AI som lærer seg selv er ikke lenger vitenskapsfiksjon

mm

Emmergende AI-rammeverk beveger seg mot et radikalt sprang: maskiner som selvforbedrer seg, uten menneskelig innsikt nødvendig.

I årevis, selv de mest avanserte AI-modellene forble passive motorer, som forutså svar basert på treningdata de ikke kunne modifisere. Men i dag er det ikke størrelsen på modellen som definerer det neste kapitlet i kunstig intelligens; det er om modellen kan utvikle seg på egen hånd.

Nylig avdekket MIT-forskere et nytt AI-rammeverk kalt Self-Adapting LLMs (SEAL). Tilnærmingen tillater store språkmodeller (LLMs) å forbedre seg selvstendig, og muliggjør at AI kan diagnostisere sine begrensninger og permanent oppdatere sine egne neurale vekter gjennom en intern tilbakemeldingsløkke drevet av forsterkingslæring. I stedet for å kreve at forskerne oppdager feil, skriver nye prompter eller mata inn ekstra eksempler, tar modellen full eierskap over sin egen utvikling.

“Store språkmodeller (LLMs) er kraftfulle, men statiske; de mangler mekanismer for å tilpasse sine vekter i respons til nye oppgaver, kunnskap eller eksempler,” skrev MIT-forskerne i en blogginnlegg. “Eksperimenter på kunnskapsinkorporering og few-shot generalisering viser at SEAL er et løftende skritt mot språkmodeller som kan tilpasse seg selvstendig i respons til nye data.”

I tidlige tester tillot denne selvredigeringsløkken modellene å gå fra fullstendig feil til suksess på komplekse abstrakte resonneringspusler, og overgikk selv mye større modeller som GPT-4.1 med en 72,5 prosent suksessrate, der tradisjonelle metoder feilet. I tillegg rapporteres det at SEAL reduserer menneskelig tilsyn med 85 prosent samtidig som nøyaktigheten og tilpasningen øker.

Oppblomstringen av selvunderviste AI-rammeverk

SEAL er en del av en bredere trend mot autonom maskinintelligens. Forskere ved Sakana AI, for eksempel, har introdusert Darwin-Gödel Machine—en AI-agent som omskriver sin egen kode ved å bruke åpne, evolusjonære strategier.

“Det skaper ulike selvforbedringer, som en patch-valideringssteg, bedre filvisning, forbedrede redigeringsverktøy, generering og rangering av multiple løsninger for å velge den beste, og legger til en historikk over hva som har blitt prøvd tidligere (og hvorfor det feilet) når nye endringer gjøres,” skrev Sakana AI i en blogginnlegg.

Liksom Anthropics AI-agenter, drevet av Claude 4, kan nå selvstendig orkestrere arbeidsflyter over kodebasen og forretningsverktøy.

“Et system som omkonfigurerer seg selv basert på typen aktivum, dens miljø og dens historikk, tillater å gå fra en reaktiv respons til en kontinuerlig forebyggingsstrategi,” sa Christian Struve, CEO og medgrunnlegger i Fracttal, til meg. “Det handler ikke om flere lag eller flere parametre, men om mer autonome og mer nyttige systemer.”

Hva som forener disse innsatsene, er en felles overbevisning: AI trenger ikke å bli større for å bli smartere. Det trenger å bli mer tilpasningsdyktig.

“Skalering har gitt store gevinster, men vi nærmer oss grensene for hva størrelse alene kan oppnå. Selvtilpassende læringsmodeller som SEAL tilbyr et overbevisende neste skritt ved å muliggjøre at systemer kan vokse og forbedre seg over tid,” sa Jorge Riera, grunnlegger og CEO i full-stack datakonsulentsplattformen Dataco, til meg. “Selvutviklende modeller skyfter også fremgangsmål fra statiske benchmark til mål for tilpasning, lærings-effektivitet og trygg langtidsforbedring. I stedet for bare å teste hva en modell vet ved deployering, kan vi evaluere hvor godt den lærer, beholder og utvikler seg over tid.”

Impakt på AI-økosystemet og den globale kappløpet mot autonomi

Dette nivået av autonomi omdefinierer også økonomien for AI-utplassering. Forestill deg svindelforsvarssystemer som oppdaterer seg selv øyeblikkelig for å motvirke nye trusler, eller AI-tutore som endrer sin undervisningsstil basert på en students atferd. I robotikk kan selvtilpassende rammeverk føre til autonome maskiner som lærer nye bevegelsesmønster uten å bli omprogrammert.

Over hele Midtøsten bygger land som UAE og Saudi-Arabia raskt grunnleggende modeller designet for tilpasning. UAEs Falcon og G42s Jais er åpne LLM-er bygget med regional relevans i mente, mens Saudi-Arabias ALLaM og Aramco Digitals Metabrain skyter inn i området for autonome AI-agenter for smarte byer, helse og logistikk.

Disse innsatsene er ennå ikke likeverdige med MITs SEAL når det gjelder selvredigeringskapasitet, men de reflekterer en felles retning: fra passive AI-systemer til aktive, evoluerende agenter som kan navigere kompleksitet med begrenset menneskelig veiledning. Og like SEAL, er disse initiativene bakket opp av robuste styringsrammeverk, som understreker den økende bevisstheten om at AI-autonomi må kombineres med ansvar.

“Dette er et første skritt mot selvstyrende systemer som endrer sin logikk uten konstant inngripen,” sier Struve. “Jeg tror at kunstig intelligens ikke omdefinierer hva intelligens er, men den tvinger oss til å tenke om vår relasjon til den. Det viktige er ikke at en modell utvikler seg, men at den gjør det i samsvar med målene vi definerer som mennesker.”

Jeff Townes, CTO i Gorilla Logic, understreker også viktigheten av at styringen holder tritt med AI-utviklingen: “Spørsmålet er ikke om AI kan utvikle seg—det er om bedriften kan utvikle seg med det. Styringen må forankre hver AI-tilpasning til klare resultater og KPI-er som ledere kan måle og stole på, så innovasjon skalerer med tillit i stedet for risiko.”

Er vi klare for AI som omskriver seg selv?

Det mest provokative spørsmålet SEAL reiser, er ikke teknisk—det er om modellene kan bestemme hvordan de skal undervise seg selv, hva rolle spiller vi i å forme deres verdier, prioriteringer og retning?

Eksperter advarer om at når selvtilpassende AI-systemer får autonomi, må rushen mot selvforbedring ikke overgå etableringen av etiske retningslinjer. “Jeg tror at alle AI-systemer må inkorporere minst tre grunnleggende etiske prinsipper,” sier Jacob Evans, CTO i Kryterion.

“Først, og dette kan kanskje gå uten å si, men AI-er må identifisere seg selv som AI. For det andre må AI-er være menneske-sentriske, og supplere og ikke erstatte menneskelig dømmekraft. Og til slutt må det anerkjenne sine begrensninger og usikkerheter, og nekte å gi informasjon som kan fasilitere alvorlig skade. Uten disse sikkerhetstiltakene kan AI bli et verktøy for manipulasjon i stedet for pålitelig støtte.”

“For å muliggjøre at modellene selvforbedrer seg i produksjon, trenger de en dynamisk tilbakemeldingsløkke, ikke bare statisk trening. En kraftfull metode er å bruke en ‘digital tvilling’ eller en sofistikert sandboks-miljø hvor AI-en kan trygt teste og validere sine egne selvgenererte forbedringer før de noen gang deployeres til brukere,” delte Ganesh Vanama, Computer Vision Engineer i Automotus.

Vedrørende styringen, la Vanama til, “den uforhandelige kontrollen er ‘menneske-i-løkken’ tilsyn.” Han sa at mens vi ønsker at modellene skal tilpasse seg, “du må ha kontinuerlig overvåking for å oppdage ‘aligneringsdrift’ hvor modellen avviker fra sine mål eller sikkerhetsbegrensninger. Dette systemet må gi en menneskelig auditor mulighet til å nedlegge eller umiddelbart tilbakeføre enhver autonom oppdatering som feiler en sikkerhets- eller ytelsesgjennomgang.”

Men andre eksperter tror at det ennå er tid til å utvikle disse sikkerhetstiltakene, og argumenterer for at å bygge en virkelig robust, generell, selvforbedrende AI ennå er en monumental utfordring.

“Slike modeller mangler ennå evnen til å pålitelig omskrive seg selv i sanntid. Nøkkelutfordringer inkluderer å forhindre feilforsterkning, unngå katastrofalt glemming, sikre stabilitet under oppdateringer og opprettholde gjennomsiktighet rundt interne endringer,” sier Riera. “Før disse er adressert, forblir full selvstyrt tilpasning en grense i stedet for en realitet.”

MITs forskere ser på SEAL som en nødvendig utvikling. Som en av MITs ledende forskere sa, speiler dette rammeverket nå mer menneskelig læring enn noe som har kommet før.

“Disse systemene antyder en skifte fra statiske, enkelt-skudd-modeller til tilpasningsdyktige arkitekturer som kan lære av erfaring, håndtere minne og forfølge mål over tid. Retningen er klar: mot modulær, kontekst-bevisst intelligens i stand til å justere seg kontinuerlig,” sa Riera til meg. “Selv om det ennå er i eksperimentalfasen, markerer denne tilnærmingen et meningsfullt skritt mot mer autonome og resiliente AI-systemer.”

Hva dette fører til, er om det fører til mer personlige systemer eller helt nye former for maskin-agens, må vente og se. Tiden for selvundervist AI er kommet—and det omskriver mer enn bare sin egen kode, det omskriver reglene for hva maskiner kan bli.

Victor Dey er en teknisk redaktør og forfatter som dekker A.I., crypto, data science, metaverse og cybersecurity innen bedriftsdomenet. Han har halvannen års erfaring med media og AI fra å jobbe i kjente mediehus som VentureBeat, Metaverse Post, Observer og andre. Victor har veiledet studentgründere i akseleratorprogrammer ved ledende universiteter, inkludert University of Oxford og University of Southern California, og har en mastergrad i data science og analytics.