Kunstig intelligens
Rekursiv superintelligens henter 650 millioner dollar for å drive selvforbedring av AI

Et nytt grenseAI-selskap kalt Rekursiv superintelligens har kommet ut av skjul med 650 millioner dollar i finansiering og et usedvanlig ambisiøst mål: å bygge AI-systemer som kan forbedre seg selv uten direkte menneskelig innvervning.
Selskapet ledes av AI-forsker og entrepreneur Richard Socher, sammen med en grunnleggergruppe som inkluderer fremtredende forskere fra Google DeepMind, OpenAI, Meta og akademiske miljøer.
Selskapet kommer inn på markedet i et øyeblikk når AI-industrien raskt skifter fra å bygge større språkmodeller til å utvikle systemer som kan autonomt resonnere, tilpasse seg og potensielt gjennomføre egen forskning. Mens de fleste AI-selskapene fortsatt fokuserer på å forbedre modellprestasjonene gjennom menneskestyrt trening og forsterkingslæring, driver Rekursiv superintelligens noe langt mer eksperimentelt: rekursiv selvforbedring.
Begrepet har lenge vært diskutert i AI-kretser som en mulig vei mot superintelligens. I enkle termer går ideen ut på at et AI-system kan identifisere svakheter i sin egen arkitektur, generere nye tilnærminger for å løse disse svakhetene, teste resultater og kontinuerlig forbedre seg selv i en pågående tilbakemeldingsløkke.
Ifølge Socher kvalifiserer de fleste nåværende former for AI-basert kode eller AI-generert forskning ikke som ekte rekursiv selvforbedring. I stedet argumenterer han for at genuin rekursjon ville kreve at hele syklusen av idegenerering, implementering, testing og finjustering skjer autonomt.
Richard Sochers langsiktige visjon for AI
Socher er ikke ny i ambisiøse AI-prosjekter. Før han grunnla Rekursiv superintelligens, ble han bredt kjent som medgrunnlegger og CEO av You.com, et AI-drevet søk- og bedriftsAI-infrastrukturselskap som dukket opp som en tidlig utfordrer til tradisjonelle søkemotorer.
You.com fikk opprinnelig oppmerksomhet for å blande konversasjonsAI med nettlesing år før generativ AI ble mainstream. Over tid utviklet selskapet seg mot bedriftsAI-verktøy, API-er og produktivitetsfokuserte AI-systemer.
Før You.com, tjenestegjorde Socher som Chief Scientist i Salesforce og bygde en reputasjon som en av de mest siterte forskerne i naturlig språkbehandling. Hans akademiske arbeid bidro til grunnleggende teknikker i ordinnleggelse, kontekstuell språkforståelse og neurale nettverksarkitekturer som hjalp til å forme moderne AI-systemer.
Rekursiv superintelligens ser ut til å representere en annen fase i Sochers karriere: mindre fokusert på kommersiell AI-utbredelse og mer fokusert på grunnleggende gjennombrudd i intelligensen selv.
Likevel har Socher motsatt seg å beskrive selskapet som ren forskningslaboratorium. Han har understreket at selskapet har til hensikt å utvikle kommersielle produkter og tror praktiske anvendelser kan dukke opp innen “kvartaler, ikke år”.
Den åpne tilnærmingen
En av de sentrale konseptene bak Rekursiv superintelligens er noe forskere refererer til som “åpenhet”.
I stedet for å trene modeller mot ett enkelt fast mål, genererer åpne systemer kontinuerlig nye miljøer, utfordringer og former for tilpasning. Tilnærmingen låner inspirasjon fra biologisk evolusjon, hvor organismer kontinuerlig utvikler seg i respons til endrede forhold og konkurranseadaptasjoner.
Selskapets medgrunnlegger Tim Rocktäschel arbeidet tidligere med åpen AI-forskning i Google DeepMind, inkludert prosjekter som involverte generative verdensmodeller og selvforbedrende systemer.
Ett eksempel diskutert av Socher involverer “regnbuetiming”, et AI-sikkerhetskonsept hvor ett AI-system kontinuerlig angriper og tester ett annet AI-system for å avsløre svakheter. I stedet for å stole på mennesker til å manuelt teste skadelige kanttilfeller, utvikler to AI-systemer seg effektivt mot hverandre over millioner av iterasjoner.
Ideén reflekterer en bredere skiftning som skjer over hele grenseAI-forskning: å bruke AI-systemer selv som en del av trening, evaluering og sikkerhetsinfrastruktur.
Regning kan bli den avgjørende ressursen
Lanseringen av Rekursiv superintelligens understreker også en annen voksende realitet innen AI: den økende betydningen av regningsinfrastruktur.
Ettersom modellene blir mer kapable, øker treningkostnadene og kravene til inferens eksponentielt. Hvis rekursiv selvforbedringssystemer til slutt blir levedyktige, kan regning bli enda mer strategisk viktig fordi AI-fremgangens hastighet vil bli direkte knyttet til hvor mye prosesseringskraft som kan allokeres til selvforbedringscykluser.
Socher foreslo at fremtidige samfunn kan møte vanskelige avgjørelser om hvor å allokerer AI-regningsressursene, sammenlignet med å bestemme hvilke sykdommer eller vitenskapelige problemer som bør motta mest oppmerksomhet.
Denne rammen understreker hvordan AI-infrastruktur stadig blir mer sammenfiltret med geopolitikk, energisystemer, halvlederforsyningskjeder og nasjonal konkurranse.
Investorer fortsetter å satse på grenseAI-lag
Størrelsen på finansieringsrunden er også bemerkelsesverdig gitt hvor tidlig selskapet fortsatt er. Rekursiv superintelligens har ifølge rapportene færre enn 30 ansatte og har ikke ennå lansert et offentlig produkt, men har allerede oppnådd en multibillion-dollar-verdi.
Runden reflekterer en bredere trend i venturekapital hvor elite AI-forskingstalent selv har blitt en verdifull eiendomsklasse. Investorer plasserer stadig massive veddemål på lag med dyp teknisk troverdighet, spesielt forskere koblet til organisasjoner som OpenAI, DeepMind og Meta AI.
På mange måter ser markedet ut til å skifte fra å finansiere programvareprodukter til å finansiere potensielle gjennombrudd i intelligensinfrastruktur selv.
Om rekursiv selvforbedring til slutt blir levedyktig, er usikkert. Mange forskere tror konseptet kan transformere AI-utviklingen fullstendig, mens andre argumenterer for at
Rekursiv superintelligens ser ut til å signalisere at noen av bransjens mest innflytelsesrike forskere nå tror at den neste fasen av AI kanskje ikke bare vil involvere mennesker som bygger smartere modeller. I stedet kan det involvere AI-systemer som deltar direkte i sin egen evolusjon.












