Connect with us

AGI

AlphaEvolve: Google DeepMinds banbrytande steg mot AGI

mm

Google DeepMind har presenterat AlphaEvolve, en evolutionär kodningsagent som är utformad för att självständigt upptäcka nya algoritmer och vetenskapliga lösningar. Presenterad i artikeln med titeln AlphaEvolve: En kodningsagent för vetenskaplig och algoritmisk upptäckt,” representerar denna forskning ett grundläggande steg mot Artificiell allmän intelligens (AGI) och även Artificiell superintelligens (ASI). Istället för att förlita sig på statisk finjustering eller mänskligt märkta dataset, tar AlphaEvolve en helt annan väg – en som fokuserar på självständig kreativitet, algoritmisk innovation och kontinuerlig självförbättring.

I hjärtat av AlphaEvolve finns en självinnesluten evolutionär pipeline som drivs av stora språkmodeller (LLM). Denna pipeline genererar inte bara utdata – den muterar, utvärderar, väljer och förbättrar kod över generationer. AlphaEvolve börjar med ett initialt program och förfinar det iterativt genom att införa noggrant strukturerade förändringar.

Dessa förändringar tar formen av LLM-genererade diffs – kodmodifieringar som föreslås av en språkmodell baserad på tidigare exempel och explicita instruktioner. En “diff” i programvaruteknik refererar till skillnaden mellan två versioner av en fil, vanligtvis med markerade rader som ska tas bort eller ersättas och nya rader som ska läggas till. I AlphaEvolve genererar LLM dessa diffs genom att analysera det aktuella programmet och föreslå små redigeringar – lägga till en funktion, optimera en loop eller ändra en hyperparameter – baserat på en prompt som innehåller prestandamätningar och tidigare lyckade redigeringar.

Varje modifierat program testas sedan med automatiserade utvärderare som är anpassade för uppgiften. De mest effektiva kandidaterna sparas, refereras och kombineras som inspiration för framtida iterationer. Över tiden leder denna evolutionära loop till uppkomsten av alltmer sofistikerade algoritmer – ofta överträffande de som designats av mänskliga experter.

Att förstå vetenskapen bakom AlphaEvolve

I sin kärna är AlphaEvolve byggt på principer om evolutionär beräkning – en underdisciplin till artificiell intelligens som inspireras av biologisk evolution. Systemet börjar med en grundläggande implementering av kod, som det behandlar som en initial “organism”. Genom generationer modifierar AlphaEvolve denna kod – införande variationer eller “mutationer” – och utvärderar anpassningen av varje variation med hjälp av en väldefinierad poängfunktion. De bäst presterande varianterna överlever och fungerar som mallar för nästa generation.

Denna evolutionära loop koordineras genom:

  • Prompt Sampling: AlphaEvolve konstruerar prompts genom att välja och infoga tidigare lyckade kodexempel, prestandamätningar och uppgiftsspecifika instruktioner.
  • Kodmutation och förslag: Systemet använder en mix av kraftfulla LLM – Gemini 2.0 Flash och Pro – för att generera specifika modifieringar av den aktuella kodbasen i form av diffs.
  • Utvärderingsmekanism: En automatiserad utvärderingsfunktion bedömer varje kandidats prestanda genom att köra den och returnera skalära poäng.
  • Databas och kontroller: En distribuerad kontroller orkestrerar denna loop, lagrar resultat i en evolutionär databas och balanserar utforskning med exploatering genom mekanismer som MAP-Elites.

Denna feedback-rika, automatiserade evolutionära process skiljer sig radikalt från standard finjusteringstekniker. Den ger AlphaEvolve möjlighet att generera nya, högpresterande och ibland motstridiga lösningar – och utvidgar gränsen för vad maskinlärning kan uppnå självständigt.

Att jämföra AlphaEvolve med RLHF

För att uppskatta AlphaEvolves innovation är det avgörande att jämföra det med Reinforcement Learning from Human Feedback (RLHF), en dominant approach som används för att finjustera stora språkmodeller.

I RLHF används mänskliga preferenser för att träna en belöningsmodell, som vägleder inlärningsprocessen för en LLM via förstärkt inlärning algoritmer som Proximal Policy Optimization (PPO). RLHF förbättrar anpassning och användbarhet av modeller, men det kräver omfattande mänskligt engagemang för att generera feedbackdata och opererar vanligtvis i en statisk, engångsfinjusteringsregim.

AlphaEvolve, i kontrast:

  • Tar bort mänsklig feedback från loopen till förmån för maskinexekverbara utvärderare.
  • Stöder kontinuerligt lärande genom evolutionär selektion.
  • Utforskar mycket bredare lösningrymder på grund av stokastiska mutationer och asynkron exekvering.
  • Kan generera lösningar som inte bara är anpassade, utan nya och vetenskapligt betydelsefulla.

Medan RLHF finjusterar beteende, upptäcker och uppfinner AlphaEvolve. Denna distinktion är avgörande när man överväger framtida riktningar mot AGI: AlphaEvolve gör inte bara bättre förutsägelser – den hittar nya vägar till sanning.

Applikationer och genombrott

1. Algoritmisk upptäckt och matematiska framsteg

AlphaEvolve har visat sin förmåga till banbrytande upptäckter i kärnalgoritmiska problem. Framför allt upptäckte den en ny algoritm för att multiplicera två 4×4 komplexvärdesmatriser med endast 48 skalära multiplikationer – överträffande Strassens resultat från 1969 på 49 multiplikationer och bröt ett 56 år gammalt teoretiskt tak. AlphaEvolve uppnådde detta genom avancerade tensordekompositionstekniker som den utvecklade över många iterationer, överträffande flera state-of-the-art-approach.

Förutom matrismultiplikation bidrog AlphaEvolve väsentligt till matematisk forskning. Den utvärderades på över 50 öppna problem inom områden som kombinatorik, talteori och geometri. Den matchade de bästa kända resultaten i cirka 75% av fallen och överträffade dem i cirka 20%. Dessa framgångar inkluderade förbättringar av Erdős Minimum Overlap Problem, en tätare lösning av Kissing Number Problem i 11 dimensioner och mer effektiva geometriska packningskonfigurationer. Dessa resultat understryker dess förmåga att fungera som en självständig matematisk upptäckare – förfinar, itererar och utvecklar alltmer optimala lösningar utan mänskligt ingripande.

2. Optimering över Googles beräkningsstack

AlphaEvolve har också levererat mätbara prestandaförbättringar över Googles infrastruktur:

  • I datacenter schemaläggning upptäckte den en ny heuristik som förbättrade jobbplacering, återvann 0,7% av tidigare strandsatta beräkningsresurser.
  • För Geminis träningskärnor utvecklade AlphaEvolve en bättre tilingstrategi för matrismultiplikation, vilket resulterade i en 23% kernelhastighet och en 1% total minskning av tränningstid.
  • I TPU-kretsdesign identifierade den en förenkling av aritmetisk logik på RTL (Register-Transfer Level), verifierad av ingenjörer och inkluderad i nästa generations TPU-chip.
  • Den optimerade också compiler-genererad FlashAttention-kod genom att redigera XLA-mellanrepresentationsformat, vilket minskade inferenstiden på GPU med 32%.

Tillsammans validerar dessa resultat AlphaEvolves förmåga att operera på flera abstraktionsnivåer – från symbolisk matematik till lågnivå-hårdvaruoptimering – och leverera verkliga prestandaförbättringar.

  • Evolutionär programmering: En AI-paradigm som använder mutation, selektion och arv för att iterativt förfinar lösningar.
  • Kodsuperoptimering: Den automatiserade sökningen efter den mest effektiva implementeringen av en funktion – ofta resulterande i överraskande, motstridiga förbättringar.
  • Meta-prompt-evolution: AlphaEvolve utvecklar inte bara kod, utan också hur den kommunicerar instruktioner till LLM – möjliggörande självförbättring av kodningsprocessen.
  • Discretiseringsförlust: En regleringsterm som uppmuntrar utdata att anpassa sig till halv- eller heltalsvärden, avgörande för matematisk och symbolisk tydlighet.
  • Hallucinationsförlust: En mekanism för att injicera slumpmässighet i mellanliggande lösningar, uppmuntrande utforskning och undvikande av lokala minima.
  • MAP-Elites-algoritm: En typ av kvalitetsdiversitetsalgoritm som upprätthåller en diversifierad population av högpresterande lösningar över funktionella dimensioner – möjliggörande robust innovation.

Konsekvenser för AGI och ASI

AlphaEvolve är mer än en optimerare – det är en glimt av en framtid där intelligenta agenter kan demonstrera kreativ autonomi. Systemets förmåga att formulera abstrakta problem och designa sina egna tillvägagångssätt för att lösa dem representerar ett betydande steg mot Artificiell allmän intelligens. Detta går utöver dataprediktion: det innefattar strukturerat resonemang, strategibildning och anpassning till feedback – kännetecken för intelligent beteende.

Dess förmåga att iterativt generera och förfinar hypoteser signalerar också en utveckling i hur maskiner lär sig. Till skillnad från modeller som kräver omfattande övervakat träning, förbättrar AlphaEvolve sig själv genom en loop av experiment och utvärdering. Denna dynamiska form av intelligens tillåter den att navigera komplexa problemrum, avvisa svaga lösningar och höja starkare lösningar utan direkt mänsklig tillsyn.

Genom att exekvera och validera sina egna idéer fungerar AlphaEvolve som både teoretiker och experimentell. Den flyttar bortom att utföra fördefinierade uppgifter och in i upptäcktsområdet, simulerar en självständig vetenskaplig process. Varje föreslagen förbättring testas, benchmarkas och återintegreras – tillåtande kontinuerlig förfining baserad på verkliga resultat snarare än statiska mål.

Kanske mest anmärkningsvärt är AlphaEvolve en tidig instans av rekursiv självförbättring – där ett AI-system inte bara lär sig utan förbättrar komponenter av sig själv. I flera fall förbättrade AlphaEvolve träningsinfrastrukturen som stöder dess egna grundmodeller. Även om den fortfarande är begränsad av nuvarande arkitekturer, sätter denna förmåga en prejudikat. Med fler problem formulerade i utvärderbara miljöer kunde AlphaEvolve skala mot alltmer sofistikerat och självoptimerande beteende – en grundläggande egenskap hos Artificiell superintelligens (ASI).

Begränsningar och framtida riktning

AlphaEvolves nuvarande begränsning är dess beroende av automatiserade utvärderingsfunktioner. Detta begränsar dess användbarhet till problem som kan formaliseras matematiskt eller algoritmiskt. Den kan inte ännu operera meningsfullt i domäner som kräver implicit mänsklig förståelse, subjektiv bedömning eller fysisk experiment.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.