Connect with us

Vad hÀnder inom AI: OpenClaw och autonom intelligens

Tankeledare

Vad hÀnder inom AI: OpenClaw och autonom intelligens

mm

Vad utvecklare gör idag, kommer alla att göra imorgon.

I 2023, blev jag överraskande inte förvånad över lanseringen av ChatGPT. Nästan allt det kunde göra var redan möjligt med GPT-3. AI-utvecklare förstod detta, men det tog ChatGPT för resten av världen att förstå hur viktigt GPT-3 faktiskt var. Upphetsningen anlände en produktgeneration för sent.

Något liknande är på gång nu.

Ett projekt som heter OpenClaw har tagit utvecklarkommuniteten med storm eftersom det körs på din egen dator. Så kraftfullt ChatGPT är, föreställ dig om det hade tillgång till alla dina filer — med möjligheten att läsa, skriva, köra kommandon och till och med starta program. Du kunde säga, “Spara denna information till en ny fil,” eller “Titta på den där kalkylbladen i den här mappen och infoga den i dokumentet jag skriver,” eller till och med be det att köra program direkt. (I min erfarenhet är den sista delen fortfarande begränsad — men förbättras snabbt.)

Claude Code lanserades nästan exakt ett år sedan med samma kärnfunktion, men det positionerades som ett verktyg för kodning — i princip en konkurrent till Cursor. Utvecklare älskade det. Vad OpenClaw har gjort är att ge resten av världen en glimt av vad det innebär för AI att faktiskt operera din dator, inte bara tänka bredvid dig.

Till sin kärna är OpenClaw en öppen källkodsuppsättning som sitter bredvid en stor språkmodell som har fått tillstånd att köra kommandon på maskinen — inklusive att modifiera sin egen kod. OpenClaw i sig kan visa sig vara en fluga, men det har ytt en uppsättning frågor som känns riktningssättande.

Den mest uppenbara förändringen är paradigmskiftet: programvara som kan agera. Den kan bläddra, redigera filer, köra program — inte bara generera text. Den enda förändringen har producerat två överraskande sekundära effekter.

Först, utmanar OpenClaw antagandet att databaser måste vara första klassens medborgare i nästa generations programvara. Istället för att fokusera på en traditionell databas, är den byggd primärt på mänskligt läsbara filer. Medan den konsoliderar inlärning i en vektordatabas för långsiktig minne, är den grundläggande arkitekturen filbaserad snarare än schema-först. Som exempel, är dess namn och syfte lagrade i en fil som heter Identity.md och säger saker som “vibe: casual och teknisk – tillgänglig men exakt” och dess “själ” lagras i Soul.md, som säger saker som “Var genuint hjälpsam, inte performativt hjälpsam – Hoppa över fyllnadsorden, bara hjälp; Ha åsikter – Jag är tillåten att vara oenig, föredra saker, hitta saker intressanta eller tråkiga – Var resursfull innan du ber om hjälp – Försök att lösa det först, sedan fråga om du är fast.”

Detta är i slutändan en fråga om vad AI-programvarulagret ser ut som. Anmärkningsvärt, innehåller OpenClaw inte någon ytterligare modellträning eller finjustering. Det står i kontrast till en möjlig värld där programvarulagret främst kommer att bestå av finjusterade LLM:er tränade på proprietär data. Min misstanke är att båda tillvägagångssätten kommer att samexistera — men OpenClaw visar en intressant väg.

Andra, tvingar OpenClaw en direkt konfrontation med en kritisk fråga: bör programvara tillåtas köra kod och redigera dina filer autonomt?

Detta sitter i skärningspunkten mellan funktionalitet, integritet och kontroll. Om AI-system ska vara maximalt användbara, kommer de att behöva tillstånd att skriva till våra system. Det kräver förtroende.

OpenClaws lösning på förtroendeproblemet är enkel: gör allt öppen källkod. Istället för att säga, “Jag är en svart låda, lita på mig,” säger det, “Här är all koden. Inspektera den. Kör den lokalt. Äg den.” (Med det sagt har människor gjort just det och dess nuvarande säkerhet verkar vara bristfällig).

Medan vi tänker på den framtida AI-programvarulagret, pekar OpenClaw i en intressant riktning men det är tydligt bara den första gnistan i vad som känns som en kambrisk explosion. Under de två veckor sedan OpenClaws utgivning, har vi redan sett utvecklare anpassa det för specifika jobb (t.ex. finansiella arbetsflöden) och öppen källkod för dessa anpassningar; experiment som kopplar samman flera agenter via Moltbook; och Moltbook som möjliggör agenter att “socialisera” — vilket, som en biprodukt, tillåter agenter att diskutera vilka verktyg de föredrar, vilket leder till att verktyg byggs för agenter själva.

Om vi tror att vad utvecklare gör idag är vad alla kommer att göra imorgon, då har AI redan förändrat hur programvara byggs genom tre kärnprimitiver:

  • Harness — IDE:er som Cursor eller kommandoradsverktyg som Claude Code som tillhandahåller åsiktsbaserade, anpassningsbara gränssnitt till modeller
  • Anpassade ramverk — lätta, ren-textartefakter (ofta README:er) som kodar hur en utvecklare tänker och arbetar. Modeller studsar mellan dessa filer som en flippermaskin: konsulterar designriktlinjer, kontrollerar utvärderare och validerar sin egen utdata
  • Inspekterbara modeller — system som genererar utdata som utvecklare kan verifiera. Medan harness och utvärderare förbättras, behöver utvecklare alltmer titta på koden mindre och mindre

Vi är fortfarande i den första inningen av en dramatisk förändring i hur programvara byggs.

Det finns också en negativ kant här. Varje industri har sin “Napster-ögonblick”. Programvaruutveckling råkar vara först, precis som musik var först att störas av internet. Andra kommer att följa. Men detta är inte bara en förändring i distribution — det är en förändring i hur arbetet självt utförs. Det liknar mer uppfinningen av den relationella databasen än uppkomsten av sociala medier.

Men det finns också en positiv kant — denna förändring sträcker sig långt bortom traditionell SaaS. Dessa system är så personliga för individuell kontext att många människor kan komma att ha sin egen skräddarsydda programvara.

Du tänker vanligtvis inte på det faktum att att skapa ett Instagram-konto skapar en rad i en databas med associerade ID:n — men det gör det. På samma sätt, med den här typen av programvara, kan du bara känna dess påverkan på ditt liv utan att inse att, genom interaktion, du effektivt skriver kod — eller att kod skrivs på din vägnar.

Det finns en mantra inom datavetenskap: “Upprepa dig inte själv.” Om du utför en uppgift mer än en gång, bör du skriva en funktion. Med AI, hittar jag alltmer ofta att om jag ens tänker på att göra något en gång, är det ofta tillräckligt enkelt att automatisera att det är meningsfullt att automatisera det omedelbart.

Under de närmaste dagarna, var uppmärksam på hur mycket av ditt liv inte meningsfullt berörs av programvara idag. Min tro är att den här nya klassen av verktyg kommer att leva i dessa luckor.

Matt Hartman Àr grundare och Managing Partner för Factorial Capital, dÀr han anvÀnder sin tekniska bakgrund och djupa nÀtverk av tekniska entreprenörer för att stödja företag som Modal, Factory AI och LanceDB, samt Software Inc (förvÀrvad av OpenAI) och andra startups som bygger vid teknikens framkant.

Innan Factorial tillbringade Matt 8 Ă„r pĂ„ Betaworks, dĂ€r de skrev de allra första checkarna till Huggingface (nu vĂ€rderat till 4,5 miljarder dollar), Anchor (förvĂ€rvad av Spotify) och ett antal andra företag som startats av grundare som kodar. Innan Matt blev riskkapitalist var han mjukvaruutvecklare och entreprenör – han byggde teknikplattformen pĂ„ CBRE, gick med i Hot Potato (förvĂ€rvad av Facebook) och byggde en fastighetsteknisk produkt som blev en del av Apartments.com.

År 2023 lanserade Matt Factorial Capital med en ny tes: Att investera i nĂ€sta generationens AI-startups krĂ€ver djup teknisk förstĂ„else, vilket Factorial Capital genomför genom en distribuerad modell av tekniska grundarpartners som var och en arbetar med Matt pĂ„ att hitta och stödja nya investeringar.