Connect with us

Andersons vinkel

Övergången till verifikationsekonomin

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

Att kontrollera AI:s arbete kan bli en betydande sektor i den nya maskinlärings ekonomin; en som måste skala upp avsevärt, och som inte kan automatiseras. Men allteftersom åren går, kommer mänskliga “experter” sannolikt att försämras i kvalitet.

 

Åsikt. Min fru är arkitekt i en av de mest långsamma och intensiva byråkratierna i Europa. En betydande del av värdet av hennes utbildning ligger i att erhålla och underhålla hennes rätt att signera – ett dyrt bevis som måste förnyas varje år, och som tillåter henne att bokstavligen “godkänna” förslag vars genomförande kan kosta hundratusentals, till och med miljoner euro.

Hon berättar för mig att detta inte är den svåraste delen av hennes arbete, eftersom det bara formaliserar hennes egna beräkningar, eller andras, och att för detta ändamål är externa arbeten vanligtvis inte svåra att kontrollera.

I princip – som ofta är fallet när man utnämner VD:ar – tillhandahåller denna stämpel (det är bokstavligen en stämpel) främst intressenter med en ansvarig part att hålla ansvarig om något går fel. Genom att säkerställa ansvarighet underlättar det också försäkringsskydd och investerarforentro, som inte skulle vara möjligt utan sådana garantier.

Det är den andra gången i mitt liv som jag har sett denna process i direkt verksamhet; för 25 år sedan var jag förlovad med en onkolog i en annan notoriskt trög byråkrati, Italien, och såg i vilken utsträckning hennes expertsignatur var den sista etappen i en kedja av förtroende som många andra utöver henne själv måste bidra med sin expertis.

Jag hörde från både min före detta fästman, under den perioden, och nyligen min fru, att deras yrken var/är fulla av kvalificerade bedragare som säljer sin stämpel och undviker mer originellt eller användbart arbete som mindre lönsamt. Sådana cyniska praktiker kan ta ut höga summor eftersom de representerar relativt sällsynta och väsentliga resurser.

Kolla in

Detta ämne kom till minnet när jag snubblade över en ny och omfattande artikel idag, med titeln Några enkla ekonomiska aspekter av AGI. I den beskriver tre forskare från MIT, Washington University i St. Louis och UCLA, en nära framtid där den skrämmande, jobbförstörande drivkraften mot AI-driven automatisering kolliderar med behovet av riktiga världens ansvariga parter i högriskscenarier – vilket leder till en ny ekonomi av mänsklig verifikation, ratificering och ansvar.

Artikeln kontrasterar med medias nuvarande föreställning om avmagrade affärssektorer med omfattande kontor reducerade till enperson “övervakare”, vars beslut används som träningsdata för att (hoppas) avfyra även denna sista rest av “köttvara”.

Författarna tror istället att praktiska överväganden och regelefterlevnads krav kommer att fokusera enorm uppmärksamhet på de “gummistämplande” människor som stillar ett företags (AI/mänsklig/AI-assisterad) juridiska avdelning:

‘För företag är den centrala strategiska insikten att verifikation inte längre är en ren regelefterlevnadsfunktion, utan en primär produktions-teknologi — och alltmer, deras mest försvarbara. Detta dikterar en strukturell förändring: att investera kraftigt i observerbarhet, expandera verifikationsgraden av sanningen och omorganisera runt en “sandwich”-topologi (mänskligt syfte → maskinell exekvering → mänsklig verifikation och underwriting). ‘

‘I en ekonomi där råutdata är kommodifierad, migrerar konkurrensfördelen till den sällsynta talangen och data som kan tillförlitligt styra och certifiera agenssystem — genererar nätverkseffekter inte i ren utdata, utan i pålitliga resultat.’

Författarna hypoteserar att den avgörande begränsningen för tillväxt kan vara verifikationsbandbredden.

Värdesförskjutning mot mänsklig verifikation

Artikeln beskriver rörelsen mot AGI som en växande divergens mellan kostnaden för att producera maskinutdata och kostnaden för att kontrollera utdata – den senare förblir bunden till ändlig mänsklig tid och erfarenhet.

Att generera planer, rapporter, design och rekommendationer skulle i detta scenario bli billigt och rikligt, medan att bestämma vilka av dem som är sunda, utrustade och säkra nog att agera på skulle bli den “sällsynta funktionen”. Den effektiva begränsningen för distribution skulle därför inte vara hur mycket utdata system kan producera, utan hur mycket av den utdatan kan vara trovärdigt verifierad.

Alltså, istället för att belöna alltmer specialiserad färdighet i mätbara uppgifter, kommer systemet, enligt författarna, att börja belöna mätbarhet i sig: arbete som kan parametreras kommer att driva mot kommodifiering när dess genomförandekostnad närmar sig den marginella kostnaden för beräkning, med värde som ackumuleras istället i högkvalitativ sanning, tillförlitliga revisionsledningar och institutionella mekanismer för att tilldela och absorbera ansvar.

Därför, i en verifikationsekonomi, skulle fördelen ligga mindre i att producera innehåll och mer i att certifiera resultat och underwrite risken som hör till dem.

Om automatisering fortsätter att accelerera medan verifikation förblir begränsad av mänsklig tid och uppmärksamhet, förutspår artikeln att en hålighetsekonomi skulle uppstå, där, när kostnaden för att automatisera arbete sjunker, allt fler agenter skulle distribueras eftersom det är ekonomiskt meningsfullt att göra det – även om förmågan att ordentligt kontrollera deras utdata inte växer i samma takt. I det scenariot skulle andelen arbete som faktiskt är verifierat minska, med alla de negativa konsekvenser som det medför.

Omvänt skulle en utökad ekonomi säkerställa att verifikationskapaciteten expanderar i takt med automatiseringen. Detta skulle innebära en medveten investering i strukturerad utbildning för att bevara expertis, samt nya ansvarsramar som kan absorbera risk. Distribution skulle då vara knuten till vad som faktiskt kan kontrolleras och försäkras – effektivt, en mycket gammal flaskhals som bringas i centrum av en utanförskaplig teknisk utveckling:

‘Från ett politiskt perspektiv är den centrala utmaningen en djup strukturell asymmetri: vinsterna från AI-distribution är aggressivt privatiserade, medan de systematiska riskerna är socialiserade. Företag och individer fångar upp sidan av automatisering medan de externaliserar katastrofala svansrisker. ‘

‘Utan gemensam verifikationsinfrastruktur och rigorös ansvarsprissättning kommer marknaden att rationellt driva mot en Hålighetsekonomi — en jämvikt som karakteriseras av explosiv mätbar aktivitet, men i grunden urholkad mänsklig kontroll.’

Avtagande avkastning

Faktum är att bevarandet av domänexpertis hos människor är avgörande för problemet, eftersom en kultur av industrialiserad tillsyn, enligt författarna, skulle riskera att över tiden försämra kvaliteten på dem som utför tillsynen – eftersom efterföljande generationer av tillsyningsmän inte längre skulle besitta direkt och levande erfarenhet av de domäner som kräver verifikation.

Det är möjligt att, på den punkten, kvaliteten på tillsynen verkligen skulle vara mottaglig för automatisering, eftersom nya beslut skulle formas enbart på basis av tidigare beslut. Men det skulle lämna intressenter utan en sparkbar rumpa, eller en livskraftig affärsmodell. Det skulle också göra en sådan roll så volatil och riskfylld att den skulle vara oattraktiv, även i en miljö med låg sysselsättning.

Att isolera auktoriserade proffs som läkare och arkitekter i en välbetald men högt belastad “gummistämplande” position kommer sannolikt att erodera deras värde i en sådan roll, över tiden: ju längre deras faktiska fält erfarenhet försvinner i det förflutna, desto mer “teoretiska” kan deras beslut bli, eftersom deras övergivna domän fortsätter att utvecklas i deras frånvaro.

(Detta är bekant även i företagskultur före AI, i form av kvalificerad personal som avancerar till ledning och blir alltmer avskuren från nya utvecklingar, och så småningom undergräver deras värde som tillsyningsmän och organisatörer. Det är också bekant för Star Trek: TNG -fans, i form av Pakleds — en ras som använder avancerad teknik omfattande, men som inte längre vet hur man skapar eller repar den.)

Ingångsnivåexekvering har historiskt sett tjänat som träningsplatsen för framtida experter; men om automatisering eliminerar de rutinmässiga uppgifterna genom vilka omdöme kultiveras, kommer den framtida tillgången på kapabla verifikatorer att minska, föreslår författarna.

Alltså förutsäger artikeln en paradox: ju mer kraftfulla agenssystemen blir, desto mer kommer samhället att bero på en stock av mänsklig expertis som dessa system kan erodera.

Och låt oss komma ihåg att detta inte på något sätt är ett tekniskt problem, eller mottagligt för en teknisk lösning. På många sätt antyder detta syndrom den logistiska motsvarigheten till AI-modellkollaps — förutom att vi här överväger undergrävandet av en ekonomisk modell.

‘Från ett politiskt perspektiv är den centrala utmaningen en djup strukturell asymmetri: vinsterna från AI-distribution är aggressivt privatiserade, medan de systematiska riskerna är socialiserade. Företag och individer fångar upp sidan av automatisering medan de externaliserar katastrofala svansrisker. ‘

‘Utan gemensam verifikationsinfrastruktur och rigorös ansvarsprissättning kommer marknaden att rationellt driva mot en Hålighetsekonomi — en jämvikt som karakteriseras av explosiv mätbar aktivitet, men i grunden urholkad mänsklig kontroll.’

Slutsats: En annan kris

Författarna definierar den förutsagda krisen som en mätbarhetsgap, där kvantifierbara processer kan automatiseras bort från all mänsklig bidrag, och lämnar n-hårda eller n-legala processer som fortfarande kräver mänsklig expertis.

Men min frus erfarenhet antyder att komplexiteten eller svårigheten i en process inte nödvändigtvis är relaterad till behovet av ansvarighet i den processen; många av de saker som hon “godkänner” representerar triviala problem eller beräkningar i sig, men är konsekvenser i brottet. Och ju mer rättsliga affärskulturen blir, desto mer kommer underwriters och investerare att kräva mänsklig ansvarighet över en bredare range av processer.

Så, övergången till verifikationsekonomin kunde orsaka en annan kris än den som för närvarande väcker rubriker. Problemet i ett sådant fall skulle inte vara om AI kan producera mer, utan om institutioner kan verifiera tillräckligt av vad som produceras för att översätta maskinintelligens till varaktigt värde.

Eftersom maskinintelligens kan skalas utan precedent, och tillgängligheten av fall-specifik mänsklig tid inte kan hålla jämna steg med den takten, verkar de frågor som diskuteras i den nya artikeln sannolikt att dyka upp mycket snabbt — även om de kan vara initialt överröstade av de bredare ekonomiska konsekvenserna av AI-antagande.

 

* Artikeln är för lång för att brytas ner på vanligt sätt, och är i alla fall strukturellt olämplig för den typen av analys. Därför beslutade jag att kommentera den och överväga dess betydelse istället, och hänvisa läsaren till källarbetet så att de kan göra detsamma.

/s

Publicerad första gången onsdag, 25 februari 2026

Författare på maskinlärande, domänspecialist inom mänsklig bildsyntes. Före detta chef för forskningsinnehåll på Metaphysic.ai.