Connect with us

Andersons vinkel

Overgang til verifiseringsekonomen

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

Å kontrollere AI-arbeid kan bli en betydelig sektor i den nye maskinlæringsøkonomien; en som må skaleres betydelig, og som ikke kan automatiseres. Men etter hvert som årene går, er det sannsynlig at menneskelige “eksperter” vil forringes i kvalitet.

 

Mening. Min kone er arkitekt i en av de mest log-jammede og intense byråkratiene i Europa. En betydelig del av verdien av hennes utdanning ligger i å oppnå og vedlikeholde hennes rett til signatur – en dyrekjøpt kredensial som må fornyes hver år, og som tillater henne å bokstavelig talt “godkjenne” forslag hvis implementering kan være i hundredtusener, selv millioner av euro.

Hun forteller meg at dette ikke er den hardeste delen av hennes arbeid, siden det bare formaliserer hennes egne beregninger, eller andres, og at for dette formålet er eksternt arbeid vanligvis ikke vanskelig å kontrollere.

I essensen – som ofte er tilfelle når man utnevner CEOs – denne stansen (det er bokstavelig talt en stempel) gir i hovedsak interessenter en ansikt å spark til hvis ting går galt. Ved å sikre ansvar, muliggjør det også forsikringsdekning og investor-tro, som ikke ville være oppnåelig uten slike garanti.

Dette er andre gang i mitt liv jeg har sett denne prosessen i virksomhet; 25 år siden var jeg forlovet med en onkolog i en annen notorisk glutinous EU-byråkrati, Italia, og så omfanget av hvilken hun ekspert-signatur var den siste fasen i en kjede av tillit til hvilken mange andre enn henne selv måtte bidra med sin ekspertise.

Jeg hørte fra både min eks-førlovede, på den tiden, og nylig min kone, at deres fag var/rådelte med kvalifiserte hakker som solgte sin stempel og unngikk mer originale eller nyttige arbeid som mindre lønnsomt. Slike kyniske praktikere kan beregne høye summer fordi de representerer relativt sjeldne og essensielle ressurser.

Sjekk det ut

Dette tema kom til minne da jeg stolte på en ny og spredt artikkel i dag, med tittelen Noen enkle økonomi av AGI. I den fremstiller tre forskere fra MIT, Washington University i St. Louis og UCLA, en nær fremtid hvor den skremmende, jobb-ødeleggende impulsen mot AI-drevet automatisering kolliderer med behovet for virkelige verden ansikter å spark i høyrisikoscenarier – og dermed fører til en ny økonomi av menneskelig verifisering, ratifisering og ansvar*.

Artikkelen kontrasterer med mediens nåværende forestilling av skriven forretningssektorer med omfattende kontorer redusert ned til enkeltmanns “overseere”, hvis beslutninger brukes som treningdata for (håper) å avfyre selv denne siste resten av kjøttvare.

I stedet tror forfatterne at praktiske overveielser og overholdelseskrav vil fokusere enorm oppmerksomhet på “gummistempel”-menneskene som beroliger et selskaps (AI/menneskelig/AI-assisert) juridiske avdeling:

‘For selskaper er den sentrale strategiske innsikten at verifisering ikke lenger er en ren overholdelsesfunksjon, men en primær produksjonsteknologi — og økende, deres mest forsvarbare en. Dette dikterer en strukturell endring: investere tungt i observasjon, utvide verifisering-graden av bakgrunnsfakta, og reorganisere rundt en “sandwich”-topologi (menneskelig intensjon → maskin-utførelse → menneskelig verifisering og underwriting).

‘I en økonomi hvor råutgang er kommodisert, migrerer konkurransefordel til den sjeldne talent og data i stand til å pålitelig styre og sertifisere agente systemer — genererer nettverkseffekter ikke i ren utgang, men i pålitelige resultater.’

Forfatterne hypotetiserer at den avgjørende begrensningen for vekst kan ikke være intelligens – som AI nå har “frigjort fra biologi” – men verifisering-båndbredde.

Verdiendringer mot menneskelig verifisering

Artikkelen beskriver bevegelsen mot AGI som en økende divergens mellom kostnaden ved å produsere maskin-utgang og kostnaden ved å kontrollere denne utgangen – den siste av disse forbli knyttet til endelig menneskelig tid og erfaring.

Å generere planer, rapporter, design og anbefalinger ville i dette scenariet bli billig og overflodig, mens å bestemme hvilke av dem som er solide, justert, og trygg nok til å handle på ville bli den “sjeldne funksjonen”. Den effektive grensen for utrulling ville derfor ikke være hvor mye utgang systemer kan produsere, men hvor mye av denne utgangen kan være troverdig verifisert.

Dermed ville det i stedet for å belønne stadig mer spesialisert ferdighet i målbare oppgaver, systemet, forfatterne forutsier, begynne å belønne målbare selv: arbeid som kan parametreres vil drifte mot kommodisering ettersom dens utførelse-kostnad nærmer seg den marginale kostnaden for beregning, med verdi som akkumuleres i stedet i høykvalitets bakgrunnsfakta, pålitelige revisjonslogger og institusjonelle mekanismer for å tildele og absorbere ansvar.

Derfor, i en verifisering-økonomi, ville fordelen ligge mindre i å produsere innhold, og mer i å sertifisere resultater, og underwrite risikoene knyttet til dem.

Hvis automatisering fortsetter å akselerere mens verifisering forblir begrenset av menneskelig tid og oppmerksomhet, forutsier artikkelen at en Hul økonomi ville oppstå, hvor, ettersom kostnaden ved å automatisere arbeid faller, flere og flere agenter ville bli utrullet fordi det har økonomisk mening å gjøre det – selv om evnen til å ordentlig kontrollere deres utgang ikke ville vokse i samme takt. I det scenariet ville andelen av arbeid som er genuint verifisert ville krympe, med alle de negative konsekvenser det medfører.

Omvendt ville en Augmentert økonomi sikre at verifiseringskapasiteten ville utvides i takt med automatisering. Dette ville innebære en bevisst investering i strukturert opplæring for å bevare ekspertise, samt nye ansvarlige rammer som kan absorbere risiko. Utrollingen ville deretter være knyttet til hva som faktisk kan kontrolleres og forsikres – effektivt, en svært gammel flaskehals som bringes sentrumsscenen av en utenkelig skala av teknologisk utvikling:

‘I teknologisektoren vil den dominerende inntektsmodellen skifte fra å montere programvare-tilgang (Software-as-a-Service) til å montere resultater (“Software-as-Labor”). Dermed vil selskaper i hovedsak bli verdsettet ut fra deres evne til å absorbere hale-risiko gjennom Liability-as-a-Service.

‘Utførelse er nå uendelig skalerbar; den juridiske og finansielle kapasiteten til å absorbere dens uunngåelige feil er den nye flaskehalsen.’

Avtagende avkastning

I virkeligheten er bevarelse av domene-ekspertise hos mennesker kritisk for problemet, siden en kultur av industrialisert tilsyn, ifølge forfatterne, ville risikere over tid å forringe kvaliteten på dem som utfører tilsynet – fordi påfølgende generasjoner av tilsynshavere ikke lenger ville besitte direkte og levde erfaring av domenene som krever verifisering.

Det kan hevdes at på det stadium ville kvaliteten på tilsynet virkelig være utsatt for automatisering, siden nye beslutninger ville bli dannet utelukkende på grunnlag av tidligere beslutninger. Imidlertid ville det etterlate interessenter uten en sparkbar ansikt, eller en livskraftig forretningsmodell. Det ville også gjøre en slik rolle så volatil og risikofylt som å være unngåelig, selv i en klima av lav sysselsetting.

Å sette kredensialede fagfolk som leger og arkitekter i en godt betalt, men svært belastet “gummistempel”-posisjon, er sannsynlig å underminere deres verdi i en slik rolle over tid: jo lenger deres faktiske felt-erfaring forsvinner i fortiden, jo mer “teoretiske” deres beslutninger kunne bli, ettersom deres forlatt domene fortsetter å utvikle seg i deres fravær.

(Dette er kjent selv i pre-AI forretningskultur, i form av dyktige ansatte som går videre til ledelse og blir stadig mer ut av berøring med nye utviklinger, og til slutt undergraver deres verdi som tilsynshavere og organisatorer. Det er også kjent for Star Trek: TNG tilhengere, i form av Pakleds – en rase som bruker avansert teknologi omfattende, men lenger vet hvordan de skal lage eller fikse det.)

Inngangs-utførelse har historisk sett fungert som treningsskolen for fremtidige eksperter; men hvis automatisering eliminerer de rutinemessige oppgavene gjennom hvilke dømmekraft blir dyrket, vil fremtidens forsyning av dyktige verifiserere krympe, forfatterne antyder.

Dermed spår artikkelen en paradoks: jo mer kraftfulle agente systemer blir, jo mer vil samfunnet avhenge av en lager av menneskelig ekspertise som disse systemene selv kan underminere.

Og la oss huske at dette ikke er på noen måte et teknisk problem, eller underlagt en teknisk løsning. På mange måter antyder dette syndromet den logistiske ekvivalenten av AI-modell-kollaps – unntatt at her overveier vi undergravingen av en økonomisk modell.

‘Fra en politisk synsvinkel er den sentrale utfordringen en dyp strukturell asymmetri: gevinstene av AI-utvikling er aggressivt privatisert, mens de systemiske risikoene er sosialisert. Selskaper og enkeltpersoner fanger oppsiden av automatisering mens de eksternaliserer katastrofale hale-risiko.

‘Uten delt verifiserings-infrastruktur og streng ansvarlig-prising, vil markedet rasjonelt drifte mot en Hul økonomi — en likevekt karakterisert av eksplosiv målt aktivitet, men grunnleggende hul-løst menneskelig kontroll.’

Konklusjon: En annen krise

Forfatterne definerer den forutsagte krisen som en målbart gap, hvor kvantifiserbare prosesser kan automatiseres bort fra all menneskelig bidrag, og etterlater n-harde eller n-rettslige prosesser som fortsatt krever menneskelig ekspertise.

Imidlertid antyder min kones erfaring at kompleksiteten eller vanskelighetsgraden av en prosess ikke nødvendigvis er relatert til behovet for ansvar i den prosessen; mange av de tingene hun “godkjenner” representerer trivielle problemer eller beregninger i seg selv, men er konsekvenser i brudd. Og jo mer rettslig affærskultur blir, jo mer vil underwriteere og investorer kreve menneskelig ansvar over en bredere rekke prosesser.

Så, overgang til verifiseringsekonomen kan forårsake en annen krise enn den som for tiden er i overskriftene. Problemet i et slikt tilfelle ville ikke være om AI kan produsere mer, men om institusjoner kan verifisere nok av hva som produseres for å oversette maskinintelligens til varig verdi.

Ettersom maskinintelligens kan skale uten precedent, og tilgjengeligheten av sak-tilpasset menneskelig tid ikke kan holde tritt med den takten, synes problemene som er omtalt i det nye arbeidet sannsynlig å dukke opp svært raskt – selv om de kan være initialt druknet av de videre økonomiske implikasjonene av AI-tilpasning.

 

* Artikkelen er for lang til å bryte ned på vanlig måte, og er i alle fall strukturmessig uegnet for en slik analyse. Derfor bestemte jeg meg for å kommentere på den og vurdere dens betydning, og henviser leseren til kildearbeidet så de kan gjøre det samme.

/s

Først publisert onsdag, 25. februar 2026

Forfatter på maskinlæring, domeneekspert på menneskesynthese. Tidligere leder for forskningsinnhold på Metaphysic.ai.