L'angolo di Anderson
Transizione verso l'economia della verifica

Il controllo del lavoro dell'IA potrebbe diventare un settore significativo nella nuova economia dell'apprendimento automatico; un settore che dovrà crescere in modo significativo e che non può essere automatizzato. Ma con il passare degli anni, è probabile che la qualità degli "esperti" umani peggiori.
Opinione. Mia moglie è un architetto in una delle burocrazie più intasate e intense d'Europa. Una parte significativa del valore della sua istruzione risiede nell'ottenimento e nel mantenimento della sua diritto di firma – una credenziale costosa che deve essere sottoscritta nuovamente ogni anno e che le consente letteralmente di "firmare" proposte la cui attuazione può ammontare a centinaia di migliaia, persino milioni di euro.
Mi dice che questa non è la parte più difficile del suo lavoro, poiché si limita a formalizzare i suoi calcoli o quelli di altri e che, a questo scopo, il lavoro esterno non è solitamente difficile da verificare.
In sostanza, come spesso accade anche quando si nominano i CEO, questo timbro (letteralmente, un timbro) fornisce principalmente agli stakeholder un ostacolo da superare se le cose vanno male. Garantendo la responsabilità, facilita anche copertura assicurativa e la fiducia degli investitori, che non sarebbe possibile ottenere senza tali garanzie.
È la seconda volta nella mia vita che vedo questo processo in azione direttamente; 25 anni fa mi sono fidanzata con un'oncologa in un'altra burocrazia europea notoriamente ostica, l'Italia, e ho visto fino a che punto la sua firma da esperta fosse l'ultimo passaggio di una catena di fiducia a cui molti altri, oltre a lei, hanno dovuto contribuire con la loro competenza.
Ho sentito sia dalla mia ex fidanzata, in quel periodo, sia più recentemente da mia moglie, che le loro professioni erano/sono piene di ciarlatani qualificati che svendono il loro marchio e rifiutano lavori più originali o utili perché meno redditizi. Questi professionisti cinici possono chiedere cifre elevate perché rappresentano risorse relativamente scarse ed essenziali.
Scopri
Questo argomento mi è venuto in mente quando mi sono imbattuto in un nuovo e tentacolare carta oggi, intitolato Alcuni semplici principi economici dell'AGIIn esso, tre ricercatori provenienti dal MIT, dalla Washington University di St. Louis e dall'UCLA, descrivono un futuro prossimo in cui il terrificante, impulso distruttivo del lavoro verso l'automazione guidata dall'intelligenza artificiale si scontra con la necessità che i soggetti del mondo reale intervengano in scenari ad alto rischio, portando così a una nuova economia di verifica, ratifica e responsabilità umana*.
Il documento contrasta con l'attuale immagine dei media di settori aziendali ridotti, con ampi uffici ridotti a "supervisori" composti da una sola persona, le cui decisioni vengono utilizzate come dati di addestramento per (si spera) licenziare anche quest'ultimo pezzo di carne.†.
Gli autori ritengono piuttosto che le considerazioni pratiche e i requisiti di conformità concentreranno enormemente l'attenzione sugli esseri umani che "timbrano il cartellino" e che placano il dipartimento legale (IA/umano/assistito dall'IA) di un'azienda:
Per le aziende, l'intuizione strategica fondamentale è che la verifica non è più una mera funzione di conformità, ma una tecnologia di produzione primaria e, sempre più, la più difendibile. Ciò impone un cambiamento strutturale: investire massicciamente nell'osservabilità, espandere la verifica di base e riorganizzarsi attorno a una topologia "a sandwich" (intento umano → esecuzione automatica → verifica e sottoscrizione umane).
"In un'economia in cui la produzione grezza è una merce, il vantaggio competitivo si sposta verso i talenti e i dati scarsi, capaci di guidare e certificare in modo affidabile i sistemi agenti, generando effetti di rete non in termini di pura produzione, ma di risultati affidabili".
Gli autori ipotizzano che il vincolo determinante alla crescita potrebbe non essere l’intelligenza – che l’intelligenza artificiale ha ormai “separato dalla biologia” – ma larghezza di banda di verifica.
Il valore si sposta verso la verifica umana
Il documento descrive il passaggio verso AGI come una divergenza crescente tra la spesa per produrre output dalle macchine e la spesa per controllare tale output, quest'ultima ancora legata al tempo umano finito e all'esperienza vissuta.
In questo scenario, la generazione di piani, relazioni, progetti e raccomandazioni diventerebbe economica e abbondante, mentre si determinerebbe quali di essi siano validi, Allineati, e sufficientemente sicuro da poter essere utilizzato, diventerebbe la "funzione scarsa". Il limite effettivo all'implementazione non sarebbe quindi la quantità di output che i sistemi possono produrre, ma la quantità di tale output può essere verificato in modo credibile.
Pertanto, invece di premiare competenze sempre più specializzate in compiti misurabili, il sistema, prevedono gli autori, iniziare a premiare la misurabilità stessa: il lavoro che può essere parametrizzato tenderà alla mercificazione man mano che il suo costo di esecuzione si avvicina al costo marginale di elaborazione, mentre il valore si accumulerà invece in dati di base di alta qualità, piste di controllo affidabili e meccanismi istituzionali per assegnare e assorbire la responsabilità.
Pertanto, in un'economia basata sulla verifica, il vantaggio risiederebbe meno nella produzione di contenuti e più nella certificazione dei risultati e nella copertura dei rischi ad essi associati.
Se l'automazione continua ad accelerare mentre la verifica rimane limitata dal tempo e dall'attenzione umana, il documento prevede che un Economia svuotata emergerebbe uno scenario in cui, con la diminuzione dei costi dell'automazione del lavoro, verrebbero impiegati sempre più agenti perché economicamente sensato farlo, anche se la capacità di verificarne adeguatamente l'output non crescerebbe alla stessa velocità. In tale scenario, la quota di lavoro effettivamente verificato si ridurrebbe, con tutte le conseguenze negative che ciò comporta.
Al contrario, un Economia aumentata garantirebbe che la capacità di verifica si espandesse di pari passo con l'automazione. Ciò comporterebbe un investimento deliberato in una formazione strutturata per preservare le competenze, nonché nuove quadri di responsabilità in grado di assorbire il rischio. L'implementazione sarebbe quindi legata a ciò che può essere effettivamente controllato e assicurato – di fatto, un collo di bottiglia molto antico portato al centro dell'attenzione da una portata senza precedenti di sviluppo tecnologico:
Nel settore tecnologico, il modello di ricavi dominante passerà dalla monetizzazione dell'accesso al software (Software-as-a-Service) alla monetizzazione dei risultati ("Software-as-Labor"). Di conseguenza, le aziende saranno valutate principalmente in base alla loro capacità di assorbire il rischio di coda attraverso Responsabilità come servizio.
"L'esecuzione è ormai infinitamente scalabile; la capacità legale e finanziaria di assorbire i suoi inevitabili fallimenti è il nuovo collo di bottiglia".
Rendimenti decrescenti
In effetti, la preservazione delle competenze di dominio negli esseri umani è fondamentale per il problema, poiché una cultura di supervisione industrializzata, secondo gli autori, rischierebbe nel tempo di degradare la qualità di tali competenze. esecuzione la svista – perché le generazioni successive di supervisori non avrebbero più avuto esperienza diretta e vissuta dei domini che richiedevano verifica.
Si potrebbe sostenere che, a quel punto, la qualità della supervisione sarebbe realmente suscettibile di automazione, poiché le nuove decisioni verrebbero formulate esclusivamente sulla base di decisioni precedenti. Tuttavia, ciò lascerebbe gli stakeholder senza un culo da prendere a calcio un modello di business sostenibile. Ciò renderebbe inoltre tale ruolo così volatile e rischioso da risultare poco attraente, anche in un contesto di bassa occupazione.
Relegare professionisti qualificati come medici e architetti in una posizione di "approvazione automatica" ben pagata ma molto gravosa rischia di erodere il loro valore in tale ruolo, nel tempo: più si allontana la loro esperienza effettiva sul campo, più "teoriche" potrebbero diventare le loro decisioni, poiché il loro dominio abbandonato continua a evolversi in loro assenza.
(Ciò è familiare anche nella cultura aziendale pre-IA, sotto forma di personale qualificato che progredisce nella gestione e diventa sempre più distante dai nuovi sviluppi, finendo per compromettere il proprio valore come supervisori e organizzatori. È anche familiare a Star Trek: TNG tifosi, sotto forma di Pakleds – una razza che fa ampio uso di tecnologie avanzate, ma non sa più come crearle o ripararle.)
L'esecuzione di livello base è sempre servita come campo di addestramento per i futuri esperti; tuttavia, se l'automazione elimina le attività di routine attraverso cui si coltiva il giudizio, la futura disponibilità di verificatori competenti si ridurrà, suggeriscono gli autori.
Quindi il documento preannuncia un paradosso: più potenti diventano i sistemi agenti, più la società dipenderà da una riserva di competenze umane. che quegli stessi sistemi possano erodere.
E ricordiamoci che questo non è in ogni modo un problema tecnico, né suscettibile di una soluzione tecnologica. Per molti versi questa sindrome suggerisce l'equivalente logistico di Crollo del modello di intelligenza artificiale – salvo che qui stiamo considerando l’indebolimento di un economico modello.
"Da una prospettiva politica, la sfida principale è una profonda asimmetria strutturale: i vantaggi dell'implementazione dell'IA vengono privatizzati in modo aggressivo, mentre i rischi sistemici vengono socializzati. Aziende e individui sfruttano i vantaggi dell'automazione, esternalizzando al contempo i rischi catastrofici.
"Senza un'infrastruttura di verifica condivisa e una rigorosa determinazione dei prezzi delle responsabilità, il mercato scivolerà razionalmente verso una Hollow Economy, un equilibrio caratterizzato da un'attività misurata ed esplosiva, ma da un controllo umano fondamentalmente svuotato".
Conclusione: una crisi diversa
Gli autori definiscono la crisi prevista come una divario di misurabilità, in cui i processi quantificabili possono essere automatizzati lontano da ogni contributo umano, lasciando n-duro o n-procedimenti legali che richiedono comunque competenza umana.
Tuttavia, l'esperienza di mia moglie suggerisce che la complessità o la difficoltà di un processo non è necessariamente correlata alla necessità di responsabilità in quel processo; molte delle cose che lei "approva" rappresentano di per sé problemi o calcoli banali, ma hanno conseguenze sulla violazione. E più la cultura aziendale diventa contenziosa, più sottoscrittori e investitori richiederanno la responsabilità umana in una gamma più ampia di processi.
Pertanto, la transizione verso un'economia basata sulla verifica potrebbe causare una crisi diversa da quella che sta attualmente facendo notizia. La questione in tal caso non sarebbe se l'IA possa produrre di più, ma se le istituzioni siano in grado di verificare una quantità sufficiente di ciò che viene prodotto per tradurre l'intelligenza artificiale in valore durevole.
Poiché l'intelligenza artificiale potrebbe presto raggiungere dimensioni senza precedenti e la disponibilità di caso-applicabile Poiché il tempo umano non riesce a tenere il passo con questo ritmo, le problematiche delineate nel nuovo lavoro sembrano destinate a emergere molto rapidamente, anche se inizialmente potrebbero essere messe in ombra dalle più ampie implicazioni economiche dell'adozione dell'intelligenza artificiale.
* L'articolo è troppo lungo per essere scomposto nel modo consueto, e in ogni caso strutturalmente inadatto a questo tipo di analisi. Ho quindi deciso di commentarlo e di considerarne piuttosto il significato, rimandando il lettore all'opera di riferimento affinché possa fare altrettanto.
† /s
Prima pubblicazione mercoledì 25 febbraio 2026










