Connect with us

Transição para a Economia de Verificação

Ângulo de Anderson

Transição para a Economia de Verificação

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

Verificar o trabalho da IA pode se tornar um setor significativo na nova economia de aprendizado de máquina; um setor que terá que escalar significativamente e que não pode ser automatizado. Mas à medida que os anos passam, os “especialistas” humanos provavelmente deteriorarão em qualidade.

 

Opinião. Minha esposa é arquiteta em uma das burocracias mais congestionadas e intensas da Europa. Uma parte significativa do valor de sua educação reside na obtenção e manutenção de seu direito de assinatura – uma credencial cara que deve ser renovada a cada ano e que permite que ela literalmente “aprove” propostas cuja implementação pode ser de centenas de milhares, ou até milhões de euros.

Ela me diz que isso não é a parte mais difícil de seu trabalho, desde que apenas formaliza seus próprios cálculos, ou os de outros, e que para esse propósito, o trabalho externo não é usualmente difícil de verificar.

Essencialmente – como é frequentemente o caso quando se nomeia CEOs – esse selo (é literalmente um selo) fornece principalmente aos stakeholders um responsável em caso de problemas, e ao garantir a responsabilidade, também facilita cobertura de seguros e confiança dos investidores, que não seriam obtidos sem tais garantias.

É a segunda vez em minha vida que vejo esse processo em ação; 25 anos atrás, eu estava noivo de uma oncologista em outra burocracia notoriamente glutinosa, a Itália, e vi a extensão com que a assinatura de especialista dela era a última etapa em uma cadeia de confiança para a qual muitos outros, além dela, tinham que contribuir com sua especialização.

Ouvi de ambas, minha ex-noiva, naquela época, e mais recentemente minha esposa, que suas profissões estavam/estão repletas de especialistas qualificados que vendem seu selo e evitam trabalhos mais originais ou úteis, pois são menos lucrativos. Tais práticos céticos podem cobrar somas altas porque representam recursos relativamente escassos e essenciais.

Verifique

Esse tópico veio à mente quando encontrei um novo e amplo artigo hoje, intitulado Alguma Economia Simples de AGI. Nele, três pesquisadores que abrangem o MIT, a Universidade de Washington em St. Louis e a UCLA, descrevem um futuro próximo onde o impulso aterrorizante, destruidor de empregos, em direção à automação impulsionada por IA, colide com a necessidade de responsáveis reais em cenários de alto risco – levando assim a uma nova economia de verificação humana, ratificação e responsabilidade*.

O artigo contrasta com a imaginação atual da mídia de setores de negócios reduzidos a um único “supervisor”, cujas decisões estão sendo usadas como dados de treinamento para (esperançosamente) demitir até esse último resquício de “meatware”.

Em vez disso, os autores acreditam que considerações práticas e requisitos de conformidade focarão uma atenção enorme nos humanos “de selo de borracha” que aplacam o departamento jurídico de uma empresa (IA/humano/auxiliado por IA):

‘Para as empresas, a principal percepção estratégica é que a verificação não é mais uma mera função de conformidade, mas uma tecnologia de produção primária — e cada vez mais, a mais defensável. Isso dita uma mudança estrutural: investir pesadamente em observabilidade, expandir a verdade fundamental de verificação e reorganizar em torno de uma topologia “sanduíche” (intenção humana → execução de máquina → verificação humana e garantia).

‘Em uma economia onde a saída bruta é comoditizada, a vantagem competitiva migra para o talento escasso e os dados capazes de direcionar e certificar sistemas agênticos — gerando efeitos de rede não na saída bruta, mas em resultados confiáveis.’

Os autores hipotetizam que a restrição de crescimento definidora pode não ser a inteligência — que a IA agora “desacoplou da biologia” — mas largura de banda de verificação.

Deslocamento de Valor para a Verificação Humana

O artigo descreve a mudança em direção à AGI como uma divergência cada vez maior entre o custo de produzir saída de máquina e o custo de verificar essa saída — o último dos quais permanece ligado ao tempo humano finito e à experiência vivida.

Gerar planos, relatórios, projetos e recomendações se tornaria barato e abundante, enquanto determinar quais deles são sólidos, alinhados e seguros o suficiente para agir se tornaria a ‘função escassa’. O limite eficaz de implantação não seria mais quanto de saída os sistemas podem produzir, mas quanto dessa saída pode ser credivelmente verificada.

Assim, em vez de recompensar habilidades cada vez mais especializadas em tarefas mensuráveis, o sistema, os autores preveem, começará a recompensar a mensurabilidade em si: o trabalho que pode ser parametrizado tenderá a se deslocar para a comoditização à medida que o custo de execução se aproxima do custo marginal de computação, com valor acumulado em vez disso em verdade fundamental de alta qualidade, rastros de auditoria confiáveis e mecanismos institucionais para atribuir e absorver responsabilidade.

Portanto, em uma economia de verificação, a vantagem estaria menos na produção de conteúdo e mais na certificação de resultados e na garantia dos riscos a eles associados.

Se a automação continuar a acelerar enquanto a verificação permanece limitada pelo tempo e atenção humanos, o artigo prevê que uma Economia Oca emergirá, onde, à medida que o custo de automatizar o trabalho cai, mais e mais agentes serão implantados porque isso faz sentido economicamente – mesmo que a capacidade de verificar adequadamente sua saída não cresça à mesma velocidade. Nesse cenário, a parcela de trabalho que é genuinamente verificada encolherá, com todas as consequências negativas que isso acarreta.

Em contrapartida, uma Economia Aumentada asseguraria que a capacidade de verificação se expanda em conjunto com a automação. Isso envolveria um investimento deliberado em treinamento estruturado para preservar a especialização, bem como novos quadros de responsabilidade que possam absorver riscos. A implantação estaria então vinculada ao que pode ser realmente verificado e seguro – efetivamente, um gargalo muito antigo trazido ao centro do palco por um desenvolvimento tecnológico sem precedentes:

‘No setor de tecnologia, o modelo de receita dominante mudará de monetizar o acesso ao software (Software como Serviço) para monetizar os resultados (“Software como Trabalho”). Consequentemente, as empresas serão valorizadas principalmente por sua capacidade de absorver riscos de cauda por meio de Responsabilidade como um Serviço.

‘A execução agora é infinitamente escalável; a capacidade jurídica e financeira de absorver seus falhas inevitáveis é o novo gargalo.’

Retornos Decrescentes

De fato, a preservação da especialização de domínio em humanos é crítica para o problema, pois uma cultura de supervisão industrializada, de acordo com os autores, arriscaria ao longo do tempo deteriorar a qualidade daqueles que realizam a supervisão – porque as gerações subsequentes de supervisores não possuiriam mais experiência direta e vivida dos domínios que exigem verificação.

Argumentavelmente, nessa etapa, a qualidade da supervisão estaria realmente suscetível à automação, pois novas decisões seriam formadas apenas com base em decisões anteriores. No entanto, isso deixaria os stakeholders sem um responsável, ou um modelo de negócios viável. Isso também tornaria tal papel tão volátil e repleto de riscos que seria desagradável, mesmo em um clima de baixo emprego.

Isolar profissionais credenciados, como médicos e arquitetos, em uma posição de “selo de borracha” bem paga, mas altamente sobrecarregada, provavelmente erodiria seu valor nesse papel, com o tempo: quanto mais no passado sua experiência de campo real recuar, mais “teóricas” suas decisões poderiam se tornar, à medida que seu domínio abandonado continua a evoluir em sua ausência.

(Isso é familiar, mesmo na cultura de negócios pré-IA, na forma de funcionários qualificados que progredem para a gestão e se tornam cada vez mais desligados de novos desenvolvimentos, eventualmente minando seu valor como supervisores e organizadores. É também familiar para Star Trek: TNG fãs, na forma dos Pakleds – uma raça que usa tecnologia avançada extensivamente, mas não sabe mais como criá-la ou consertá-la.)

A execução de nível de entrada historicamente serviu como o campo de treinamento para futuros especialistas; mas se a automação eliminar as tarefas rotineiras pelas quais o julgamento é cultivado, o futuro fornecimento de verificadores capazes encolherá, os autores sugerem.

Assim, o artigo anuncia um paradoxo: quanto mais poderosos os sistemas agênticos se tornam, mais a sociedade dependerá de um estoque de especialização humana que esses mesmos sistemas podem erodir.

E vamos lembrar que isso não é de forma alguma um problema técnico, nem suscetível a uma solução tecnológica. De muitas maneiras, essa síndrome sugere o equivalente logístico de colapso do modelo de IA – exceto que aqui estamos considerando a subversão de um modelo econômico.

‘Do ponto de vista das políticas, o desafio central é uma profunda assimetria estrutural: os ganhos da implantação da IA são agressivamente privatizados, enquanto os riscos sistêmicos são socializados. Empresas e indivíduos capturam o lado positivo da automação, enquanto externalizam riscos de cauda catastróficos.

‘Sem infraestrutura de verificação compartilhada e preços de responsabilidade rigorosos, o mercado racionalmente se deslocará para uma Economia Oca — um equilíbrio caracterizado por atividade medida explosiva, mas fundamentalmente oca em termos de controle humano.’

Conclusão: Uma Crise Diferente

Os autores definem a crise prevista como uma lacuna de mensurabilidade, na qual processos quantificáveis podem ser automatizados para longe de qualquer contribuição humana, deixando n-difíceis ou n-legais processos que ainda exigem especialização humana.

No entanto, a experiência de minha esposa sugere que a complexidade ou dificuldade de um processo não está necessariamente relacionada à necessidade de responsabilidade nesse processo; muitas das coisas que ela ‘aprove’ representam problemas ou cálculos triviais em si mesmos, mas são consequenciais na violação. E à medida que a cultura de negócios se torna mais litigiosa, os seguradores e investidores exigirão responsabilidade humana em uma gama mais ampla de processos.

Portanto, a transição para a economia de verificação pode causar uma crise diferente daquela que está atualmente ganhando manchetes. A questão, nesse caso, não seria se a IA pode produzir mais, mas se as instituições podem verificar o suficiente do que é produzido para traduzir a inteligência da máquina em valor duradouro.

Já que a inteligência da máquina pode estar escalando sem precedentes, e a disponibilidade de tempo humano aplicável ao caso não pode acompanhar esse ritmo, as questões delineadas no novo trabalho parecem prováveis de se apresentar muito rapidamente – mesmo que possam ser inicialmente abafadas pelas mais amplas implicações econômicas da adoção da IA.

 

* O artigo é muito longo para ser quebrado no modo usual, e, de qualquer forma, não é estruturalmente adequado para esse tipo de análise. Portanto, decidi comentar sobre ele e considerar sua significância, e referir o leitor ao trabalho-fonte para que possa fazer o mesmo.

/s

Publicado pela primeira vez na quarta-feira, 25 de fevereiro de 2026

Escritor sobre aprendizado de máquina, especialista em síntese de imagem humana. Ex-chefe de conteúdo de pesquisa da Metaphysic.ai.