Ángulo de Anderson
Transición a la Economía de Verificación

La verificación del trabajo de la IA puede convertirse en un sector importante en la nueva economía del aprendizaje automático; uno que tendrá que crecer significativamente y que no podrá ser automatizado. Pero a medida que pasan los años, es probable que los “expertos” humanos se deterioren en calidad.
Opinión. Mi esposa es arquitecta en una de las burocracias más congestionadas y intensas de Europa. Una parte importante del valor de su educación radica en la obtención y mantenimiento de su derecho de firma – un credencial costoso que debe renovarse cada año y que le permite literalmente “aprobar” propuestas cuya implementación puede ser de cientos de miles, incluso millones de euros.
Me dice que esto no es la parte más difícil de su trabajo, ya que solo formaliza sus propios cálculos o los de otros, y que para este propósito, el trabajo externo no suele ser difícil de verificar.
En esencia, como sucede a menudo cuando se nombra a un CEO, este sello (es literalmente un sello) proporciona a las partes interesadas alguien a quien culpar si las cosas salen mal. Al asegurar la responsabilidad, también facilita la cobertura de seguros y la confianza de los inversores, que no sería posible sin tales garantías.
Es la segunda vez en mi vida que veo este proceso en acción directa; hace 25 años estaba comprometido con una oncóloga en otra burocracia notoriamente lenta de la UE, Italia, y vi hasta qué punto su firma de experta era la última etapa en una cadena de confianza a la que muchos otros, además de ella, tenían que contribuir con su experiencia.
Escuché de mi ex prometida, en ese período, y más recientemente de mi esposa, que sus profesiones estaban/están llenas de profesionales calificados que venden su sello y evitan un trabajo más original o útil como menos rentable. Dichos practicantes cínigos pueden cobrar sumas altas porque representan recursos relativamente escasos y esenciales.
Revisa
Este tema me vino a la mente cuando me encontré con un nuevo y extenso documento hoy, titulado Algunos aspectos económicos simples de la IA general. En él, tres investigadores de MIT, la Universidad de Washington en St. Louis y UCLA, describen un futuro cercano donde el impulso aterrador hacia la automatización impulsada por la IA choca con la necesidad de verdaderos culos para patear en escenarios de alto riesgo – lo que lleva a una nueva economía de verificación humana, ratificación y responsabilidad*.
El documento contrasta con la visión actual de los medios de sectores comerciales con extensas oficinas reducidas a un solo “supervisor”, cuyas decisiones se utilizan como datos de entrenamiento para (esperemos) descartar incluso este último vestigio de “software” humano†.
Más bien, los autores creen que las consideraciones prácticas y los requisitos de cumplimiento centrarán una gran atención en los humanos “rubber-stamping” que aplacan al departamento legal de una empresa (IA/humano/ayudado por IA):
‘Para las empresas, la idea estratégica central es que la verificación ya no es solo una función de cumplimiento, sino una tecnología de producción principal — y cada vez más, la más defendible. Esto dicta un cambio estructural: invertir pesadamente en la observabilidad, expandir la verdad fundamental de verificación y reorganizar alrededor de una topología “sandwich” (intención humana → ejecución de máquina → verificación y suscripción humana).
‘En una economía donde la producción bruta es una commodity, la ventaja competitiva migra hacia el talento y los datos escasos capaces de dirigir y certificar sistemas agenciales — generando efectos de red no en la producción bruta, sino en resultados de confianza.’
Los autores hipotetizan que la restricción de crecimiento definitoria puede no ser la inteligencia – que la IA ha “desacoplado de la biología” – sino la ancho de banda de verificación.
Desplazamiento de valor hacia la verificación humana
El documento describe el movimiento hacia la IA general como una divergencia creciente entre el costo de producir salida de máquina y el costo de verificar esa salida – lo último de los cuales sigue vinculado al tiempo y la experiencia humanos finitos.
Generar planes, informes, diseños y recomendaciones se convertiría en barato y abundante, mientras que determinar cuáles de ellos son sólidos, alineados y lo suficientemente seguros como para actuar sobre ellos se convertiría en la “función escasa”. El límite efectivo en la implementación sería, por lo tanto, no cuánta salida pueden producir los sistemas, sino cuánta de esa salida puede ser verificada de manera creíble.
Así, en lugar de recompensar habilidades cada vez más especializadas en tareas medibles, el sistema, según los autores, comenzará a recompensar la medición en sí misma: el trabajo que se puede parametrizar derivará hacia la commodity a medida que el costo de ejecución se acerque al costo marginal de cómputo, con valor que se acumula en lugar de eso en la verdad fundamental de alta calidad, rastros de auditoría confiables y mecanismos institucionales para asignar y absorber la responsabilidad.
Por lo tanto, en una economía de verificación, la ventaja estaría menos en producir contenido y más en certificar resultados y suscribir los riesgos asociados con ellos.
Si la automatización continúa acelerándose mientras la verificación permanece limitada por el tiempo y la atención humanos, el documento predice que surgiría una Economía Hueca, donde, a medida que disminuye el costo de automatizar el trabajo, se desplegarían más y más agentes porque tiene sentido hacerlo – aunque la capacidad de verificar adecuadamente su salida no crecería al mismo ritmo. En ese escenario, la proporción de trabajo que se verifica realmente disminuiría, con todas las consecuencias negativas que conlleva.
Por el contrario, una Economía Mejorada garantizaría que la capacidad de verificación crecería al mismo ritmo que la automatización. Esto implicaría una inversión deliberada en capacitación estructurada para preservar la experiencia, así como nuevos marcos de responsabilidad que puedan absorber el riesgo. La implementación estaría entonces vinculada a lo que realmente se puede verificar y asegurar – efectivamente, un cuello de botella muy antiguo llevado al centro del escenario por un desarrollo tecnológico sin precedentes:
‘En el sector tecnológico, el modelo de ingresos dominante cambiará de la monetización del acceso al software (Software como Servicio) a la monetización de los resultados (“Software como Trabajo”). En consecuencia, las empresas se valorarán principalmente por su capacidad para absorber el riesgo de cola a través de Responsabilidad como Servicio.
‘La ejecución es ahora infinitamente escalable; la capacidad legal y financiera para absorber sus inevitables fallos es el nuevo cuello de botella.’
Retorno decreciente
De hecho, la preservación de la experiencia en el dominio en los humanos es fundamental para el problema, ya que una cultura de supervisión industrializada, según los autores, arriesgaría con el tiempo a degradar la calidad de aquellos que realizan la supervisión – porque las generaciones posteriores de supervisores ya no poseerían experiencia directa y vivida de los dominios que requieren verificación.
Arguablemente, en ese momento, la calidad de la supervisión sería verdaderamente susceptible a la automatización, ya que las nuevas decisiones se formarían únicamente en base a decisiones anteriores. Sin embargo, esto dejaría a las partes interesadas sin un trasero pateable, o un modelo de negocio viable. También haría que tal papel fuera tan volátil y lleno de riesgos como para ser poco atractivo, incluso en un clima de bajo empleo.
Encerrar a profesionales acreditados como médicos y arquitectos en una posición de “rubber-stamping” bien remunerada pero muy cargada es probable que erosionen su valor en tal papel con el tiempo: cuanto más en el pasado se encuentre su experiencia de campo real, más “teóricas” podrían volverse sus decisiones, a medida que su dominio abandonado continúa evolucionando en su ausencia.
(Esto es familiar incluso en la cultura empresarial anterior a la IA, en la forma de personal capacitado que avanza en la gestión y se vuelve cada vez más desconectado de los desarrollos nuevos, lo que eventualmente socava su valor como supervisores y organizadores. También es familiar para los fanáticos de Star Trek: TNG , en la forma de los Pakleds – una raza que utiliza tecnología avanzada extensivamente, pero ya no sabe cómo crearla o repararla.)
La ejecución de nivel de entrada ha servido históricamente como el terreno de capacitación para futuros expertos; pero si la automatización elimina las tareas rutinarias a través de las cuales se cultiva el juicio, el suministro futuro de verificadores capaces disminuirá, sugieren los autores.
Así, el documento augura una paradoja: cuanto más poderosos se vuelvan los sistemas agenciales, más dependerá la sociedad de un stock de experiencia humana que esos mismos sistemas pueden erosionar.
Y recordemos que esto no es en absoluto un problema técnico, ni susceptible a una solución tecnológica. De muchas maneras, este síndrome sugiere el equivalente logístico de colapso de modelo de IA – excepto que aquí estamos considerando la erosión de un modelo económico.
‘Desde una perspectiva de política, el desafío central es una asimetría estructural profunda: las ganancias de la implementación de la IA se privatizan agresivamente, mientras que los riesgos sistémicos se socializan. Las empresas y los individuos capturan las ventajas de la automatización mientras externalizan los riesgos de cola catastróficos.
‘Sin infraestructura de verificación compartida y un precio de responsabilidad riguroso, el mercado racionalmente derivará hacia una Economía Hueca – un equilibrio caracterizado por una actividad medida explosiva, pero fundamentalmente vacía de control humano.’
Conclusión: Una crisis diferente
Los autores definen la crisis predicha como una brecha de medición, en la que los procesos cuantificables se pueden automatizar lejos de toda contribución humana, dejando n-duras o n-legales procesos que todavía requieren experiencia humana.
Sin embargo, la experiencia de mi esposa sugiere que la complejidad o la dificultad de un proceso no está necesariamente relacionada con la necesidad de rendición de cuentas en ese proceso; muchos de los que ella “aprueba” representan problemas o cálculos triviales en sí mismos, pero son consecuentes en la infracción. Y cuanto más litigiosa se vuelva la cultura empresarial, más requerirán los aseguradores y los inversores la rendición de cuentas humana en una gama más amplia de procesos.
Así, la transición a la economía de verificación podría causar una crisis diferente a la que está generando titulares actualmente. El problema en tal caso no sería si la IA puede producir más, sino si las instituciones pueden verificar lo suficiente de lo que se produce para traducir la inteligencia de la máquina en valor duradero.
Dado que la inteligencia de la máquina puede escalar pronto sin precedentes, y la disponibilidad de tiempo humano aplicable no puede mantener el ritmo con ese ritmo, los problemas esbozados en el nuevo trabajo parecen probablemente surgir muy pronto – incluso si pueden ser inicialmente ahogados por las ramificaciones económicas más amplias de la adopción de la IA.
* El documento es demasiado largo para desglosarlo de la manera habitual, y en cualquier caso no está estructuralmente adaptado para ese tipo de análisis. Por lo tanto, decidí comentar sobre él y considerar su importancia en su lugar, y remitir al lector al trabajo original para que pueda hacer lo mismo.
† /s
Publicado por primera vez el miércoles 25 de febrero de 2026












