Connect with us

Transition vers l’économie de vérification

Angle d’Anderson

Transition vers l’économie de vérification

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

La vérification du travail de l’IA pourrait devenir un secteur important dans la nouvelle économie de l’apprentissage automatique ; un secteur qui devra considérablement évoluer, et qui ne pourra pas être automatisé. Mais au fil des ans, les « experts » humains sont susceptibles de se dégrader en qualité.

 

Opinion. Ma femme est architecte dans l’une des bureaucraties les plus encombrées et les plus intenses d’Europe. Une partie importante de la valeur de sa formation réside dans l’obtention et le maintien de son droit de signature – une credentialisation coûteuse qui doit être renouvelée chaque année, et qui lui permet de signer littéralement les propositions dont la mise en œuvre peut être de l’ordre de centaines de milliers, voire de millions d’euros.

Elle me dit que ce n’est pas la partie la plus difficile de son travail, puisqu’il ne s’agit que de formaliser ses propres calculs, ou ceux des autres, et que pour cela, le travail externe n’est généralement pas difficile à vérifier.

En essence – comme c’est souvent le cas lors de la nomination de PDG – ce tampon (c’est littéralement un tampon) fournit principalement aux parties prenantes une personne à blâmer si les choses tournent mal. En assurant la responsabilité, il facilite également la couverture d’assurance et la confiance des investisseurs, qui ne seraient pas obtenables sans de telles garanties.

C’est la deuxième fois dans ma vie que je vois ce processus en action directe ; il y a 25 ans, j’étais fiancé à un oncologue dans une autre bureaucratie notoirement encombrée, l’Italie, et j’ai vu à quel point sa signature d’expert était la dernière étape d’une chaîne de confiance à laquelle de nombreuses autres personnes que’elle devaient contribuer leur expertise.

J’ai entendu de la part de mon ex-fiancée, à cette époque, et plus récemment de ma femme, que leurs professions étaient/ sont infestées de charlatans qualifiés qui vendent leur tampon et évitent un travail plus original ou plus utile, car moins rentable. De tels praticiens cyniques peuvent facturer des sommes élevées parce qu’ils représentent des ressources relativement rares et essentielles.

Vérifiez

Ce sujet m’est venu à l’esprit lorsque je suis tombé sur un nouveau et vaste document aujourd’hui, intitulé Quelques économies simples de l’IA générale. Dans celui-ci, trois chercheurs issus du MIT, de l’Université de Washington à St. Louis et de l’UCLA, décrivent un avenir proche où l’impulsion terrifiante, destructrice d’emplois, vers l’automatisation pilotée par l’IA, entre en collision avec le besoin de vrais culots à botter dans des scénarios à haute mise – conduisant ainsi à une nouvelle économie de vérification humaine, de ratification et de responsabilité*.

Le document contraste avec l’imagination actuelle des médias de secteurs commerciaux avec de vastes bureaux réduits à des surveillants uniques, dont les décisions sont utilisées comme données de formation pour (espérons-le) licencier même ce dernier lambeau de « meatware ».

Au lieu de cela, les auteurs pensent que les considérations pratiques et les exigences de conformité porteront une attention énorme sur les humains « à l’encre » qui apaisent le service juridique d’une entreprise (IA/humain/aidé par l’IA) :

‘Pour les entreprises, l’insight stratégique clé est que la vérification n’est plus une simple fonction de conformité, mais une technologie de production principale – et de plus en plus, la plus défendable. Cela dicte un changement structurel : investir lourdement dans l’observabilité, élargir les données de vérité de vérification et réorganiser autour d’une topologie « sandwich » (intention humaine → exécution machine → vérification humaine et souscription).

‘Dans une économie où la production brute est commodifiée, l’avantage concurrentiel migre vers le talent rare et les données capables de certifier de manière fiable les systèmes agents – générant des effets de réseau non dans la production brute, mais dans les résultats fiables.’

Les auteurs hypothèsent que la contrainte déterminante de la croissance peut ne pas être l’intelligence – que l’IA a maintenant « déconnectée de la biologie » – mais la bande passante de vérification.

Les valeurs se déplacent vers la vérification humaine

Le document décrit le mouvement vers l’IA générale comme une divergence croissante entre le coût de production de la sortie de la machine et le coût de vérification de cette sortie – le dernier étant toujours lié au temps humain fini et à l’expérience vécue.

Générer des plans, des rapports, des conceptions et des recommandations deviendrait bon marché et abondant, tandis que la détermination de leur solidité, de leur alignement et de leur sécurité suffisante pour agir serait devenu la « fonction rare ». La limite effective de déploiement serait donc non pas la quantité de production que les systèmes peuvent produire, mais la quantité de production qui peut être vérifiée de manière crédible.

Ainsi, au lieu de récompenser une compétence de plus en plus spécialisée dans les tâches mesurables, le système, selon les auteurs, commencerait à récompenser la mesurabilité elle-même : le travail qui peut être paramétré glisserait vers la commodification à mesure que son coût d’exécution approche le coût marginal de calcul, la valeur s’accumulant plutôt dans la vérité de base de haute qualité, les traces d’audit fiables et les mécanismes institutionnels pour attribuer et absorber la responsabilité.

Par conséquent, dans une économie de vérification, l’avantage résiderait moins dans la production de contenu et plus dans la certification des résultats et la souscription des risques qui y sont attachés.

Si l’automatisation continue d’accélérer tandis que la vérification reste limitée par le temps et l’attention humaine, le document prévoit qu’une économie creuse émergera, où, à mesure que le coût de l’automatisation du travail diminue, de plus en plus d’agents seront déployés car cela a du sens économiquement – même si la capacité de vérifier correctement leur production ne grandira pas à la même vitesse. Dans ce scénario, la part du travail qui est réellement vérifiée diminuera, avec toutes les conséquences négatives qui en découlent.

Inversement, une économie augmentée assurerait que la capacité de vérification évoluerait en tandem avec l’automatisation. Cela impliquerait un investissement délibéré dans une formation structurée pour préserver l’expertise, ainsi que de nouveaux cadres de responsabilité qui peuvent absorber le risque. Le déploiement serait alors lié à ce qui peut réellement être vérifié et assuré – effectivement, un très ancien goulet d’étranglement mis au premier plan par une échelle de développement technologique sans précédent :

‘Dans le secteur technologique, le modèle de revenu dominant passera de la monétisation de l’accès au logiciel (Software-as-a-Service) à la monétisation des résultats (« Software-as-Labor »). Par conséquent, les entreprises seront valorisées principalement sur leur capacité à absorber les risques de queue via Liability-as-a-Service.

‘L’exécution est maintenant infiniment évolutivité ; la capacité juridique et financière à absorber ses défaillances inévitables est le nouveau goulet d’étranglement.’

Retour sur investissement décroissant

En effet, la préservation de l’expertise de domaine chez les humains est cruciale pour le problème, puisque une culture de surveillance industrialisée, selon les auteurs, risquerait avec le temps de dégrader la qualité de ceux qui effectuent la surveillance – parce que les générations suivantes de surveillants ne posséderaient plus d’expérience directe et vécue des domaines nécessitant une vérification.

On peut soutenir qu’à ce stade, la qualité de la surveillance serait vraiment susceptible à l’automatisation, puisque de nouvelles décisions seraient prises uniquement sur la base de décisions antérieures. Cependant, cela laisserait les parties prenantes sans un cul à botter, ou un modèle économique viable. Cela rendrait également un tel rôle si volatile et risqué qu’il serait peu attrayant, même dans un climat de faible emploi.

Le cantonnement de professionnels agréés tels que les médecins et les architectes dans un poste de « tampon » bien rémunéré mais très chargé est susceptible de les dégrader dans ce rôle, avec le temps : plus leur expérience de domaine réel régresse dans le passé, plus leurs décisions pourraient devenir « théoriques », à mesure que leur domaine abandonné continue d’évoluer en leur absence.

(Ceci est familier même dans la culture commerciale d’avant l’IA, sous la forme de personnel qualifié qui passent à la gestion et deviennent de plus en plus déconnectés des développements nouveaux, sapant finalement leur valeur en tant que surveillants et organisateurs. C’est également familier aux fans de Star Trek: TNG , sous la forme des Pakleds – une race qui utilise la technologie avancée de manière extensive, mais ne sait plus comment la créer ou la réparer.)

L’exécution de niveau d’entrée a historiquement servi de terrain d’entraînement pour les futurs experts ; mais si l’automatisation élimine les tâches routinières à travers lesquelles le jugement est cultivé, l’approvisionnement futur en vérificateurs capables diminuera, suggèrent les auteurs.

Ainsi, le document augure un paradoxe : plus les systèmes agents deviennent puissants, plus la société dépendra d’un stock d’expertise humaine que ces mêmes systèmes pourraient éroder.

Et rappelons que ce n’est en aucune façon un problème technique, ni susceptible d’une solution technologique. De nombreuses manières, ce syndrome suggère l’équivalent logistique de l’effondrement du modèle d’IA – sauf que nous considérons ici la dégradation d’un modèle économique.

‘Du point de vue des politiques, le défi clé est une asymétrie structurelle profonde : les gains de la mise en œuvre de l’IA sont agressivement privatisés, tandis que les risques systémiques sont socialisés. Les entreprises et les individus capturent l’upside de l’automatisation tout en externalisant les risques de queue catastrophiques.

‘Sans infrastructure de vérification partagée et tarification de la responsabilité rigoureuse, le marché dérivera rationnellement vers une économie creuse – un équilibre caractérisé par une activité mesurée explosive, mais fondamentalement dépourvue de contrôle humain.’

Conclusion : une crise différente

Les auteurs définissent la crise prévue comme un écart de mesurabilité, dans lequel les processus quantifiables peuvent être automatisés à l’écart de toute contribution humaine, laissant des processus n-durs ou n-légaux qui nécessitent toujours l’expertise humaine.

Cependant, l’expérience de ma femme suggère que la complexité ou la difficulté d’un processus n’est pas nécessairement liée au besoin de responsabilité dans ce processus ; de nombreuses choses qu’elle « approuve » représentent des problèmes ou des calculs triviaux en soi, mais sont conséquentiels en cas de défaillance. Et plus la culture commerciale devient litigieuse, plus les souscripteurs et les investisseurs exigeront la responsabilité humaine sur une gamme plus large de processus.

Ainsi, la transition vers l’économie de vérification pourrait causer une crise différente de celle qui fait actuellement les gros titres. La question, dans ce cas, ne serait pas de savoir si l’IA peut produire plus, mais si les institutions peuvent vérifier suffisamment de ce qui est produit pour traduire l’intelligence de la machine en valeur durable.

Puisque l’intelligence de la machine peut bientôt évoluer sans précédent, et que la disponibilité du temps humain applicable au cas ne peut pas suivre ce rythme, les problèmes évoqués dans le nouveau travail semblent susceptibles de se manifester très rapidement – même s’ils peuvent être initialement noyés par les conséquences économiques plus larges de l’adoption de l’IA.

 

* Le document est trop long pour être décomposé de la manière habituelle, et de toute façon, il n’est pas structuré pour une telle analyse. Par conséquent, j’ai décidé de commenter et de considérer sa signification, et de renvoyer le lecteur au travail source afin qu’il puisse en faire autant.

/s

Publié pour la première fois mercredi 25 février 2026

Écrivain sur l'apprentissage automatique, spécialiste de domaine en synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.