Andersonの視点
検証経済への移行

AIの仕事をチェックすることが、新しい機械学習経済において重要なセクターになる可能性があります。そのセクターは、大幅に拡大する必要がありますが、自動化することはできません。しかし、年月が経つにつれて、人間の「専門家」の質は低下する可能性があります。
意見. 私の妻は、ヨーロッパで最も混雑し、激しい官僚主義の1つである建築事務所で建築家です。彼女の教育の価値の重要な部分は、取得と維持する彼女の署名権 – 年に1回更新する必要がある高価な資格で、彼女は実装の費用が数十万、あるいは数百万ユーロになる提案に「署名」できるようにします。
彼女は私に、それが彼女の仕事で最も難しい部分ではないと言っています。なぜなら、それは彼女自身の計算、または他の人の計算を正式化するだけだからです。この目的のために、外部の仕事は通常、チェックするのが難しくないからです。
本質的に – CEOを任命する場合と同様に – このスタンプ(これは文字通りのスタンプです)は、主に利害関係者に、もしもの際に責任を問うことができる対象を提供します。責任を明確にすることで、保険のカバーと投資家の信頼も容易になります。これらの保証なしではそれらは得られません。
これは、私の生涯で2回目、私がこのプロセスを直接目にしていることです。25年前、私はイタリアの別の有名な官僚主義の中で、がん専門医と婚約しており、その専門家の署名が信頼の連なりの中で最後の段階であったことを知っていました。
私はその期間中に元婚約者から、そして最近妻から、彼女たちの職業は/が、有資格の無能者が売り手口で仕事をし、より独創的または有益な仕事を避けていることを聞きました。そうした皮肉な実践者は、比較的希少で不可欠な資源を表すため、高額の報酬を請求できます。
チェックアウト
このテーマは、私が今日、新しい広範な論文に遭遇したときに私の心に浮かびました。そのタイトルは、AGIの簡単な経済学です。MIT、ワシントン大学セントルイス校、UCLAの3人の研究者は、近い将来、仕事を奪うAIの自動化の勢いが、高リスクのシナリオで現実の責任者を必要とする必要性と衝突することで、人間の検証、認証、責任の新しい経済が生まれることを描いています。
この論文は、メディアの現在の想像と対照的です。ビジネス部門は広大な事務所を1人の「監視者」に減らし、その決定をトレーニングデータとして使用して、最後の「肉の」部分も解雇することです。
代わりに、著者は、法的およびコンプライアンスの要件が、会社の(AI/人間/AI支援)法務部門をなだめる「ゴム印」の人間に大量の注意を集中させることになることを信じています:
‘企業にとって、核心的な戦略的洞察は、検証が単なるコンプライアンス機能ではなく、主要な生産技術であり、そしてますますその最も守備の固いものであるということです。これは、構造的な変化を意味します。観察可能性への投資、検証グレードの基礎事実の拡大、そして「サンドイッチ」トポロジー(人間の意図 → 機械の実行 → 人間の検証と保証)を中心に再編成することです。 ‘
‘生産物の原価が商品化された経済では、競争上の優位性は、信頼性の高い結果を生成し、認証できる希少な才能とデータに移ります。ネットワーク効果は、生産量ではなく、信頼できる結果に移ります。 ‘
著者は、成長の決定的な制約が、生物から切り離された知能ではなく、検証帯域幅であると推測しています。
人間の検証への価値のシフト
この論文は、AGIへの移行を、機械の出力の生産コストとその出力のチェックコストの間の開きの拡大として記述しています。後者は、人間の時間と生活体験に依存しているためです。
計画、報告、設計、勧告の生成は、安価で豊富になりますが、どれが妥当で、整列され、行動に移すのに十分に安全であるかを判断することは、希少な機能になります。
システムの出力をどれだけ信用できるものとして検証できるかが、実際的な限界となります。
したがって、検証経済では、コンテンツの生成よりも、結果の認証とそれに付随するリスクの保証において優位性が生まれます。
自動化が加速し続け、検証は人間の時間と注意によって制限される場合、論文は中空の経済が生まれると予測しています。そこでは、自動化のコストが低下するにつれて、より多くのエージェントが展開されます。なぜなら、それは経済的に合理的だからです。ただし、出力の適切なチェックが行われる能力は同じ速度で成長しません。
逆に、拡張経済では、検証能力が自動化とともに拡大します。これには、専門知識を維持するための構造化されたトレーニングへの意図的な投資と、新しい責任枠組みが必要です。展開は、実際にチェックされ、保証できるものに結び付けられます。実質的には、技術開発の前例のない規模によって中心に据えられた非常に古い瓶頸です:
‘テクノロジー部門では、主な収益モデルは、ソフトウェアへのアクセス(Software-as-a-Service)を монетизすることから、結果(「Software-as-Labor」)を монетизすることに移ります。したがって、企業は、Liability-as-a-Serviceを通じて尾部リスクを吸収する能力に基づいて評価されます。 ‘
‘実行は今や無限にスケーラブルです。法的および財務的な能力がその不可避な失敗を吸収することは、新しいボトルネックです。 ‘
減少する収穫
実際には、人間のドメインの専門知識の保存は、問題に不可欠です。なぜなら、産業的な監視の文化は、監視を行う人間の質を時間の経過とともに劣化させるからです。監視を行う人間は、監視が必要なドメインの直接的な経験や生活体験をもはや持っていないからです。
議論の余地はあるが、専門家を「ゴム印」役に配置すると、その役割での価値は時間の経過とともに劣化する可能性があります。なぜなら、その専門家の実際の分野での経験が過去のものになればなるほど、その決定は「理論的」になる可能性があるからです。その放棄された分野は彼らの不在の中で進化し続けるからです。
(これは、Star Trek: TNGのファンにとっても、Pakledsの形で、既に知られているものです。彼らは高度な技術を広く使用していますが、それを作ったり修理したりする方法はもう知りません。)
実行の初期段階は、歴史的に、将来の専門家のためのトレーニングの場として機能してきました。しかし、自動化がルーチンワークを排除する場合、将来の検証者として有能な供給は減少するでしょう。著者は、そのような仕事を通じて判断が養われる場合、検証者としての将来の供給は減少するでしょう。
したがって、この論文は、パラドックスを予言しています。エージェントシステムがより強力になるにつれて、社会は、そのようなシステムによって侵食される 人間の専門知識のストックにますます依存することになります。
そして、こちらは、何の形でも 技術的な問題ではなく、技術的な解決策にも対処できないことを覚えておいてください。多くの点で、この症候群は、AIモデル崩壊のロジスティックに相当します。ただし、ここでは、経済 モデルの下方修正について考えています。
‘政策の観点から、核心的な課題は、深い構造的な非対称性です。AIの展開による利益は、激しく民間化されていますが、システム的なリスクは社会化されています。企業や個人は、自動化のプラスの側面を把握しながら、壊滅的な尾部リスクを外部に転嫁しています。 ‘
‘共有された検証インフラストラクチャと厳格な責任価格付けがなければ、市場は合理的に中空の経済へのシフトに流れ込むでしょう。これは、計測可能な活動の爆発によって特徴づけられる均衡ですが、基本的に人間の管理が中空化しています。 ‘
結論: 異なる危機
著者は、予測される危機を、計測可能なギャップとして定義しています。ここで、量化可能なプロセスは、人間の貢献から自動化され、nハードまたはn法的なプロセスが残ります。これらはまだ人間の専門知識を必要とします。
しかし、私の妻の経験は、プロセスの複雑さまたは難しさが、プロセスにおける説明責任の必要性と必ずしも関連しているわけではないことを示唆しています。彼女が「署名」するものの多くは、自体では些細な問題または計算ですが、違反の場合には重大なものです。さらに、訴訟の多いビジネス文化になるほど、保証人や投資家は、より広範なプロセスに対して人間の説明責任を必要とします。
したがって、検証経済への移行は、現在注目を集めているのとは異なる危機を引き起こす可能性があります。問題は、AIがより多く生産できるかどうかではなく、機械の知能を耐久性のある価値に変換するために、機械が生み出すもののうちどれだけが検証できるかです。
機械の知能は前例のないスケールで拡大する可能性がありますが、事例に適用可能な 人間の時間の利用可能性は、そのペースを維持できないため、論文で説明されている問題はすぐに現れる可能性があります。ただし、AIの採用のより広範な経済的影響によって最初は聞こえないかもしれません。
* この論文は、通常の分析に適さない構造を持ち、長いため、通常の方法で分解することはできません。したがって、代わりにそれについてコメントし、その重要性を考慮し、読者にソースワークを参照することで、同じことを行うことができるようにしました。
† /s
初めて発行されたのは、2026年2月25日(水曜日)です。












