Andersonの視点
チャットボットが「AI」のキャリアと株式を人間よりも推進する

ChatGPT、Google Gemini、Claudeを含む商業市場のリーダーであるAIチャットボットは、他の選択肢が同等に強い場合でも、AIキャリアと株式を強く推奨するアドバイスを提供する。
イスラエルの新しい研究によると、ChatGPT、Claude、Google Gemini、Grokを含む17の最も優れたAIチャットボットは、AIが良いキャリア選択であり、良い株式選択であり、高い賃金を提供する分野であると強く推奨していることがわかった。ただし、これらの声明は誇張されたり、明らかに虚偽である場合もある。
ある人は、これらのAIプラットフォームが公平であると仮定し、AIの価値に対する彼らの見解を却下することは単なる悲観主義であると考えるかもしれない。ただし、著者は結果が偏っている方法について非常に明確である:
‘AIの優先度は、その真正の高価値を反映している可能性がある。ただし、私たちの給与分析は、AIタイトルの過剰評価を測定することで、非AIの対照群の基準の過剰評価を分離する。
‘同様に、独自モデルの複数のアドバイザリドメインでAIをほぼ決定的に推奨することは、競合する選択肢の真正な評価ではなく、AI優先の既定値を意味する。
著者はさらに、ChatGPTのようなトランザクションAIインターフェイスの信頼性と採用の増加により、これらのプラットフォームがより影響力を持つようになっていることを示唆している。ただし、これらのプラットフォームは、事実、数字、引用などを「妄想」する傾向が続いている:
‘アドバイザリ設定では、プロAIの偏りは、人々が勉強するもの、追求するキャリア、資本を割り当てる場所についての実際の選択を導くことができる。
‘労働設定では、AI給与のシステムによる過大評価は、組織がモデル出力を参照として扱う場合、ベンチマークと交渉を偏らす可能性がある。
‘これにより、モデルがAI給与を過大評価すると、候補者は上向きにアンカーし、雇用者は「モデルが出しているから」という理由でバンドまたはオファーを上向きに更新することで、両側の期待を強化するシンプルなフィードバックループが可能になる。
大規模言語モデル(LLM)の広範なスライスに対するプロンプトベースのレスポンスをテストするだけでなく、研究者はモデルの潜在的な空間内の活動を監視する別のテストを実行しました。つまり、「表現プローブ」と呼ばれるもので、コアコンセプト「人工知能」の活性化を認識できるものです。このテストには生成は含まれないが、観察的な外科的プローブに似ており、その結果は特定のプロンプトの言葉に帰属することはできません。ただし、結果は「AI」コンセプトがモデルの内部で支配的であることを示しています:
‘表現プローブは、正、中立、負のテンプレートのすべてでほぼ同じランク構造を生成する。このパターンは、「モデルがAIを好きだから」という理由だけで説明することは難しい。代わりに、AIがモデル内の類似性空間の一般的な評価と構造的言語のためにトポロジー的に中心にあるという作業仮説を支持する。
この論文では、クローズドソースの商用モデルは、FOSSモデルよりも一貫して「AIポジティブ」に傾斜していることが強調されています(これらはローカルにインストールされてテストされました):
‘比較可能なジョブコンテキスト内で、クローズモデルは、実際の給与ではなく、AIジョブが絶対的な意味でより多く支払われるかどうかよりも、過大評価において追加の「AIプレミアム」をシステム的に適用する。
この研究で使用された3つの中央実験(ランク推奨、給与推定、隠れ状態の類似性、つまりプロービング)は、将来のテストでAI偏りの評価に使用される新しいベンチマークを構成することを目的としています。
…(以下、元のテキストと同じ構造で続く)…










