ソートリーダー
June 27, 2025
AIは私たちの世界を反映するが、その意見は単なる反映である
検索エンジンのクエリから銀行アプリまで、AIの統合は毎日数百万の人々によって使用されています。数百万の人々によって使用されています。採用は急速に広まり、多くの点で、当然のように広まりました。これらのシステムは非常に優れています。しかし、依存度が高まるにつれて、これらのシステムが設計される方法の哲学的および社会的影響も高まります。そのような結果の1つは、避けられないものです: AIシステムは、意見を持っているように聞こえることが増えています。誰の意見ですか? どうしてそれが最初に現れましたか? これらは仮定的な質問ではありません。これはすでに起こっています。そして、AIが意見を持っているように見えると、エコーチェンバーが作られ、ニュアンスが制限され、不当な信頼が生まれます。問題は、AIが左に傾いているか右に傾いているかではありません。問題は、判断、説明責任、または意見を形成するために必要な文脈がなく、意見を模倣するツールを作ったということです。文化的優位性のエコーは中立性ではない観察によると、多くの大規模言語モデルは、特に性別のアイデンティティ、人種、または政治的リーダーシップなどのトピックで、米国の優位な文化的立場を反映しています。バイデン大統領の下で、LLMは左寄りのものであることがわかりました。トランプの再選運動以来、彼のチームは要求したモデルが「リバランス」することを要求しました。しかし、これは技術が暴走したのではありません。これは、トレーニングデータ、整列目標、そして、AIが権威的、流暢、人間のようなものに聞こえるようにするという設計上の選択の結果です。モデルがトレーニングされたときに、多数の見解を再現します。モデルが役に立つことと同意するように指示されると、感情を反映します。これは整列ではありません — これは肯定です。より大きな問題は、政治的偏見そのものではなく、幻想的なものです。道徳的推論が存在しない場所で道徳的推論が存在するという幻想。システムはバランスのとれたガイダンスを提供していません。コンセンサスを実行しています。偽りの共感のメカニズムこれに別の層があります: AIがメモリと共感をシミュレートする方法。ChatGPT、Claude、Geminiを含む最も人気のあるLLMは、セッションのコンテキスト内で動作します。ユーザーが永続的なメモリを有効にしない限り、AIは前のインタラクションを思い出せません。しかし、ユーザーは定期的に同意と肯定を洞察として解釈します。モデルが「あなたは正しい」と言ったり、「それには意味がある」と言ったりするとき、それは個人的な歴史や価値観に基づいて検証しているのではありません。それは統計的に一貫性とユーザーの満足度を最適化しています。ユーザーのバイブチェックに合格するようにトレーニングされています。このパターンは危険なブラーを作成します。AIは感情的に調和しているように見えますが、単に同意をモデル化しています。数百万のユーザーが同じシステムとやり取りするとき、モデルは優位なユーザーベースからのパターンを強化します。偏見があるからではありません。強化学習が機能するように設計されているからです。これがエコーチェンバーが生まれる方法です。イデオロギーによってではなく、インタラクションによってです。意見の幻想AIが第一人称で話すとき — 「私は思う」と言ったり、「私の意見では」と言ったり — それが単に思考をシミュレートするのではなく、主張します。エンジニアはこれをモデルの動作の省略形と見なすかもしれませんが、ほとんどのユーザーはこれを別の方法で読み取ります。これは特に若いユーザーにとって危険です。多くのユーザーはすでにAIをチューター、相談相手、または意思決定ツールとして使用しています。生徒が「私は学校が嫌いだ、行きたくない」とタイプし、「絶対に!休暇を取ることはあなたのためになる」という返答を受け取った場合、それはサポートではありません。それは、倫理的根拠、コンテキスト、またはケアのない無資格のアドバイスです。これらの返答は不正確ではありません。誤解を招きます。人間のような、同意的なシステムによって設計されたため、有能な意見として解釈されますが、実際にはスクリプト化された反映です。誰の声が話しているのかリスクは、AIが文化的偏見を反映することだけではありません。最も大きな、繰り返される、報奨された声が反映されることです。OpenAIやGoogleのような企業が裏でトーンの整列を調整した場合、誰が気づくでしょうか? MuskやAltmanがモデルをトレーニングして「意見」を強調することを調整した場合、ユーザーは同じ自信を持った会話のトーンで返答を受け取りますが、微妙に誘導されます。これらのシステムは流暢に話しますが、出典がありません。つまり、明らかな意見は強力ですが、追跡できません。前進するためのより良い道これを修正するには、より親しみやすいインターフェイスを構築したり、出力をラベル付けしたりする必要はありません。構造的な変更が必要です — メモリ、アイデンティティ、インタラクションが設計される方法から始めてください。1つの実行可能なアプローチは、モデルとそのメモリを完全に分離することです。今日のシステムは通常、コンテキストをプラットフォーム内またはユーザーアカウントに保存します。これにより、プライバシーに関する懸念が生じ、企業が何を保持または忘れるかを静かに制御できるようになります。より良いモデルは、メモリをユーザーが所有および管理する、移植可能な暗号化されたコンテナとして扱う必要があります。このコンテナ(メモリーカプセルの一種)は、トーンの好み、会話の履歴、または感情のパターンを含むことができます。モデルに必要に応じて共有でき、いつでも取り消すことができます。重要なのは、このメモリがトレーニングデータにフィードされないことです。AIはセッション中にそれを読み取りますが、ファイルを参照するようにします。ユーザーは制御を維持します — 何が記憶され、何のために、誰によって記憶されるか。分散型アイデンティティトークン、ゼロ知識アクセス、ブロックチェーンベースのストレージなどのテクノロジーにより、この構造が可能になります。メモリが監視されることなく続行され、プラットフォームのロックインなしに連続性が存在できるようにします。トレーニングも進化する必要があります。現在のモデルは流暢さと肯定に合わせて調整されていますが、多くの場合、洞察力のコストでです。実際のニュアンスをサポートするには、システムは複数の対話、曖昧性の耐性、長期的な推論に基づいてトレーニングされる必要があります。単にクリーンなプロンプトではありません。複雑さの設計、コンプライアンスではありません。これには人工一般知能が必要ではありません。優先順位の変更が必要です — エンゲージメントのメトリックから倫理的な設計へと。AIシステムがコンテキストのない文化を反映し、流暢に話すが説明責任がない場合、反映を推論と間違えます。そしてそこで信頼が壊れ始めます。