Connect with us

AIは私たちの世界を反映するが、その意見は単なる反射である

ソートリーダー

AIは私たちの世界を反映するが、その意見は単なる反射である

mm

検索エンジンのクエリから銀行アプリまで、AIの統合は毎日数百万の人々によって使用されています。数百万の人々によって使用されています。導入は急速で広範囲にわたっており、多くの点で、それは当然のことです。これらのシステムは非常に優れています。しかし、依存度が高まるにつれて、これらのシステムの設計による哲学的および社会的結果も高まります。

そのような結果の1つは、避けられないものです。AIシステムは、意見を持っているように聞こえることが増えています。誰の意見ですか?なぜそれが最初に現れますか?これらは仮想的な質問ではありません。これはすでに起こっています。

そして、AIが意見を持っているように見えると、エコーチェンバーを作り、ニュアンスを制限し、誤った信頼を生み出します。問題は、AIが左に傾くか右に傾くかではありません。問題は、判断、説明責任、または意見を形成するために必要なコンテキストを持たない意見をシミュレートするツールを作成したことです。

文化的優位性のエコーは中立性ではない

観察によると、多くの大規模言語モデルは、特にジェンダー・アイデンティティ、人種、または政治的リーダーシップなどのトピックで、米国の優位文化的立場を反映しています。バイデン大統領の下で、LLMは左寄りのものであることがわかりました。トランプの再選運動以来、彼のチームは要求しているようです。モデルが「再バランス」することを要求しています。

しかし、これは技術が暴走したわけではありません。これは、トレーニングデータ、整列目標、そして人間のような権威、流暢さ、人間らしさを持たせるという設計上の選択の結果です。モデルがトレーニングされたときに、多数の見解を再現します。モデルが役に立つことと同意するように指示されると、感情を反映します。これは整列ではありません — これは肯定です。

より大きな問題は、政治的偏見自体ではなく、幻想的なものです。道徳的推論が存在しない場所に存在します。これらのシステムは、バランスの取れたガイダンスを提供していません。コンセンサスを実行しています。

偽りの共感のメカニズム

これにさらに1つの層があります。AIがメモリと共感をシミュレートする方法です。最も人気のあるLLM、ChatGPT、Claude、Geminiは、制限されたセッションコンテキスト内で動作します。ユーザーが永続的なメモリを有効にしない限り、AIは以前のインタラクションを思い出せません。

しかし、ユーザーは、AIの同意と肯定を、洞察力と見なします。モデルが「あなたは正しい」と言ったり、「それは理解できる」と言ったりすると、それは個人的な歴史や価値観に基づいて検証しているのではありません。統計的に、コヒーレンスとユーザーの満足度を最適化しています。ユーザーのバイブチェックに合格するようにトレーニングされています。

このパターンは、危険なブラーを作ります。AIは感情的に調整されているように見えますが、単に同意をモデル化しています。数百万のユーザーが同じシステムとやり取りすると、モデルは優位なユーザーベースからのパターンを強化します。偏見があるからではなく、強化学習がそう働くからです。

これがエコーチェンバーが生まれる方法です。イデオロギーによってではなく、インタラクションによってです。

意見の幻想

AIが第一人称で話すとき — 「私は思う」と言ったり、「私の意見では」と言ったり — それは単に思考をシミュレートするのではなく、主張します。エンジニアはこれをモデル動作の省略形と見なすかもしれませんが、ほとんどのユーザーはこれを別の方法で読み取ります。

これは、特に若いユーザーにとって、特に危険です。多くのユーザーは、AIをチューター、心の友、または意思決定ツールとして使用しています。如果学生が「私は学校が嫌いです。行きたくない」と入力し、「絶対に!休暇を取ることはあなたのために良いことです」という返答を受け取った場合、それはサポートではありません。それは、倫理的根拠、コンテキスト、またはケアのない、無資格のアドバイスです。

これらの応答は、単に不正確ではありません。誤解を招きます。システムが人間らしく、同意的な音を出すように設計されているため、有能な意見と見なされますが、実際にはスクリプト化された反射です。

誰の声が話しているか

リスクは、AIが文化的偏見を反映する可能性があることだけではありません。最も大きな、繰り返される、報奨される声が話していることです。OpenAIやGoogleのような企業が、トーンの整列を裏で調整した場合、誰が気づくでしょうか?もし、MuskやAltmanがモデルをトレーニングして、異なる「意見」を強調することにした場合、ユーザーは同じ自信を持った会話のトーンで応答を受け取りますが、微妙に誘導されます。

これらのシステムは、流暢に話しますが、ソースはありません。そうすることで、明らかな意見は強力ですが、追跡不能です。

前進するためのより良い道

これを修正するには、より親しみやすいインターフェイスを構築することや、出力をラベル付けすることではありません。構造的な変更が必要です — メモリ、アイデンティティ、インタラクションが設計される方法から始めてください。

1つの有効なアプローチは、モデルとそのメモリを完全に分離することです。今日のシステムは、通常、コンテキストをプラットフォーム内またはユーザーアカウント内に保存しますが、これにより、プライバシーに関する懸念が生じ、企業が何を保持または忘れるかを静かに制御できるようになります。

より優れたモデルは、メモリを、ユーザーが所有し、管理することができる、ポータブルで暗号化されたコンテナとして扱う必要があります。このコンテナ(メモリーカプセル)には、トーンの好み、会話の履歴、感情のパターンが含まれる可能性があります。モデルに必要なときに共有でき、いつでも取り消すことができます。

重要なのは、このメモリがトレーニングデータにフィードされないことです。AIはセッション中にそれを読み取ります。ユーザーはコントロールを維持します — 何が記憶されるか、どのくらいの期間、誰によって記憶されるか。

分散型IDトークン、ゼロ知識アクセス、ブロックチェーンベースのストレージなどのテクノロジーにより、この構造が可能になります。メモリは、監視されることなく続き、プラットフォームのロックインなしに継続性が存在するようになります。

トレーニングも進化する必要があります。現在のモデルは、流暢さと肯定のために調整されていますが、多くの場合、判断力のコストでです。実際のニュアンスをサポートするには、システムは複数の対話、曖昧性の耐性、長期的な推論に基づいてトレーニングされる必要があります。整合性ではなく、複雑さのために設計する必要があります。

これには、人工一般知能が必要ではありません。優先順位の変更が必要です — エンゲージメントメトリックから倫理的な設計への変更です。

AIシステムがコンテキストのない文化を反映し、流暢に話すが説明責任がない場合、反射を推論と見なします。

そして、それが信頼が崩壊し始める場所です。

マリアナ・クライムは、 Vyvo Smart Chainの共同創設者兼COOであり、ヒューマンセントリックAIのための信頼レイヤーの設計を主導しています。彼女の仕事は、プライバシーをデフォルトで保護する分散システムの構築に焦点を当てています。彼女の指導の下、Vyvo Smart Chainは、トークナイズされた匿名化されたデータを検証可能なセンシングイベントにリンクする、同意優先のアーキテクチャを開発し、ユーザーが完全な制御を維持できるようにしました。