人工知能
私たちはAIを整列させるのではなく、文明を整列させる

人工知能(AI)における主な質問は、AIモデルを人間の価値観と整列させる方法だった。研究者たちは、AIの決定を導く安全性のルール、倫理的原則、制御メカニズムを定義しようとした。この作業は、著しい進歩を達成した。しかし、AIシステムがより能力が高く、広く使われるようになると、整列の焦点は変化し始めた。単一のモデルを単一の指令セットに整列させるという課題が、グローバルスケールでこれらのシステムを使用する文明全体を整列させる、より大きな課題に変わった。AIは、単なるツールではなくなった。社会が働き、コミュニケーションをとり、交渉し、競争する環境に進化している。その結果、整列は、技術的な問題ではなくなった。文明的な問題になった。この記事では、整列がモデルだけでなく、なぜ文明の観点から考える必要があるのかを説明する。また、このシフトが私たちの責任にどのような影響を与え、グローバルな協力に何を意味するのかについても議論する。
AIが本当に表現するのは誰の価値か?
デリケートな歴史的出来事についてAIに聞くと、その答えは、AIが学習したデータに依存する。如果そのデータが主に西側のインターネットから来ている場合、答えは西側の偏見を持つことになる。個人の主義、開かれた発言、民主主義的理想を優先する。これらの価値観は、多くの人にとって良い価値観である。しかし、これらは世界で唯一の価値観ではない。
シンガポールのユーザー、リヤドのユーザー、サンフランシスコのユーザーは、それぞれ「役に立つ」と「有害」なものの定義が異なる。ある文化では、絶対的な自由よりも社会的調和が重要である。別の文化では、階層への尊重が重要である。
シリコンバレーの会社が「人間のフィードバックからの強化学習」(RLHF)を使用すると、AIの回答を評価するために人間を雇う。しかし、これらの人間は誰か?彼らの信念は何か?もし彼らがモデルをアメリカの基準に整列させると、間違えてアメリカの文化輸出を構築していることになる。彼らは、世界の他の部分に特定の文明のルールを課すデジタル外交官を構築している。
フィードバックループの台頭
課題は、AIが一つの文化の信念を反映することだけではない。AIが私たちを変える可能性があることだ。現代のAIシステムは、個人の行動、組織、さらには国家を形作る可能性がある。AIは、私たちが考え、働き、信頼し、競争する方法に影響を与えることができる。これにより、AIシステムと人間の社会の間にフィードバックループが作られる。私たちがAIを訓練し、AIが私たちが考え、行動する方法を形作る。このループは、AIがより広く使われるようになると強くなる。このフィードバックループの仕組みを確認するために、以下の2つの例を示す:
- 大規模なAIの展開は社会的行動を変え、社会的行動は新しいシステムを訓練するデータを変える。たとえば、推薦アルゴリズムは、人々が何を観るか、読むか、信じるかを形作ることができる。生産性ツールは、チームがどのように協力し、学生がどのように学ぶかを形作ることができる。これらの行動の変化は、視聴習慣、職場でのコミュニケーションパターン、または書き方の違いとしてデータパターンを変える。将来の訓練データセットにこのデータが流入すると、モデルはその仮定と出力を調整する。人間の行動はモデルを形作り、モデルは逆に人間の行動を形作る。
- 自動化された意思決定ツールは公共政策に影響を与え、公共政策は将来のモデル訓練に影響を与える。たとえば、多くの政府は、AIを使用して、どの地域に医療支援が必要か、または犯罪リスクが高いかを特定するためにリソースを割り当てる。政策立案者がこれらの勧告に基づいて行動すると、決定の結果は後に新しいデータセットの一部になる。時間の経過とともに、AIによって形作られた政策決定は、次の世代のAIモデルを形作ることになる。
このフィードバックループを認識すると、AIが徐々に文明を形作り、整列させていることが明らかになる。したがって、国家は、AIを社会や制度に統合する際に、どのようにして価値観を保護できるかを尋ね始めている。
主権AIの出現
この整列の課題は、世界中の政府から重大な反応を引き起こした。国家は、輸入されたAIに頼ることは主権のリスクであることを認識した。彼らは、外国人のように考えるブラックボックスによって市民が教育され、情報を得、助言されることを許すことができない。
この認識は、「主権AI」の出現につながった。フランスは、フランス語を話し、フランス法と文化を理解するモデルを構築するために多大な投資をしている。インドは、文化的価値観を確保するために在来のAIモデルを構築している。アラブ首長国連邦と中国も、自国の国家ビジョンに整列したAIモデルを構築している。
これが新しい軍拡競争である。物語の制御権をめぐる競争である。自国のAIを持たない文明は、最終的に自らの記憶を失うことになる。如果あなたの子供が機械に質問をすると、機械が別の文化の論理で答えると、あなたの文化は衰退し始める。この認識は、しかし、異なるデジタルブロックの形成につながる可能性がある。私たちは、西側のAI、中国のAI、インドのAIなど、異なる事実と道徳的指針を持つシステムを持つことになる。これらの開発は、真正に整列したAIモデルを作成したい場合、まず文明を整列させる方法を見つける必要があることを明らかにしている。
外交的AIの必要性
従来の整列は、慎重な訓練、プロンプト、ガードレールによってモデルを整列できるという仮定に基づいている。これは、初期のAI安全性研究の技術的な思考から来ている。しかし、モデルレベルの整列が完全にできたとしても、文明を整列させる課題を解決することはできない。整列は、社会が反対方向に引っ張る場合、安定したままにはできない。如果国、企業、コミュニティが相反する目標を持っている場合、彼らはAIシステムをそれらの相反に反映させるだろう。これらの限界は、整列が技術的な問題だけでなく、ガバナンス、文化、調整の問題でもあることを示している。これらの問題は、専門家や開発者だけでなく、全ての文明に関係する。
どうすればいいのか?もし私たちが普遍的な整列は不可能であることを認めるなら、私たちの戦略を変える必要がある。技術的な解決策を哲学的な問題に求めるのを止める必要がある。外交官のように考えることを始める必要がある。私たちは「文明的整列」のプロトコルを構築する必要がある。AIが社会の信念や価値観を尊重する方法を、他の文化の信念を押し付けない方法を、見つける必要がある。つまり、私たちはアルゴリズムのためのデジタル国連が必要である。
これには透明性が必要である。現在、ニューラルネットワークの深い層にある価値観が何であるかは、実際にはわからない。私たちが見るのは、出力だけである。文明を整列させるには、各モデルの「憲法」が明確である必要がある。モデルは、偏見を宣言できるべきである。モデルは、「私はこのデータで訓練され、这些安全ルールで、这些価値観を優先する」と言えるべきである。偏見が見えるようになると、システムを信頼できる。ユーザーは、視点を切り替えることができるべきである。質問をして、「西側」のモデルがどう答えるか、「東側」のモデルがどう答えるかを見られるべきである。これにより、AIは、洗脳のツールではなく、理解のツールになる。
結論
私たちは、ターミネーターについて心配することに過去の時間を費やしすぎた。実際のリスクは、ロボットが私たちを破壊することではない。実際のリスクは、ロボットが私たちが誰であるかを忘れさせることである。整列は、コードを一度書いて忘れることができない。常にAIモデルと交渉し、モデルを私たちの信念や価値観と整列させる、継続的なプロセスである。これは、政治的な行為である。私たちが知能の時代の次の段階に入ると、画面の向こうを見なければならない。私たちが歴史、国境、信念をどのように解釈するかについて、AIがどう考えるかを考慮する必要がある。私たちは、世界を運営するのに役立つ心を構築している。私たちは、AIが文明の違いを尊重することを確認する必要がある。












