AGI
アシモフのロボティクスの三つの法則がAIに与える影響

ロボティクスの三つの法則は、サイエンス・フィクションの世界ではアイコニックであり、AIやロボティクス・コミュニティの中では、完全に安全なシステムを設計することの難しさを象徴するものとなっています。
これらの三つの法則の重要性を完全に理解するためには、まずこれらの法則を考え出した天才的な人物、故アイザック・アシモフについて学ぶ必要があります。次に、これらの法則を適応させ、進化させて人間を保護する方法を理解する必要があります。
アイザック・アシモフ – 天才の誕生
アイザック・アシモフは、1920年1月2日にロシアで生まれ、3歳の時にアメリカ合衆国に移住しました。彼はニューヨークのブルックリンで育ち、1939年にコロンビア大学を卒業しました。彼は、科学とサイエンス・フィクションに焦点を当てた、優れた才能と多作の作家として認められました。彼のキャリアの中で、500冊以上の本を書いたり編集しました。
アシモフは、サイエンス・フィクションの世界で最もアイコニックな作家の一人に大きな影響を受けました。彼はフィラデルフィア海軍造船所で働き始め、そこで二人の同僚に出会いました。これらの同僚は、のちにスペキュラティブ・フィクションの歴史の中で最も成功したサイエンス・フィクションの作家の一人となりました:L. スプレイグ・デ・キャンプとロバート・A. ハインライン。
L. スプレイグ・デ・キャンプは、100冊以上の本を書いた賞を受賞した作家で、1930年代と1940年代のサイエンス・フィクションにおいて重要な人物でした。彼の最も人気のある作品には、「Darkness Fall」(1939年)、「The Wheels of If」(1940年)、「A Gun for Dinosaur」(1956年)、「Aristotle and the Gun」(1958年)、および「The Glory That Was」(1960年)があります。
ロバート・A. ハインラインは、キャリアの最盛期には、世界で最も人気のあるサイエンス・フィクションの作家の一人でした。アイザック・アシモフとともに、アーサー・C. クラークとともに、サイエンス・フィクションの「ビッグ・スリー」と見なされました。ロバート・A. ハインラインの最も人気のある作品には、「Farnham’s Freehold」(1964年)および「To Sail Beyond the Sunset」(1987年)があります。現在の世代は、恐らく彼の小説「Starship Troopers」(1959年)の映画化で彼を最もよく知っています。
これらの未来主義の巨人の中で働くことは、アシモフの多作な執筆キャリアを開始するためのインスピレーションとなりました。アシモフは、科学コミュニティでも高く評価され、科学についての講演を行うために頻繁に公の場に呼ばれました。
ロボティクスの三つの法則
アイザック・アシモフは、1941年に発表された短編小説「Liar!」の中で、「ロボティクス」という用語を初めて使用しました。
その直後、1942年の短編小説「Runaround」で、アシモフは世界にロボティクスの三つの法則を紹介しました。法則は以下の通りです:
1. ロボットは、人間を傷つけたり、または不作為によって人間が危害を受けることを許すことはできません。
2. ロボットは、人間によって与えられた命令に従わなければなりません。ただし、その命令が第一法則と矛盾する場合は除きます。
3. ロボットは、自らの存在を保護しなければなりません。ただし、その保護が第一法則または第二法則と矛盾する場合は除きます。
これらの法則は、興味深いプロット・ポイントを提供するために設計され、アシモフはポジトロニック・ロボットを特集した37のサイエンス・フィクションの短編小説と6つの長編小説のシリーズを作成しました。
これらの短編小説のコレクションの1つ「I, Robot」は、2004年に映画化されました。「I,Robot」映画では、ウィル・スミスが主演し、2035年のディストピアを舞台に、三つのロボティクスの法則に従って動作する高度な知能を持つパブリック・サーバント・ロボットが登場します。映画は、物語と同様に、プログラミングが間違った方法で行われると、プログラミングすることのリスクが高くなることを示しています。
世界は、以前はサイエンス・フィクションだったものに追いつきました。私たちは、アイザック・アシモフが想像できたものよりも遥かに高度で、同時に限界のあるAIを設計しています。
ロボティクスの三つの法則は、Artificial General Intelligence (AGI)の議論で頻繁に参照されます。私たちは、AGIとは何か、そしてロボティクスの三つの法則が将来の潜在的な問題を避けるためにどのように進化しなければならないかを迅速に探求します。
Artificial General Intelligence (AGI)
現在、我々が日常的に出会うほとんどのAIは、ユーティリティ関数が非常に具体的で狭い「狭いAI」と見なされます。例えば、自動運転車は道路を移動できますが、その「狭い」限界のために、AIは他のタスクを簡単に完了できない可能性があります。別の狭いAIの例は、画像認識システムで、データベース内の画像を簡単に識別してラベル付けできますが、他のタスクに簡単に適応できない可能性があります。
Artificial General Intelligence、一般的に「AGI」と呼ばれるのは、人間のように迅速に学習し、適応し、ピボットし、現実の世界で機能するAIです。これは、範囲が狭くない知能であり、どのような状況にも適応し、現実の問題を解決する方法を学ぶことができます。
現在、AIは指数関数的に進歩していますが、まだAGIには達していません。AGIに到達するまでのタイムラインについては、誰もが異なる答えを出しています。私は、発明家、未来学者、そして「The Singularity is Near」の著者であるレイ・カーツワイルの見解に賛同しています。彼は、2029年までにAGIを達成するだろうと信じています。
2029年のタイムラインは、カウントダウンしています。私たちは、AIにルールブックをハードコードする必要があります。そのルールブックは、三つの法則に似ていますが、より高度で、人間とロボットの間の現実の世界の紛争を避けることができるものです。
現代のロボティクスの法則
ロボティクスの三つの法則は、文学では素晴らしいものでしたが、ロボットに真剣にプログラムするには、複雑さが不足しています。これは、短編小説や小説の背後にあるプロット・ポイントでした。三つの法則の間の矛盾、または少なくとも三つの法則の解釈は、ロボットがメルトダウンしたり、人間に反撃したり、または他の重要なプロット・ポイントになったりしました。
現在の法則の主な問題は、人間の命令に常に従うことと、常に自らの存在を保護することの間の倫理的なプログラミングが、矛盾する可能性があることです。ロボットは、所有者がロボットを虐待している場合、ロボットは自分を守ることができますか?
どのようなファイルセーフ・メカニズムをプログラムする必要がありますか?私たちは、ロボットに、どのような結果であってもシャットダウンするように指示する必要がありますか?ロボットが虐待を受けている主婦を救っている場合、ロボットは虐待する夫によってシャットダウンするように指示された場合、ロボットは自動的にシャットダウンする必要がありますか?
誰がロボットに命令を与えるべきですか?自律型兵器が世界中から敵を識別して標的にできる場合、ロボットは標的に子供がいることを識別した場合、標的を排除する命令を拒否することができますか?
ロボットがサイコパスの所有者や管理者によって所有され、または管理されている場合、ロボットは非倫理的な命令を拒否することができますか?質問は数多くあり、答えは誰にも答えることができません。これが、The Future of Life研究所のような組織が重要な理由です。真のAGIが現れる前に、これらの道徳的なジレンマを議論する時間です。








