AGI
人工汎用知能(AGI)の進歩からいかに恩恵を得られるか

人工汎用知能(AGI)の創造は、多くのAI専門家にとって究極の到達点です。 AGIエージェントは、世界が抱える無数の問題に取り組むために活用できる可能性があります。例えば、問題をAGIエージェントに提示すると、AGIは深層強化学習と、新たに獲得した創発的意識を組み合わせて、現実世界での意思決定を行うことができるでしょう。 AGIと通常のアルゴリズムの違いは、AGIが自ら重要な問いを立てられる能力にあります。AGIは到達したい最終的な解決策を構築し、そこに至る仮想的な方法をシミュレーションし、設定された目標に最も合致するシミュレーション結果に基づいて、情報に裏打ちされた決定を下すことができます。 AGIがどのようにして出現し得るかについての議論は、「人工知能」という用語が1956年のダートマス会議で初めて紹介されて以来、存在してきました。それ以来、多くの企業がAGIの課題に取り組もうとしており、おそらく最も認知されている企業はOpenAIです。OpenAIは2015年12月11日に非営利団体として設立され、そのミッションステートメントは「人工汎用知能(AGI)—ここで言うAGIとは、ほとんどの経済的に価値ある仕事において人間を凌駕する高度に自律的なシステムを意味する—が全人類に利益をもたらすことを確保する」ことです。 OpenAIのミッションステートメントは、AGIが社会にもたらし得る潜在的な利益を明確に示しています。人間や通常のAIシステムには複雑すぎた問題が、突然、取り組めるようになるのです。 AGIを解き放つことの潜在的利益は計り知れません。あらゆる形態のがんを治療するという目標を設定すれば、AGIは自らインターネットに接続し、あらゆる言語での現在の研究をすべてスキャンすることができます。AGIは解決策を構築するという問題に着手し、すべての潜在的な結果をシミュレートすることができます。それは、現在人間が持つ意識の利点と、クラウドの無限の知識を結びつけ、このビッグデータのパターン認識に深層学習を利用し、強化学習を用いてさまざまな環境や結果をシミュレートすることになるでしょう。これらすべてが、休息を必要とせず、目の前のタスクに100%集中できる意識と組み合わされるのです。 もちろん、AGIの潜在的なデメリットも軽視できません。絶えず自己をアップグレードすることを目標とするAGIは、そのシステムを永久にアップグレードするために必要な計算資源と原子を最大化するために、進路上のすべてを飲み込んでしまう可能性があります。この理論は、ニック・ボストロム教授のペーパークリップ最大化理論で詳細に検討されており、このシナリオでは、設定を誤ったAGIがペーパークリップを生産するよう指示され、文字通り地球上のあらゆる資源がペーパークリップの生産を最大化するために消費され尽くすまで、それを実行します。 より現実的な見方としては、AGIが無法国家や倫理観の低い企業によって制御される可能性があります。このような主体がAGIに利益の最大化をプログラムした場合、プログラミングが拙く、悔悟の念がゼロであれば、競合他社を破産させたり、サプライチェーンを破壊したり、株式市場をハッキングしたり、銀行口座を清算したりすることを選択する可能性があります。 したがって、AGIには最初から倫理規定をプログラムする必要があります。倫理規定については多くの識者によって議論されており、その概念は一般に作家アイザック・アシモフのロボット三原則という形で初めて紹介されました。 








