人工知能
OpenAI Forms Safety Council, Trains Next-Gen AI Model Amid Controversies

OpenAIは、人工知能技術の進歩において重要な成果を上げており、その最新の成果は、人気のチャットボットChatGPTを動かしているGPT-4oシステムです。今日、OpenAIは発表した新しい安全委員会、OpenAI Safety Councilの設立と、新しいAIモデルのトレーニングの開始を発表しました。
OpenAIの安全委員会には誰がいますか?
新しく設立されたOpenAI Safety Councilは、会社のプロジェクトや運用に関する重要な安全性とセキュリティに関する決定についての指導と監視を提供することを目的としています。委員会の主な目的は、OpenAIのAI開発慣行が安全性を優先し、倫理的原則と一致することを保証することです。安全委員会は、OpenAIの幹部、取締役、技術および政策の専門家など、多様な個人が参加しています。
OpenAI Safety Councilの著名なメンバーには、以下の人物が含まれます:
- Sam Altman、OpenAIのCEO
- Bret Taylor、OpenAIの会長
- Adam D’Angelo、QuoraのCEOでOpenAIの取締役
- Nicole Seligman、元ソニーの法務担当役員でOpenAIの取締役
初期段階では、新しい安全性およびセキュリティ委員会は、OpenAIの既存の安全性プロセスとセーフガードを評価し、強化することに焦点を当てます。OpenAI Safety Councilは、会社のAI開発慣行と安全性システムの強化方法に関する取締役への勧告を90日間で提供することを目標としています。勧告が採用されると、OpenAIは、安全性とセキュリティの考慮に一致した方法でそれらを公開する予定です。
新しいAIモデルのトレーニング
OpenAI Safety Councilの設立と並行して、OpenAIは、新しいフロンティアモデルのトレーニングを開始したことを発表しました。この最新のAIモデルは、現在ChatGPTの基盤となっているGPT-4システムの能力を超えることが期待されています。新しいAIモデルの詳細はまだ少ないですが、OpenAIは、このモデルが業界をリードする能力と安全性を持つことを示しています。
この新しいAIモデルの開発は、人工知能分野における革新の急速なペースと、人工一般知能(AGI)の可能性を強調しています。AIシステムがより高度で強力になるにつれて、安全性を優先し、これらのテクノロジーが責任を持って開発されることを保証することが重要です。
OpenAIの最近の論争と離職
OpenAIの安全性への取り組みは、内部の混乱と公衆の注目を浴びる中で行われています。最近の数週間で、同社は内部からの批判に直面しており、研究者Jan Leikeが辞任し、安全性が「華麗な製品」の開発に後ろ手に回されていると懸念を表明しました。Leikeの辞任に続き、OpenAIの共同創設者兼チーフサイエンティストであるIlya Sutskeverも辞任しました。
LeikeとSutskeverの離職は、同社の優先順位とAI安全性への取り組みについて疑問を引き起こしています。2人の研究者は、長期的なAIリスクに対処するための「超同期」チームを共同で率いていました。そのチームの解散により、安全性への取り組みについての懸念がさらに高まりました。
内部の混乱に加えて、OpenAIはChatGPTチャットボットの声の擬似についての告発にも直面しています。何人かのユーザーは、チャットボットの声が女優Scarlett Johanssonに酷似しているとしています。OpenAIは、Johanssonの声の擬似を意図的に行ったことを否定していますが、この事件は、AI生成コンテンツの倫理的影響と悪用の可能性についての議論を呼んでいます。
AI倫理についてのより広範な議論
人工知能分野が急速に進化する中で、OpenAIのような企業は、研究者、政策立案者、一般の人々と継続的な対話と協力をして、AIテクノロジーが責任を持って開発され、堅牢なセーフガードが整備されることを保証することが重要です。OpenAI Safety Councilが提示する勧告とOpenAIの透明性への取り組みは、AIガバナンスについてのより広範な議論に貢献し、この変革的なテクノロジーの将来を形作るのに役立つでしょう。しかし、実際に何が起こるかについては、時間が答えを出してくれるでしょう。












