ソートリーダー
ChatGPT の潜在的なリスクに対する懸念が高まっていますが、AI への一時停止は良い策なのでしょうか?
イーロン・マスクや他の世界的なテクノロジーリーダーたちは、 AIで一時停止する ChatGPT のリリース後、一部の批評家は、開発の停止が解決策ではないと考えています。 インテリジェントオートメーション企業ABBYYのAIエバンジェリスト、アンドリュー・ペリー氏は、休憩を取ることは歯磨き粉をチューブに戻すようなものだと考えている。 ここで彼はその理由を語ります…
AI アプリケーションは広く普及しており、私たちの生活のほぼあらゆる側面に影響を与えています。 賞賛に値するが、今ブレーキをかけるのは信じがたいことかもしれない。
潜在的な有害な影響を抑制するために規制監視の強化を求める明白な懸念があることは確かです。
つい最近、イタリアのデータ保護当局は、モデルのトレーニングに使用される個人データの収集と処理方法に関連するプライバシー上の懸念と、明らかな安全対策の欠如により、子供たちが「絶対に」という反応にさらされることを理由に、全国的にChatGPTの使用を一時的にブロックしました。彼らの年齢や意識にふさわしくありません。」
欧州消費者機関 (BEUC) は、「ChatGPT や類似のチャットボットがどのように人々を騙し、操作するかについての懸念が高まっている」ことを踏まえ、大規模な言語モデルの潜在的な有害な影響を調査するよう EU に求めています。 これらの AI システムには、より厳しい国民の監視が必要であり、公的機関はそれらに対する管理を再確認する必要があります。」
米国では、 AI およびデジタル政策センター は、ChatGPT が連邦取引委員会法 (FTC 法) (5 USC 15) のセクション 45 に違反しているとして、連邦取引委員会に苦情を提出しました。 苦情の根拠は、ChatGPT が次の要件を満たしていないと言われていることです。 ガイダンス AI システムの透明性と説明可能性を目的として FTC によって定められたものです。 ChatGPT のいくつかの既知の認識について言及されました。 リスク これには、プライバシー権の侵害、有害なコンテンツの生成、偽情報の拡散などが含まれます。
ChatGPT のような大規模言語モデルの有用性は、研究によってその可能性が指摘されているにもかかわらず、 暗黒面。 基礎となる ChatGPT モデルは、インターネットからの大規模なトレーニング データ セットを活用する深層学習アルゴリズムに基づいているため、不正確な答えが生成されることが証明されています。 他のチャットボットとは異なり、ChatGPT は人間の会話に似たテキストを生成する深層学習技術に基づく言語モデルを使用しており、プラットフォームは「一連の推測を行うことで答えに到達します。これが、間違った答えについてあたかも反論するかのように議論できる理由の XNUMX つです」それは完全に真実でした。」
さらに、ChatGPT は偏見を強調し、増幅させ、「性別、人種、少数派グループを差別する回答」をもたらすことが証明されており、同社はこれを軽減しようとしています。 ChatGPT は、悪意のある攻撃者にとって、疑いを持たないユーザーを悪用し、ユーザーのセキュリティを侵害する大当たりとなる可能性もあります。 プライバシー そしてそれらを暴露する 詐欺攻撃.
こうした懸念から、欧州議会は次の報告書を発表することになった。 解説 このことは、草案の現在の規定をさらに強化する必要性を強化するものである。 EU 人工知能法、 (AIA) はまだ批准待ちです。 解説では、提案されている規制の現在の草案は、募集、信用力、雇用、法執行、社会サービスの資格など、特定のカテゴリの高リスクAIシステムで構成される、いわゆる狭いAIアプリケーションに焦点を当てていると指摘している。 しかし、EUのAIA規制草案は、より高度な認知機能を提供し、「幅広いインテリジェントなタスクを実行」できる大規模言語モデルなどの汎用AIを対象としていない。 規制草案の範囲を拡張して、別個の高リスクカテゴリーの汎用 AI システムを含めるよう求める声があり、開発者はそのようなシステムを市場に出す前に厳格な事前適合テストを実施し、そのパフォーマンスを継続的に監視する必要があります。予期せぬ有害な出力が発生する可能性があります。
特に役立つ部分 研究 EU AIA 規制は「主に従来の AI モデルに焦点を当てており、今日私たちが誕生を目の当たりにしている新世代には焦点を当てていない」というこのギャップへの意識を高めています。
規制当局が検討すべきXNUMXつの戦略を推奨している。
- このようなシステムの開発者には、有害な出力を軽減するためのリスク管理プロセスの有効性について定期的に報告することを義務付けます。
- 大規模な言語モデルを使用する企業は、コンテンツが AI によって生成されたものであることを顧客に開示する義務を負う必要があります。
- 開発者は、リスク管理フレームワークの一部として、潜在的に予期しない有害な結果を防ぐために設計された、段階的リリースの正式なプロセスに加入する必要があります。
- 開発者には、「トレーニング データ セットの虚偽表示を積極的に監査する」必要があるため、「根本的なリスクを軽減する」責任が課されます。
破壊的テクノロジーに関連するリスクを永続させる要因は、「先に出荷し、後で修正する」ビジネス モデルを採用して先行者利益を達成しようとするイノベーターの衝動です。 OpenAI はある程度 トランスペアレント ChatGPT の潜在的なリスクについては、ユーザー自身がリスクを検討し想定する「購入者に注意する」義務を課して、広範な商用目的でそれをリリースしました。 会話型 AI システムの広範な影響を考えると、これは受け入れられないアプローチかもしれません。 このような破壊的テクノロジーを扱う場合には、強力な強制措置と組み合わせた積極的な規制が最も重要です。
人工知能はすでに私たちの生活のほぼあらゆる部分に浸透しており、AI 開発の一時停止は多くの予期せぬ障害や影響を意味する可能性があります。 突然規制を強化するのではなく、業界と立法関係者は誠意を持って協力して、透明性、説明責任、公平性などの人間中心の価値観に根ざした実用的な規制を制定する必要があります。 AIA などの既存の法律を参照することで、民間部門と公共部門のリーダーは、不正な使用を防止し、有害な結果を軽減する徹底した世界的に標準化されたポリシーを設計することができ、それによって人工知能を人間の経験の向上の範囲内に保つことができます。