Connect with us

倫理

倫理とテクノロジー: AIには舵取りが必要か?

mm

要約: 会話型AI技術の進歩は、革新を促進しながら潜在的な有害な影響を軽減する利益の慎重なバランスを必要とします。

会話型AIの魅力

ChatGPT-3の発売は、1ヶ月あたり100万人以上のアクティブユーザーを獲得し、前例のない関心を集めています。

消費者と組織は、会話型AIの進歩が私たちの個人生活と職業上のやり取りのほぼすべての側面を変える可能性があることを認識しています。 ChatGPT-3のディープラーニングの高度な応用は、印象的な結果とともに人間のような会話を生成します。 最近のテストでは、ChatGPT-3は米国医師免許試験MBA試験(最も名高いビジネススクールの1つ)に合格しました。

会話型AIのビジネス上の利点は巨大であり、MicrosoftはChatGPT-3の商用アプリケーションを加速させるためにOpen AIに10億ドルを投資しています。 Microsoftは、ChatGPT-3の会話機能で製品を「スーパーチャージ」することを意図しています。

非合理な熱狂

しかし、そんな変革的なテクノロジーが私たちに先んじて進む前に、深呼吸してみましょう。 その潜在的な有用性にもかかわらず、ChatGPT-3はまだ初期段階であり、多くの不完全性があります。 私たちの熱狂は時期尚早である可能性があります。 有意義な分析がなければ、規制のガイドラインや人間の管理なしに会話型AIを制限なく採用すると、イギリスの小説家オルダス・ハクスリーによって暗示されたような、反ユートピア的な世界に入り込む可能性があります。 テクノロジーに過度に頼ること、特にその社会経済的影響を理解せずに頼ることは、雇用、教育、包摂性、公平性などの、重大で予期せぬ結果をもたらす可能性があります。

結局のところ、Chat-GPT-3は一歩前進したものの、その「認知」能力は、既存のデータセットに基づいており、内在する偏見が増幅されて、多数の潜在的な危害が生じる可能性があります。 ChatGPT-3には、「暗い側面」があり、それは懸念されるべきものであり、さらにこのような重大なテクノロジーの普及を停止するべきです。

リスクまたは機会?

会話型AIの適用に関連するリスクとその潜在的な機会のバランスを取る必要があります。 会話型AIが思慮深く、リスクベースのアプローチで規制され、徹底した監督が行われる場合、会話型AIの潜在的な利点が実現される可能性があります。 人間中心のパートナーシップとして、会話型AIアプリケーションを導入することで、職場体験を豊かにすることができます。 これまでのすべての革新と同様に、AIは新しいスキルの必要性を生み出し、特定の仕事をより魅力的になる可能性があります。

立法者の役割は何か?

AIテクノロジーの民主化は、公的機関がその使用を規制する上で積極的な役割を果たすことを意味します。 破壊的な革新に関連する懸念は現実的です。 その能力にもかかわらず、人工知能は、使用または規制するために人間に依存しています。 確かに、舵取りが必要ですが、まだどのコースに向かっているのかはわかりません。 AI規制のための包括的な動き、特にEUのAI法案の草案があります。 ChatGPT-3のような会話型AIの潜在的な普遍的な採用により、規制とガバナンスのためのより徹底的な動きが増えています。 EUでは、会話型AIの特定の適用を禁止する措置を導入することを目指しています。

Andrew Peryは、グローバルインテリジェントオートメーション会社のABBYYでAIエチックスエバンジェリストを務めています。ノースウェスタン大学プリツカー法学大学院で優等で法学修士号を取得しており、認定データプライバシープロフェッショナルでもあります。Peryには、先行するグローバルテクノロジー企業のテクマネジメントプログラムを主導する25年以上の経験があります。彼の専門分野は、インテリジェントドキュメントプロセスオートメーションとプロセスインテリジェンスであり、特にAI技術、応用ソフトウェア、データプライバシー、AIエチックスに精通しています。