Connect with us

規制

Tech Advisory Group Pushes For Limits On Pentagon’s AI Use

mm

ペンタゴンは、人工知能に大量に投資する意向を明らかにしており、人工知能により米軍はより強力で、国家安全保障への脅威に対して堅牢になるだろうと述べている。 Engadgetの報告によると、この前の木曜日、国防イノベーション委員会は、軍事での人工知能の使用に関する提案された倫理ガイドラインを推進した。提案されたリストには、予期せぬ偏見を避けるための戦略や、緊急停止手順を備えた管理可能な人工知能が含まれており、人工知能が不必要な損害を与えないようにする。

Wiredの報告によると、国防イノベーション委員会は、オバマ政権によって設立され、ペンタゴンがテクノロジー業界の経験と才能を獲得することを支援するために設立された。現在、委員会は元Google CEOのエリック・シュミットが議長を務めている。最近、委員会は軍事プロジェクトでの人工知能の倫理的な実装に関するガイドラインを確立するよう依頼された。木曜日、委員会はガイドラインと推奨事項を発表した。報告書によると、軍事的な文脈で人工知能の使用について深刻な議論をする時期は今である。なぜなら、重大な事件が発生してそれが必要となる前にである。

Artificial Intelligence Newsによると、元軍事担当者は最近、ペンタゴンは人工知能の使用において後れを取っていると述べた。ペンタゴンはこの差を埋めようとし、軍事での人工知能の開発と拡大を国家優先事項として宣言している。人工知能倫理学者は、ペンタゴンが人工知能のリーダーになるために急いでいることにより、人工知能システムが非倫理的な方法で使用される可能性があると懸念している。さまざまな独立した人工知能倫理委員会が独自の提案を行ったが、国防イノベーション委員会は、軍事で人工知能システムを開発および実装する際に軍事が常に従うべき少なくとも5つの原則を提案している。

委員会によって提案された最初の原則は、人工知能プラットフォームの利用、展開、結果については、常に人間が責任を負うべきであるというものである。これは、2012年の方針と似ており、致命的な力が使用される可能性がある場合、人間が決定プロセスの一部である必要があると規定していた。リストには、人工知能システムが常に理解し、プログラムを徹底的に文書化するエンジニアによって構築されるようにすることや、軍事用人工知能システムが常に信頼性のためにテストされるようにすることなどの一般的なアドバイスが含まれている。別の原則は、人工知能アルゴリズムの偏見を制御し、人工知能が予期せぬ損害が発生する可能性があることを検出して自動的に解除する能力について言及している。ガイドラインでは、不必要な損害が発生する場合、人工知能は自ら解除し、人間のオペレーターが引き継ぐべきであると規定している。原則の草案はまた、分析者が人工知能が特定の決定を下した理由を理解できるように、人工知能の出力を追跡可能にすることを推奨している。

委員会によって推進された推奨事項のセットは、2つの異なるアイデアを強調している。原則は、人工知能が将来の軍事作戦に不可欠であるという事実を反映しているが、人工知能の多くは依然として人間の管理と意思決定に依存している。

ペンタゴンは委員会の推奨事項を採用する必要はないが、委員会の推奨事項を真剣に受け止めているように聞こえる。 Wiredの報告によると、統合人工知能センターのディレクターであるジャック・シャナハン中将は、委員会の推奨事項は、ペンタゴンが「国防総省のAI戦略に記載されている最高の倫理基準を維持するのを支援し、米軍の技術革新に対する厳格なテストと導入基準を適用する歴史を尊重する」と述べた。

テクノロジー業界全体は、軍事用ハードウェアとソフトウェアの開発に人工知能を使用することに慎重である。MicrosoftとGoogleの従業員は、軍事組織との協力に対して抗議し、Googleは最近、Project Mavenに貢献していた契約を更新しないことを決定した。いくつかのCEO、科学者、エンジニアは、誓約書に署名し、「致命的な自律型兵器の開発、製造、取引、または使用に参加したり支援したりしない」と約束している。ペンタゴンが委員会によって提案されたガイドラインを採用する場合、テクノロジー業界がプロジェクトに協力する意欲が高まる可能性があるが、それは時間が解決することになる。

ブログ作家およびプログラマーで、 Machine Learning Deep Learning のトピックを専門としています。Danielは、AIの力を社会のために利用する手助けを他者に与えることを希望しています。