Connect with us

ソートリーダー

倫理的AIの活用は正しい行いであるだけでなく、ビジネスにも有益である

mm

AIの採用が急増し、あらゆる業界の組織がAIベースのツールやアプリケーションを導入する中、サイバー犯罪者がすでにそれらのツールを標的とし、自らの利益のために悪用する方法を見つけていることは、さほど驚くべきことではないでしょう。しかし、AIを潜在的なサイバー攻撃から保護することは重要ですが、AIリスクの問題はセキュリティをはるかに超えています。世界中で、政府はAIの開発と使用を規制し始めており、企業が不適切な方法でAIを使用していることが判明した場合、重大な評判被害を被る可能性があります。今日の企業は、倫理的かつ責任ある方法でAIを使用することが、単に正しい行いであるだけでなく、信頼を構築し、コンプライアンスを維持し、製品の品質さえ向上させるために不可欠であることを発見しています。

AIを取り巻く規制の現実

急速に進化する規制環境は、AIベースのソリューションを提供するベンダーにとって深刻な懸念事項となるべきです。例えば、2024年に可決されたEU AI法は、リスクベースのアプローチを採用し、社会的評価、操作的行動、その他の潜在的に非倫理的な活動を行うシステムを「容認できない」と見なしています。それらのシステムは完全に禁止され、他の「高リスク」AIシステムは、リスク評価、データ品質、透明性に関するより厳格な義務の対象となります。違反に対する罰則は厳しく、容認できない方法でAIを使用していることが判明した企業は、最大3500万ユーロまたは年間売上高の7%の罰金を科される可能性があります。 EU AI法は単なる一つの法律に過ぎませんが、特定の倫理的基準を満たさないことの多大なコストを明確に示しています。カリフォルニア州、ニューヨーク州、コロラド州などの州はすべて独自のAIガイドラインを制定しており、そのほとんどは透明性、データプライバシー、バイアス防止などの要素に焦点を当てています。また、国際連合は政府が持つような執行メカニズムを欠いていますが、2024年の決議において、全193の国連加盟国が「人工知能システムのライフサイクル全体を通じて、人権と基本的自由が尊重、保護、促進されなければならない」ことを満場一致で確認したことは注目に値します。世界中で、AIに関しては人権と倫理的配慮がますます最優先事項となっています。

AI倫理の欠如が及ぼす評判への影響

コンプライアンスの懸念は非常に現実的ですが、話はそこで終わりません。実際のところ、倫理的行動を優先することは、AIソリューションの品質を根本的に向上させることができます。AIシステムに内在するバイアスがある場合、それは倫理的理由から問題ですが、製品が本来あるべきように機能していないことも意味します。例えば、特定の顔認識技術は、肌の色が濃い顔を肌の色が薄い顔と同様に識別できないことで批判されてきました。顔認識ソリューションが対象者の大部分を識別できない場合、それは深刻な倫理的問題を提起しますが、同時に技術自体が期待される利益を提供しておらず、顧客は満足しないでしょう。バイアスに対処することは、倫理的懸念を軽減するとともに、製品自体の品質を向上させます。 バイアス、差別、公平性に関する懸念は、ベンダーを規制当局とのトラブルに巻き込む可能性がありますが、顧客の信頼も損ないます。AIの使用方法や協力するプロバイダーに関して、特定の「レッドライン(許容できない一線)」を設けることは良い考えです。誤った情報、大規模監視、社会的評価、抑圧的な政府、あるいは単に一般的な説明責任の欠如に関連付けられたAIプロバイダーは、顧客を不安にさせることがあり、AIベースのソリューションを提供するベンダーは、誰と提携するかを検討する際にこの点を念頭に置くべきです。透明性はほぼ常に優れています。AIがどのように使用されているか、またはパートナーが誰であるかを開示することを拒む者は、何かを隠しているように見え、それは通常、市場で好意的な感情を育みません。

倫理的な危険信号の特定と軽減

顧客は、非倫理的なAI行動の兆候を探すことをますます学んでいます。AIの能力を過大に宣伝しながら説明を怠るベンダーは、そのソリューションが実際に何ができるかについて、真実を語っていない可能性が高いです。過剰なデータスクレイピングやAIモデルトレーニングからのオプトアウトが不可能であるなど、不適切なデータ慣行も危険信号を引き起こす可能性があります。今日、製品やサービスにAIを使用するベンダーは、説明責任のためのメカニズムを備えた明確で公開されたガバナンスフレームワークを持つべきです。強制仲裁を義務付ける、あるいはさらに悪いことに、全く救済手段を提供しないベンダーは、良いパートナーとはならないでしょう。これは、自社のAIモデルにおけるバイアスを評価し対処するための指標を提供する意思や能力がないベンダーにも同様です。今日の顧客はブラックボックス型のソリューションを信用しません。彼らは、自分たちが依存するソリューションにおいて、AIがいつ、どのように展開されているかを知りたいのです。 製品にAIを使用するベンダーにとっては、倫理的配慮を最優先していることを顧客に伝えることが重要です。自社でAIモデルをトレーニングするベンダーは強力なバイアス防止プロセスを必要とし、外部のAIベンダーに依存するベンダーは、公正な行動で評判の高いパートナーを優先しなければなりません。また、顧客に選択肢を提供することも重要です。多くの顧客は、自分のデータをAIソリューションに委ねることにまだ不安を感じており、AI機能の「オプトアウト」を提供することで、彼らが自分のペースで試すことができます。トレーニングデータの出所について透明性を保つことも極めて重要です。繰り返しますが、これは倫理的であるだけでなく、ビジネスにも有益です。顧客が依存しているソリューションが著作権で保護されたデータでトレーニングされていたことが判明した場合、規制や法的措置の対象となる可能性があります。すべてを公開することで、ベンダーは顧客との信頼を構築し、彼らが否定的な結果を避けるのを助けることができます。

倫理を優先することは賢明なビジネス判断である

信頼は、常にあらゆるビジネス関係の重要な要素でした。AIはそれを変えていませんが、ベンダーが対処する必要のある新たな考慮事項を導入しました。倫理的懸念は、ビジネスリーダーにとって常に最優先事項とは限りませんが、AIに関しては、非倫理的行動は評判の毀損や潜在的な規制・コンプライアンス違反を含む深刻な結果をもたらす可能性があります。さらに悪いことに、バイアス軽減のような倫理的配慮への注意の欠如は、ベンダーの製品やサービスの品質を積極的に損なう可能性があります。AIの採用が加速し続ける中、ベンダーは、倫理的行動を優先することが単に正しい行いであるだけでなく、ビジネスにも有益であることをますます認識しています。

//www.logicgate.com/">LogicGateのCISO(最高情報セキュリティ責任者)です。20年以上のIT経験を持ち、そのうち18年間はあらゆる規模の企業がサイバーセキュリティ態勢を強化するのを支援してきました。SMBからフォーチュン100企業まで、オンプレミスの従来型データセンターまたはクラウドに基づく、複雑でビジネスクリティカルな環境向けのサイバーセキュリティソリューションを提供するチームを数多く構築し、率いてきました。また、医療や金融サービスを含む複数の業界での経験もあります。