Connect with us

ソートリーダー

鍵となるのはAIではなく、データである

mm

人工知能はビジネスに深く浸透し、ほぼすべての業務が何らかの形でこの技術の影響を受けています。特にAIの利用に目を向けると、組織がより新しい形態のAIを導入し、既存システムの革新と反復改善に取り組んでいる様子が見られます。実際、最近のITリーダーを対象とした調査では、98%が既にエージェンシックAIを活用してGenAIユースケースを調整しているか、近い将来にそうする計画があると回答しています。 ここ数年で爆発的に増加したAIツールや技術の中でも、AIエージェントは急速に最も人気のあるものの一つになりつつあります。これらのエージェントは、顧客体験とサポートの向上から内部プロセスの自動化、既に使用中の既存GenAIモデルの最適化まで、組織があらゆることを行う手助けをします。しかし、AIエージェント、そしてAI全般の多くの利点を企業全体に拡大することには、困難が伴います。 多くの組織が、特にAIエージェントの大規模導入に苦労する理由は、技術ではなく信頼に帰着します。AIエージェントは、本質的に多数のシステムにまたがって動作します。それらのシステムがどこにあろうと、そこには大量の顧客データ、医療情報、銀行・金融データなど、非常に機密性の高いデータが依存している可能性が高いです。ここに問題があります。適切なデータプライバシーとセキュリティインフラなしに、大量のデータをAIモデルに取り込むことは、企業に相当なリスクをもたらします。 AIモデルの出力がどのようなものであれ、それを訓練したデータが信頼できるものでなければ価値はありません。しかし、それは単にデータが保護されていることを保証するだけでは不十分です。特にAIエージェントでは、これらのモデルがどのように動作するかに多くの自律性が関わっています。誰がデータにアクセスすべきか、いつアクセスすべきか、どのようにアクセスすべきかを理解する能力を備えさせることが、信頼を構築する上で重要です。 ただし、データプライバシーの複雑な問題を克服することは不可能ではありません。適切なデータポリシー、メタデータガバナンス、API、エンタープライズグレードの認可フレームワークを整備することで、企業のITリーダーは、AIを駆動するデータが安全で信頼できるものであることを保証できます。 詳しく見ていきましょう。

データプライバシーと大規模AIの必要性への対応

AIエージェントを企業に統合するより広範な目標の一つは、業務とシステム全体のワークフローを効率化することです。しかし、ガードレールなしでこれを行うと、その過程で機密データが意図せず露出してしまう可能性があります。データ侵害や悪意ある攻撃が常に進化しているこの時代において、不正なユーザーによってデータが露出またはアクセスされることは、AIイニシアチブだけでなく、企業全体にとって災厄を意味しかねません。IBMによれば、2025年現在、データ侵害の平均コストは400万ドル以上に上ります。AIの導入は急速に加速しており、企業リーダーがさらなる革新、より深い洞察、新たな成長機会を求める中で、ガバナンスとセキュリティが置き去りにされることが多々あります。しかし、AI導入が急増する一方で、データの安全性を確保するために、規制ポリシーと要件もそれに合わせて進化しています。 GDPRからCCPA、さらにはHIIPAのような長年続くポリシーに至るまで、規制の複雑さはAIエージェントの拡大に対する複雑な課題を提起します。大量のデータを必要とするAIツールは、チェックされないままでは、リスクの増大を招きます。AIモデルがこれらすべての内部システムにまたがるにつれ、機密データはその過程で移動・アクセスされることが多くなります。データに関しては、世界中の規制当局が、プライバシーの確保、効果的なガバナンス、堅牢なセキュリティをより重視しています。 DORA(EUで事業を展開する金融サービス企業向けのICTリスク管理に関する一連のガイドライン)のようなより最近のポリシーは、データの機密性、完全性、可用性に影響を与えるものを含む、ICTインシデントの分類と報告を明確に要求しています。このポリシーは主に運用レジリエンスを重視していますが、その影響はAI導入にも及びます。AIエージェントを含むより多くのAIイニシアチブが企業規模でデータにアクセスするにつれ、不正アクセスのリスクは高まります。AIプロジェクトがデータの損失や露出を招いた場合、このような規制がすぐに関連してくるでしょう。 多くのことが危機に瀕している中で、企業組織がセキュリティ、ガバナンス、データアクセスの重要性を見失わないことが重要です。

AIエージェントを駆動する基盤の構築

企業は、効果的なガバナンスに根ざし、エージェントが何をできるか、何をできないかを定義する確固たるガードレールと強制力のあるルールを備えた基盤を構築する必要があります。この基盤の中心にあるのはデータガバナンス、つまり組織全体でデータが責任を持ってどのように使用されるかを管理する高レベルのポリシー、標準、構造です。これらのポリシーは、エージェントが制限されたデータセットにアクセスしたり、人間の監視なしにプロセスを開始したりすることで、その役割を越えないように保証します。 堅牢なデータガバナンスポリシーの実施は、いくつかの重要なポイントから始めるべきです。これには、説明責任と所有権、データ品質と一貫性、セキュリティとプライバシー、コンプライアンスと監査可能性、透明性と追跡可能性が含まれます。 これらのポイントをガバナンスの基礎とすることで、企業リーダーは意思決定に対するより大きなコントロール、データへのより高い信頼、データサイロによってもたらされる規制リスクの低減を得ることができます。これは、メタデータ管理、データ分類、系譜といった機能を活用して、誰が、またはどのAIツールがアクセスできるかについての透明性と可視性を高めることで実現されます。これらのメカニズムはそれぞれ、企業がデータの発生源、流れ、変換方法を追跡することを可能にします。

技術は重要だが、信頼が最優先である

新しいAIモデルや革新が登場するたびに、その導入は急増します。しかし、あらゆるAIイニシアチブにはリスクが伴います。もっとも、それが常に考えられる場所にあるとは限りません。新しいツールの導入を妨げる技術的な課題が、AI統合の遅れの原因であるとは限りません。多くの場合、それはデータに帰着します。具体的には、そのデータへの信頼とプライバシーに関する懸念です。AIの進歩があまりにも速いため、アクセス制御、データガバナンス、系譜、コンプライアンスといったものがそのペースに追いつくことを保証するのは、時に困難な場合があります。 ガバナンスは信頼の重要な一部ですが、それには効果的な評価も必要です。特にエージェンシックAI内では、標準化された評価には依然として大きなギャップがありますが、それらはシステムが確実かつ安全に動作することを証明するために不可欠です。 内部システムのパフォーマンスを最適化したい、不正検出を改善したい、あるいは単にクライアントの顧客体験をよりスムーズにしたいのであれば、最高のAIエージェント、そしてAIイニシアチブ全般は、信頼できるデータ、プライバシー、セキュリティを基盤として構築されています。

//www.cloudera.com/">ClouderaのチーフAIアーキテクトです。彼女は、カリフォルニア州メンローパークに拠点を置くVerta Operational AI & LLMプラットフォームおよびVerta Model CatalogのプロバイダーであるVertaの創業者兼CEOであり、同社は最近Clouderaに買収されました。マナシはMIT CSAIL在籍時に実験管理とトラッキングを発明し、Fortune 500企業で導入された最初のオープンソースモデル管理システムであり、MLflowの先駆けとなるModelDBを創り出しました。MITで博士号を取得後、ヴァルタックはTwitterでコンテンツ推薦のための深層学習に携わるデータサイエンス職、そしてGoogleでダイナミック広告ターゲティングに携わるデータサイエンス職に就きました。