Connect with us

ソートリーダー

AIの禁止はセキュリティリスクを高めるため、機関はどう対応すべきか

mm

全米で、学校区や公共機関は、生成的なAI(GenAI)技術や特定のツールへのアクセスを制限またはブロックする動きを見せている。コロラド州では、ボルダー・バレー学区は学校ネットワークでのChatGPTの使用を禁止した。その理由は、悪用、安全性、学術的誠実性に関する懸念であった。

セキュリティ事象やデータの悪用へのさらされるリスクを減らすという本能は理解できる。DeepSeekのような、ガードレールが弱い、またはプライバシーに関する約束が明確でないプラットフォームは、制限や監視を受けるに値する。しかし、GenAIツールへのアクセスを禁止しても、リスクは実質的に減らず、むしろ、監視が行き届かない環境にリスクがシフトするだけである。

College Boardの調査によると、84%の高校生は、学校の課題でGenAIを使用したと答えた。一方、45%の校長は、学校でのAIへのアクセスに対するある程度の制限があると回答した。同様に、IBMの報告によると、80%のオフィスワーカーがAIを使用しているが、社内で提供されるツールのみを使用する人は22%だけであった。

アクセスポリシーだけが行動を決定づけるわけではない。生徒は携帯電話を取り出してセルラー回線ネットワークでAIツールを使用したり、自宅や公衆Wi-Fiで使用したりできる。さらに、VPN、リモートデスクトップ、プラグインを使用して制限を回避することもできる。従業員も、職場での制御を回避するために同様のことを行うことができる。

機関は、AIを使用したいという意志があれば、方法もあると仮定するべきである。技術が機関の可視性の範囲外に使用を押し出すように制限されると、影のAIのリスクが高まる。プロンプトに入力される情報やモデルが保持するデータに関する監視は行われなくなる。セキュリティに関する制御はすぐに失われる。

影のAIのリスクを超えて、禁止措置は、生徒を将来大きな部分を占める技術を使用するために完全に準備していない状態に残す。検索エンジン、ビジネスプラットフォーム、生産性スイート、パーソナルデバイスにこれらのツールが組み込まれている。 Pew Researchの調査によると、62%の米国人は、少なくとも週に数回AIと関わるという。機関の政策に関係なく、生徒や従業員がGenAIシステムと出会うことはほぼ確実である。

この環境では、悪用やセキュリティに関する懸念に対する最も信頼できる安全保障は教育である。生徒や労働者がツールを責任を持って倫理的に使用できるようにするためである。責任ある使用を教えることで、ユーザーはデータリスクを認識し、どこでこれらのシステムに出会うにせよ、十分な情報を基に決定を下すことができる。

教育プログラムは、LLMがデータを処理して保持する方法、ホールシネーションを識別する方法、AI生成の出力を検証する方法、フィッシングキャンペーンやAI生成の画像を識別する方法などに焦点を当てるべきである。ユーザーに懐疑心を持たせることが重要である。AIの出力は自信を持って整った言葉で提示されることが多く、権威のイメージを作り出すことがある。訓練を受けなければ、ユーザーは整った答えが必ずしも正確であると仮定するかもしれない。

デジタルコンテンツに疑問を投げかける能力は、ディープフェイクやAI強化されたフィッシングキャンペーンがより洗練されるなかで、最前線の防御となる。Gartnerの調査によると、62%の組織が昨年ディープフェイク攻撃を受け、32%がAIアプリケーションに対する攻撃を受けた。こうした事件の頻度や範囲は、将来さらに増加することが予想される。

学校や地方自治体などの公共機関は、特にディープフェイクを利用したソーシャルエンジニアリングに対して脆弱である。なぜなら、多くの活動が記録され、公開されているからである。公開会議のオーディオクリップは操作され、説得力のあるボイスコールを生成するために使用されることがある。脅威的な行為者は、これを不正行為に利用している。たとえば、デリケートな取引の際に資金を転送する。主に標的となったケースでこれが起こるが、ユーザーがこれらのテクニックを識別する方法や、それが可能であることを知らない場合、最初から不利な立場にある。

教育に続いて、機関は明確に伝達されたAIの使用とガバナンスに関するポリシーを持つべきである。これらは、承認されたツール、受け入れられる使用例、どのモデルにどのデータを入力できるかを定めるべきである。ポリシーは、部門ごとに異なるのではなく、統一的に適用されるべきである。明確な期待は、曖昧さを減らし、責任を強化する。

機関は、技術の使用方法を形作るべきである。機関がアクセス可能で、セキュアで、機能するツールを推奨すると、それがほとんどのユーザーにとってデフォルトになる。カジュアルな影のAIの使用は、VPNをダウンロードして使用する必要がないため、減少する。

機関や組織は、LLMへのアクセスを提供する方法で、データが保護され、共有やトレーニングに使用されないようにしている。AIの有効化とセキュリティツールの新しいカテゴリが登場して、これを行っている。 これらは、機関のデータを安全にコンテナ化しながら、複数のLLMへのアクセスを提供できる。 ゼロデータ保有契約は、機関のデータが会社または機関の所有物であり、LLMによってトレーニングできないことを保証するための法的枠組みを提供する。 さらに、従業員が機関を離れた場合、AIの使用、ワークフロー、データはすべて機関の所有物として残る。

機能レベルで技術的なガードレールを適用することもできる。機関は、承認されたLLM内で一般的な質問を許可しながら、ファイルのアップロード、ドキュメントの共有、またはその他の高リスク機能を無効にすることができる。こうした設定は、制御されないデータの公開の扉を開くことなく、生産性の利点を保持する。

より高度なツールは、モデルに達する前に機密情報を自動的に匿名化できる。たとえば、医師や看護師がGenAIを使用できるように、患者の名前や識別子を中立的なプレースホルダーに置き換える。データ損失防止コントロールを統合するものもあり、ソーシャルセキュリティ番号、金融口座データ、またはその他の規制対象情報がプロンプトに提出されることを検出してブロックする。

明確なポリシーと技術的なガードレールは、教育を基盤として、最も効果的な防御を提供する。特に技術が急速に変化する現在、GenAIは公共機関の多くよりも速く進化しており、その予算もそれに追いついていない。新しいモデルが登場するたびにそれをブロックすることは、持続可能ではない。ツールやバージョンを問わず、リスクを理解するようにユーザーを訓練することで、適応できる。

AIを活用した環境におけるセキュリティは、GenAIが日常生活に埋め込まれている現実を認めることに依存する。魔法のランプからジェニーを戻すことはできない。全面的な禁止措置は、目に見える、管理可能なリスクと、目に見えない、管理されていないさらされるリスクを交換するだけである。人にAIを責任を持って使用する方法を教えれば、次に何が起こるかに対しても準備ができる。

Christopher Mortonは、Logicallyのチーフ・インフォメーション・オフィサーとして、IT Ops、テクニカル・プロダクト・デベロップメント、ネットワーク・オペレーションズ・センター、クラウド・サービス・チームを率いています。彼は、2021年にThe Network Support Companyの買収を通じてLogicallyチームに参加しました。ここで彼はCTOを務めていました。Mortonは、2005年にThe Network Support Companyでキャリアを始め、そこでのマネージド・サービス・オファリングの立ち上げ、管理、成長を助ける上で重要な役割を果たしました。