ソートリーダー
March 5, 2026
AIの禁止がセキュリティリスクを引き起こし、機関が対応すべき方法
全米で、学校区や公共機関は、生成的なAI(GenAI)技術や特定のツールへのアクセスを制限またはブロックする動きを見せています。コロラド州では、ボルダー・バレー学区は学校ネットワークでのChatGPTの使用を禁止し、誤用、安全性、学術的誠実さに関する懸念を理由に挙げました。セキュリティ事象やデータの誤用への露出を減らすという本能は理解できます。DeepSeekのような、ガードレールが弱い、またはプライバシーへのコミットメントが不明確なプラットフォームは、制限と厳格な監視を受けるに値します。しかし、GenAIツールへのアクセスを禁止しても、リスクを実質的に減らすことはありません。むしろ、監視が消える環境にリスクをシフトするだけです。College Boardの調査によると、84%の高校生は、学校の課題でGenAIを使用したと回答しました。一方、45%の校長は、学校でのAIへのアクセスに関するある程度の制限があると回答しました。同様に、IBMの報告によると、80%のオフィスワーカーがAIを使用していますが、22%のみが社内で提供されるツールのみを使用していました。アクセスポリシーだけが行動を決定するわけではありません。生徒は携帯電話を取り出してセルラー데이タネットワークでAIツールを使用したり、家で、またはパブリックWi-Fiでプラットフォームを使用したりできます。また、制限を回避するためにVPN、リモートデスクトップ、プラグインを使用できます。従業員も、職場での制御を回避するために同様のことを行うことができます。機関は、AIを使用する意志がある場合、方法があると仮定する必要があります。技術が機関の可視性の範囲外に使用を押し出すように制限されている場合、影のAIのリスクが高まります。プロンプトに入力される情報やモデルによって保持されるデータに関する監視はありません。セキュリティに対する制御はすぐに失われます。影のAIのリスクを超えて、禁止は、生徒を将来大きな部分を占める技術を使用するために完全に準備していない状態に残します。これらのツールは、検索エンジン、ビジネスプラットフォーム、生産性スイート、パーソナルデバイスに増え続けて埋め込まれています。 Pew Researchの調査によると、62%の米国成人は、少なくとも週に何度かAIとやり取りしていることを報告しています。機関のポリシーに関係なく、生徒や従業員がGenAIシステムと出会うことはほぼ確実です。この環境では、誤用やセキュリティに関する懸念に対する最も信頼できる安全保障は教育です。生徒や労働者がツールを使用するために十分に準備されていることを保証するためにも、責任ある使用と倫理的な使用を教えることが重要です。教育プログラムは、LLMがデータを処理して保持する方法、ホールシネーションを識別する方法、AI生成された出力を検証する方法、フィッシングキャンペーンやAI生成された画像を識別する方法などに焦点を当てる必要があります。ユーザーに懐疑心を持たせることを教えます。AIの出力は自信を持って洗練された言語で提示されることが多く、権威のイメージを作り出します。訓練を受けていないと、ユーザーは整形式の回答が本質的に正確であると仮定するかもしれません。デジタルコンテンツに疑問を持つ能力は、ディープフェイクやAI強化フィッシングキャンペーンがより洗練されるようになるという前線の防御です。 Gartnerの調査によると、62%の機関は昨年ディープフェイク攻撃を受け、32%はAIアプリケーションに対する攻撃を受けたと回答しました。これらの事件の頻度と範囲は、将来も増加することが予想されています。学校や地方自治体などの公共機関は、ディープフェイクを利用したソーシャルエンジニアリングに対して特に脆弱です。なぜなら、多くの活動が記録されており、公開されているからです。公共の会合からのオーディオクリップは操作されて、信頼性の高い音声通話を生成するために使用できます。脅威の行為者は、これを不正行為、たとえばデリケートな取引中に資金を転送するために使用しています。ターゲットを絞ったケースでこれが最も起こりますが、ユーザーがこれらの技術を認識したり、可能であることを知らない場合、最初から不利な立場に立たされます。教育に続いて、機関はAIの使用とガバナンスに関する明確なポリシーを持つ必要があります。これらは、承認されたツール、受け入れ可能な使用ケース、どのモデルにどのデータを入力できるかを定義する必要があります。ポリシーは、クラスルームやオフィスごとに異なるのではなく、部門全体に一貫して適用される必要があります。明確な期待は、曖昧さを減らし、責任を強化します。機関は、技術の使用を実践で形作ることに焦点を当てるべきです。機関がアクセス可能で、セキュアで、うまく機能するツールを支援すると、それがほとんどのユーザーにとってデフォルトになります。カジュアルな影のAIの使用は、VPNをダウンロードして使用する必要がないため、減少します。機関や組織は、LLMへのセキュアなアクセスを提供する方法で、データが保護され、共有されず、トレーニングに使用されないようにすることを目指しています。AIの有効化とセキュリティツールの新しいカテゴリが登場し、正確にそれを行っています。 これらは、機関のデータを安全にコンテナ化しながら、複数のLLMへのアクセスを提供できます。 ゼロデータ保持契約は、機関のデータが会社または機関の所有物であり、LLMによってトレーニングできないことを保証するための法的枠組みを提供します。 さらに、従業員が機関を離れた場合、AIの使用、ワークフロー、データはすべて機関の所有物であり、従業員がそれらを持ち去ることはできません。機能レベルで技術的なガードレールを適用することもできます。機関は、承認されたLLM内で一般的な質問を生徒や従業員に許可しながら、ファイルのアップロード、ドキュメントの共有、またはその他の高リスク機能を無効にすることができます。これらの構成は、制御されていないデータの露出を開くことなく、生産性の利点を保持します。より高度なツールは、モデルに到達する前に機密情報を自動的に匿名化できます。たとえば、医師や看護師がGenAIを使用して患者の名前や識別子を中立的なプレイスホルダーに置き換えることで、保護されたデータを公開せずに使用できるようにします。他のツールは、ソーシャルセキュリティ番号、金融口座データ、またはその他の規制対象情報がプロンプトに提出されることを検出してブロックするデータ損失防止コントロールを統合します。教育を基盤に構築された明確なポリシーと技術的なガードレールは、特に技術が非常に速く変化する場合に、最も効果的な防御を提供します。GenAIは、ほとんどの公共機関、そしてその予算よりも速く進化しています。新しいモデルが登場するたびにそれをブロックしようとすることは、持続不可能です。1つのプラットフォームが制限されたときに、もう1つのプラットフォームが普及しています。ツールやバージョン全体で適応できるように、ユーザーを訓練して基礎的なリスクを理解させることが重要です。AIを活用した環境におけるセキュリティは、GenAIが現在日常生活に埋め込まれているという現実を認識することに依存しています。魔法瓶の中の魔人を元に戻すことはできません。全面的な禁止は、目に見える、管理可能なリスクと、目に見えない、管理されていない露出を交換するだけです。人にAIを責任を持って使用する方法を教えると、次に何が起こるかに対して準備が整います。