ソートリーダー
AIへのノーの危険

先週、潜在的なクライアントの会社の会議に参加しました。セキュリティとネットワークの担当者、管理層などがすべて出席していました。さまざまなプレゼンターが現在のトピックについて説明していました。すると、誰かが自分の技術チームが日常の仕事でAIをどのように使用しているかを説明し始めました。
プレゼンターは興奮していました。3日間の手動でのコピーとペーストの作業をAIツールを使って数分に圧縮する方法を見つけました。すごいことですよね?私は彼が何をしているのか、そしてなぜそうしているのかを理解しています。これがAIの約束です!
しかし、部屋の中でのセキュリティ担当として、私はこう思います:「ああ、私の神。」「どのツールですか?誰がそのツールを所有しています?」彼は顧客情報をこれらのプラットフォームに入れています。価格データ。もしくは金融情報。何か別のもの。すべてをワークフローを速めるために。
だから、私は明らかな質問をしました:「AIポリシーはありますか?」探してみると、受け入れ可能な使用についてのブラーが埋もれています。AIツールについての漠然としたもの。誰かがそれを実際に読んでいますか?おそらくそうではありません。你はそれに署名する durante オンボーディング、そしてあなたは完了です。
あなたの従業員はすでにAIを使用しています
ここに、私がさまざまな業界の会社と話したことを学んだこと:AIはすでにどこにでもあり、認識しているかどうかは別として。最近の調査はこの現実を確認しています。— 75%の労働者が現在仕事でAIを使用 、6か月でほぼ2倍になっています。
先週、ヒューストンで、石油を掘削する会社の男性に会いました。彼らには、土壌組成と天候パターンを分析してボーリングの場所を最適化するAIプラットフォームがあります。彼は雨量データをどのように考慮するかを説明しました。「18日以上雨が降ったので、石油容量はおそらく高くなり、ドリルがより深く入ることができます。」
一方、私はドイツへの旅行計画を作成するためにAIを使用しています。テレヘルスプラットフォームでそれを使用しているヘルスケアの会社と話しました。リスクモデルを実行している財務チーム。レモンadeのビジネスを運営している誰かがAIを何らかの方法で利用しているのを見ました。
ポイントは:AIはすべての業界、すべてのワークフローにあります。まだ来ていないのではなく、すでにここにあります。そして、これらの組織のほとんどは私たちと同じ状況にあります。彼らは従業員がそれを使用していることを知っています。彼らはただ、それを管理する方法を知らないのです。
シャドウITはすぐに危険になります
あなたが人々にAIを使用しないように言ったら何が起こるかを知っていますか?それがまさにあなたのティーンネージャーに決して飲まないように言ったのと同じです。祝賀、もう彼らは最も安全でない方法で飲むことになります。なぜなら、あなたは禁じられているからです。
数字はこの現実を証明しています: 72%の企業での生成的なAIの使用はシャドウIT で、従業員がAIアプリにアクセスするために個人アカウントを使用しています。
人々は2台目のラップトップを手に入れます。会社のセキュリティによって保護されていない個人用携帯電話を使用します。すると、AIを使用します。突然、可視性が失われ、防止しようとしていた正確なギャップが作成されます。
私はこのパターンを前に見たことがあります。すべてに「いいえ」と言うセキュリティチームは人々を地下に追いやることになり、実際に何が起こっているのかについてのすべての監視を失います。
セキュリティは敵になる
セキュリティチームは「地下室のひどい人たち」であるという認識があります。人々はこう考えています:「ああ、セキュリティはおそらく『いいえ』と言うでしょうから、気にしないでください。」私たちが作った誤解です。AIについては、人々は私たちがそれを閉鎖するだろうと仮定しているので、尋ねることをやめます。
私は開発者に会いました。彼は毎日APIを使用していますが、テストと検証についてセキュリティチームの注意を引こうとしていました。しかし、彼は「いいえ」と言うだろうと想定していたので、尋ねることをやめました。
信頼の赤字はあなたにすべてを費やします
ここに、あなたが望む会話があります:マーケティング担当者があなたに近づいて、「ヘイ、私はこのAIツールを使用したいです。私たちの立場は何ですか?それを安全に使用するにはどうすればよいですか?」これがセキュリティとパートナーする正しい方法です。
私たちはそれを確認します。AIはビジネスの一部になることを理解しています。私たちはそれを使用しないように言うつもりではありません。安全に使用するように人々に助言したいだけです。しかし、最初にその会話が必要です。
人々がセキュリティがすべてをブロックするだろうと仮定すると、彼らは尋ねることをやめます。彼らは個人用のメールアドレスでサインアップし、会社のデータをチェックされていないプラットフォームにフィードし、すべての可視性とコントロールを失います。結果は予測可能です: 38%の従業員が雇用主の許可なしにAIツールと共有する機密情報を持っています。
組織はAIを使用するでしょう。それが何であれ。質問は:従業員が会社のデータ、プライバシー、セキュリティを危険にさらすことなくそれを安全に利用できるように私たちがどうすればよいのか?
スマートな「はい」から始めましょう、ブランケット「いいえ」ではありません
ここに、実際に機能するものがあります:プロアクティブなコミュニケーション。ニュースレターを送信するか、30分間のウェビナーを開催して、「組織内でAIを許可しています。安全に使用する方法はこちらです。」セッションを録音して、欠席した人々のために。
セキュリティと成功したパートナーシップを持つ従業員の例を示します。パートナーシップを可視化するのではなく、人々がそれを閉鎖するだろうと仮定する影のあるエンティティにします。
あなたはセキュリティと従業員の間に信頼を築かなければなりません。最終的には、私たちはみんなAIを大きな方法や小さな方法で使用しています。私はそれを使用してドイツへの旅行計画を作成しました。3日間の計画を作成するように指示し、素晴らしい旅行を得ました。
組織として、ビジネスにおけるAIの位置を見直す必要があります。収益を増加させるでしょうか?おそらく。ビジネス上のケースは明確です: AIは「実験」から「不可欠」に移行し、企業の支出は130%増加しました。私たちが何をすればよいのでしょうか?生産性を可能にする保護を提供する方法は何ですか?
目標は完全なコントロールではありません、それは不可能です。目標は、実践で機能するガードレールを持つ情報に基づいたAIの採用です。セキュリティの新しいリスクは、AIの使用から隔離されることです。使用があなたの了承に関係なく発生します。
組織がこれを正しく行うことに真剣であれば、専門家はシャドウAIの使用が完全に制御不能になる前に、ビジネスのニーズとセキュリティ要件のバランスをとる 明確なAIガバナンスポリシーを開発することをお勧めしています。












