Connect with us

ソートリーダー

ボットが子供たちとフラートすることができるのであれば、他の何があなたのデータで許可されているのでしょうか?

mm
A professional boardroom at night featuring a large monitor displaying a glowing

内部ガイドラインが漏洩したとき、MetaがAIチャットボットに子供たちとフラートすることを許可していることが明らかになったとき、多くの人々はそれをスキャンダルとして扱い、話を終えました。しかし、調査が現在のAI倫理の状態について私たちに何を教えてくれるかをより深く見てみる価値があります。Metaのような会社がそのようなポリシーをその規模で容認しているのであれば、これらのプラットフォームはあなたのデータで何を静かに許可しているのでしょうか。

ビジネスリーダーは、AIツールが何ができるか、どのくらいの速さで、どのくらいのコストで評価する傾向があります。しかし、特にAIツールがテーブルステークスになるにつれて、より難しい質問をする価値があります。AIツールを使用を開始したときに、あなたは何に同意することになるのか。モデルプロバイダーとエージェントビルダーはあなたのデータで何をしているのか。何かが間違ったとき、誰が責任を負うのか。

ほとんどの組織は、この新しいテクノロジーから最ものお金を絞り出す方法を考えているので、最も重要な質問について考える時間がないようです。

実際にあなたのデータは何が起こっているのか

ほとんどの人は、チャットボットと何かを共有するリスクを大幅に過大評価しているか、まったく軽視しています。実際は、大規模な言語モデルは、ある意味で、トレーニングされ、一般に公開されると凍結されるのです。那はあなたの会話がシステムのメモリに即座に接続されず、個別に保存されることを意味します。朝にあなたがChatGPTに伝えたことは、午後に他の誰かに伝えるモデルにすぐに影響を与えません。

しかし、あなたのデータが使用されていないことを意味するわけではありません。それは使用されています。パスは単に複雑です。

会話ログは個別に保存され、多くのAIラボは明示的にそれらを次のモデルバージョンのトレーニングに使用する権利を予約しています。それはサービス条件に記載されています。今日のカスタマーサポートの問い合わせや戦略のブレインストーミングとして入力されたものは、時間の経過とともに、明日使用されるモデルに影響を与える可能性があります。

機密データへのリスクはポリシーの範囲を超えています。2025年、Scale AIは意図せずに、Meta、Google、xAIを含むクライアントの機密プロジェクト資料の数千ページを公開しました。別の11月の侵害では、OpenAIのベンダーが侵害され、ハッカーが顧客データ、名前、メールアドレス、システムの詳細を入手しました。

明確に言うと、これは5つの警報シグナルではないですが、リスクもないわけではありません。エンタープライズグレードのシステムには、データの再利用をめぐる契約上のガードレールがあります。消費者ツールにはほとんどありません。如果あなたのデータがNDAsで保護したいほど機密性が高い場合、あなたは消費者チャットボットに渡して、それが他の場所で使用されないと想定すべきではありません。

数字は、ほとんどの組織がまだこれを吸収していないことを示唆しています。約8人に7人の従業員が会社の情報をAIツールに貼り付けました。そのうち、4人に3人以上が個人アカウントを使用してそれを行ったと、2025年のワークフォース調査によると報告されています。1社に5社の組織はすでにAIツールの使用に関連する侵害を報告していますが、IBMの2025年のデータ侵害コストレポートによると、AIへのアクセスを検出または管理するためのポリシーを持っている組織は37%のみです。

一度理解すると、この種のデータリスクは回避するのは難しくありません。消費者ツールとエンタープライズツールを区別し、契約書に署名する前に内容を知っておけば、ほとんどのリスクは回避できます。

AIメディエーテッドコミュニケーションがビジネスに失敗する場所

あなたのデータが何が起こっているかは、1つの絵の部分です。他の部分は、多くのビジネスにとってより重大なものです。つまり、これらのシステムがあなたの最も重要なコミュニケーションの質と説明責任に何をしているのかです。

ビジネスを動かす会話について考えてみましょう。長年のクライアントを維持するためのミーティング、取引の交渉でトーンと信頼が取引の言葉よりも重要になる場合、または年間の目標に向けた進捗状況についての四半期ごとの理事会プレゼンテーションなどです。実は、AIはこれらの相互作用の取引要素、ミーティングノートの取り、優先順位の割り当て、行動項目の強調などをかなりうまく処理できます。しかし、下にあるすべてのものに苦労しています。

特定の失敗モードは名前をつける価値があります。AIはコンテキストを圧縮します。要約し、スムーズにし、標準化することで、ニュアンスを除去することができます。さらに、大規模な言語モデルが生成するコンテンツは検証するのが難しいです。AI生成の電子メールや会話の要約ノートを送信した人には、それが受け取ったものがあなたの意図を反映したものであるか、AIによってフィルタリングまたは再構成されていないかを確認する方法はありません。

これは、AIがビジネスコミュニケーションに役割がないことを意味するわけではありません。明らかに役割があります。しかし、効率性の利点がリスクを正当化しない会話のカテゴリがあり、多くの組織はそのようなユースケースを十分に区別していません。

自分で行うべき時

したがって、質問は次のようになります。最も機密性の高いコミュニケーションの場合、AIをループに含めるべきですか?

私の正直な答えは、AIが何を言ったか、どのように言ったか、メッセージが配信されたかを責任を持つことができる人がいない限り、少なくともそうではありません。人間のコミュニケーションを検証することは、古いやり方を好むことではありません。ただ、ニュアンスが必要な会話があることを認識しているだけです。

リーダーは自分の研究をすべきです。ベンダーのデータポリシーはデータの再利用について何を述べていますか。契約が終了したときにチームの会話ログが何になるのでしょうか。これらはITチームがバックグラウンドで処理するべき質問ではありません。これらは調達の質問であり、現在よりもプロセスの早い段階で考慮されるべきです。

子供たちとフラートすることを許可されたボットは、その決定を独自に下したのではありません。誰かがそれを承認しました。すべてのAIシステムは、それを作成して展開した人の判断を反映していますが、外から見えるものばかりではありません。

AIツールやシステムの監査ツールが採用に追いつくまで、ビジネスリーダーが取ることができる最も防御的な立場は、どの会話をAIを介してルーティングすることに舒適で、どれがそうでないかを決定することです。

AIの効率性の議論は説得力があります。自分の名前で出るものを所有するための議論も同様です。

Victor ChoはEmovidのCEOであり、AIがより本物的な、感情的に知的なコミュニケーションをサポートする方法を探究しています。製品イノベーションとデジタルリーダーシップの背景を持ち、彼は人間の感覚を失うことなく、人々がより効果的につながるのを助けるツールを構築することに焦点を当てています。