

新しい自転車を子どもに買ってあげると、自転車の方に注目が集まり、付属しているヘルメットにはあまり注目されません。しかし、親たちはヘルメットを大切にします。私たちは、AIの面で多くの人々が子供のように考えているのではないかと思います。私たちは、AIがどれほど素晴らしいか、どれほど速く進むことができるかについて焦点を当てています。ただし、AIを使用する際に安全を確保する方法についてはあまり考慮していません。これは残念です。なぜなら、安全性がなければAIの利点を享受することはできないからです。簡単に言えば、安全性を慎重に計画せずにAIを適用することは、単にリスクを冒すことではありません。それは、危険な道を進むことと同じです。AIの安全性とは何か?AIの安全性には、多くのステップが含まれます。しかし、最も重要な要素は、いつそれらのステップを実施するかです。AIの安全性を効果的に実現するには、設計段階で考慮する必要があります。つまり、テストを実施する前に、どのようにして害を防ぐかを考える必要があります。AIが私たちの価値観や社会的期待と一致した結果を生成するようにする方法を最初に考える必要があります。後からひどい結果が出た後に考えるのではなくてです。AIの安全性を設計するには、AIを頑健性を持たせることも含まれます。つまり、AIが予測可能な方法で動作するようにすることです。また、AIの透明性を確保することも含まれます。つまり、AIが行う決定が理解可能で、監査可能で、偏見がないようにすることです。しかし、AIが機能する世界についても考える必要があります。どのような制度的および法的安全対策が必要か、特に適用される政府の規制に準拠するために。さらに、人々の要素も考慮する必要があります。AIの使用が、AIとやり取りする人々に与える影響は何でしょうか。設計段階で安全性を考慮することは、プロセス、ワークフロー、運用のすべてにAIの安全性を組み込むことを意味します。最初のプロンプトを入力する前にです。リスクは懸念を上回るすべての人が同意しているわけではありません。AIの安全性を優先することを聞くと、一部の人々は、「あまりにも慎重に進む」と聞こえるようです。当然、それがAIの安全性を優先することの意味ではありません。イノベーションを妨げることや、市場投入の時間を遅くする必要はありません。また、拡大できないパイロットプロジェクトの無限のストリームでもありません。実際には、その逆です。AIの安全性を設計しないことのリスクを理解することは意味があります。いくつかの例を考えてみましょう。 Deloitteの金融サービスセンターは、GenAIが2027年までに米国だけで400億ドルの損失をもたらす可能性があると予測しています。2023年の123億ドルから32%の年間複合成長率です。 偏った決定。ケーススタディは、偏ったデータでトレーニングされたAIによる偏った医療を文書化しています。 悪い決定がさらに悪い決定をもたらす。AIの初期の悪い決定よりも、研究によると、そのような決定が将来の決定の形成の一部になる可能性があります。 実際の結果。 悪い医療アドバイスを提供したAIは、致命的な患者の結果につながりました。AIの妄想を法的根拠として引用したことによる法的問題が発生しました。また、AIアシスタントが誤った情報を提供したことによるソフトウェアエラーは、会社の製品や評判を傷つけ、広範囲にわたるユーザーの不満を引き起こしました。 そして、状況はさらに興味深いものになります。エージェントAIの出現と急速な採用、AIが自律的に動作して決定に基づいて行動できるAIは、AIの安全性を設計することの重要性を強調するでしょう。あなたの代わりに行動できるエージェントAIは非常に役立つでしょう。例えば、最適なフライトについてあなたに教えるのではなく、フライトを予約することができます。製品を返品したい場合は、会社のエージェントAIは返品ポリシーと返品の方法について教えるだけでなく、返品手続きを代行することができます。素晴らしいのですが、エージェントがフライトを妄想したり、金融情報を不正に扱ったり、会社の返品ポリシーを間違えたり、有効な返品を拒否したりしない限りです。現在のAIの安全性リスクが、AIエージェントが決定と行動をとる複数のエージェントが存在する状況で簡単に増大する可能性が見て取れるでしょう。エージェント間の協力でタスクを実行するエージェントチームからの実際の価値の多くは、個々のエージェントがタスクの一部を処理し、エージェント間で協力して作業を完了することから生じます。したがって、イノベーションを妨げずに、またその潜在的な価値を損なわずに、AIの安全性を設計するにはどうすればよいのでしょうか。設計段階での安全性アドホックな安全性チェックは答えではありません。しかし、AIの実装のすべての段階に安全性実践を統合することは答えです。データから始めましょう。データがラベル付けされ、必要に応じて注釈付けされ、偏りがなく、高品質であることを確認します。これは、特にトレーニングデータにおいて重要です。人間のフィードバックでモデルをトレーニングします。人間の判断は、モデルを形成するために不可欠です。強化学習による人間のフィードバック(RLHF)や同様のテクニックを使用すると、注釈者がレスポンスを評価して導き、LLMが安全で人間の価値観と一致した出力を生成することができます。次に、モデルをリリースする前に、ストレステストを実行します。悪意のあるプロンプト、エッジケース、またはジャイルブレイクの試みで安全でない動作を誘発しようとするレッドチームは、脆弱性を暴露できます。問題が発生する前にそれらを修正することで、問題が発生する前に安全性を確保することができます。これらのテストにより、AIモデルが堅牢であることを確認できますが、脆弱性やモデルへの調整が必要になる可能性のある新たな脅威に注目して継続的にモニタリングする必要があります。同様に、不正行為の兆候を監視するために、コンテンツソースやデジタルインタラクションを継続的に監視します。重要なのは、AIの自動化を使用して大量のデータを監視し、熟練した人間がレビューを担当して精度を確保することです。エージェントAIを適用するには、さらに注意が必要です。基本的な要件は、エージェントが自身の限界を理解できるようにトレーニングすることです。不確実性、倫理的なジレンマ、新しい状況、または特に高リスクの決定に遭遇した場合、エージェントが助けを求める方法を知っていることを確認します。さらに、エージェントに追跡可能性を設計する必要があります。これは、エージェントのインタラクションが検証されたユーザーだけと行われるようにするため、特に重要です。詐欺師がエージェントの行動に影響を与えるのを防ぐためです。エージェントが効果的に機能しているように見えると、エージェントを自由に動かして行動させることが誘惑的かもしれません。しかし、私たちの経験則は、エージェントとエージェントが実行するタスクを継続的に監視することです。エラーまたは予期しない動作に注意するために、自動チェックと人間のレビューの両方を使用します。実際、AIの安全性の重要な要素は、人間の関与を定期的に行うことです。人間は、判断、共感、またはニュアンスと曖昧さが関与する決定や行動に関与する必要があります。再び強調しますが、これらはすべて、AIの実装の段階で予め組み込まれている実践です。何かが間違った後に損害を最小限に抑える方法を急いで考える結果ではありません。実際に機能するか?私たちは、GenAIの出現と現在Agentic AIへの高速トラックで、クライアントと一緒にAIの安全性を優先する哲学と「設計段階での」フレームワークを適用してきました。私たちは、心配されるようなものではなく、実際にはそれらを加速することができることを発見しています。エージェントAIは、顧客サポートのコストを25〜50%削減しながら、顧客満足度を向上させる可能性があります。しかし、それは信頼性に依存します。人間は、AIを使用する必要があります。また、AIを使用する人間は、信頼を損なうような単一のインタラクションを経験することはできません。信頼を損なう1つの悪い経験は、ブランドに対する信頼を完全に破壊する可能性があります。私たちは、安全でないものを信頼しません。したがって、私たちがAIをロールアウトするすべてのレイヤーに安全性を組み込むと、自信を持ってロールアウトできます。スケールアップする準備ができたら、自信を持ってスケールアップできます。AIの安全性を設計する実践を適用することは、圧倒的なもののように思えるかもしれませんが、独りではありません。専門家やパートナーがいて、学んだことや学んでいることを共有して、AIの価値を安全に活用できるようにサポートしてくれるでしょう。AIは今までとても楽しい乗り物でしたが、スピードが上がるにつれて、ヘルメットを着用していることを幸いに思います。


多くの人と同様に、私も良いアドバイスが好きです。しかし、時々、私は何かを実行するために助けが必要です。次のAIのリバイズ — エージェントAI — は、アドバイスから実行に移行するでしょう。企業がこれを活用することで、変革的な飛躍を遂げることができます。しかし、どこへ飛躍するのか?どうやって変革するのか?エージェントAIは、単純なタスク実行を超えて、顧客サポートのコストを25-50%削減しながら、品質と顧客満足度を劇的に改善できます。また、複雑なワークフローと顧客とのやり取りを自律的に解決できます。たとえば、顧客サポートに適用すると、エージェントは質問にのみ応答するのではなく、開始から終了まで、全体的な問い合わせを包括的に解決し、人間の介入を減らし、効率性を高めます。新しいテクノロジーを採用する場合と同様に、エージェントAIの採用も課題を提起します。企業は、ワークフローを十分に文書化し、深く理解し、堅牢なナレッジベースを備え、エージェントAIが利用できるようにする必要があります。また、データプライバシーとセキュリティの懸念も、企業が利用する大規模言語モデル(LLM)と情報の保存および転送方法を理解する必要があります。ただし、インテリジェントオートメーションの適切な採用戦略により、成功を確保できます。最大の利益を得るには、企業は次の3つのことを行う必要があります: 正しい場所から始める エージェントAIと人間の専門知識のバランスをとる エージェントの専門知識ネットワークにアクセスする まだ初期段階ではありますが、さまざまな業界のクライアントと協力して、ワークフローと運用にエージェントAIを統合するにつれて、以下のことがわかりました。小さく始めるのではなく、賢く始めるおそらく、逆説的に聞こえるかもしれませんが、始めるべき場所は、最もボリュームの大きいユースケースからです。リスクがあるのではないでしょうか?適切に実行すれば、リスクはありません。実際、低ボリュームのユースケースから始めることは、投資を正当化するのに十分な影響が見られないリスクを増大させる可能性があります。高ボリュームのユースケースから始めることで、最も大きなROIの潜在性を提供し、企業は迅速に重大な影響を実現し、効率性の改善を最大化し、AIエージェントの使用の明確な価値を示すことができます。リスクを軽減するにはどうすればよいですか?最大のユースケースのボリュームの1%だけでエージェントを初期的に実装することによってです。このアプローチにより、潜在的な問題を特定して修正し、より広範なオートメーションに備えることができます。小売企業の場合、これは「注文の状況は?」または返品処理ワークフローを自動化することを意味する可能性があります。出荷を会社のフルフィルメントネットワーク全体で監視するだけでなく、AIエージェントは顧客の身分を確認し、リアルタイムのステータスを確認し、顧客を更新することができます。注文が予想外に遅れた場合は、オプションを提供することもできます。返品については、エージェントは会社の返品ポリシーを確認し、顧客から返品に関する情報を収集し、次のステップを提案し、関連するタスク(返品ラベルの印刷、ピックアップのスケジューリング、返金の発行など)を完了することができます。返品エージェントはまた、乱用のパターンに注意し、必要に応じて決定と次のステップを調整することができます。企業が高ボリュームのワークフローの一部にAIエージェントを展開した後、ワークフロー活動を監視して、調整が必要な場所を特定する必要があります。エージェントがスムーズに機能する場合、企業は事前に定義された量で使用を拡大し、最終的に全ワークフローを処理することができます。もちろん、すべてのタスクとワークフローはエージェントAIによる完全な自動化に適しています。実際、人間の専門家をAIエージェントの全体的な動作に接続しておくことで、最良の結果が得られます。AIと人間の専門知識のバランス企業がワークフローとプロセスを自動化の候補として調査すると、人間の監視または直接アクションに最も適したインスタンスが見つかります。エージェントAIは、信じられないほどの、高度な能力を持つ革新ですが、限界があります。特に3つ:AIエージェントは、サポートするLLMと同様に、現在、一般的な知能を備えていません。狭く、明確に定義された領域で最もよく機能します。したがって、人間は特定のタスクを実行する方法を学び、その知識から抽出した原則を、異なる、無関係なタスクに適用することができますが、AIは現在そうすることはできません。次に、複雑な意思決定マトリックスを必要とするワークフローがあり、重大な経験と経験に基づく判断を必要とします。たとえば、小売企業は、シンプルなマーケティングキャンペーンのコンテンツが必要かもしれません。エージェントはそれを処理し、キャンペーンを実行できます。しかし、複数の市場にわたるブランドの表現と約束を再検討したい場合はどうでしょうか?エージェントはそのタスクを遂行できません。市場のトレンド、ブランドの認識、市場間の文化の違い、ブランドが感情を呼び起こす方法に関する洞察が必要です。最後に、人間のコミュニケーションと感情のニュアンスに大きく依存するワークフローは、共感などの明確に人間的な要素を必要とするため、人間が処理する必要があります。怒っている顧客や、患者の感情的または精神的な状態が危険にさらされている可能性のあるヘルスケアの問題などの顧客サービス問題を考えてみましょう。しかし、私は二元的な意思決定プロセスについて説明しているわけではありません。AIエージェントに任せるもの、人間に任せるものというのではなく、実践ではハイブリッドモデルが最も効果的です。AIと人間の役割の間には明確な区別が必要です。しかし、タスクを人間の専門家が処理する必要がある場合でも、AIは依然として人間の能力を拡張し、専門知識を最大限に活用するために利用できるはずです。一般に、企業は、エージェントAIをトランザクション、繰り返しのタスクに使用し、人間の専門知識を、高リスクのやり取り、感情的に複雑なシナリオ、微妙な判断を必要とする状況に使用する必要があります。50ドルの保証請求は完全に自動化されるかもしれませんが、5,000ドルの請求は、人間の感情的知能とブランドに敏感な取り扱いから利益を得る可能性があります。エージェントネットワークにアクセスするおそらく最も重要なのは、エージェントAIに単独で取り組むことを避けることです。専門家のパートナーのネットワークを確立します。新しいエージェントAIプラットフォームは、デジタルおよび音声チャネル全体でテクノロジーを提供できます。顧客の運用環境を理解するシステムインテグレーターとアドバイザーは、特定の顧客のニーズにエージェントモデルをトレーニングし、それらを企業の運用に統合できます。これらのモデルを企業システムに統合するには、複雑なワークフローと業界固有の課題に関する深い専門知識が必要です。また、ワークフローでの意思決定ポイントと人間の介入が最も必要または有益な場所を理解することも必要です。そうすることで、エージェントAIは労働者とチームの生産性にとって恩恵となります。エージェントAIは、企業に効率性を高め、顧客の体験を向上させ、イノベーションを推進する強力な方法を提供します。しかし、成功するには、急いで参加することではなく、賢明で情報に基づいた選択をすることが重要です。正しい場所から始めること、人間とAIのハイブリッドモデルを適用すること、そして正しいネットワークにアクセスすることです。AIの世界が急速に変化しているため、単独で行うことはできません。