

私たちは、プロンプトから检索増強生成(RAG)まで、そしてエージェントまで、Large Language Model(LLM)を搭載したジェネレーティブAIアプリケーションの進化を目撃しています。エージェントは、主にエンタープライズアプリケーションを変革し、優れたカスタマーエクスペリエンスを提供するために、このテクノロジーが提供する力を活用するために、業界と研究の分野で広く話題になっています。エージェントを構築するための共通のパターンがあります。これにより、人工一般知能(AGI)への第一歩が可能になります。私の前の記事では、LLMを搭載したアプリケーションを構築するための知能の階梯について説明しました。プロンプトから始めて、問題ドメインをキャプチャし、LLMの内部メモリを使用して出力を生成します。RAGでは、プロンプトを外部の知識で増強し、ベクトルデータベースから検索した知識を使用して出力を制御します。次に、LLMの呼び出しを連結して、複雑なアプリケーションを実現するワークフローを構築できます。エージェントは、これらのLLMチェーンを自動的に決定することで、次のレベルに進みます。詳細を見てみましょう。エージェント – 内部構造エージェントの重要なパターンは、LLMの言語理解能力を使用して、与えられた問題を解決するための計画を立てることです。LLMは問題を理解し、問題を解決するためのステップのシーケンスを提供します。ただし、そこで止まりません。エージェントは、問題を解決するための推奨事項を提供するだけの純粋なサポートシステムではありません。エージェントは、推奨されたステップを実行するためのツールでエンパワーメントされています。怖いですね!?私たちがエージェントに基本的な質問をすると、ヒューマン: 電話の発明者はどの会社を設立しましたか?以下は、エージェントが考えているステップのサンプルです。エージェント(THINKING): 思考: 電話の発明者を検索する必要があります。 アクション: 検索[電話の発明者] 観察: アレクサンダー・グラハム・ベル 思考: アレクサンダー・グラハム・ベルによって設立された会社を検索する必要があります アクション: 検索[アレクサンダー・グラハム・ベルによって設立された会社] 観察: アレクサンダー・グラハム・ベルは1885年にアメリカン・テレフォン・アンド・テレグラフ・カンパニー(AT&T)を共同設立しました 思考: 答えを見つけたので、戻ります。 エージェント(RESPONSE): アレクサンダー・グラハム・ベルは1885年にAT&Tを共同設立しましたエージェントが問題を解決するために、問題をサブ問題に分解し、特定のアクションを実行する方法を体系的に実行していることがわかります。ここでのアクションは、LLMによって推奨され、特定のツールにマッピングしてこれらのアクションを実装できます。エージェントに検索ツールを有効にすると、LLMがアクションとして検索を提供したときに、エージェントはこのツールを呼び出して、LLMによって提供されたパラメーターで検索を実行できます。ここでの検索はインターネットですが、内部の知識ベースであるベクトルデータベースにリダイレクトすることもできます。システムは теперь自己完結型になり、複雑な問題を解決するためのステップのシリーズに従って、自己で解決策を見つけることができます。LangChainやLLaMAIndexなどのフレームワークは、これらのエージェントを構築し、ツールとAPIに接続するための簡単な方法を提供します。Amazonは最近、エージェントの設計のための視覚的なインターフェースを提供するBedrockエージェントフレームワークを導入しました。内部的には、エージェントは、LLMがアクションプランを生成するようにプロンプトを送信する特殊なスタイルに従います。上記の思考-アクション-観察パターンは、ReAct(Reasoning and Acting)と呼ばれるタイプのエージェントで人気があります。他のタイプのエージェントには、MRKLやPlan &...


大規模言語モデルは至る所にあります。毎回の顧客会話やVCプレゼンテーションには、LLMテクノロジーの準備度や将来のアプリケーションへの影響についての質問が出ます。私は以前の投稿でこれについてのパターンをいくつか紹介しました。私の前の投稿では、ファーマ業界でのPersistent Systemsが取り組んだアプリケーションのための実際のパターンについて話します。大規模言語モデルとコアの強みLLMは言語を理解するのが得意です、それが彼らの強みです。最も一般的なパターンは、知識を外部のデータソースからコンパイルし、LLMが応答を言い換えるためのプロンプトとして提供する、リトリーバー増強生成(RAG)です。この場合、ベクターデータベースやElasticsearchベースのエンジンなどの超高速検索メカニズムが最初の検索ラインとして機能します。次に、検索結果はプロンプトにコンパイルされ、LLMにAPIコールとして送信されます。 別のパターンは、データモデルをプロンプトとして、そして特定のユーザークエリをLLMにフィードすることで、構造化データに対するクエリを生成することです。このパターンは、SnowflakeやNeo4jなどのSQLデータベース、グラフデータベースのための高度な「データと話す」インターフェイスを開発するために使用できます。実際の洞察のためのLLMパターンの活用Persistent Systemsは最近、Blast Motionというスポーツ測定会社(野球、ゴルフなどのスイング分析)で、プレイヤーの要約の時間シリーズデータを分析して推奨事項を得るためのパターンを見ました。 より複雑なアプリケーションの場合、LLMリクエストを処理の間で連結する必要があります。ファーマ会社のために、臨床試験文書から抽出された基準に基づいて臨床試験に患者をフィルタリングするスマートトレイルアプリを開発しました。ここで、LLMチェーンアプローチを使用しました。まず、臨床試験のPDF文書を読み取り、RAGパターンを使用して含み・除外基準を抽出するためのLLMを開発しました。 これには、GPT-3.5-Turbo(ChatGPT)などの比較的シンプルなLLMが使用されました。次に、Snowflakeの患者SQLデータベースのデータモデルと組み合わせてプロンプトを作成しました。このプロンプトは、Snowflakeで実行できるSQLクエリを生成するために、GPT4などのより強力なLLMにフィードされます。LLMチェーンを使用することで、各ステップで複数のLLMを使用してコストを管理できます。 現在、決定的なチェーンを維持するために、より多くの知能をチェーンに保持し、オーケストレーションを非常にシンプルで予測可能に保つことにしました。チェーンの各要素は、LLM以前の日には数ヶ月かけて開発される複雑なアプリケーションです。より高度なユースケースの実現より高度なケースの場合、ReActなどのエージェントを使用して、特定のユーザークエリに従うためのステップバイステップの指示をLLMに作成するプロンプトを使用できます。これには、GPT4、Cohere、またはClaude 2などのハイエンドLLMが必要になります。しかし、その場合、モデルが誤ったステップを取るリスクがあり、ガードレールを使用して検証する必要があります。これは、制御可能なリンクのチェーンに知能を移動するか、チェーン全体を自律的にするかというトレードオフです。 今日、生成的なAIの時代に、業界は予測可能なチェーンを持つLLMアプリケーションを採用し始めています。この採用が成長するにつれて、エージェントを介してこれらのチェーンの自律性を実験することをすぐに開始することになります。これがAGIについての議論の全てです。時間の経過とともにすべてがどのように進化するかを見てみることに興味があります。


生成的なAI、特に言語を扱うもの – ChatGPTは至る所に存在しています。大規模言語モデル(LLM)技術は、将来のアプリケーションの開発において重要な役割を果たすことになります。LLMは、公的ドメインのテキストやコードを数兆行にわたって事前トレーニングしたため、言語を理解する能力が非常に高いです。教師ありのファインチューニングや人間のフィードバックを使用した強化学習(RLHF)などの方法により、これらのLLMは特定の質問に答えたり、ユーザーと会話したりすることがさらに効率化されています。LLMを使用した次の段階のAIアプリケーションに入ると、以下の重要なコンポーネントがこれらの次世代アプリケーションに不可欠になります。以下の図は、この進化を示しています。図の右側に進むにつれて、アプリケーションにさらに高度な知能と自律性が実現されます。これらのさまざまなレベルを見ていきましょう。LLMコールこれらは、Azure OpenAIやGoogle PaLM、Amazon BedrockなどのLLMプロバイダーによって提供されるコンプリーションまたはチャットモデルへの直接コールです。これらのコールには非常に基本的なプロンプトが含まれており、主にLLMの内部メモリを使用して出力を生成します。例: 基本的なモデル「text-davinci」に「ジョークを話して」というように尋ねる場合、非常に少ないコンテキストを提供し、モデルは内部の事前トレーニング済みメモリに頼って答えを生成します(図の緑の部分に示されています – Azure OpenAIを使用)。プロンプト次のレベルの知能は、プロンプトにさらに多くのコンテキストを追加することです。LLMに適用できるプロンプトエンジニアリングのテクニックがあり、カスタマイズされたレスポンスを生成することができます。たとえば、ユーザーに電子メールを生成する場合、ユーザーの過去の購入履歴や行動パターンに関するコンテキストをプロンプトとして提供することで、電子メールをよりカスタマイズすることができます。ChatGPTに慣れたユーザーは、例を示すなどのプロンプト方法を使用して、LLMがレスポンスを構築する方法を知っています。プロンプトは、LLMの内部メモリに追加のコンテキストを追加します。以下は例です。埋め込み埋め込みは、プロンプトを次のレベルに引き上げることで、ナレッジストアを検索してコンテキストを取得し、プロンプトに追加します。ここでの最初のステップは、テキストをインデックス化してベクターデータベースを構築することです。OpenAIの「ada」などの埋め込みモデルを使用して、テキストのチャンクをn次元ベクターに変換します。これらの埋め込みは、テキストのコンテキストを捉え、類似した文章はベクタースペースで近い埋め込みを持つことになります。ユーザーがクエリを入力すると、クエリも埋め込みに変換され、データベース内のベクターと照合されます。したがって、クエリに最も一致するトップ5または10のテキストチャンクがコンテキストとして取得され、LLMにクエリとコンテキストが渡され、人間のようなやり方で質問に答えることができます。チェーン現在、チェーンはLLMアプリケーションを構築するために広く使用されている最も高度で成熟したテクノロジーです。チェーンは決定論的であり、LLMコールのシーケンスが結合されており、1つのLLMの出力が1つ以上のLLMに流れ込むことができます。たとえば、LLMコールを使用してSQLデータベースを照会し、顧客の電子メールアドレスのリストを取得し、そのリストを別のLLMに渡して顧客にパーソナライズされた電子メールを生成することができます。これらのLLMチェーンは、より有意義な成果を生成するために既存のアプリケーションフローに統合できます。チェーンを使用すると、APIコールやナレッジグラフとの統合などの外部入力をLLMコールに追加してコンテキストを提供することができます。また、現在、OpenAI、AWS Bedrock、Google PaLM、MosaicMLなどの複数のLLMプロバイダーが利用可能であるため、チェーン要素をLLMコールに組み込むことができます。制限された知能を持つチェーン要素の場合、より低いLLM「gpt3.5-turbo」を使用し、より高度なタスクの場合は「gpt4」を使用することができます。チェーンは、データ、アプリケーション、LLMコールの抽象化を提供します。エージェントエージェントは、特に人工一般知能(AGI)に関して、オンラインでの議論の多いトピックです。エージェントは、事前に定義されたチェーンではなく、高度なLLM「gpt4」または「PaLM2」を使用してタスクを計画します。したがって、ユーザーのリクエストがある場合、エージェントはクエリに基づいて、呼び出すタスクのセットを決定し、動的にチェーンを構築します。たとえば、「政府の規制更新によりローンのAPRが変更されたときに顧客に通知する」というコマンドでエージェントを構成した場合、エージェントフレームワークは、ステップを決定したりチェーンを構築したりするためにLLMコールを実行します。ここでは、規制ウェブサイトをスクレイピングして最新のAPRレートを抽出するアプリを呼び出し、次にLLMコールを使用してデータベースを検索して影響を受ける顧客の電子メールアドレスを抽出し、最後に通知するために電子メールを生成します。最終的な考察LLMは急速に進化しているテクノロジーであり、より優れたモデルやアプリケーションが毎週登場しています。LLMからエージェントへの道は知能の階段であり、右に進むにつれて、より複雑で自律的なアプリケーションが構築されます。より優れたモデルは、より効果的なエージェントを意味し、次世代のアプリケーションはこれらによって動かされます。時間が経つにつれて、次世代のアプリケーションがどれほど高度になるか、どのようなパターンで動かされるかが明らかになるでしょう。


大規模言語モデル(LLM) seperti GPT3、ChatGPT、BARDは現在非常に人気があります。誰もが、これらのツールが社会にとって良いのか悪いのか、そしてAIの将来にとって何を意味するのかについて意見を持っています。Googleの新しいモデルBARDが複雑な質問に少し間違えたことで、多くの批判を受けました。当時、「ジェームズ・ウェッブ宇宙望遠鏡から9歳の子どもに伝えることができる新しい発見は何ですか?」と問われ、チャットボットは3つの回答を提供しました。そのうち2つは正しく、1つは誤りでした。誤った回答は、最初の「系外惑星」の画像がJWSTによって撮影されたというものでしたが、実際は誤りでした。つまり、モデルには、知識ベースに誤った事実が格納されていたのです。大規模言語モデルを効果的に使用するには、これらの事実を更新する方法、または新しい知識で事実を補足する方法が必要です。まず、大規模言語モデル(LLM)内部に事実がどのように格納されているかを見てみましょう。大規模言語モデルは、伝統的な意味でデータベースやファイルのように情報や事実を格納しません。代わりに、膨大な量のテキストデータでトレーニングされており、そのデータ内でパターンや関係性を学習しています。これにより、質問に対して人間のような応答を生成できますが、学習した情報に特定の格納場所はありません。質問に答える際、モデルは入力を受け取ったトレーニングに基づいて応答を生成します。言語モデルが持つ情報や知識は、モデルに明示的に格納されたものではなく、トレーニングデータで学習したパターンによるものです。Transformersアーキテクチャに基づく大規模言語モデルには、質問に答えるために内部的に事実を符号化する方法があります。したがって、LLMの内部メモリ内の事実が間違っている、または古い場合、新しい情報をプロンプト経由で提供する必要があります。プロンプトとは、クエリとサポート証拠を含むテキストで、LLMに送信され、新しい事実や修正された事実が含まれる場合があります。ここでは、そのようなアプローチを3つ紹介します。1. LLMの符号化された事実を修正する1つの方法は、外部の知識ベースを使用して、コンテキストに関連する新しい事実を提供することです。この知識ベースは、関連情報を取得するためのAPIコール、またはSQL、No-SQL、ベクターデータベースの検索になる可能性があります。より高度な知識は、データエンティティとその関係を格納するノードグラフから抽出できます。ユーザーが問い合わせる情報に応じて、関連するコンテキスト情報を取得し、LLMに追加の事実として提供できます。これらの事実は、学習プロセスを改善するために、トレーニング例のようにフォーマットされる場合もあります。たとえば、モデルが答えを提供する方法を学習するために、質問と回答のペアのバッチを渡すことができます。2. LLMを強化するより革新的な(そしてより高価な)方法は、トレーニングデータを使用したファインチューニングです。つまり、特定の事実を追加するために知識ベースを照会するのではなく、知識ベースをサンプリングしてトレーニングデータセットを構築します。監督学習技術を使用して、追加の知識でトレーニングされたLLMの新しいバージョンを作成できます。このプロセスは通常、高価で、OpenAIでファインチューンされたモデルを構築して維持するには数千ドルかかります。当然、コストは時間の経過とともに低くなると予想されます。3. もう1つの選択肢は、人間のフィードバックでエージェントをトレーニングし、質問に答える方法についてポリシーを学習するために、強化学習(RL)などの方法を使用することです。この方法は、小規模なモデルを特定のタスクに特化させるために非常に効果的です。たとえば、OpenAIがリリースした有名なChatGPTは、人間のフィードバックと強化学習を組み合わせた監督学習でトレーニングされました。まとめると、この分野は非常に進化しており、主要な企業はすべてこの分野に参入し、独自性を示そうとしています。すぐに、小売、ヘルスケア、銀行などの分野で、人間のような応答を生成し、言語のニュアンスを理解するLLMツールが登場するでしょう。これらのLLMツールは、企業データと統合されて、正しいデータを正しい人に正しいタイミングで提供することで、アクセスを合理化します。


By: Dattaraj Rao, Chief Data Scientist, Persistent Systemsマシンラーニング(ML)も、他のデータ入力に依存するシステムと同様に、「ガベージインガベージアウト」の公理の対象となります。クリーンで正確にラベル付けされたデータは、どのMLモデルを構築するための基盤です。MLのトレーニングアルゴリズムは、グラウンドトゥルースデータからパターンを理解し、そこから未知のデータに一般化する方法を学習します。如果トレーニングデータの品質が低い場合、MLアルゴリズムが継続的に学習し、外挿することは非常に困難です。ペットドッグを訓練することについて考えてみましょう。もしも、根本的な行動コマンド(入力)を適切に訓練したり、間違ったり、または不正確に訓練したりする場合、犬は観察を通じてより複雑なポジティブな行動に学習し、発展することはできません。適切な訓練は時間がかかり、専門家を雇用する場合は高額になる可能性がありますが、最初から正しく行うと大きな成果が得られます。MLモデルを訓練する場合、質の高いデータを作成するには、ドメインエキスパートが時間をかけてデータを注釈付ける必要があります。これには、画像内の目的のオブジェクトを含むウィンドウを選択したり、テキストエントリーやデータベースレコードにラベルを割り当てたりすることが含まれます。特に、画像、ビデオ、テキストなどの非構造化データの場合、注釈の品質はモデル品質を決定する上で重要な役割を果たします。通常、未ラベル化されたデータである生の画像やテキストは豊富にありますが、ラベリングは努力を最適化する必要がある部分です。これがMLライフサイクルの「ヒューマンインザループ」部分であり、通常、どのMLプロジェクトでも最も高額で労力密度の高い部分です。Prodigy、Amazon Sagemaker Ground Truth、NVIDIA RAPIDS、DataRobot Human-in-the-loopなどのデータ注釈ツールは、品質の向上とドメインエキスパートのための直感的なインターフェイスを提供し続けています。しかし、ドメインエキスパートがデータを注釈付けるのに必要な時間を最小限に抑えることは、現在でも企業にとって大きな課題です。特に、データサイエンスの才能が限られているのに対し、高い需要がある環境ではそうです。これが、2つの新しいデータ準備アプローチが登場する背景です。アクティブラーニングアクティブラーニングは、MLモデルが特定の注釈についてドメインエキスパートに積極的に問い合わせる方法です。ここでは、未ラベル化されたデータに完全な注釈を付けるのではなく、モデルがよりよく学習できるように、正しいデータポイントを注釈付けることに焦点が当てられます。例えば、ヘルスケア&ライフサイエンスでは、早期がん検出を専門とする診断会社があり、医療従事者が患者ケアについてデータドリブンの決定を下すのを支援します。診断プロセスの一環として、がんを強調する必要があるCTスキャン画像を注釈付ける必要があります。MLモデルが、がんブロックがマークされた数少ない画像から学習した後、アクティブラーニングでは、モデルは、がんの存在について不確実な画像のみをユーザーに注釈付けるよう要求します。これらは境界点であり、注釈付けするとモデルの信頼性が高まります。モデルが特定のしきい値以上で信頼性が高い場合、ユーザーに注釈付けるよう要求するのではなく、自己注釈付けを行います。これが、アクティブラーニングが、データを注釈付ける時間と労力を削減しながら、正確なモデルを構築するのに役立つ方法です。modALなどのフレームワークは、最も情報の多いインスタンスをドメインエキスパートにラベル付けするよう賢く問い合わせることで、分類パフォーマンスを向上させるのに役立ちます。ウィークスーパービジョンウィークスーパービジョンは、ノイズの多い不正確なデータまたは抽象的な概念を使用して、未監視データの大規模な量にラベル付けのヒントを提供するアプローチです。このアプローチは通常、ウィークラベラーを使用し、それらをアンサンブルアプローチで組み合わせて、高品質の注釈付きデータを構築することを目指します。ドメイン知識を自動ラベリング活動に組み込もうとする努力です。例えば、インターネットサービスプロバイダー(ISP)が、電子メールデータセットをスパムまたはスパム以外としてフラグ付けするシステムが必要だとします。スパムに関連付けられることが多い「オファー」、「祝賀」、「無料」などのフレーズをチェックするようなウィークルールを書くことができます。別のルールは、正規表現で検索できる特定のパターンのソースアドレスからの電子メールである可能性があります。これらのウィーク関数は、SnorkelやSkweakなどのウィークスーパービジョンフレームワークによって組み合わせられ、改良された品質のトレーニングデータを構築できます。MLの核となる部分は、企業が手動では物理的に達成できない方法で、プロセスを指数関数的にスケールアップさせるのを支援することです。しかし、MLは魔法ではなく、まだ人間がa)最初から適切にモデルをセットアップしてトレーニングすることとb)モデルが役に立たない、またはマイナスの結果になるほど歪んでしまわないように、必要に応じて介入する必要があります。目標は、最適な精度のガイドレールの中で、人間の関与の部分をストリームライン化し、自動化して、タイムツーマーケットと結果を向上させる方法を見つけることです。高品質の注釈付きデータを取得することは、最も高額で非常に重要なMLプロジェクトの部分であることが、普遍的に受け入れられています。この分野は進化しており、ドメインエキスパートが費やす時間を削減し、データ注釈の品質を向上させるための多大な努力が行われています。アクティブラーニングとウィークスーパービジョンを活用することは、多くの業界やユースケースでこれを達成するための堅実な戦略です。


私たちは、新しいデジタル経済で生成される大量のデータを処理するために、AI/MLシステムの急速な成長を目にしています。ただし、この成長に伴って、AIの倫理的および法的影響を深刻に考慮する必要があります。私たちが自動ローン承認などの、ますます複雑で重要なタスクをAIシステムに任せるにつれて、これらのシステムが責任あるものであり、信頼できるものであることを絶対に確実にする必要があります。AIにおける偏見の削減は、多くの研究者の注目すべき大きな分野となり、倫理的な影響が非常に大きくなります。また、これらのシステムに与える自律性の程度も同様です。責任あるAIの概念は、AIの導入に信頼を築くための重要なフレームワークです。責任あるAIの基盤となる5つの柱があります。この記事では、これらの柱について探って、より優れたシステムを構築するための手助けとなります。1. 再現性ソフトウェア開発の世界には、「私のマシンでは動作する」という古い言葉があります。MLとAIでは、この言葉を「私のデータセットでは動作する」と変えることができます。つまり、機械学習モデルはしばしばブラックボックスのようになることがあります。多くのトレーニングデータセットには、サンプリングバイアスや確認バイアスなどの内在的なバイアスが存在し、最終製品の精度を低下させます。AI/MLシステムをより再現可能で、したがって正確で信頼できるものにするために、最初のステップはMLOpsパイプラインを標準化することです。最も賢いデータサイエンティストでも、好みのテクノロジーとライブラリがあります。つまり、特徴量エンジニアリングと結果のモデルは、人によって一貫性がありません。MLflowなどのツールを使用することで、MLOpsパイプラインを標準化し、これらの違いを減らすことができます。AI/MLシステムをより再現可能にする別の方法は、「ゴールドデータセット」と呼ばれるものを使用することです。これらは、代表的なデータセットであり、基本的に新しいモデルのテストおよび検証として機能し、プロダクションにリリースされる前に実行されます。2. 透明性先ほど述べたように、多くのMLモデル、特にニューラルネットワークはブラックボックスです。これらをより説明可能にするために、透明性を高める必要があります。単純なシステムである決定木の場合、システムが特定の決定を下した理由と方法を理解することは比較的容易です。しかし、AIシステムの精度と複雑さが高まるにつれて、その解釈可能性は低下することがあります。「説明可能性」と呼ばれる新しい研究分野があり、ニューラルネットワークやディープラーニングなどの複雑なAIシステムに透明性をもたらすことを目指しています。これらのモデルは、ニューラルネットワークのパフォーマンスをコピーするプロキシモデルを使用しますが、同時に、どの特徴が重要であるかについて有効な説明を提供します。これは、公平性に結びつきます。特定の決定がなぜ下されたのかを知りたいとします。また、不適切な特徴が考慮されないようにし、バイアスがモデルに潜入しないようにします。3. 説明責任責任あるAIの最も重要な側面は、説明責任です。このトピックについては、政府部門を含む多くの議論があります。AIの成果を駆り立てる政策について扱います。この政策主導のアプローチでは、人間がループに参加するべき段階を決定します。説明責任には、政策立案者を支援し、AI/MLシステムを制御するための堅牢なモニターとメトリックが必要です。説明責任は、再現性と透明性をまとめるものですが、AI倫理委員会などの有効な監督が必要です。これらの委員会は、政策決定を行い、測定すべき重要な項目を決定し、公平性のレビューを実施できます。4. セキュリティAIセキュリティは、データの機密性と完全性に焦点を当てています。システムがデータを処理するときは、セキュアな環境で実行されることを望みます。データは、データベース内で静止している間も、パイプラインを介して呼び出される間も、暗号化されていることが望ましいです。しかし、平文としてマシンラーニングモデルにフィードされる際には、脆弱性が依然として存在します。ホモモルフィック暗号化などのテクノロジーは、暗号化された環境でマシンラーニングのトレーニングを可能にすることで、この問題を解決します。別の側面は、モデル自体のセキュリティです。たとえば、モデル逆転攻撃により、ハッカーはモデルを構築するために使用されたトレーニングデータを学習できます。また、モデルをトレーニング中に悪意のあるデータを挿入してそのパフォーマンスを完全に損なうモデルポイズニング攻撃もあります。モデルをこれらのアドバーサリアル攻撃に対してテストすることで、セーフでセキュアな状態を維持できます。5. プライバシーGoogleやOpenMinedなどの組織は最近、AIプライバシーに注力しています。OpenMinedはこのトピックに関するカンファレンスを開催しました。GDPRやCCPAなどの新しい規制が施行され、将来さらに規制が追加される可能性があるため、プライバシーはマシンラーニングモデルのトレーニング方法に中心的な役割を果たすことになります。顧客のデータをプライバシーに配慮した方法で処理する方法の1つは、フェデレーテッドラーニングを使用することです。この分散型マシンラーニング方法では、ローカルで異なるモデルをトレーニングし、中央ハブでモデルを集約しながら、データを安全に保ちます。また、統計的なノイズを導入して、個々の顧客の値が漏洩しないようにする方法もあります。これにより、集約されたデータで作業し、個々の顧客のデータがアルゴリズムに公開されないようにします。AIを責任あるものに保つ 最終的に、AIを責任あるものに保つことは、AI/MLシステムを設計する各組織の責任です。これらの5つの側面すべてにわたるテクノロジーを意図的に追求することで、AIの力を活用しながら、信頼できる方法で、組織、顧客、規制当局を安心させることができます。