Connect with us

ソートリーダー

市場調査のためのジェネレーティブAI: 機会とリスク

mm

「大きな力には大きな責任が伴う」という言葉は、Marvelのファンである必要はありません。 Spider-Manフランチャイズによって普及したこの言葉は、もともと超人的なスピード、力、敏捷性、回復力への参照でした。しかし、ジェネレーティブAIの台頭を理解する上で、この言葉は役立ちます。テクノロジー自体は新しいものではありませんが、ChatGPTの登場により、100万人に2ヶ月の間にこのテクノロジーが手に入れられたことは、多くの人にとって超人的な力を持つことのようなものでした。しかし、すべての超人的な力と同様に、重要なのはそれを何に使うかです。ジェネレーティブAIも例外ではありません。善、悪、両方の可能性があります。世界的大手ブランドは、現在このテクノロジーをどのように利用するかを決定する重要な局面に立ちました。一方で、経済の不確実性とインフレは続いており、消費者は支出の優先順位をどうするか迷っています。これら両方の要因を考慮すると、ジェネレーティブAIはブランドが消費者の注目を争う戦いにおいて優位性を得るのを助けることができます。しかし、ブランドはバランスのとれた視点を取り、可能性を見つつリスクも見て、両方に開放的な心で取り組む必要があります。

ジェネレーティブAIがインサイトワークに与える影響

市場調査業界は変化に慣れています。消費者インサイトの専門家が利用できるツールや方法論は、過去数十年で急速に進化してきました。この段階で、ジェネレーティブAIがもたらす変化の程度と速度については、まだ推測の域を出ません。しかし、決定者が利用可能な情報が増えるにつれて迅速に反応するのを助ける基盤はあります。最終的には、すべては正しい質問を問うことについてです。

機会は何か?

現在、ジェネレーティブAIが提供する主な機会は、生産性の向上です。アイデア、情報、文章の生成、例えば最初のメール、レポート、記事の草案の作成を大幅に高速化できます。これらの分野で効率を生み出すことで、人間の専門知識を必要とするタスクに費やす時間が増えるのです。

インサイトの迅速化

インサイトワークに特有の分野では、情報の要約に多くの潜在性を見出しています。例えば、StravitoプラットフォームはすでにジェネレーティブAIを使用して、個々の市場調査レポートの自動要約を作成しており、各レポートに手動でオリジナルの説明を書く必要がなくなりました。また、このユースケースをさらに開発し、大量の情報を要約してビジネス上の質問に迅速かつ簡単な形式で答える能力を見ています。例えば、これは検索バーに質問を入力して、会社の内部ナレッジベースに基づいて簡潔な答えを得るようなものです。ブランドにとっては、簡単な質問に迅速に答えることができ、複雑な問題に取り組む際の下準備の大部分を処理するのを助けることになります。

インサイトの民主化とセルフサービス

ジェネレーティブAIは、インサイトマネージャーを直接関与させることなく、すべてのビジネスステークホルダーがインサイトにアクセスできるようにすることもできます。アクセス障壁を除去することで、ジェネレーティブAIは、日常業務に消費者インサイトをより深く統合しようとする組織をサポートできます。また、市場調査にアクセスするすべてのステークホルダーについて、間違った質問を問うという一般的な懸念を軽減するのを助けることができます。このユースケースでは、ジェネレーティブAIは、検索クエリに関連する関連質問でプロンプトすることで、リサーチの背景がないビジネスステークホルダーがより良い質問を問うのを助けることができます。

内部および外部オーディエンスへのカスタマイズされたコミュニケーション

ジェネレーティブAIがもたらすもう一つの機会は、内部および外部のオーディエンスに合わせたコミュニケーションを実現する能力です。インサイトの文脈では、複数の潜在的な応用があります。ナレッジシェアリングをより効果的にするために、組織内各所のビジネスステークホルダーにインサイトコミュニケーションを簡単にパーソナライズできるようになります。また、リサーチプロセスをストリームライン化し、関与するやり取りを最小限に抑えるために、リサーチ機関へのブリーフをカスタマイズする方法としても使用できます。

リスクは何か?

ジェネレーティブAIはインサイトチームにとって有効なツールとなり得ますが、実装前に組織が認識するべき様々なリスクもあります。

プロンプト依存

基本的なリスクの一つはプロンプト依存です。ジェネレーティブAIは統計的であり、分析的ではないため、次に言える最も可能性の高い情報を予測することによって動作します。プロンプトが間違っている場合、依然として非常に説得力のある答えが得られる可能性があります。

信頼性

さらに複雑になるのは、ジェネレーティブAIが正しい情報と不正確な情報を組み合わせる方法です。低リスクの状況では、これは面白いことになるかもしれません。しかし、数百万ドル規模のビジネス上の決定が行われている状況では、各決定の入力は信頼できるものでなければなりません。消費者行動に関する多くの質問は複雑です。「米国に住むミレニアル世代は私たちの最新のコンセプトテストにどう反応したか?」という質問には明確な答えが得られるかもしれませんが、人間の価値観や感情に関するより深い質問は、より繊細な視点を必要とします。すべての質問に正しい答えはありません。また、多数の研究レポートを総合する際、重要な詳細が見落とされる可能性があります。

透明性

注目すべきもう一つのリスクは、アルゴリズムのトレーニング方法に関する透明性の欠如です。例えば、ChatGPTはいつも答えの出典を教えてくれない場合があります。また、教えてくれる場合でも、その出典が検証不可能か、実際に存在しない可能性があります。AIアルゴリズムは人間と既存の情報によってトレーニングされるため、偏見を含む可能性があります。これにより、人種差別的、性差別的、またはその他に不快な答えが得られる可能性があります。偏見を挑戦し、消費者にとってより良い世界を作ろうとする組織にとっては、ジェネレーティブAIが生産性を低下させることになります。

セキュリティ

ChatGPTの一般的なユースケースのひとつは、メール、ミーティングアジェンダ、レポートを生成することです。しかし、これらのテキストを生成するために必要な詳細を入力することは、機密会社情報を危険にさらすことになる可能性があります。実際、サイバーヘイブンというセキュリティ会社による分析によると、16万人のノウハウワーカーにわたる業界横断的な調査で、5.6%が仕事でChatGPTを少なくとも一度試し、2.3%が機密会社データをChatGPTに入力したことがわかりました。JP Morgan、Verizon、Accenture、Amazonなどの会社は、セキュリティ上の懸念から従業員が職場でChatGPTを使用することを禁止しています。また、最近、イタリアはChatGPTを使用を禁止し、プライバシーに関する懸念を調査し、他のヨーロッパ諸国のプライバシー規制当局の注目を集めました。インサイトチームや機密研究とインサイトを扱うすべての人は、ツール seperti ChatGPTに入力する情報に関するリスクを認識し、組織内の内部データセキュリティポリシーとOpenAIのようなプロバイダーのポリシーについて最新情報を把握することが重要です。私たちの会社は、消費者の理解の将来は、人間の専門知識と強力なテクノロジーの組み合わせが必要であると強く信じています。世界で最も強力なテクノロジーであっても、誰も使用しない場合は無駄です。したがって、ブランドにとっての焦点は、正しい問題を解決するための正しいツールを見つけるための責任ある実験に置かれるべきです。テクノロジーをそのためだけに実装するのではなく、正しい問題を解決するための正しいツールを見つけることが重要です。大きな力には大きな責任が伴う。ブランドは、どのように使用するかを今決める時です。

Thor Olof Philogèneは、StravitoのCEOおよび共同創設者です。Stravitoは、マーケットリサーチのためのAIを搭載したナレッジマネジメントプラットフォームです。Stravito以前、Thorは多くの著名なリーダーシップポジションを歴任しました。最近では、PayPalに買収されたフィンテック企業iZettleのチーフレベニューオフィサーでした。ここで、Thorは、12のグローバルマーケットをカバーする200人のチームから成る成長部門をスクラッチから拡大しました。