

アプリを作った創設者であれば、ユーザー数は増えるものの、アプリ内での時間が停滞するという感情のローラーコースターを経験したことがあるはずです。当チームと私は、今年の初めに私たちのAIパワードのペットケアアプリで同様の経験をしたとき、コミュニティベースの機能を立ち上げてユーザーが長く滞在するように誘惑することを決定しました。アプリ内での時間が急速に増加するだけでなく、プラットフォーム全体のユーザー活動を観察することで、ユーザーがAIチャットボットと他のユーザーとのやり取りで異なる方法でやり取りするさまざまな方法について、興味深い話が始まりました。特に注目すべきは、チャットボットがより生の感情でアプローチされることが多かったことです。例えば、罪悪感、恐怖、またはパニック(例:《犬をリードなしで歩かせることができない場合、犬を失敗させているのでしょうか?》)のように、ユーザーは専門知識と問題解決を求めました。一方、コミュニティスペースは、コミュニティ構築と共有された経験への欲求によって推進されるより多くの好奇心でアプローチされました(例:《チワワはいつも震えているのでしょうか、または私の犬は異常ですか?》)。これらのやり取りを比較して分析することで、ユーザーのいくつかの異なるカテゴリのサイコグラフィックプロファイルが浮かび上がりました。マーケターが数十年間行ってきたようなこの種のプロファイルを作成することは何も新しいことではありませんが、AI会話とピアツーピア会話の比較から得られた洞察は特に明らかでした。実際、我々がこの作業から明らかにしたことは、AIチャットボットとコミュニティエンゲージメント機能を組み合わせることが、より効果的な製品、より安全なユーザーエクスペリエンス、そして将来の開発のための製品パイプラインを作成する上で不可欠な役割を果たすことを明らかにしました。より効果的な製品CEOとして、私が製品チームに何かをするように依頼する方法は、明らかに子供たちに何かをするように依頼する方法と異なります。しかし、それは私が妻に何かをするように依頼する方法とも異なります。なぜなら、あなたの聴衆を知っている必要があるからです。而且、あなたの聴衆をよりよく知っているほど、あなたは彼らが最も受け入れて理解できるトーンと言語で彼らに会うことができます。例えば、私たちのユーザーの中には、非常に神経質で、間違えることを心配している初めてのペットオーナーがいます。彼らは、正しいことをしているかどうかを確認するために、AIチャットボットに「大丈夫ですか?」と繰り返し聞いています。新しい両親と同様に、彼らは自分が良い仕事をしていることを称賛してくれる必要があります。一方、他のユーザーはビジネスライクです。私たちは、実用的な解決策と最適化を求めるより経験豊富なユーザーを持っています。彼らは安心させてくれる必要はありません。彼らは構造化された回答とチェックリストを求めています。このようなユーザーにとって、不必要な称賛や、質問に対する過度に感情的回答は、プラットフォームから離れてしまう可能性があります。GPT-5のトーンの変更に対する最近の反発を見てみれば、実際の例を見ることができます。本当に重要なのは、ユーザーをプラットフォーム上に留めることではなく、情報に基づいた決定を下すことができるようにユーザーとコミュニケーションをとることです。同様のことが、金融計画アプリや健康トラッカーなどの消費者向け製品にも当てはまります。AIチャットボットとコミュニティ機能の両方を持つことの美点は、ユーザーがより多面的に表現され、より感情的に知的な多面的な製品を設計できることです。より安全なユーザーエクスペリエンスAIチャットボットの場合、少し感情的な知能が必要です。もし、あなたがこれを読んでいるのなら、チャットボットが脆弱なユーザーを危険な(そして致命的な)道に導くというヘッドラインについてあなたを知らせる必要はないでしょう。この理由で、ユーザーが最も理解できるトーンと言語でユーザーに会うことは、《彼らのすべての考えを盲目的に強化すること》と同じではないことを明確にする価値があります。実際、反対のことが(そしてそうであるべきです)真実です。誰かをより深く理解するほど、緊急事態を避けるために必要なパラメータと制限を設定するためにより適切に装備されています。ただし、業界特有のツール内で機能するように設計されたAIチャットボットは、一般的な交流のために設計されたものとは異なる方法で動作することができます。しかし、強力ではあるが、AIは完璧ではなく、間違いと誤情報は常にリスクであることになります。この点で、コミュニティ機能は、2次的な意見を求めたり、同様の経験をした他のユーザーに尋ねたりする機会となり得ます。例えば、AIチャットボットはラブラドールにリンゴを与えることが安全であると伝えることができますが、あなたのラブラドールはリンゴが好きではないかもしれません。同様の経験を持つラブラドールのオーナーと話すことで、必要な理解とアドバイスが得られます。一方、コミュニティチャットで誰かがラブラドールに凍ったブドウを与えることを勧めている場合、これはAIが検証された正確なデータセットでトレーニングされたリスクのあるアドバイスであることができます。最近のチャットボットの恐ろしさの物語や過去10年のソーシャルメディアが教えてくれたことは、2つの極端な間でバランスを見つけることが必要な予防策となるということです。製品パイプラインの基盤を築くソフトウェアを販売するスタートアップであれば、ユーザーがプラットフォーム内でどのように行動するかを分析して、どの機能が最も人気があり、どこに改善が必要かを確認できます。AIチャットボットやコミュニティ機能は必要ありません。しかし、両方の機能が利用可能な場合、結果のデータセットはユーザーが何を望み何を必要としているかについてより詳細な洞察を提供します。サイコグラフィックプロファイルは、AIチャットボットのトーンの声の個人化に役立つだけではありません。実際には、ユーザーの旅全体の地図となる可能性があります。上記の2つのプロファイル例を取り上げると、初めてペットを飼っているユーザーと、未経験の犬種のサポートを求めるベテランプロフェッショナルが、まったく異なる経験をするアプリを設計することは可能です。さらに、異なる地域で現れる傾向を確認することで、特定のユーザーグループに利益をもたらす地理的に特有のコンテンツを強調できます。さらに重要なのは、将来のコミュニティにとって意味のあるパートナーシップがどこにあるかを強調し、ビジネス開発チームにスタートラインを提供することです。AIスタートアップは、製品はデータだけに依存していることを知っていますが、ユーザーの行動によって生成されるデータも、次にどこに進むかを知るために非常に貴重です。公平な警告:すべてのコミュニティは同等に作成されていない現在、すべての主要なソーシャルメディアプラットフォーム(Facebook、X、YouTube、Instagramなど)は、AIとコミュニティエンゲージメント機能の両方で動作しています。我々がこれらのスペースで見ているのは、ユーザーによって共有されるAI生成コンテンツで、「AIスロップ」と呼ばれるようになっています。このコンテンツの低品質は、多くのユーザーを遠ざけてしまい、AIスタートアップがコミュニティスペースをプラットフォームに追加することで空白を埋める機会を生み出しています。しかし、すべてのコミュニティは同等に作成されていません。ソーシャルメディアプラットフォームは、悪い行動や最近の分析によると、宗教、性別、人種差別的なヘイトスピーチがこれらのオンラインスペースで拡大していることで有名です。AIチャットボットとコミュニティスペースの両方が悪い行為者によって悪用される可能性があることを知っているので、ユーザー間でどのような行動を奨励するかを慎重に検討することが重要です。私たちの場合、AIチャットボットは、ペットの健康と行動に関する個々のユーザーの質問に答えることのみに限定されています。AIは、ヘルスケア関連のコンテンツを《生成》することはありません。コミュニティエンゲージメントについては、ユーザーは自分のペットの犬種に特化したフォーラムで質問をすることができます。これにより、ユーザーは自分が直接経験した会話にのみ参加することができ、共通の基盤に焦点が当てられます。同様の措置を講じることで、将来のAIプラットフォームは、自分自身とユーザーにとっての実際の価値を提供することができます。AIとソーシャルメディアの両方の世界の最良のものを得ることができます。


最近、潜在的な投資家との会話の中で、私は最も効果的な拡大の秘訣を知っているかどうか尋ねられました。私にとって、これは簡単な質問でした – 感情です。投資家はしかし、嘲笑しました。テクノロジー界の多くの人と同様に、彼は論理が拡大可能であるが、感情はそうではないと考えていました。私たちはしばらく議論しましたが、私は彼の考えを変えることができませんでした(または投資を獲得できませんでした)。しかし、私は10年以上にわたってスポーツマーケティングに従事してきました – 論理がスタジアムをハイステリックなファンで満たすものではないことは、私には明らかです。那はすべて感情です。テクノロジーとスポーツを比較することはリンゴとオレンジを比較するようなものであると誰かが反論するかもしれませんが、私はテクノロジーがスポーツ業界から学べることがあると考えています。なぜなら、多くのテクノロジー製品については、人間の感情を考慮しないことは、私たちに反対することになるからです。この近視眼的な視点は、過去にソーシャルメディアの最悪の側面をもたらしたものであり、現在もジェネレーティブAIに関する最も有害なヘッドラインを生み出しています。テクノロジー起業家がAIの約束と潜在性に対する消費者の信頼を獲得したいのであれば、私たちが「感情的インフラストラクチャ」と呼ぶものを備えた製品を設計する必要があります。ここではその方法を説明します。記憶を利用してサポートする、操作するのではなくAIエージェントの多機能性は、改善された記憶機能により可能になりますが、それにはより多くの個人データを保存することも含まれます。不幸にも、ユーザーデータは歴史的にユーザーを操作してお金を費やすために利用されてきました。しかし、感情的インフラストラクチャを備えたAIを構築することで、ユーザーデータの記憶を利用して、ユーザーが気づいていない知識のギャップを埋めることができます。たとえば、ユーザーがAIエージェントに犬と一緒に遊べる近くのビーチを尋ねたとします。現在の状況では、ほとんどのエージェントはビーチのリストを返し、近くのペットフレンドリーレストランのリストも見たいかどうか尋ねるでしょう。しかし、感情的インフラストラクチャを備えたエージェントは、感情的知能の追加レイヤーを組み込みます。この場合、犬の予防接種の予約が前日に行われたことを覚えており、ユーザーに水に入れると感染、疲労、または予期せぬ副作用につながる可能性があることを通知します。このように、AIエージェントは、単に命令に従うのではなく、最適な結果につながらない場合には反対意見を述べることができる信頼できるコンサルタントのように動作します。これにより、ユーザーの信頼が高まり、使用頻度が増加する可能性もあります。信頼を通じて収益を生み出す、ターゲティングを通じてではないジェネレーティブAIの初期採用者はすでに市場の大手企業に無料でアクセスできるようになっています。これにより、B2C AIスタートアップの創業者は、収益を上げる唯一の方法は、データを第三者ベンダーに販売したり広告を販売したりする無料製品であると考えるかもしれません。しかし、このビジネスモデルに頼ることは、ユーザーがより高いレベルの尊重、ケア、責任で扱われていない場合、すでに危うい消費者の信頼を危険にさらす可能性があります。たとえば、Meta AIのアプリでは、ユーザーが非常に個人的なクエリを公開フィードに投稿しているように見えました。すべての製品にソーシャル要素があるわけではありませんが、この例は、ユーザーがAIエージェントと共有する個人的な詳細のレベルを示しています。また、研究によると、チャットボットは個人的な詳細を備えた場合、人間の対象者を説得することができると示されています。したがって、これらのプラットフォーム内の広告は、美容製品の広告をティーンエイジャーに表示するMetaの例のように、非倫理的な方法で行われる可能性があります。代わりに、感情的インフラストラクチャはクリックよりもケアを最適化します。これは、収益に損害を与える必要はありません。AIは、これらの体験をさらに効果的にすることができます。たとえば、のみ実際のユーザーニーズに応える広告を表示することで:悪天候のときにレインコート、予算内で新しい子犬のためのペット保険プラン、風邪の症状の初期兆候でビタミンCサプリメントです。しかし、真のケアは正確なターゲティングだけではありません。上記のビーチの例のように、真のケアはユーザーが気づいていないギャップを埋めます。たとえば、ペットヘルストラッカーは、特定の犬種がビタミンB12欠乏症に陥りやすいことをユーザーに通知し、犬のニーズに合ったより良い犬用食を勧めることができます。見過ごされた詳細を明らかにすることは、AIが真に輝き、エンドユーザーに実際の価値をもたらす場所です。約半数のグローバル消費者は、より良い体験を得るためには個人データを共有する用意があると回答していますが、アメリカ市場ではこの数字は15%まで低下しています。AI起業家は、感情的に知能のある設計を通じてこの認識を変える機会を持っています。人を優先する感情的なガードレールを設計する感情的インフラストラクチャの最も重要な側面は、ユーザーの最善の利益を保護するガードレールを構築することです。これには、AIによって生成されるコンテンツの種類を慎重に選択し、AI生成の素材を明確にラベル付けし、ユーザーが感情的にリスクの高い領域に進入している場合には明確な介入を設計することが含まれます。たとえば、ペットケアアプリを構築していたとき、私と私のチームは、健康や栄養に関するコンテンツについてはAIに頼らないことにしました。幻覚や誤情報のリスクが大きすぎました。したがって、プロの獣医に記事を書いてキュレーションすることを依頼することを決定しました。明らかに、これはより高価な選択でしたが、実際の命が懸かっている場合、これは価値のある投資です。これは私たちの製品に信頼性をもたらし、ユーザーと彼らのペットを安全に保ちます。これは消費者が望むものでもあります – 79%が、企業はAIの使用を公開するべきだと同意しています。最後に、AI企業の製品を設計することは、限界を明確に伝え、適切な場合にはユーザーを人間の介入に向けて導くことです。すでに、感情的に脆弱なユーザーが不十分なガードレールのあるチャットボットに向かって自傷行為や自殺に走るという話があり、それが訴訟を引き起こしています。私自身は、AIの将来が明るいと考えていますが、私たちには現在の弱点を認識し、安全よりもスピードと競争の圧力が優先されることを許してはなりません。そうすれば、サービスを提供したいと言っている消費者の信頼を失うことになります。責任を無視することは、全体のエコシステムに損害を与えます。