关注我们.

思想领袖

用于市场研究的生成式人工智能:机遇与风险

mm

“拥有权利的同时也被赋予了重大的责任。” 即使你不是漫威迷,也能认出这句话,它因《蜘蛛侠》系列而广为人知。 虽然这种情绪最初是指超人的速度、力量、敏捷性和韧性,但在理解生成人工智能的兴起时,记住这一点是很有帮助的。

虽然这项技术本身并不新鲜,但 ChatGPT 的推出在短短 100 个月内就让该技术普及到了 2 亿人手中,这对许多人来说就像获得了一种超能力。 但就像所有的超能力一样,重要的是你如何使用它们。 生成式人工智能也不例外。 存在着伟大、善良和邪恶的潜力。

全球最大的品牌现在正处于决定如何使用这项技术的关键时刻。 与此同时,经济不确定性和通胀上升持续存在,让消费者不确定如何确定支出的优先顺序。

考虑到这两个因素,生成式人工智能可以帮助品牌在争夺消费者注意力的战斗中占据一席之地。 然而,他们需要采取平衡的视角——既看到可能性,也看到风险,并以开放的心态对待这两个问题。

生成式人工智能对于洞察工作意味着什么

市场研究行业对变化并不陌生——消费者洞察专业人士可用的工具和方法在过去几十年里迅速发展。

在现阶段,日益普及的生成式人工智能将带来的变化的程度和速度我们只能推测。 但是,有一些基础可以帮助决策者弄清楚如何在获得更多信息时快速做出反应。

最终,这一切都回到了提出正确的问题。

有什么机会?

目前,生成式人工智能提供的主要机会是提高生产力。 它可以大大加快生成想法、信息和书面文本(例如电子邮件、报告或文章的初稿)的过程。 通过在这些领域提高效率,可以将更多时间花在需要大量人类专业知识的任务上。

更快获得洞察力

对于具体的洞察工作,我们看到很大潜力的一个领域是信息总结。 例如,Stravito 平台已经使用生成式人工智能来创建各个市场研究报告的自动摘要,从而无需为每个报告手动编写原始描述。

我们还看到了进一步开发此用例的潜力,能够总结大量信息,以易于使用的格式快速回答业务问题。 例如,这可能看起来像在搜索栏中输入问题并根据公司的内部知识库获得简洁的答案。

对于品牌来说,这意味着能够更快地回答简单的问题,并且在深入研究更复杂的问题时还可以帮助处理大量基础工作。

通过更好的自助服务洞察民主化

生成式人工智能还可以使所有业务利益相关者更轻松地获取见解,而无需每次都直接让见解经理参与。 通过消除访问障碍,生成式人工智能可以帮助支持那些希望将消费者洞察更深入地融入日常运营的组织。

它还可以帮助减轻与所有利益相关者进行市场研究相关的常见担忧,例如提出错误的问题。 在此用例中,生成式人工智能可以通过提示与搜索查询相关的相关问题,帮助没有研究背景的业务利益相关者提出更好的问题。

与内部和外部受众进行量身定制的沟通

生成式人工智能带来的另一个机会是能够为内部和外部受众定制沟通。

在洞察背景下,有几个潜在的应用。 它可以更轻松地与整个组织内的各个业务利益相关者进行个性化的见解交流,从而帮助提高知识共享的影响力。 它还可以用来为研究机构定制简报,以简化研究过程并最大限度地减少往返过程。

有什么风险?

生成式人工智能可以成为洞察团队的有效工具,但它也带来了组织在实施之前应注意的各种风险。

提示依赖性

一项基本风险是迅速依赖。 生成式人工智能是统计性的,而不是分析性的,因此它的工作原理是预测接下来最有可能说出的信息。 即使您给出了错误的提示,您仍然可能会得到非常令人信服的答案。

信托

变得更加棘手的是生成人工智能如何将正确信息与错误信息混合在一起。 在低风险的情况下,这可能很有趣。 但在做出价值数百万美元的商业决策的情况下,每个决策的输入都需要值得信赖。

此外,围绕消费者行为的许多问题都很复杂。 而像“生活在美国的千禧一代对我们最近的概念测试有何反应?”这样的问题可能会产生明确的答案,但有关人类价值观或情感的更深层次的问题通常需要更细致的视角。 并非所有问题都有唯一的正确答案,当旨在综合大量研究报告时,关键细节可能会被遗漏。

阳光透明

另一个需要注意的关键风险是算法训练方式缺乏透明度。 例如,ChatGPT 不能总是告诉您它从哪里获得答案,即使可以,这些来源也可能无法验证,甚至实际上存在。

由于人工智能算法,无论是生成式还是其他方式,都是由人类和现有信息进行训练的,因此它们可能会存在偏差。 这可能会导致以下答案 存在种族主义、性别歧视或其他攻击性内容。 对于那些希望挑战决策偏见并为消费者创造更美好世界的组织来说,这将是生成式人工智能降低工作效率的一个例子。

安全性

ChatGPT 的一些常见用例是使用它生成电子邮件、会议议程或报告。 但输入必要的详细信息来生成这些文本可能会使敏感的公司信息面临风险。

事实上,安全公司 Cyber​​haven 进行的一项分析发现,在各行业的 1.6 万知识工作者中, 5.6% 的人在工作中至少尝试过一次 ChatGPT,2.3% 的人曾将公司机密数据放入 ChatGPT.

摩根大通、Verizon、埃森哲和亚马逊等公司 出于安全考虑,已禁止员工在工作中使用 ChatGPT。 而就在最近, 意大利成为第一个在调查隐私问题时禁止 ChatGPT 的西方国家,引起了欧洲其他国家隐私监管机构的关注。

对于洞察团队或从事专有研究和洞察工作的任何人来说,必须意识到将信息输入 ChatGPT 等工具相关的风险,并及时了解组织的内部数据安全策略和组织的策略。 OpenAI 等提供商。

我们坚信,未来的消费者理解仍然需要将人类专业知识与强大的技术相结合。 如果没有人真正愿意使用,世界上最强大的技术将毫无用处。

因此,品牌的重点应该放在负责任的实验上,找到正确的问题并用正确的工具解决,而不是简单地为了技术而实施技术。 拥有权利的同时也被赋予了重大的责任。 现在是品牌决定如何使用它的时候了。

托尔·奥洛夫·菲洛涅 (Thor Olof Philogène) 是 斯特拉维托,一个用于市场研究的人工智能知识管理平台。 在加入 Stravito 之前,托尔曾担任过许多重要的领导职务。 最近,他担任金融科技公司 iZettle 的首席营收官,该公司后来被 PayPal 收购。 在这里,Thor 将增长部门从无到有扩大到拥有 200 人的强大团队,覆盖全球 12 个市场。