思想领袖
停止询问 AI 能做什么,开始询问您的用户实际需要什么。

大多数构建 AI 产品的公司从询问开始: “AI 能做什么?”,这是错误的问题。
技术现在被广泛使用。任何人都可以插入 API,训练模型,或将生成式 AI 添加到现有产品中。障碍不是对技术的访问。它是深入了解用户,以了解您实际上要解决什么问题。
这些经验教训适用于构建平台,无论您是为创作者、医疗工作者、企业销售团队或任何需要赢得信任的用户构建。
从人开始,而不是技术
当您询问用户他们最沮丧的是什么时,您很少听到关于工具本身的抱怨;通常,它是一个更根本的问题。客户服务团队被他们无法快速回答的票据淹没。销售团队需要个性化的外联,但工作人员有限。创作者需要被发现,但算法偏向已经存在的受众。
这种模式在各个行业中都是相同的:没有人希望 AI 取代他们。他们希望 AI 处理重复的工作,以便他们可以专注于真正重要的事情。
以创作者为例,他们希望建立一个粉丝群。 54% 的创作者认为“确保我的内容被发现”是他们的首要挑战,并且 平均需要 6.5 个月才能赚到他们的第一美元。现有的 AI 工具产生的内容是通用的,不能反映个体的声音或美学。他们需要的不是更多的内容生成——而是围绕他们实际做的事情构建的 AI,了解他们的内外情况,以便 AI 处理平凡的任务,让他们专注于最重要的任务。
如果您从这些见解开始,而不是从技术本身开始,产品看起来会有所不同。 客户和用户正在寻找解决他们面临的问题的 AI,而不仅仅是最容易自动化的问题。
如果您从技术可以做什么开始,然后反向工作,这些都不会发生。最好的问题不是什么 AI 能做;而是您的用户需要什么还不存在的东西。
透明度不是功能,它是基础设施
当您为任何业务构建 AI 时,信任是首要的,同样的恐惧出现: “如果用户发现他们正在与 AI 交互,我们没有告诉他们,我们将失去信誉。”
这不是创作者的偏执。这是消费者期望的。 近 75% 的消费者希望知道他们是否正在与 AI 代理交互。在整个业务模式依赖于信任的行业中,风险甚至更高 —— 金融服务、医疗保健、法律或任何建立在个人关系上的平台。
许多公司的直觉是隐藏 AI 交互,使其无缝,并避免引起人们对其的注意。假设是透明度会降低参与度或使体验感觉不那么高级。
事实恰恰相反。当透明度被构建到基础中,而不是作为事后补充时,它实际上会增加舒适度和信任。创作者在没有“陷阱”时刻的情况下更自由地使用 AI,粉丝也欣赏知道发生了什么。
挑战是,您只能在控制 AI 工作方式的情况下透明。如果您不能解释它是如何工作的或训练了什么数据,您就无法真正透明地解释它。
如果信任对您的业务很重要,透明度必须被构建到基础设施中 —— 它不是可以稍后添加的东西。
何时构建何时购买
默认情况下,使用现有的工具,因为它更快、更便宜。当 AI 是一个很好的附加功能时,这就起作用了,但当 AI 是您正在构建的内容的焦点时,它就不起作用。
有三个问题值得问。
- 您是否需要每用户自定义?如果每个用户需要根据他们的个人风格、声音或偏好以不同的方式行事的 AI,现成的工具就不够了。
- 您能否解释您的 AI 实际上是如何工作的?使用第三方工具,您无法告诉用户幕后发生了什么或他们接受了什么训练。
- 您是否控制数据的安全性和隐私?如果您处理敏感内容或用户信息,您无法将此责任外包。
如果您对所有三个问题都回答“是”,您可能需要构建。
2025 年,42% 的公司放弃了他们的 AI 计划,高于 2024 年的 17%。他们以痛苦的方式学习,现成的工具通常无法满足特定的需求。速度不值得,如果产品不起作用。
这对每个人来说可能不是正确的选择。但如果 AI 是您正在构建的内容的核心,您的用户需要信任您,购买可以给您速度。构建可以给您控制权。
最重要的是什么
在构建了一个信任至关重要的空间中的 AI 工具后,几个原则变得明显。
- 从使用它的人开始,而不是驱动它的技术。花时间真正了解他们的问题,然后再构建任何东西。
- 从第一天开始设计透明度。你不能稍后添加它。如果信任对你的业务很重要,请将其作为基础设施的一部分。
如果 AI 是您正在做的事情的核心,您需要自定义、隐私和解释它的工作方式的能力,请构建。不要满足于无法提供用户实际需要的现成工具。
当您为人们构建 AI 时,技术永远不是最难的部分 —— 理解您的用户才是。












