思想领袖
95% 的人工智能飞行员失败,罪魁祸首是糟糕的数据

麻省理工学院的研究为企业领导者提供了令人警醒的现实检验: 95% 的人工智能项目 永远无法走出试点阶段。尽管董事会对人工智能的变革潜力议论纷纷,但大多数举措都未能产生有意义的商业价值。
传统观点认为问题在于模型薄弱、计算能力有限或技术人才匮乏。但与数百家企业合作的经验却告诉我们一个截然不同的道理。真正的瓶颈并非算法,而是数据。即使是最先进的人工智能研究,不良或不一致的数据也会悄无声息地遭到破坏,使创新投入变成沉没成本。
不良数据的隐性成本
在企业中,不良数据常常导致 AI 项目在规模化之前就夭折。不妨考虑一个常见的场景: 财富500 该公司耗时数月构建客户流失预测模型。该试点项目看起来很强大——准确且充满希望。但一旦投入生产,问题就显现出来了。
管道在最糟糕的时刻中断。关键作业延迟数小时,错过干预窗口。上游发生未经通知的变更后,表中的数据突然丢失。API 凭证毫无预警地过期,导致重要数据流中断。干净的试点数据变成了陈旧或不一致的输入流。
连锁反应是毁灭性的。预测不可靠,利益相关者失去信任。项目被搁置,不是因为算法失败,而是因为基础崩塌。数月的开发、数百万的投资以及无数的工程时间都化为乌有。
这并非个例。根据 Pantomath 的 2024 年数据可观测性现状 报告显示,94% 的组织表示,数据管道问题削弱了人们对数据的信任,90% 的组织需要数小时甚至数周的时间才能修复这些问题。如果您的 AI 策略依赖于不可靠的数据,那么失败就在眼前。
为什么人工智能需要坚实的基础
人工智能的成功取决于数据质量。俗话说,“垃圾进,垃圾出”。即使是最好的模型,如果输入的数据存在缺陷,也会崩溃,就像在流沙上建造摩天大楼一样。
想象一下赛车:如果燃料被污染,世界一流的工程技术和熟练的车手也毫无意义。同样,如果数据不可靠,优雅的机器学习模型也会失效。
人工智能系统需要准确、实时的数据来适应和执行。任何中断——作业失败、记录丢失、模式更改——都可能降低准确性,甚至彻底摧毁系统。例如,推荐引擎可能失灵导致客户流失,欺诈检测系统也可能漏掉威胁。
如果没有强大的数据基础,人工智能很快就会变成巨大的负担。因此,数据的可靠性、信任度和完整性是任何成功的人工智能战略的先决条件。
数据操作的现状
大多数企业仍然依赖手动、被动的流程来运行数据操作——这种模式根本无法扩展到人工智能。当出现问题时,工程师们会忙于在庞大的多平台架构中追踪问题,并逐一进行修补。
这种救火方法造成了三个主要问题:
- 延迟检测: 问题可能会持续数天或数周,导致人工智能模型在受损数据上运行。
- 未完成的修复: 手动故障排除不一致,经常会错过根本原因并使系统变得脆弱。
- 损失容量: 工程人才花在追逐失败上的时间比推动创新的时间还多。
复杂性只会加剧挑战。现代数据生态系统横跨数十个平台,其依赖关系错综复杂,很少有人真正理解。诊断根本原因通常意味着对管道进行逆向工程。这个过程可能需要几天甚至几周的时间。
投入更多人力来解决问题:顾问、承包商、更庞大的数据团队。这就像为了解决交通拥堵问题而雇佣更多交警一样。真正的问题不在于人员配备,而在于缺乏数据可靠性系统。
可观察性和自动化作为催化剂
未来的道路是将数据操作从手动救火转变为建立在两大支柱上的主动自动化操作:可观察性和自动化。
可观察性 提供对整个数据生态系统的实时可见性——监控作业性能、新鲜度、质量和依赖关系——从而在问题影响 AI 应用程序之前将其捕获。企业无需等待下游团队报告问题,即可始终掌握数据的健康状况和流向。
自动化提高了基于这种可见性采取行动所需的速度和规模。当一项关键任务在凌晨 3 点失败时, 自动化系统 可以停止下游工作流程,向正确的团队发出完整背景的警报,甚至启动纠正措施。
这些能力共同标志着一个根本性的转变。数据可靠性不再仅仅是专业工程师的后台工作。它正在成为一项战略能力,支撑着企业对人工智能的每一个雄心壮志。
缩小从试点到生产的差距
许多人工智能项目的失败在于从试点到生产的过渡。试点项目运行在静态的、精选的数据集上,数据科学家可以仔细地清理和验证这些数据集。相比之下,生产过程则比较混乱,需要处理来自整个企业不间断的各种数据流。
当理论付诸实践时,缺陷就开始显现。试点阶段的批处理流程无法满足实时需求。预先验证的数据集被原始且不一致的输入所取代。受控环境必须突然与传统平台、第三方 API 以及不断变化的业务系统进行交互。
这就是为什么企业为了弥补这一差距而投资数据可靠性基础设施的原因。数据可靠性的基础支撑着那些纷繁复杂的现实世界生产需求。数据可靠性可以帮助您的系统为即将到来的挑战做好准备。
对企业的建议
成功扩展人工智能的组织拥有共同的策略:
- 尽早投资数据可靠性。 将质量作为先决条件,在试点投入生产之前进行监控、测试和验证。
- 实施可观察性实践。 不仅要跟踪作业失败,还要跟踪新鲜度、容量变化、模式变化以及直接影响 AI 性能的质量指标。
- 自动化日常操作. 使用自动检测和解决方案来减少救火工作并让工程师腾出时间进行战略工作。
- 建立问责机制。 将数据质量视为业务重点,并在生产者和消费者之间建立明确的所有权和反馈回路。
- 具有弹性的设计。 构建系统以控制故障,使用验证点来防止坏数据传播。
人工智能95%的失败率并非不可避免,而是可以预防的。问题不在于人工智能本身,而在于缺乏强大的数据基础来支撑它。数据运营的成功 is 人工智能的成功。它们是一回事。
这给我们敲响了警钟。企业必须摒弃手动、被动的方法,转而采用主动、自动化的系统。在真正实现可靠性之前,不要止步不前。如今,修复“坏数据问题”的工具和实践已经存在。
拥抱这一转变的企业将获得的不仅仅是更高的人工智能成功率。他们还将改变数据使用方式,为整个企业带来新的洞察。
所以,你可以继续资助那些因数据不可靠而注定失败的试点项目。或者,你可以构建坚实的基础,让人工智能成为可持续的优势。一切都取决于你。












