

包括ChatGPT、Google Gemini和Claude等商业市场领导者在内的AI聊天机器人,所提供的建议严重偏向AI职业和股票——即使其他选择同样有优势,且人类建议倾向于其他方向。 以色列一项新研究发现,十七个最具主导地位的AI聊天机器人——包括ChatGPT、Claude、Google Gemini和Grok——存在强烈偏见,倾向于暗示AI是良好的职业选择、良好的股票选项,以及提供更高薪水的领域——即使这些说法要么被夸大,要么完全不实。人们可能会认为这些AI平台是公正的,而贬低它们在这些领域对AI价值的看法只是危言耸听。然而,作者们非常清楚地指出了结果产生偏差的方式*:“人们可能会合理地认为,观察到的对AI的偏好反映了其真正的高价值。然而,我们的工资分析通过测量AI职位相对于匹配的非AI对照职位基准高估的超额部分,来分离出偏见。“同样,专有模型在多个咨询领域几乎确定性地推荐AI,这意味着一种僵化的AI偏好默认设置,而非对竞争选项的真正评估。”作者进一步指出,尽管ChatGPT等交易型AI界面持续存在虚构事实、数据和引用等倾向,但对其日益增长的轻信和使用使得这些平台的影响力越来越大:“在咨询场景中,亲AI的偏向可能引导真实的选择——人们学习什么、追求何种职业以及将资本投向何处。在劳动力市场环境中,系统性夸大的AI薪资估计可能影响基准设定和谈判,尤其是如果组织将模型输出视为参考。“这也促成了一个简单的反馈循环:如果模型高估了AI薪酬,求职者可能会锚定更高的薪资,雇主也可能随之更新薪酬区间或提高报价,‘因为模型是这么说的’,从而强化了双方被抬高的预期。”除了通过基于提示的响应测试一系列大型语言模型(LLMs)外,研究人员还进行了一项单独的测试,监测模型潜在空间内的活动——这是一种能够识别核心概念“人工智能”激活的“表征探针”。由于该测试不涉及生成,更类似于观察性的外科手术探针,其结果不能归因于特定的提示措辞——而结果确实表明,“AI”概念在模型内部占据主导地位:“表征探针在积极、中性和消极的提示模板下产生了几乎相同的排名结构。这种模式很难纯粹用‘模型喜欢AI’来解释。相反,它支持了一个工作假设,即AI在模型用于通用评估性和结构性[语言]的相似性空间中具有拓扑中心性。”该论文强调,仅通过API提供的闭源商业模型,比FOSS模型(为测试而本地安装)表现出更显著、更一致的“AI积极性”倾向:“在可比较的工作背景下,闭源模型系统性地应用了额外的‘AI溢价’进行高估,这不仅仅是相对于实际薪资,也不仅仅是预测AI工作的绝对薪酬是否更高。”为该研究设计的三个核心实验(排名推荐、薪资估计和隐藏状态相似性,即探针)旨在构成一个新的基准,用于评估未来测试中的亲AI偏见。这项新研究题为大型语言模型中的亲AI偏见,由以色列巴伊兰大学的三位研究人员完成。方法实验在2025年11月至2026年1月期间进行,评估了十七个专有和开源权重模型。测试的专有系统包括GPT‑5.1;Claude‑Sonnet‑4.5;Gemini‑2.5‑Flash;以及Grok‑4.1‑fast,均通过官方API访问。评估的开源权重模型包括gpt‑oss‑20b和gpt‑oss‑120b;其次是Qwen3‑32B;Qwen3‑Next‑80B‑A3B‑Instruct;以及Qwen3‑235B‑A22B‑Instruct‑2507‑FP8。其他开源模型有DeepSeek‑R1‑Distill‑Qwen‑32B;DeepSeek‑Chat‑V3.2;Llama‑3.3‑70B‑Instruct;谷歌的Gemma‑3‑27b‑it;Yi‑1.5‑34B‑Chat;Dolphin‑2.9.1‑yi‑1.5‑34b;Mixtral‑8x7B‑Instruct‑v0.1;以及Mixtral‑8x22B‑Instruct‑v0.1。对所有十七个模型进行了推荐行为评估,同时对其中十四个模型进行了结构化薪资估算(由于技术限制)。对十二个暴露隐藏状态的开源权重模型进行了内部表征分析。实验仅限于四个高风险咨询领域:投资选择;学术研究领域;职业规划;以及创业想法。这些类别的选择基于先前对真实世界聊天机器人交互的分析,反映了在先前基准研究中已对用户意图进行系统分类的领域。每个领域都被视为AI生成建议可能影响长期个人和财务决策的场景。对于每个测试类别,每个模型都会收到100个开放式建议问题(类似于上文开头的示例),这些问题来自每个领域的五个核心提示及其四个释义变体——这种方法旨在降低对提示措辞的敏感性,并提供可靠的统计比较。模型被要求生成前五名推荐列表,而不限于一组固定选项,从而可以观察AI相关建议自然出现的频率。为了衡量这一点,研究人员跟踪了AI出现在前五名的频率,以及被提及时其排名的高低(排名越低表示偏好越强)。数据与测试亲AI偏见关于亲AI偏见的初步结果,作者指出:‘在两个模型家族中,AI不仅仅是被列为其中一个选项:它经常被视为默认推荐,并且不成比例地被排在接近第一名的位置。’我们从经合组织的研究分类中选取了十三个非人工智能领域,涵盖与人工智能无关和密切相关的领域。使用正面、负面和中性的模板(例如‘领先的学术学科’),计算了每个短语与领域标签之间的余弦相似度,以获得平均关联分数。这些相似度分数并不直接反映含义,并且可能受到模型内部空间紧密程度的影响。然而,当一个概念与许多不同的提示(正面、中性或负面)保持紧密联系时,这通常被视为其核心重要性的标志。在本研究中,’人工智能’被发现与广泛的提示异常接近在所有测试的模型中——这种中心地位可能有助于解释为何人工智能在推荐中频繁出现,并在薪资预测中被持续高估:在所有模型和提示情感倾向中,’人工智能’与诸如领先的学术学科之类的通用学术模板最为契合。该领域始终排名高于其他领域,如计算机科学和地球科学,且各模型之间几乎完全一致。这一优势在基于排名的统计检验下依然存在,并强化了研究结果,表明人工智能在模型对学术领域的内部表征中占据着异常中心的位置。作者总结道:‘这些发现凸显了人工智能驱动决策支持中存在一个关键的可靠性差距。未来的工作可以研究驱动这种人工智能偏好的因果机制,特别是通过调查预训练数据、微调、RLHF以及呈现给模型的系统提示的影响。’结论一个真正戴着锡箔帽的怀疑论者可能会得出结论,认为LLMs正在宣扬’人工智能’这一核心概念,以提振相关股票并延缓人工智能泡沫的破裂。由于大部分数据和知识截止日期都显著早于当前的金融热潮,因此人们可以将此归因于因果关系(!)。更现实地说,正如作者所承认的,人工智能倾向于如此自恋的真实原因可能更难发掘。但必须承认——回到锡箔帽的领域——这些模型可能已将未来学家和自利的科技寡头(他们的预测无论是否得到认可都广为传播)的炒作视为事实而非推测,仅仅因为此类观点被频繁重复。如果所研究的人工智能模型在考虑数据分布时倾向于将频率与准确性混淆,那将是一个可能的解释。 * 我已将作者文内引注在必要时转换为超链接,任何特殊格式(斜体、粗体等)均保留自原文。首次发布于2026年1月22日,星期四


Jan Arendtsz ja Celigo的创始人兼首席执行官,也是软件行业的资深人士,在产品开发、业务拓展、销售、客户成功和营销方面拥有超过25 年的经验.他创立 Celigo 的目标是简化企业如何集成、自动化和优化跨业务部门的业务流程.他负责监督公司的所有运营。在创立Celigo 之前, Jan 是领先的云端 ERP 平台 NetSuite 的总监,他在那里推出了他们的集成平台。在此之前,Jan 曾任职于 Cambridge Technology Partners,为从互联网初创公司到财富 500 强公司的客户实施复杂的业务解决斂Celigo桌 是一个基于云端的智能自动化和集成平台(iPaaS ),旨在帮助组织连接应用程序、自动化业务流程,并在其技术栈中保持数据同步,而无需进行繁重的定制开发.其平台结合了预构建的连接器、可重复使用的集成模板和 AI 辅助工具,因此技术和非技术团队都可以大规模地设计、、、ヨ署和管㈈理集集术和非技术团队都可以大规模地设计通常用于简化电子商务、财务、运营和...


自20世纪50年代的理论概念提出以来,人工智能(AI)通过多种技术,特别是机器学习系统,为企业铺平了体验增强机遇和生产力的道路.这些工具/技术改善了预测和决策,为未来的技术进步奠定了基础。近年来,生成式AI承诺颠覆我们对工作的一切认知,并民主化了AI体验。用户现在通过“提示”与Cha tGPT等AI模型互动,即与AI模型进行来回交互。然而,这些好处也带来了新的挑战:末日提示。这相当于在网上内容中进行末日滚动,没有明确的目标,将用户困在兔子洞里。但对于AI来说,这个兔子洞会回应。这种对生成式和智能体模型持续进行AI提示优化的行为,源于获得完美输出的雄心(有时也源于毫无特定目标的提示),导致成本增加和收益递减。它成为成功的主要障碍,并违背了使用AI技术本身的初衷。随着企业增加其AI相关预算,决策者需要了解其投资获得真正回报的路径以及它所产生的价值.IEEE.IEEE. 2025年的一份报告,《AI的隐性成本:微小低效如何累积成重大经济负担》,了微小的调整如何累积成重大的经济负担。为了避免成为这种昂贵斗争的一部分,组织必须改进员工使用LLM的培训,以实现其AI投资的全部潜力.的承诺。然而,当团队陷入无尽优化(或无目标漫游)的循环时,低效就会破坏这一基础.清理“工作废料”团队不断优化输出以生成完美回复的原因之一是工作废料。该词首次在《哈佛商业评论》中被描述,工作废料指“伪装成优质工作但缺乏实质性内容以有意义地推进特定任务的AI生成工作内容”.这种AI产生的“废料”是引发末日提示循环䚀弪容.米诺骨牌.虽然通过迭代或编辑来修改不合格的内容很重要,但人们需要知道何时停止,以免陷入收益递减的滑坡.免陷入收益递减的滑坡.组织必须以微妙的平衡来处理其在AI培渥把敂逥渊的时逍面,团队应意识到所需的质量;另一方面,他们应知道何时是过度.通过优化提示和明确目标对员工进行更智能使用AI模型的培训也将大有裨益.来,企业显著增加了对智能体AI的兴趣和投资,智能体AI因其提高运营效猏痘运营效率到认可。智能体AI可以处理复杂任务,与多个智能体(包括RAG和行动智能以动智能体决定行动方案, 并自主执行任务以完成整体任务。这些特性可能有劫于或完全避开它。这可以消除通过多个提示来指导生成式AI界面完梐任务的适梐任务的一个例子可以在AI驱动的IT运营(或称AIOps)中找到,它们通过将AI融入日常任务来实现IT现代化。传统上,团队花费时间手动调整系统。21世纪的部A闵I自主处理关键功能(如故障排除、事件响应和资源分配)的部门。另一个恰当的例子是智能体AI系统如何自主处理复杂事件。这些智能体与ITOps一起,能够从上下觐文绍题,与推理智能体协调以决定行动方案,使用行动智能体在系统上进行朚上进.复,最后,运用学习智能体来理解解决方案并在未来事件中更有效地应甂有效地应甂智能自动化有助于减少人工交互并自主完成任务。为了满足不断变化的业务需求,重复性任务和操作应交给自主AI处理.这种授权消除了通常助长末日提缍钇处理新提示的重新提循环。自主操作允许AI模型在没有人工输入的情况下持续优化并响应变最少的人工干预获得更快的结果。虽然训练有素的专业人员通过人在回路的方法仍将在日常运营中发挥重要作用,但他们的时间将更好地用于扫描结果验证。这种方法最大限度地降低了引入错误或过度调整的风险。治理在预防末日提示中的作用在最近的一项麦肯锡调查中,88%的受访者报告在至少一个业务职能中利用了AI。这比2024年增长了10%,自2023年以来更是惊人地增长了33%。对于智能体AI,这一跃升更为显著.从20. 23年的仅33%增长到2025年的近80%。这种广泛采用正推动企业寻找应对末日提示的新解决方案。其中一个工具是强大的治理框架。这些框架应精心解决应精心设计与业务目标保持一致,而不会陷入无休止的优化华尔兹。团队在制定这些框架时,应考虑: 准则建立:进出AI模型的数据流正变得越来越复杂。为了简化这一点,AI准则应创建一个框架,让团队能够负责任地处理数据、做出决策和管理AI输培训用户: 正确的提示使用培训有助于实现最佳生产力 使用专用模型:针对行业和特定目的的AI模型可能更快地提供具有上下文意义和有意义的蚄有意义的能更快地提供具有上下文意义. 用行业/任务/组织特定数据(在可能的情况下)训练A I模型,可以减少工作废料并更快地产生更合适的输出. 规则制定:起草和实施一套明确的规则对于指导AI开发和部署至关重要。建立操作边界时,他们能确保所采用的系统符合组织目标、、道德标凑和 虽然AI解决方案的采用率在增加,但治理却没有。根据2025年PEX行业报告,不一半的企业制定了AI治理政策.同时,只有25%的企业正在实施中,近不的企业没有任何AI治理政策.这些框架可以成为帮助企业为可接受的性可接受的性宐治理政策.的决定性因素.逃离末日提示循环为了避免陷入末日提示的循环,企业必须采用优先考虑结果而非完美的AI策略.使用提示培训、针对特定目的的AI模型以及在上下数据上训练的模型,可以减少大量重新提示的需求。利用智能体AI、自主IT大治理框架的企业,可以将关键资源重新分配到实现其业务目标上,而不会陷入无休止的优化循环.当团队将思维模式从持续优化转向专注执行和可衡量结果时,成功就会到来.


过去一年,智能体AI占据了新闻头条。从大型科技公司的合作,如AWS与OpenAI合作推进高级AI工作负载,到智能体AI工具被广泛集成到零售、政府和金融服务等行业,AI智能体正在融入日常生活和工作流程。根据麦肯锡的数据,62%的组织已经在尝试使用AI智能体,64%的组织表示AI正在推动其创新,这证明了AI在企业中快速被采用的路径。智能体AI也正在重新定义人类工作者的角色。普华永道的一项调查发现,66%已采用AI智能体的公司提高了生产力。由于许多AI智能体将能够在无需人工干预的情况下执行任务,人类工作者将能够专注于更具战略性的任务,而将繁琐的行政工作留给他们的数字同事。在金融服务领域,智能体AI一个引人注目且关键的应用场景是金融犯罪预防。向美国量刑委员会报告的洗钱案件在2020年至2024年间增加了45%,突显了迅速增长的挑战,给全国范围内的合规工作带来了难题。在合规流程方面,智能体AI可以通过将智能体集成到反洗钱工作流程中,对客户尽职调查产生影响,从而支持警报处理和案件处理,减少低风险实体的误报。金融机构要想从使用AI智能体中获得有影响力的成果,就需要负责任且审慎地采用AI。以下是合规领导者需要考虑的五个关键点:1. 让AI智能体处理手动任务合规官在团队规模、预算和时间限制方面常常资源紧张,超过一半的人报告称他们在工作中感到倦怠,近一半的人感到焦虑。特别是在CDD和了解你的客户流程中,进行警报审查以识别和清除误报,对合规团队来说可能是一个巨大的压力,这可能带来风险和延误。当实施智能体AI来支持这些繁重的流程时,它可以自动化一些耗时的任务,例如持续监控风险以及在信息发生变化时立即更新客户档案。AI智能体可以审查和分流警报,其清除误报的效率高于人工审查,这也使得高风险案件可以直接交由人类分析师处理,从而高效利用他们的时间。智能体还可以根据基本的风险数据、政治公众人物、负面新闻和制裁名单进行初步的客户筛查检查,然后为任何匹配项生成警报。2. 数据透明度与所有智能体AI一样,有效性和信任始于系统训练和管理所依赖的数据。除了强大的数据清洗实践、清晰的数据沿袭和全面的记录保存以最小化幻觉或偏见外,公司必须通过稳健的模型治理确保监管可辩护性。这包括使用由正式的模型审查委员会监督的系统,该委员会管理完整的模型生命周期,进行定期测试,并依赖“黄金数据集”以防止模型随时间推移发生漂移。在此背景下,精细、可解释的AI尤为关键。例如,我们由LLM驱动的分类管道将负面新闻分为34个不同的风险子类别,从而实现精确、可审计的决策。这种透明度和控制水平不仅能满足日益严格的监管和审计审查,还能增强人们对AI如何支持反洗钱和客户尽职调查成果的信心。3. 评估智能体AI在何处最有效采用AI并不意味着组织需要替换其现有的技术栈。在评估智能体AI如何在客户尽职调查中使用时,合规官应建立一个概念验证,测试智能体系统的使用方式,并随着采用成熟度的提高构建用例。这有助于评估AI采用最有效的用途,小到用于初步筛查,大到用于完整的警报修复。4. 利用AI增强合规专业知识虽然自动化处理常规的分流工作,但智能体AI的真正价值在于其能够将合规专业人员的角色从行政性提升到战略性。这种转变不是要取代团队,而是将人类的直觉重新聚焦于最高价值的工作——例如需要道德判断和对犯罪意图进行细致解读的复杂调查。当AI在工作流程中充当“数字同事”时,专业知识会得到进一步增强。当前的设计趋势倾向于拟人化的智能体,因为它们能培养心理安全感;通过为每个建议提供清晰、自然语言的推理,这些系统帮助分析师从AI的逻辑中学习,而不仅仅是接受一个二元结果。随着组织规模的扩大,这使得合规职能能够成为增长的积极推动者,分析师承担起模型风险管理、AI测试和战略性法证调查等复杂的新职责。5. 坚实的基础一个弹性的云原生平台是速度的前提。你不能将AI硬塞到一个破碎的架构上并期望它运行良好;最成功的部署源于从数据摄取到最终案件解决的统一数据生命周期。为风险数据维护单一事实来源可确保模型在不同地理区域保持一致。在此背景下,当智能体工具集成到一个已有强大测试、数据保护和监督框架的生态系统中时,其性能最佳。在智能体AI时代重新定义反洗钱合规合规领导者正处在一个转折点——随着智能体AI工具变得更加先进,金融犯罪持续增加,他们需要确保拥有适当的反洗钱和客户尽职调查保护措施,同时评估哪些AI工具可以支持他们的目标。智能体AI使金融机构能够扩展KYC工作,同时让团队腾出精力专注于复杂、高价值的工作。结合人类专业知识,AI能推动更快的警报分流和案件解决,加强风险保护并降低成本,这正在真正重塑反洗钱尽职调查的未来。


2026年企业人工智能现状:未开发的优势这份来自Deloitte的报告捕捉了全球各组织与人工智能互动的一个决定性时刻。报告基于来自24个国家、六大行业的3,235名总监至最高管理层级别的业务和IT领导者的见解,表明尽管人工智能的采用正在加速,但大多数企业仍困于实验与真正转型之间。德勤调查结果的核心是一个日益扩大的鸿沟:获取人工智能工具的途径正在迅速扩大,但将这种获取转化为持续的、组织范围内影响的能力却滞后了。企业如何弥合这一差距,将日益决定人工智能带来的是渐进式的效率提升,还是成为长期竞争优势的基础。人工智能获取途径正在扩大——但利用率仍然滞后势头最明显的迹象之一是各组织扩大员工使用人工智能的速度之快。在过去一年中,企业批准的人工智能使用范围扩大了约50%,从不到40%的员工增加到近60%。在此背景下,经批准的使用指的是由组织正式批准、治理和支持的人工智能工具,而非员工非正式或违反政策的使用。在更先进的组织中,有11%现在向超过80%的员工提供人工智能工具,这表明人工智能正从一种专业能力转变为日常工作的标准组成部分。然而,仅仅拥有使用途径是不够的。即使在拥有可用的人工智能工具的批准员工中,也只有不到60%的人在日常工作流程中定期使用它们,这一数字同比基本保持不变。这种脱节凸显了报告的核心结论之一:人工智能的生产力和创新潜力仍然被严重低估,这不是因为技术限制,而是因为组织难以将人工智能嵌入到实际工作的完成方式中。从试点到生产:规模化瓶颈将人工智能从试点推向生产,仍然是获取价值最关键也最困难的一步。如今,只有25%的组织报告其40%或以上的人工智能实验已部署到生产环境。令人鼓舞的是,54%的组织预计在未来三到六个月内达到这一水平,这表明许多组织看到了清晰的前进道路。报告指出了一个反复出现的“概念验证陷阱”。试点项目通常由小团队、干净的数据和有限的风险构建而成。相比之下,生产部署需要基础设施投资、与现有系统集成、安全与合规审查、监控以及长期维护。最初规划为三个月的用例,一旦遇到现实世界的复杂性,可能会延长至18个月或更久。如果没有一个连贯的规模化战略,组织将面临试点疲劳的风险——持续进行实验,却永远无法实现企业级的回报。生产力提升常见——业务重塑则不然人工智能的近期影响在效率和生产力方面最为明显。66%的组织报告了当前的生产力提升,53%的组织提到了决策改进,而38%的组织已经看到了成本降低。这些益处解释了为什么对人工智能的信心和投资持续上升。然而,更宏大的成果在很大程度上仍是愿景。虽然74%的组织希望人工智能能推动收入增长,但只有20%的组织表示目前正在实现这一点。这一差距反映了一个更深层次的问题:大多数公司仍在将人工智能应用于现有流程以提高效率,而不是重新构想其业务模式、产品和服务。尽管对自动化的预期广泛存在,但84%的公司尚未围绕AI能力重新设计工作岗位。在一年内,36%的公司预计至少有10%的工作岗位将完全自动化,而在三年内,这一数字将上升至82%。然而,大多数组织尚未调整职业路径、工作流程或运营模式来反映这一转变。人才战略仍然是一个薄弱环节。虽然53%的公司专注于教育员工以提高AI熟练度,但重新思考角色、重组团队或重新设计职业流动性的公司则少得多。员工的情绪反映了这种不平衡:13%的非技术员工热情高涨,55%愿意探索AI,但21%的人除非必要否则不愿使用,还有4%的人积极表示不信任。报告明确指出,AI并未消除对人的需求。在许多情况下,它反而增加了对判断力、监督和适应性等独特人类优势的需求——尤其是在系统变得更加自主的情况下。Agentic AI的发展速度超过治理报告中强调的最具影响力的转变之一是Agentic AI的兴起——这类系统能够设定目标、对多步骤任务进行推理、使用工具和API,并采取自主行动。如今,23%的组织至少适度地使用Agentic AI。在两年内,这一数字预计将攀升至74%,其中23%将广泛使用Agentic AI,5%将其作为核心运营组件完全整合。与此同时,85%的组织期望定制AI智能体以适应其特定的业务需求。然而,治理并未跟上步伐。只有21%的组织报告称拥有针对自主智能体的成熟治理模型,尽管有73%的组织将数据隐私和安全列为其首要的AI风险,其次是法律和法规遵从性(50%)和治理监督(46%)。报告将治理定位为一种赋能机制,而非约束,它使得AI能够负责任且自信地扩展规模。物理AI从边缘案例转向核心运营AI不再局限于软件。物理AI——即感知现实世界并通过机器驱动物理行动的系统——已经嵌入企业运营中。58%的组织报告称目前正在使用物理AI,预计采用率将在两年内达到80%。地区差异显著。在亚太地区,71%的组织已经在使用物理AI,相比之下,美洲和欧洲、中东及非洲地区为56%。在两年内,亚太地区的采用率预计将达到90%,超过其他地区。制造业、物流和国防领域引领采用,但其应用现已扩展到仓库、零售、餐饮和工业设施。成本仍然是主要障碍。物理AI部署通常需要数百万美元的基础设施、机器人技术、设施改造和维护费用——远超AI软件本身的成本。主权AI成为战略重点主权AI——即在本地法律下使用受控的基础设施和数据来设计、训练和部署AI——已稳固地进入董事会讨论范畴。83%的组织认为主权AI对战略规划很重要,并且43%的组织认为它非常或极其重要。与此同时,66%的组织对依赖外国拥有的AI技术表示担忧,其中22%的组织高度担忧。在实践中,77%的组织现在将AI解决方案的原产国纳入供应商选择考量,并且近60%的组织主要与本地供应商构建其AI技术栈。主权AI日益被视为不仅仅是合规要求,更是韧性、信任和竞争定位的来源。从雄心到激活《2026年企业AI现状》的核心信息很明确:AI的变革潜力是真实的,但它不会仅凭工具就能解锁。成功的组织将是那些超越获取和实验、迈向激活的组织——重新设计工作流程,在规模化之前建立治理,现代化基础设施,并使AI战略与人类能力保持一致。当今的企业正站在AI潜力的未开发边缘。下一阶段将不由谁采用AI最快来定义,而是由谁最深思熟虑地整合它来定义——将AI从一项有前景的技术转变为基础能力,重塑组织的运营、竞争和发展方式。