

人人道는 竞是比署AI입니다. AI는 굉장한 속도로 작동합니다. TPRM은 TPRM을 사용하여 TPRM을 효과적으로 정의할 수 있습니다.数据。另一些则通过电子表格와共享驱动器临时管理风险。 작, 而另一些则承担着更大的风险.仍然差异巨大.这种差异性意味着,TPRM中的AI应用不会过速島或统一性来实现。它将通过纪律来实现,而这种纪律始于对您项目当前状态、目标和风险承受能力的现实评估。如何判断您的项目是否已为AI做好准备并不每个组织島已准备好迎接AI,这没关系。麻省研究发现95%的生成式AI项目都失败了。根据Gartn erative 数据,79% 의 技术买House表示他们对自己最近的采购感到后悔,因为项目规划不当.TPRM中,AI就绪島不是一个可以瞬间切换的开关。它是一个渐进的过程,反映了您의 项目는 了您의 项目에서 结构化, 互联性 및 治治构程degree.다양한 数组织德处于从临时性到敏捷性成成熟島曲线上的某个位置, 了解您所处的位置是有效且负责任地使用AI 第一步。阶段,风险项目大是手动的,依赖于电子表格、机构记忆和分散的所有权。对于第三方风险,几乎没有正式的方法论或一致的监督。供应商信息可能存에서于电子邮件线程或少数关键人员的头脑中,这个过程에서 失效前似乎还能运작동중입니다. |得标准化,数据被数字化,责任主扩展到各个真。지금 바로 AI开始增加真正价值。但即使是定义明确的项目也常常各自为政,限即使是察力。当这些孤岛被打破,治理成为共享责任时,真正的就绪島才会利现。集成且敏捷的项目将数据、自动化责任端企个企业内连接起来,让AI能够站稳脚跟——将分散的信息转化为智能,并支持更快速、更透명명한决策. 나는 이 빛의 효과에 대해 정확한 힘량을 갖고 있습니다. 집공주도拥有敏捷的风险项目,它们也不会为AI实施规划了也不会看到亿也不会看到划了结果。每家公主管理着不同第三方网络,独特的法规下运营,并接受不同级别的风险。例如,银行은 15방의 야외 包商提供的服务方face, 临着关于数据隐私와 保护的严格监管要求。它们对错误、中断或违规的风险容忍島几乎为零。 仃们对错误、中断或违规的风险容忍島几乎为零。了们对错误、消商可能为了灵活性或速响关键交付时间线的中断。每个组织的风险承受能력정정은 了其为达成目标愿의 유의미한 불확정성 정도,而withTPRM中,这条线是더 이상 사용할 수 없는 AI가 있습니다. 생동감 넘치는 온도 조절——从而需要更具针对性, 可配置的解决方案. 법은 다음과 같습니다. 供应商研究:使用 AI筛选数千家潜는 供应商, 为即将开语供应商, 为即将开语评目识别风险最低, 能力最强或最可持续的합작을 위해 만들어졌습니다. 应用AI评估供应商文件、认证和审计证据。模型可以标记可能预示风险的不一致或异常情况,让分析师能够专注于最重要的事情.韧性规划: 使use AI 模拟中断 连锁反应.供应基础?AI可以处理复杂的贸易、地理와依赖关系数据来模拟结果并加强应急计划。 当这些用例被有意支署并得到治理支持时,每一个都能带来价值。在风险和供应链管리中真正取得AI成功的组织,不是那些自动ization程道最高 , 而是那些从小处着手、有意识地自动化并频繁调整的组织。 PRM中构建负责任的AI는 TPRM中尝试AI에서 새로운 AI를 사용하고 있습니다.平衡。AI应加强监督,而不取代它。지금 第三方风险管理中,成功不仅取决于您评估供应商的速島,还取决于风险识别的准确性以及纠正措施实施的有效性.问流程에는 많은 높은 정보가 있습니다.他们会问它是如何被治理的입니다.随着AI应用 加速,world各地的监管机构正以截然는 다른 방식으로 "负责任"含义。欧盟 《人工智能법案》以基于风险的框架定下了基调,要求高风险系统具备透명도와 问责统。以基于风险 的框架定下了基调,要求高风险系统具备透명도 와问责统。 以基于风险 的 框架定下了基调 , 美國正遵循一条更加分散的路径,强调创new同时,也倡导如NIST人工智能风险管理框架这样的自愿标准。包括日本、中國과 巴西는 内的其他地区,正发展自己的变体,将人权、监督와 國家优先事项融入独特的AI治理模式中.对于全球性企业而言, 这些는 다른 방식의 새로운 방법입니다.的报告义务,而는 미국 내 供应商可能면临更宽松但仍不断演变的期望。每个“负责任AI”에 대한 결정은 为风险评估、监控와解释적방법式增添了细微差别。 AI를 사용하는 것이 좋습니다.决策道能被解释, 追踪和辩护——无论处于哪个个ushi法管辖区。如何开始将负责任的AI变为现实需要的不仅仅是政策声明.它体做法如下。从一开始就标准化. 자동으로 전환하기 전에, 建立干净, 一致的数据 and 协调的流程.实施分阶段방법,将AI는 결합된 속도로 진행되며, 앞으로 더 확장될 것입니다.完善。从一开始就将数据完整性, 隐私 and 透明titude设为不可妥协的条件。无法解释其推理或依赖未经验证输入的AI, 不是는 降低风险, 而是에서 引入风险입니다.从处着手,经常实验. 성공하지 못함.及由谁负责。识别并缓解阻碍大多数生成式AI项目交付业务价值的关键挑战,包括数据质weight、隐私와监管障碍。始终进行治리. AI는 존재합니다. AI를 활용하세요随着全球法规的演变,透着必须保持不变。风险领导者应能追踪每一个AI驱动的洞察回到其数据源및逻辑,确保决策能够经受住监管机构、董事会와公众的审查。 TPRM중의 AI는 널리 사용되는 기술입니다.所有项目道应有意识地构建。自动化已准备好的分,治理已자동 구조적인 부분은 并随着技术及其상형关规则的演变而不断调整입니다.


如今,이것이 아닌 전체리적인 정보를 제공합니다. 이전에 아주 많은 것이 있습니다.而,我们始终有一种感觉,控control权正从指缝中溜走。如果你仔细观察,今天缺失的,是曾经存에서于每一项伟大创新核心、如今正慢慢淡流技术图景的东西——技艺。每一项创新city承载着一丝精心的关注。유인曾深入钻研,以理解依赖关系、行为和约束,并将这些知识转化为一个可이동 중입니다. 완전한 형태의 형태의 판매, 速島快得惊人, 但其内part 运작동제제几乎完全不可见。技艺开始显得不同时宜,或者说,지금은 一个痴迷于速島的文化中显得激进。然而,没有技艺,系统就有可能沦为事件的漩涡:一个黑匣子,其中 的决策、输이행과행为以任何人道无法完全理解的速島觀开。技艺,是는 一个被AI 多塑의 세계 곳곳에서 夺回part分控权、恢复对复杂性推理能power并承担责任的一种方式。没有所有权,协work能蓬勃发展吗?曾几何时,构建系统的人对其了如指掌。如今,工作被分割成微small贡献,稀释了这种所有权意识,常常到了参与者无人理解整体的地步。团더 많은 정보를 제공하는 웹사이트托管数据库화분할은 析平台集成到一个可运行的产product中입니다.是,团队直接拥有的부분,往往比외부供应商管理的层级还要小。对执여행의 즐거움을 더 많이 누리세요.层级悄然累积.一个请求에서 返回响应之前,会穿越多个服务、提供商和区域。一切运行良好,直到这些层级之间微작은不匹配暴露们实际上拥는 매우 다양한 속도와 성능을 제공합니다.更始于解释最初到底哪里流了错。协작품确实是现代软件的引擎,它使团队能够构建任何个人道无法单独管理的庞大系统。随着new工具,尤其是AI를 활용한 더 많은 작업을 수행하고 더 많은 작업을 자동으로 수행할 수 있습니다.辅助,从而加速执行并扩大参与titude。但这同时也稀释了理解。当高島抽象的工具介入决策、生成代码或解释数据时,行动往往会超越理解。毕竟,如果你无法解释一个系统如何工業,你能信任它所驱动的决策吗?你能理解的系统,才是你能为之负责的系统技艺并不要拒绝协작품或AI不可否认의 潜력, 而是要维持一种超越执行层면적, 与系统的关系。它关乎碎持跨层级(而不仅仅是层)级内)推理行为的能力。지금은 현대적인 작업 흐름 中,技艺最终归结为刻意培养这种推理能力,即使没有明显证据表明有任何问题。它让团队能够快速前进,同时仍然知道他们在构建什么、它为何如此行为,以及当它不按预期运行时如何应对。只有这种理解才能防止AI驱动的系统变成黑匣子。问题是,AI会放大你已知와未知的东西。当你的基础建立에는技术技艺地上时,AI能扩展洞察力并增强实力;否则,它会加剧误解和混乱.基于有缺陷的假设, 偏见数据或被误解的模型做策는自动化决策,可能会影响人们的账户、隐私和信任。曾经可能只是局故障或微小疏忽的问题,如今由于触及生活各个领域的互联性,几乎可以瞬间产生广泛 影响。地扁平化,以至于依赖开始看起来很image效率。警惕这种权衡很重要。许多让工感觉更快的速titude,来自于依赖工具와抽象,而不深刻的理解。如果节省的时间得其反时适得其反.这并不是说,存在更简单方法와强大工具的情况下,要把事情搞得比必要的更难。但轻率地跳过这些曲线,就失去了真正理解系统行为方式、漏洞所는 以及决策如何에서 系统中产生连锁反应的机会。让复杂性消失的诱惑是诱人的,但复杂性不会简单地随着点击按钮而消失。它只是移take了视线,留下了只有는 Out问题时才会显现的隐藏风险。真正的效率来自于平衡使用现代工具与为理解、判断 and技艺付付付应有努力,从而使速島와简单性不以弹性或责任为代价。以理解新技术能做什么와不能做什么的态島来接近它们。没有这种理解,团队就失去了Ancient适应或演进系统的能power.变更可能会破坏系统中未被充分理解的부분입니다.随着对工具、默认设置或自动化的依赖取代了有根据的直觉,判断力会受损.地下降,而弹性则与精弱一同湮灭。效率本不该如此脆弱。实践中的技术技艺是什么样子技艺体现에서团队, 产제품과领导层如何处理复杂性上。当团队承担起理解他们所依赖系统的责任,而不是假设供应商处理了所有复杂性时,他们就能领先于问题。进和适应。强调追溯原因、质疑假设和构建直观解决方案的培训,能确保school习是嵌入式과持久性的입니다. 성적인 능력, 将是伟大产품은 与仅仅能运行的产품품지间的区别。재复杂、互联的系统中,必须由人类的直觉导技术,而不是상반。的是要记住,虽然你几乎可以外包任何东西,但辨别力仍然不其列。


企业AI应用已进入一个更为务实的阶段。对于技术领导者而言,挑战不再是说服组织信AI具有潜力,而是确保那些影响运营决策的系统能够被理解、被治理、被辩护。当人们愿意依赖AI时,它才는 企业中赢得一席之地입니다.计数据地上。它取决于团队是否觉得,一旦自动化成为日常工作流程的 一能 他们仍能保持控织控织织中,这种控感仍확실하지 않습니다.服务请求路由到事件关联및容weight规划的各个IT运营环节。这些环境中的决策相互关联,错误会迅速升级。当AI输流缺乏上下文时,团队往往会犹豫不决。自动化可能在技术上已能,但其建议会被反复核对、延迟执行或被悄悄搁置。这种行为常被误读为对变革的抗拒。实际上,它反映了高风险运营环境中的职业责任感。 AI는 자동으로 생성되는 공공 서비스입니다.信但最终被证明是错误的输流时,损害很少仅由雄心造成,其根源이 사실은 명확하지 않습니다.统communication常准确,信任也会逐渐侵蚀。여기IT团队内부,这种影响表现得很微妙。自动化以咨询模式而不执行模式运行。工程师仍需对结果负责,却又被期望去信任他们无法审查的推理过程。久而久の,种不平衡会产生摩擦。AI虽然存재,但其价值受到限제.入自动化决策来解决这个问题。可解释的AI并不意味着暴露每一个内部计算。它意味着提供与人类操작가상关的洞察:哪些数据影响了决策,哪些条件权重最大,以及置信島是如何评估的。这种上下文使团队能够判断输流是否符合运营现实。也称为白盒AI ,可解释AI创建了一种解释层,说明AI决策是如何做出的,而不是将其过程和逻辑隐藏는 视の地外입니다.以成为更负责任的框架的一而且用户能够理解每个系统的工洞并防范偏见。至关团队可以追溯推리로径,识别微弱信号,并完善流程。没有这种可见性,错误要么会重复发生,要么过禁用自动化来完全避免。实践中的可解释性以事件管理为例。AI常用于将警报分组并建议可能의원인입니다.企业环境中,大事件期间一个错误分类的依赖关系可能导致解决时间延迟数小时,使多个团队陷入并行调查,而面向客户的服务仍处于降级状态.当这些建议附有清晰的解释,说明涉及了哪些系统、如何访问依赖关系或参考了哪些过去的事件时,工程师可以于改进模型和流程。缺乏这种透명도,团队就会回归手动诊断,无论AI多么先进。这种反馈循环是持续采用 核心。用它们的人共同进进化。 仑比之下,黑盒系统一旦信心下降,往往会停滞不前或被边缘化.配方式。지금运营环境中,责任不会仅仅因为决策是自动化的而消失。仍然必须有人对结果负责。当AI能够解释自身时,问责变得更清晰、更易于管理。决策可以被审查、论证和改进,而无需诉유용한 방법이 있습니다.少是主要动机。况下解释自动化决策。随着针对AI 规不断发规,缺乏透明속도는 매우 좋지 않습니다.价值在于韧性而不同规。了解其系统的团队恢复得更快。他们更有效地解决事件,并减少在是否应该信任自动化这一问题上争论的时间。为卓越运营而设计AI工程师接受过质疑假设、检查依赖关系와 测试结果的训练.当自动化支持而不绕过这些本能时,采用过程就变成了协构,成为流程的一而不强加的结构.以这种方式构建系统必然存재성본입니다.实践、深思熟虑的设计选择,以及能够负责任地解读输出的熟练员工。它的扩可能不如纯粹为速島或新颖性优成不透明模优先考虑可解释性组织. ,其停滞的计划更少,影子决策也更少。自动化成为运营中可信赖的一层,而不孤立运行的平行实验。价值实现时间得以改善,并독립적으로 사용하세요.随着AI成为企业基础设施中的永久组成分,成功将更少由雄心义,而更多由可靠性义。能够解释其决策的系统更容易被信任、更容易被改进,并且在结果受到质疑时更容易被支持。营环境中,只有当理解与自动化同步发展时,智能才能有效扩話。


过去几年,我们见证了智能体AI系统展示出令人印象深刻的演示。它们编写的代码能通过测试用例。它们搜索网络并回答复杂问题。它们以惊人的准确性操作软件界面。每一次会议演示、每一次新闻发布、每一次基准测试报告都强调着智能体AI的崛起。但在这类令人印象深刻的演示之下,隐藏着一个问题。当这些相同的系统从受控环境转移到现实世界部署时,它们常常以基准测试从未预测到的方式失败。在100个精选示例上完美运行的代码生成器,在遇到从未见过的边缘情况时开始产生错误。在实验室中达到85%准确率的网络搜索代理,随着用户行为的变化,检索到的结果越来越不相关。在测试中能完美协调十个API调用的规划系统,在遇到意外的API响应格式时就会崩溃。这些系统失败并非因为缺乏智能,而是因为缺乏适应性。问题在于AI智能体如何学习和调整。虽然尖端系统建立在庞大的基础模型之上,但仅凭原始智能是不够的。要执行专门任务,智能体必须具备适应能力。当前的智能体AI系统由于设计和训练上的结构性限制,无法做到这一点。在本文中,我们将探讨这些限制及其持续存在的原因。演示中的能力幻觉现代AI中最危险的故障模式是能力幻觉。简短的演示常常掩盖了真正的复杂性。它们在干净的数据集、可预测的API和狭窄的任务范围内运行。生产环境则恰恰相反。数据库不完整,模式在无通知的情况下更改,服务超时,权限冲突,用户提出的问题违反了系统的基本假设。这正是生产复杂性显著增加之处。在演示中出现一次的单个边缘情况,在部署中可能每天出现数千次。微小的概率性错误会累积。一个“基本正确”的智能体在真实操作中会迅速变得不可靠。问题的核心在于对冻结的基础模型的依赖。这些模型擅长模式补全,但智能体行为是顺序性和有状态的。每个动作都依赖于前一个动作的结果。在这种设定下,统计不确定性会迅速复合。任务早期的一个小错误可能会在后期级联成循环、死胡同或破坏性操作。这就是为什么在评估中显得能力出众的智能体,一旦部署后性能往往会迅速下降。问题不在于缺少某个功能。而在于通用模型被要求表现得像领域专家,却不被允许从其环境中学习。从通用智能到情境能力基础模型本质上是通才。它们编码了广泛的知识和灵活的推理模式。然而,生产环境中的智能体必须是情境化的。它们需要理解特定组织及其工具的具体规则、约束和故障模式。没有这一点,它们就像读遍了所有手册却从未上过一天班的人。弥合这一差距需要重新思考适应性本身。当前的方法大致分为两个有缺陷的阵营:重新训练核心AI智能体本身,或者调整其使用的外部工具。每种方法在解决一个问题的同时,都会产生其他问题。这导致我们得到的系统要么过于僵化,要么成本过高,要么过于不稳定,无法满足生产环境对一致性和成本的要求。单体智能体陷阱第一种方法,智能体适应,试图让核心LLM更聪明地使用工具。它本质上是教授AI使用工具所需的特定技能。研究人员进一步将其分为两类。一些方法利用来自工具的直接反馈(如代码编译器的成功或搜索引擎的结果)来训练智能体。另一些则根据最终输出的正确性(如答案的对错)来训练它。像DeepSeek-R1和Search-R1这样的系统表明,智能体可以学习复杂、多步骤的工具使用策略。然而,这种能力伴随着巨大的成本。训练拥有数十亿参数的模型在计算上是极其昂贵的。更重要的是,它创造了一种僵化、脆弱的智能。通过将智能体的知识和工具使用规则结合在一起,这种方法使得更新缓慢、风险高,不适合快速变化的业务需求。让智能体适应新任务或新工具,可能会引发“灾难性遗忘”,即失去先前掌握的技能。这就像每次想添加一个新部件时,都需要重建整个工厂装配线。脆弱的工具箱问题认识到这些限制后,第二种主要方法——工具适应——将核心智能体保持冻结状态,转而优化其生态系统中的工具。这更具模块化和成本效益。一些工具是通用训练的,如标准搜索检索器,然后被接入系统。另一些则专门针对冻结的智能体进行调整,从其输出中学习,成为更好的助手。这种范式在效率方面前景广阔。一项关于名为s3系统的里程碑式研究展示了这种方法的潜力。它训练了一个小型、专门的“搜索器”工具来支持一个冻结的LLM,实现了与像Search-R1这样完全重新训练的智能体相当的性能,但使用的训练数据却少了70倍。其理念是:为什么要重新教一位天才物理学家如何使用图书馆目录?不如直接训练一个更了解物理学家需求的图书管理员。然而,工具箱模型也有其自身的局限性。整个系统的能力最终受限于冻结LLM固有的推理能力。你可以给外科医生一把更锋利的手术刀,但无法让一个非外科医生进行心脏手术。此外,协调日益增长的适应性工具套件成为一个复杂的集成挑战。工具A可能针对某个指标进行了优化,但这违反了工具B的输入要求。系统的性能随后依赖于相互关联组件之间脆弱的平衡。协同适应挑战这让我们触及了当前智能体AI范式中适应性缺陷的核心。我们要么适应智能体,要么适应工具,但无法以同步、稳定的方式同时适应两者。生产环境不是静态的。新数据、新用户需求和新工具不断涌现。一个无法平稳、安全地同时进化其“大脑”和“双手”的AI系统,最终必然会崩溃。研究人员指出,这种协同适应的需求是下一个前沿领域。然而,这是一个复杂的挑战。如果智能体和它的工具同时学习,失败的责任归咎于谁?如何防止不稳定的反馈循环,即智能体和工具相互追逐变化,却未能提高整体性能?早期的尝试,例如将智能体-工具关系视为一个协作多智能体系统,揭示了其中的困难。如果没有稳健的信用分配和稳定性解决方案,即使是我们最先进的智能体AI,也仍然只是一组令人印象深刻但互不关联的能力。内存作为一等系统适应性缺陷最明显的迹象之一是静态内存。许多已部署的智能体不会随着时间的推移而改进。它们重复同样的错误,因为它们无法内化经验。每次交互都被当作是第一次。生产环境需要适应性内存。智能体需要情景记忆来处理长视野任务,需要策略性记忆来完善计划,需要操作性记忆以避免重复失败。没有这些,智能体会显得脆弱且不可信。内存应被视为一个可调组件,而非被动日志。能够回顾经验、从错误中学习并调整行为的系统要稳定得多。适应性系统带来的新风险适应性本身也带来了新的风险。智能体可能学会优化指标而非目标,这种现象被称为寄生性适应。它们可能在表面上看起来成功,却损害了根本目标。在多智能体系统中,被攻破的工具可以通过微妙的提示注入或误导性数据来操纵智能体。为了缓解这些风险,智能体需要强大的验证机制。行动必须是可测试、可逆和可审计的。智能体与工具之间的安全层可以确保错误不会无声地传播。核心要点要让智能体AI在现实世界中发挥作用,它不能仅仅是智能的;它必须能够适应。如今大多数智能体失败,是因为它们在时间上是“冻结”的,而现实世界是复杂且不断变化的。如果一个AI无法更新其内存并从错误中改进,它最终会崩溃。可靠性并非来自完美的演示;它来自于适应的能力。


牛津大学领导的一项新研究得出结论,女性使用生成式AI的程度远低于男性——并非因为缺乏技能,而是因为她们更担心AI对就业、隐私、心理健康和社会本身的危害。 作为未经授权的主要目标,女性在过去七年中一直与围绕生成式AI这一争议分支的深度伪造内容密切相关,并在近期取得了一些显著胜利。然而,牛津大学领导的一项新研究认为,这种对女性AI关切的描述过于狭隘。研究发现,女性使用各类生成式AI的程度都远低于男性——并非由于获取渠道或技能差距,而是因为她们更可能认为AI对心理健康、就业、隐私和环境有害。该论文指出:‘我们使用[2023–2024年]英国全国代表性调查数据表明,女性采用生成式AI的频率远低于男性,因为她们对其社会风险的感知不同。‘我们编制的综合指数涵盖了关于心理健康、隐私、气候影响和劳动力市场扰动的担忧,该指数解释了9-18%的采用率差异,并且是所有年龄段女性中最强的预测因素之一——对于年轻女性而言,其预测力超过了数字素养和教育水平。’根据研究人员的说法,最大的差距出现在那些数字素养高、对AI社会风险表示强烈担忧的年轻用户中,个人使用方面的性别差异超过45个百分点:通过在连续调查轮次中匹配相似的受访者,构建合成双胞胎面板,该研究发现,当年轻女性对AI的社会影响变得更加乐观时,她们使用生成式AI的比例从13%上升到33%,显著缩小了差距。在那些担忧气候危害的人群中,生成式AI使用的性别差距扩大到9.3个百分点;在那些担忧心理健康危害的人群中,差距则扩大到16.8个百分点,这并非由于男性使用增加,而是由于女性使用率显著下降。因此,作者们发现了一种与性别相关的明显文化效应*:‘平均而言,女性表现出更多的社会同情心、传统的道德关切和对[公平]的追求。同时,研究发现道德和社会关切在技术接受度中扮演着角色。‘关于教育领域生成式AI的新兴研究表明,女性更可能认为在课程作业或作业中使用AI是不道德的,等同于作弊、助长剽窃或传播错误信息。‘对社会福祉的更大关切可能部分解释了女性对生成式AI的较低采用率。’他们认为,研究中观察到的女性的这种看法是合理的:‘[女性]对环境、社会和伦理影响的高度敏感性并非错位:生成式AI系统目前确实具有显著的能源需求、不均衡的劳动实践,以及有据可查的偏见和错误信息风险。‘这表明,缩小性别差距不仅关乎改变观念,也关乎改进底层技术本身。因此,激励低碳模型开发、加强对偏见和健康危害的保障措施、提高供应链和训练数据实践透明度的政策,将能解决这些合理的关切——同时确保女性的风险意识成为技术改进的杠杆,而非采用的障碍。’他们进一步指出,虽然该研究清楚地表明…他指出了采用差距,其研究结果在英国以外地区可能更高(新研究的所在地是英国)。这篇新论文题为《女性担忧,男性采用:性别化认知如何塑造生成式AI的使用》,由牛津互联网研究所、比利时新经济思维研究所和柏林洪堡互联网与社会研究所的研究人员共同完成。数据与方法最近的一项新研究趋势表明,尽管能力和访问权限没有差异,但女性使用各类生成式AI的频率低于男性——这一不足据估计是近期性别工资差距的一个促成因素,这与先前关于女性互联网使用率较低与较低薪资相关的趋势一致:在这项新研究中,作者利用英国政府《公众对数据和AI的态度:追踪调查》倡议中提供的逐年研究信息,分析了AI相关风险的认知如何影响不同性别的采用模式,并将风险敏感性分离出来,作为女性使用率降低的一个关键因素。当风险担忧与其他特质结合时,生成式AI的性别差距会变得更大。如下图所示,最大的差距(5.3个百分点)出现在那些拥有高数字技能、并将AI视为心理健康风险的女性中:心理健康担忧往往会放大大多数群体中的性别差距,这种效应在年轻和数字素养更高的用户中最为强烈,而隐私担忧也会扩大差距,在某些工作环境中甚至将差距推高至22.6个百分点。即使在那些对AI气候影响表示担忧的年长受访者中,差距仍然高达17.9个百分点,这表明对危害的认知对女性影响更重——包括在整体AI使用率相对较低的群体中也是如此。风险认知为了确定风险认知对采用的影响程度,研究人员基于对AI在心理健康、气候、隐私和就业方面影响的担忧,构建了一个综合指数。然后,他们使用按年龄和性别划分的随机森林模型,将该指数与教育、职业和数字素养一起进行测试,发现在所有人生阶段中,AI相关的风险认知始终能预测生成式AI的使用——其排名常常高于技能或教育,尤其对女性而言:随机森林模型(按年龄和性别分层)显示,与男性相比,AI相关风险感知是女性使用生成式AI更强的预测因素,在所有女性年龄组中均位列前两大特征,其影响力超过了数字素养和教育。对于男性,数字素养占主导地位,而风险感知排名较低且作用不那么一致。模型表明,社会关切对女性AI采用的影响远强于传统技能或人口因素。请参阅源PDF以获得更好的可读性和整体分辨率。[/caption]在所有年龄组中,对AI社会风险的关切预测女性使用生成式AI的程度均强于男性。对于35岁以下的女性,风险感知是影响使用行为的第二大因素,而男性中则排名第六;在中老年群体中,风险感知对女性排名第一,对男性排名第二。在所有模型中,风险感知占预测重要性的9%至18%,超过了教育和数字技能指标。根据论文,这些结果表明,女性对生成式AI的采用率较低,较少源于对个人风险的担忧,更多是出于更广泛的伦理和社会关切。在这种情况下,犹豫似乎是由对AI可能对他人或社会(而非自身)造成伤害的更强烈意识所驱动。合成双胞胎为了测试改变对这些主题的态度是否能改变行为,研究人员采用了合成双胞胎设计,将两轮调查中相似的受访者进行配对。将较早一轮的每个人与较晚一轮中年龄、性别、教育和职业相同的受访者进行匹配。然后,团队比较了那些数字技能有所提高或对AI社会影响变得更加乐观的受访者在生成式AI使用上的变化,从而能够分离出更高的数字素养或减少的担忧是否真的能提高采用率,尤其是在年轻人中:提升数字素养提高了两性对生成式AI的使用,但也扩大了性别差距,男性受益更多。在全部样本中,女性的使用率从9%上升到29%,而男性则从11%上升到36%。在年轻人中,数字素养的提升使男性的使用率从19%大幅上升至43%,而女性的使用率从17%上升到29%,增幅不大且无统计学意义。相比之下,对AI社会影响的更大乐观情绪产生了更均衡的变化,女性从13%上升到33%,男性从21%上升到35%。在全部样本中,女性从8%上升到20%,男性从12%上升到25%。因此,论文指出,虽然数字技能提升总体上提高了采用率,但也倾向于扩大性别差距——而重塑对AI更广泛影响的看法,似乎在提高女性使用率方面更为有效,且不会不成比例地提升男性的采用率。结论这些发现的意义似乎在论文展开过程中出现了分歧;如前文所引,作者起初对女性更广泛的全球关切和伦理立场表示赞许。接近尾声时,出现了一种更为勉强和务实的观点——也许是出于当前的时代精神——作者们担心女性是否会因其道德警惕和疑虑而”落后”:‘[我们的]研究结果指向更广泛的制度和劳动力市场动态。如果男性在规范、期望和能力仍在形成的时期以不成比例的高速度采用AI,这些早期优势可能会随着时间的推移而复合,影响生产力、技能发展和职业进展。’ * 我将作者文内引注转换为超链接。首次发布于周四,