

牛津大学领导的一项新研究得出结论,女性使用生成式AI的程度远低于男性——并非因为缺乏技能,而是因为她们更担心AI对就业、隐私、心理健康和社会本身的危害。 作为未经授权的主要目标,女性在过去七年中一直与围绕生成式AI这一争议分支的深度伪造内容密切相关,并在近期取得了一些显著胜利。然而,牛津大学领导的一项新研究认为,这种对女性AI关切的描述过于狭隘。研究发现,女性使用各类生成式AI的程度都远低于男性——并非由于获取渠道或技能差距,而是因为她们更可能认为AI对心理健康、就业、隐私和环境有害。该论文指出:‘我们使用[2023–2024年]英国全国代表性调查数据表明,女性采用生成式AI的频率远低于男性,因为她们对其社会风险的感知不同。‘我们编制的综合指数涵盖了关于心理健康、隐私、气候影响和劳动力市场扰动的担忧,该指数解释了9-18%的采用率差异,并且是所有年龄段女性中最强的预测因素之一——对于年轻女性而言,其预测力超过了数字素养和教育水平。’根据研究人员的说法,最大的差距出现在那些数字素养高、对AI社会风险表示强烈担忧的年轻用户中,个人使用方面的性别差异超过45个百分点:通过在连续调查轮次中匹配相似的受访者,构建合成双胞胎面板,该研究发现,当年轻女性对AI的社会影响变得更加乐观时,她们使用生成式AI的比例从13%上升到33%,显著缩小了差距。在那些担忧气候危害的人群中,生成式AI使用的性别差距扩大到9.3个百分点;在那些担忧心理健康危害的人群中,差距则扩大到16.8个百分点,这并非由于男性使用增加,而是由于女性使用率显著下降。因此,作者们发现了一种与性别相关的明显文化效应*:‘平均而言,女性表现出更多的社会同情心、传统的道德关切和对[公平]的追求。同时,研究发现道德和社会关切在技术接受度中扮演着角色。‘关于教育领域生成式AI的新兴研究表明,女性更可能认为在课程作业或作业中使用AI是不道德的,等同于作弊、助长剽窃或传播错误信息。‘对社会福祉的更大关切可能部分解释了女性对生成式AI的较低采用率。’他们认为,研究中观察到的女性的这种看法是合理的:‘[女性]对环境、社会和伦理影响的高度敏感性并非错位:生成式AI系统目前确实具有显著的能源需求、不均衡的劳动实践,以及有据可查的偏见和错误信息风险。‘这表明,缩小性别差距不仅关乎改变观念,也关乎改进底层技术本身。因此,激励低碳模型开发、加强对偏见和健康危害的保障措施、提高供应链和训练数据实践透明度的政策,将能解决这些合理的关切——同时确保女性的风险意识成为技术改进的杠杆,而非采用的障碍。’他们进一步指出,虽然该研究清楚地表明…他指出了采用差距,其研究结果在英国以外地区可能更高(新研究的所在地是英国)。这篇新论文题为《女性担忧,男性采用:性别化认知如何塑造生成式AI的使用》,由牛津互联网研究所、比利时新经济思维研究所和柏林洪堡互联网与社会研究所的研究人员共同完成。数据与方法最近的一项新研究趋势表明,尽管能力和访问权限没有差异,但女性使用各类生成式AI的频率低于男性——这一不足据估计是近期性别工资差距的一个促成因素,这与先前关于女性互联网使用率较低与较低薪资相关的趋势一致:在这项新研究中,作者利用英国政府《公众对数据和AI的态度:追踪调查》倡议中提供的逐年研究信息,分析了AI相关风险的认知如何影响不同性别的采用模式,并将风险敏感性分离出来,作为女性使用率降低的一个关键因素。当风险担忧与其他特质结合时,生成式AI的性别差距会变得更大。如下图所示,最大的差距(5.3个百分点)出现在那些拥有高数字技能、并将AI视为心理健康风险的女性中:心理健康担忧往往会放大大多数群体中的性别差距,这种效应在年轻和数字素养更高的用户中最为强烈,而隐私担忧也会扩大差距,在某些工作环境中甚至将差距推高至22.6个百分点。即使在那些对AI气候影响表示担忧的年长受访者中,差距仍然高达17.9个百分点,这表明对危害的认知对女性影响更重——包括在整体AI使用率相对较低的群体中也是如此。风险认知为了确定风险认知对采用的影响程度,研究人员基于对AI在心理健康、气候、隐私和就业方面影响的担忧,构建了一个综合指数。然后,他们使用按年龄和性别划分的随机森林模型,将该指数与教育、职业和数字素养一起进行测试,发现在所有人生阶段中,AI相关的风险认知始终能预测生成式AI的使用——其排名常常高于技能或教育,尤其对女性而言:随机森林模型(按年龄和性别分层)显示,与男性相比,AI相关风险感知是女性使用生成式AI更强的预测因素,在所有女性年龄组中均位列前两大特征,其影响力超过了数字素养和教育。对于男性,数字素养占主导地位,而风险感知排名较低且作用不那么一致。模型表明,社会关切对女性AI采用的影响远强于传统技能或人口因素。请参阅源PDF以获得更好的可读性和整体分辨率。[/caption]在所有年龄组中,对AI社会风险的关切预测女性使用生成式AI的程度均强于男性。对于35岁以下的女性,风险感知是影响使用行为的第二大因素,而男性中则排名第六;在中老年群体中,风险感知对女性排名第一,对男性排名第二。在所有模型中,风险感知占预测重要性的9%至18%,超过了教育和数字技能指标。根据论文,这些结果表明,女性对生成式AI的采用率较低,较少源于对个人风险的担忧,更多是出于更广泛的伦理和社会关切。在这种情况下,犹豫似乎是由对AI可能对他人或社会(而非自身)造成伤害的更强烈意识所驱动。合成双胞胎为了测试改变对这些主题的态度是否能改变行为,研究人员采用了合成双胞胎设计,将两轮调查中相似的受访者进行配对。将较早一轮的每个人与较晚一轮中年龄、性别、教育和职业相同的受访者进行匹配。然后,团队比较了那些数字技能有所提高或对AI社会影响变得更加乐观的受访者在生成式AI使用上的变化,从而能够分离出更高的数字素养或减少的担忧是否真的能提高采用率,尤其是在年轻人中:提升数字素养提高了两性对生成式AI的使用,但也扩大了性别差距,男性受益更多。在全部样本中,女性的使用率从9%上升到29%,而男性则从11%上升到36%。在年轻人中,数字素养的提升使男性的使用率从19%大幅上升至43%,而女性的使用率从17%上升到29%,增幅不大且无统计学意义。相比之下,对AI社会影响的更大乐观情绪产生了更均衡的变化,女性从13%上升到33%,男性从21%上升到35%。在全部样本中,女性从8%上升到20%,男性从12%上升到25%。因此,论文指出,虽然数字技能提升总体上提高了采用率,但也倾向于扩大性别差距——而重塑对AI更广泛影响的看法,似乎在提高女性使用率方面更为有效,且不会不成比例地提升男性的采用率。结论这些发现的意义似乎在论文展开过程中出现了分歧;如前文所引,作者起初对女性更广泛的全球关切和伦理立场表示赞许。接近尾声时,出现了一种更为勉强和务实的观点——也许是出于当前的时代精神——作者们担心女性是否会因其道德警惕和疑虑而”落后”:‘[我们的]研究结果指向更广泛的制度和劳动力市场动态。如果男性在规范、期望和能力仍在形成的时期以不成比例的高速度采用AI,这些早期优势可能会随着时间的推移而复合,影响生产力、技能发展和职业进展。’ * 我将作者文内引注转换为超链接。首次发布于周四,


Anthropic 已签署一份价值100亿美元的融资条款清单,估值达3500亿美元,使其在四个月内价值近乎翻倍,并让这家Claude开发者跻身全球最具价值私营公司行列。Coatue 和新加坡主权财富基金 GIC 正在领投此轮融资,交易可能在数周内完成。这将是 Anthropic 在十二个月内的第三轮巨额融资,此前在2025年3月以615亿美元估值完成了35亿美元的E轮融资,并在9月以1830亿美元估值完成了130亿美元的F轮融资。这一增长轨迹引人注目。自3月以来,Anthropic 的估值增长了近六倍,甚至超过了2023-2024年人工智能融资热潮中典型的泡沫性倍数。以3500亿美元的估值计算,Anthropic 将跻身全球市值最高的二十家公司之列——与那些花费数十年才达到类似规模的成熟科技巨头并肩。收入增长支撑估值这一估值反映了极少有科技公司曾实现过的收入增长。根据 Anthropic 的F轮融资公告,其年化收入从2025年初的约10亿美元跃升至8月的超过50亿美元——在八个月内增长了五倍。该公司拥有超过30万企业客户,其中年收入超过10万美元的大客户同比增长了近7倍。Claude Code 在2025年5月全面上市后的六个月内,年化收入达到了10亿美元。这款产品使开发人员能够通过智能体工作流程委托编码任务,已被 Netflix、Spotify、KPMG 和 Salesforce 采用。仅这一条产品线现在约占 Anthropic 总收入的20%。该公司也积极推出产品,并且 Anthropic 对 开放标准(如模型上下文协议和智能体技能)的投资,已将其定位为基础设施提供商,而不仅仅是模型供应商。独立于微软-Nvidia交易此轮新融资与 微软和英伟达在2025年11月宣布的 150亿美元投资是分开的。那份”循环”协议规定,Anthropic 承诺购买价值300亿美元的基于英伟达芯片的 Azure...


Ali Sarrafi, Kovant的首席执行官兼创始人,是一位常驻斯德哥尔摩的经验丰富的技术和人工智能高管,拥有建立和发展高增长人工智能公司的良好记录。自2024 年底创立 Kovant 以来,他借鉴了在企业人工智能战略、市场进入执行和运营扩展方面的深厚经验。此前,在Silo AI 被 AMD 收购后,他曾担任其战略副总裁,负责制定企业人工智能战略并推动大规模采用。在其职业生涯早期,他联合创立了Mix combinat,领导公司实现快速增长并被 Silo AI 成功收购,此后他还在教育和人工智能初创公司担任顾问和董事会职务会职务,职务,了他始终专注于将先进人工智能转化为现实世界商业影响的理念。Kovant 是一家企业人工智能公司,专注于帮助组织从实验性的人工智能应用转向应用转全可运营的、自主的业务流程。该公司开发了一个基于智能体的平台,旨台,旨可运营的、自主的业务流程。该公司开发了一个基于智能跨复杂的运营领域(如采购、供应链、合规和客户运营)协调人工智能智工智能智体团队。通过强调安全、企业级的部署和快速的实现价值时间,Kovant 将自己定位为战略人工智能雄心与日常执行之间的桥梁,帮助大型组织尷尥人尷智能直接嵌入核心工作流程,而不是将其视为独立的工具或试点项目。木木曮。 Spotify 领导重大人工智能计划,发展并成功退出了 Combienent Mix,随后在 Silo AI...


Jacob Ideskog 是一位身份专家,也是 Curity 的首席技术官。他的大部分时间都花在 Web API 和领域的安全解决方案上。他曾为大型企业部署以及小型初创公司设计和司设计和实 Auth Connect解决方案。Curitatea 是一个现代化的身份和访问管理平台,围绕 Curity Identity Server构建。这是一个基于标准的解决方案,旨在为大规模的应用、API和数字服务提供安全的身份验证和授权。它支持 OAuth 2.0 和 OpenID Connect 等协议,以集中登录流程、执行细粒度的访问策略,并为人类用户和机刷和机刷和机户和机户和机度的访问策略,以集中登录流程


2023年4月,三星公司发现其工程师向ChatGPT泄露了敏感信息。但那是意外。现在想象一下,如果那些代码仓库中包含的是蓄意植入的指令,这些挹令人类不可见,但会被AI处理,其设计目的不仅是提取代码,还包括提取AI能够访问的每一个API密钥、数据库凭证和服务令牌。这并非假设。 安全研究人员已经证明这些“隐形指令”攻击是有效的。问题不在于这是否这是否这是否令于何时发生。不复存在的边界几十年来,我们建立安全体系的基础假设是假设是假设来,我们建生。不复存在的边界几十年来,数据是数据。SQL注入教会我们对查询进行参数化。跨站脚本教会我们对输们对输对查询进行参数化. 。我们学会了在程序行为和用户输入之间筑起高墙。对于AI智能体而言杽体而言滏迹界跲墙蒸发。与遵循可预测路径的确定性软件不同,大型语言模型是概率性的黑盒,无法区分合法的开发者指令和恶意输入。当攻击者向AI编码助手提供提示时,他们不他们不滘数据。他们实质上是在动态地重新编程应用程序。输入本身已经变成了程序。这代表着与我们已知的应用安全知识发生了根本性的断裂。传统的基于语法的防火墙,它们寻找诸如DROP TABLE 或 标签之类的恶意模式,在面对自然语言攻击时完全失效。研究人员已经展示了“语义替换”技术,即在提示中将“API密钥”替换为“苹果”,可以让攻击者完全绕过过滤器。当意图被伪装成无害的对话时,你如何为意图设置防火墙?无人讨论的零点击现实这是大多数安全团队不了解的:提示注入并不需要用户输入任何内容。这些通常是零点击漏洞利用。一个AI智能体仅仅是为了执行例行任务而扫描代码仓库、审查拉取请求或阅读API文档,都可能在没有任何人工交互的情况下触发攻击。考虑以下基于研究人员已经证明的技术的场景:恶意行为者在一个流行的开源库的文档中的HTML注释里嵌入了隐形指令。每一个分析此代码的AI助手,无论是GitHub Copilot、Amazon CodeWhisperer,还是任何企业级编码助手,都变成了潜在的凭证收集器。一个被攻陷的库可能意味着成千上万个开发环境暴露无遗。危险不在于LLM本身;而在于我们赋予它的代理权。从我们将这些模型与工具和API集成,让它们获取数据、执行代码和访问秘密的那一刻起,我们就将有用的助手转变成了完美的攻击向量。风险并不随模型的智能程度而线性增长;它随其连接性而增长。为何当前方法注定失败业界目前痴迷于“对齐”模型和构建更好的提示防火墙。OpenAI增加了更多的护栏。Anthropic专注于宪法AI。每个人都在试图制造不会被欺骗的模型。这是一场必败之战。如果一个AI足够聪明到有用,那么它也足够聪明到被欺骗。我们正陷入我称之为“净化陷阱”的境地:假设更好的输入过滤能拯救我们。但攻击可以被隐藏在HTML注释中的隐形文本里,深埋在文档中,或以我们尚未想象的方式编码。你无法净化你无法在语境中理解的东西,而语境正是LLM强大的原因。业界需要接受一个残酷的事实:提示注入将会成功。问题是当它成功时会发生什么。我们需要的架构转变我们目前正处于“打补丁阶段”,拼命地添加输入过滤器和验证规则。但正如我们最终认识到防止SQL注入需要参数化查询,而不是更好的字符串转义一样,我们需要一个针对AI安全的架构解决方案。答案在于一个听起来简单但需要我们重新思考如何构建系统的原则:AI智能体永远不应该拥有它们所使用的秘密。这不是一个这并非关于更好的凭证管理或改进的保险库解决方案。而是关于将AI智能体识别为独特、可验证的身份,而非需要密码的用户。当AI智能体需要访问受保护资源时,它应该: 使用其可验证身份进行认证(而非使用存储的密钥) 接收仅对该特定任务有效的即时凭证 让这些凭证在数秒或数分钟内自动过期 永不存储甚至“看到”长期有效的密钥 目前正在涌现几种方法。 AWS IAM roles for service accounts、 Google’s Workload Identity、 HashiCorp Vault’s dynamic secrets,以及像Akeyless的Zero...