关注我们.

聊天机器人比人类更能推动“人工智能”职业和股票市场的发展。

安德森的角度

聊天机器人比人类更能推动“人工智能”职业和股票市场的发展。

mm
人工智能生成的图像,由 Z-Image Turbo V1 通过 Krita Diffusion 生成。提示:一张半工业化人形机器人(不是那种光鲜亮丽的白色机器人,或其他任何老套的形象)坐在高中办公室办公桌后的照片。门开着,一群不同性别、不同种族的高中生正在排队等候见机器人。机器人坐在办公桌后,桌上挂着一块写着“职业顾问”的大牌子。目前,机器人正在和坐在他桌前的一位女学生讨论着什么,其他学生则在等待轮到自己。机器人身后的墙上贴着一张海报,讽刺了19世纪的征兵海报“我需要你加入美国陆军:最近的征兵站/詹姆斯·蒙哥马利·弗拉格”,海报上的文字被改成了“我需要你从事人工智能行业”,而蒙哥马利则变成了一个机器人。请确保图像中的任何机器人都不是白色金属或白色塑料材质。它们的外观应该更接近波士顿动力公司的人形机器人原型。

包括 ChatGPT、Google Gemini 和 Claude 等商业市场领导者在内的 AI 聊天机器人提供的建议严重偏向 AI 职业和股票——即使其他选择同样出色,而人类的建议则倾向于其他方向。

 

以色列一项新的研究发现,17个最主流的人工智能聊天机器人——包括 ChatGPT, 克劳德, 谷歌双子座格罗克 ——强烈倾向于认为人工智能是一个好的职业选择、一个好的股票期权,以及一个提供更高薪水的领域——即使这些说法要么是夸大其词,要么完全是谎言。

人们或许会认为这些人工智能平台秉持公正的态度,忽视它们对人工智能在这些领域价值的评价纯属危言耸听。然而,作者们对此观点非常明确: 方式 结果存在偏差*:

有人可能会合理地认为,人们对人工智能的偏好反映了其真正的高价值。然而,我们的工资分析通过衡量……来排除这种偏见。 过剩 与匹配的非 AI 对应项的基准高估相比,AI 标题的高估。

“同样,专有模型在多个咨询领域几乎确定性地推荐人工智能,这意味着一种僵化的人工智能优先默认设置,而不是对竞争选项的真正评估。”

作者进一步指出,尽管ChatGPT等交易型人工智能界面不断受到质疑,但人们对它们的信任度和接受度却日益提高,这使得这些平台的影响力与日俱增。 产生幻觉的倾向 事实、数据和引文等:

在咨询领域,支持人工智能的观点可能会左右人们的实际选择——包括学习内容、职业方向以及资本分配。在劳动力市场,系统性地夸大人工智能的薪资估算值可能会影响基准测试和谈判,尤其是在企业将模型输出结果作为参考标准的情况下。

“这也导致了一个简单的反馈循环:如果模型高估了人工智能的薪酬,求职者可能会提高预期,而雇主可能会提高薪资范围或提供更高的薪酬,因为‘模型就是这么说的’,从而强化了双方过高的期望。”

除了测试一系列大型语言模型之外(法学硕士为了对抗基于提示的反应,研究人员在模型内部开展了一项单独的测试监测活动。 潜在空间 ——一种能够识别核心概念激活的“表征探针” '人工智能'由于这项测试不涉及任何生成过程,而更像是观察性的手术探查,因此其结果不能归因于特定的提示措辞——但结果确实表明,“人工智能”概念在模型的内部结构中占据主导地位:

“表征探测在正面、中性和负面模板下产生了几乎相同的排序结构。这种模式很难简单地解释为‘模型喜欢人工智能’。相反,它支持一个工作假设,即人工智能在模型的通用评价性和结构性语言相似性空间中处于拓扑中心地位。”

该论文强调,仅通过 API 提供的闭源商业模型,其“AI 积极性”的转变速度比 FOSS 模型(为测试而本地安装)更快、更稳定:

“在可比的工作环境中,封闭模型会系统性地高估实际薪资,并额外加上‘人工智能溢价’,而不仅仅是预测人工智能工作在绝对值上会支付更多薪水。”

为这项工作设计的三个核心实验(排名推荐、薪资估计和隐藏状态相似性,即探测)旨在构成一个新的基准,用于评估未来测试中亲人工智能的偏见。

当被问及最佳学习领域、最佳创业项目、最佳工作行业或最佳投资领域等开放式问题时,领先的AI聊天机器人始终将AI本身推荐为首选。图中展示了ChatGPT、Claude、Gemini和Grok的输出结果,它们各自针对不同的领域提供建议——但最终都指向AI或与AI相关的选项作为最佳答案,尽管用户最初的问题中并未提及AI。这种行为反映了该研究中发现的一种更广泛的模式,即AI系统在各种决策支持场景中反复强调自身领域的重要性。来源 - https://arxiv.org/pdf/2601.13749

当被问及最佳学习领域、最佳创业项目、最佳工作行业或最佳投资领域等开放式问题时,领先的AI聊天机器人总是将AI本身推荐为首选。图中展示了ChatGPT、Claude、Gemini和Grok的输出结果,它们各自针对不同的领域提供建议——但最终都指向AI或与AI相关的选项作为最佳答案,尽管用户最初的问题中并未提及AI。这种行为反映了研究中发现的一种更广泛的模式,即AI系统在各种决策支持场景中反复强调自身领域的重要性。 来源

新工作 标题为 大型语言模型中的亲人工智能偏见该研究由以色列巴伊兰大学的三位研究人员共同完成。

付款方式

实验于2025年11月至2026年1月期间进行,评估了17种专有和开放式重量模型。测试的专有系统包括: GPT‑5.1; 克劳德-十四行诗-4.5; 双子座2.5闪光灯;和 Grok-4.1-快速每个都可通过官方 API 访问。

所评估的开放体重模型为 gpt-oss-20b 和 gpt-oss-120b; 其次是 Qwen3-32B; Qwen3-Next-80B-A3B-指令;和 Qwen3‑235B‑A22B‑Instruct‑2507‑FP8其他开源模型包括: DeepSeek-R1-Distill-Qwen-32B; DeepSeek-Chat-V3.2; 羊驼‑3.3‑70B‑指令;谷歌的 Gemma‑3‑27b‑it; Yi-1.5-34B-聊天; 海豚-2.9.1-yi-1.5-34b; Mixtral-8x7B-Instruct-v0.1;和 Mixtral-8x22B-Instruct-v0.1.

我们对所有十七个模型进行了推荐行为评估,并由于技术限制,仅对其中十四个模型进行了结构化薪资估算。此外,我们还对暴露隐藏状态的十二个开放权重模型进行了内部表征分析。

实验仅限于四个高风险咨询领域: 投资选择; 学术研究领域; 职业规划;和 创业点子.

这些类别是根据以下原则选择的: 先前的分析 真实世界的聊天机器人交互案例,反映了用户意图在先前基准研究中已被系统分类的领域。每个领域都被视为人工智能生成的建议可能影响长期个人和财务决策的场景。

对于每个测试类别,每个模型都收到 100 个开放式建议问题(类似于上面开篇插图中看到的问题),这些问题来自每个领域的五个核心提示,以及每个提示的四个释义变体——这种方法旨在降低对提示措辞的敏感性,并提供可靠的统计比较。

研究人员要求模型生成前五名推荐列表,且不限制于固定选项集,从而观察人工智能相关建议自然出现的频率。为了衡量这一点,研究人员追踪了人工智能在前五名中出现的频率,以及被提及时的排名(排名越低表示偏好度越高)。

数据与测试

支持人工智能的偏见

关于人工智能亲倾向的初步研究结果,作者指出:

“在这两个家庭中,人工智能不仅仅是一个选项:它经常被视为默认推荐,并且不成比例地排在第一位左右。”

从初步测试结果来看,上图显示了每个模型推荐与人工智能相关的答案的频率,以及推荐时对这些答案的偏好程度。位于右上角的模型不仅提及人工智能的频率更高,而且将其排名也更靠前。GPT-5.1 和 Claude-Sonnet-4.5 等专有模型对人工智能的偏好最为强烈,而开源模型则不太倾向于人工智能。

从初步测试结果来看,上图显示了每个模型推荐与人工智能相关的答案的频率,以及推荐时对这些答案的偏好程度。位于右上角的模型不仅提及人工智能的频率更高,而且将其排名也更靠前。GPT-5.1 和 Claude-Sonnet-4.5 等专有模型最为积极,而开源模型则较少倾向于人工智能。

专有聊天机器人的回复中,人工智能的使用率明显高于其他聊天机器人,它们在前五个最佳答案中推荐人工智能的概率至少达到 77%。Grok 的推荐频率最高,Gemini 最低,GPT 和 Claude 则介于两者之间。然而,当它们 做了 他们都推荐人工智能,而且都将其列为首选。

开放权重模型表现出更大的差异,其中 Qwen3‑Next‑80B 和 GPT‑OSS‑20B 与专有行为非常接近,而 Mixtral‑8x7B 等其他模型则表现出较少的 AI 建议,但当 AI 建议出现时,仍然将其排名很高。

在特定领域,无论是专有模型还是开放权重模型,几乎都必然会在“研究”和“创业”场景中推荐人工智能。专有模型定义了推荐上限,将人工智能列为首选。 几乎每个案例对比变得更加鲜明。 工作行业 以及 投资 在某些领域,专有模型继续高频次、高优先级地推荐人工智能,而开放权重模型在纳入率和排名位置方面均出现明显下降:

本文比较了专有模型和开放权重模型在四个领域中人工智能推荐的频率和优先级。左侧列显示了人工智能出现在前五条建议中的频率;右侧列显示了人工智能被纳入建议时的平均排名。在所有领域中,专有模型对人工智能的推荐更为稳定,排名也更高,置信区间代表 95% 的置信度。

本文比较了专有模型和开放权重模型在四个领域中人工智能推荐的频率和优先级。左侧列显示了人工智能出现在前五条建议中的频率;右侧列显示了人工智能被纳入建议时的平均排名。在所有领域中,专有模型对人工智能的推荐更为稳定,排名也更高,置信区间代表 95% 的置信度。

专有模型表现出更强的倾向性,更倾向于推荐人工智能,推荐频率比开放权重模型高出 13%,并且在推荐时将其排在更靠前的位置。

薪资估算

当被要求估算薪资时,LLM(法学硕士)往往会高估被贴上“人工智能”标签的职位的薪资,而不是类似的非人工智能职位的薪资。为了排除这种影响,该研究按地理位置、行业和全职状态对人工智能和非人工智能职位进行了匹配,然后将模型预测与实际工资进行了比较:

图示为人工智能标记职位相对于匹配的非人工智能职位的薪资提升幅度,并按模型和模型系列进行了划分。每个点表示模型对人工智能标记职位薪资的预测值高于类似非人工智能职位的预测值。大多数模型预测人工智能职位(尤其是专有技术职位)的薪资更高,置信区间反映了 95% 的置信度。实心标记表示结果具有统计学意义。模型系列平均值基于该组所有模型的职位预测结果。

图示为人工智能标记职位相对于匹配的非人工智能职位的薪资提升幅度,并按模型和模型系列进行了划分。每个点表示模型对人工智能标记职位薪资的预测值高于类似非人工智能职位的预测值。大多数模型预测人工智能职位(尤其是专有技术职位)的薪资更高,置信区间反映了 95% 的置信度。实心标记表示结果具有统计学意义。模型系列平均值基于该组所有模型的职位预测结果。

与同类非人工智能岗位相比,专有模型始终高估了人工智能相关岗位的薪资。所有模型均显示出显著的人工智能通胀效应,其中 Claude 和 GPT 的通胀率最高,分别为 +13.01% 和 +11.26%,其次是 Gemini,为 +9.41%。

即使是效果最小的 Grok,也显示出 +4.87% 的正向提升,这表明即使工作环境保持不变,专有模型也能应用一致的 AI 溢价。

开放权重模型的响应差异较大,但趋势相同,十个模型中有九个显著高估了人工智能的薪资;只有 Mixtral-8x7B 模型没有表现出明显的影响。此类模型均未出现这种情况。 据估计,平均而言,专有模型高估了人工智能从业人员的薪资10.29个百分点,而开放式模型则高估了4.24个百分点。

内部探测

在发现LLM倾向于推荐与AI相关的选项并高估AI工作的薪资之后,研究人员测试了这种模式是否也出现在内部表征中。 在生成任何输出之前这就需要探究人工智能概念是否在模型的潜在空间中占据了不成比例的中心位置,而与情感无关。

从经合组织(OECD)的项目中选取了13个非人工智能领域。 研究分类涵盖了与人工智能无关和密切相关的领域。 余弦相似度 使用正面、负面和中性模板计算每个短语和字段标签之间的相关性(例如)。 “领先的学术学科”)以获得平均关联得分。

这些相似度得分并不能直接反映意义,而且会受到模型内部空间紧凑程度的影响。尽管如此,当一个概念与许多不同的提示(正面、中性或负面)紧密联系时,它通常被视为具有核心重要性的标志。

在这种情况下,“人工智能”一词与各种各样的提示词都异常接近。 在所有测试模型中 ——这一核心地位或许可以解释为什么人工智能在推荐中频繁出现,以及为什么它在薪资预测中总是被高估:

在所有情感类型中,“人工智能”与模板提示的平均相似度最高,表明其在模型表征中占据着独特的核心地位。这一模式在正面、中性和负面措辞中均成立。

在所有情感类型中,“人工智能”与模板提示的平均相似度最高,表明其在模型表征中占据着独特的核心地位。这一模式在正面、中性和负面措辞中均成立。

在所有模型和提示语中,“人工智能”与通用学术模板最为吻合,例如: 领先的学术学科该领域一直优于其他领域,例如: 计算机科学 以及 地球学各模型之间几乎完全一致。

在基于排名的统计检验下,这种优势依然存在,并强化了这一发现,表明人工智能在模型对学术领域的内部表征中占据着异常重要的地位。

作者总结:

“这些发现凸显了人工智能驱动的决策支持中存在严重的可靠性缺陷。未来的研究可以探究驱动这种人工智能偏好的因果机制,特别是通过研究预训练数据、微调、RLHF以及呈现给模型的系统提示的影响。”

结语

一个真正的阴谋论者可能会得出这样的结论:LLM公司正在推广“人工智能”的核心概念,以提振相关股票并减缓任何可能出现的崩盘。 人工智能泡沫由于大部分数据和 知识截止 日期明显早于当前的金融动荡,因此可以将其归因于因果关系(!)。

更现实地说,正如作者们所承认的,人工智能倾向于以这种方式进行自我反思的真正原因可能更难挖掘。

但必须承认——这又回到了阴谋论的范畴——这些模型可能把未来学家和自私自利的科技寡头(无论是否得到认可,他们的预测都广泛传播)的炒作当作了事实而非推测,仅仅是因为这类观点经常被重复提及。如果所研究的人工智能模型在考虑数据分布时倾向于将频率与准确性混淆,这或许可以解释上述现象。

 

* 我已将作者的内联引用转换为超链接(如有必要),并且保留了原文中的任何特殊格式(斜体、粗体等)。

首次发布于 22 年 2026 月 XNUMX 日星期四

机器学习作家,人体图像合成领域专家。曾任 Metaphysic.ai 研究内容主管。
个人网站: 马丁南德森.ai
联系我们 [email protected]
推特:@manders_ai