存根 对人工智能幻觉和偏见的担忧日益加剧:Aporia 2024 年报告强调行业标准的迫切需要 - Unite.AI
关注我们.

伦理

对人工智能幻觉和偏见的担忧日益加剧:Aporia 2024 年报告强调行业标准的迫切需要

mm

发布时间

 on

A 阿波里亚最近的报告人工智能控制平台领域的领导者,在人工智能和机器学习(AI & ML)领域带来了一些惊人的发现。 Aporia 进行的题为“2024 年人工智能和机器学习报告:模型和解决方案的演变”的调查指出,生成式人工智能和大语言模型 (LLM) 中的幻觉和偏见呈增长趋势,这标志着快速发展的行业面临着一项重大挑战。到期。

人工智能幻觉 参考生成的实例 生成式人工智能模型 产生不正确、无意义或脱离现实的输出。这些幻觉的范围可以从轻微的不准确到严重的错误,包括生成有偏见或潜在有害的内容。

人工智能幻觉的后果可能是严重的,特别是当这些模型越来越多地融入商业和社会的各个方面时。例如,人工智能生成的信息不准确可能会导致错误信息,而有偏见的内容可能会延续刻板印象或不公平做法。在医疗保健、金融或法律咨询等敏感应用中,此类错误可能会产生严重影响,影响决策和结果。

调查结果强调了对生产模式进行警惕监测和观察的必要性。

Aporia 的调查包括来自北美和英国的 1,000 名机器学习专业人士的回复。这些人在拥有 500 至 7,000 名员工的公司工作,涉及金融、医疗保健、旅游、保险、软件和零售等行业。调查结果强调了机器学习生产领导者面临的挑战和机遇,揭示了人工智能优化对效率和价值创造的重要作用。

重要见解 报告中包括:

  1. 运营挑战的普遍性:绝大多数 93% 的机器学习工程师表示每天或每周都会遇到生产模型的问题。这一重要统计数据强调了对有效监控工具的迫切需求,以确保平稳运行。
  2. 人工智能幻觉的发生率:大约 89% 的使用大型语言模型和生成人工智能的工程师表示在这些模型中经历过幻觉。这些幻觉表现为事实错误、偏见或可能有害的内容。
  3. 专注于减少偏见:尽管在检测偏见数据方面存在障碍并且缺乏足够的监控工具,但 83% 的调查受访者强调了监控人工智能项目中偏见的重要性。
  4. 实时可观测性的重要性: 88% 的机器学习专业人士认为,实时可观测性对于识别生产模型中的问题至关重要,但由于缺乏自动化监控工具,并非所有企业都具备这种能力。
  5. 资源开发投资:报告显示,公司平均投资约四个月的时间来开发用于监控生产的工具和仪表板,这凸显了对此类投资的效率和成本效益的潜在担忧。

“我们的报告显示了业界的明确共识,人工智能产品正在快速部署,如果不监控这些机器学习模型,将会产生后果。” Aporia 首席执行官 Liran Hason 说道。 “这些工具背后的工程师已经说过——技术存在问题,并且可以修复。但需要正确的可观察工具来确保企业和消费者都获得最好的产品,没有幻觉和偏见。”

致力于提高由机器学习驱动的人工智能产品的有效性,一直致力于解决 MLOps 挑战并倡导负责任的人工智能实践。该公司以客户为中心的方法和对用户反馈的整合导致了强大的工具和功能的开发,以改善用户体验,支持生产模型的扩展,并帮助消除幻觉。

Aporia 的完整报告深入探讨了这些发现及其对人工智能行业的影响。要探索更多信息,请访问 阿波里亚的调查报告.

Unite.AI 创始合伙人 & 会员 福布斯技术委员会, 安托万是一个 未来学家 他对人工智能和机器人技术的未来充满热情。

他也是 证券,一个专注于投资颠覆性技术的网站。