关注我们.

伦理

对人工智能幻觉和偏见的担忧日益加剧:Aporia 2024 年报告强调行业标准的迫切需要

mm

A 阿波里亚最近的报告人工智能控制平台领域的领导者,在人工智能和机器学习(AI & ML)领域带来了一些惊人的发现。 Aporia 进行的题为“2024 年人工智能和机器学习报告:模型和解决方案的演变”的调查指出,生成式人工智能和大语言模型 (LLM) 中的幻觉和偏见呈增长趋势,这标志着快速发展的行业面临着一项重大挑战。到期。

人工智能幻觉 参考生成的实例 生成式人工智能模型 产生不正确、无意义或脱离现实的输出。这些幻觉的范围可以从轻微的不准确到严重的错误,包括生成有偏见或潜在有害的内容。

人工智能幻觉的后果可能是严重的,特别是当这些模型越来越多地融入商业和社会的各个方面时。例如,人工智能生成的信息不准确可能会导致错误信息,而有偏见的内容可能会延续刻板印象或不公平做法。在医疗保健、金融或法律咨询等敏感应用中,此类错误可能会产生严重影响,影响决策和结果。

调查结果强调了对生产模式进行警惕监测和观察的必要性。

Aporia 的调查涵盖了来自北美和英国的 1,000 名机器学习专业人士。这些专业人士就职于员工人数在 500 至 7,000 人之间的公司,涉及金融、医疗保健、旅游、保险、软件和零售等行业。调查结果凸显了机器学习生产领导者面临的挑战和机遇,并揭示了人工智能优化对效率和价值创造的重要作用。

重要见解 报告中包括:

  1. 运营挑战的普遍性:绝大多数 93% 的机器学习工程师表示每天或每周都会遇到生产模型的问题。这一重要统计数据强调了对有效监控工具的迫切需求,以确保平稳运行。
  2. 人工智能幻觉的发生率:大约 89% 的使用大型语言模型和生成人工智能的工程师表示在这些模型中经历过幻觉。这些幻觉表现为事实错误、偏见或可能有害的内容。
  3. 专注于减少偏见:尽管在检测偏见数据方面存在障碍并且缺乏足够的监控工具,但 83% 的调查受访者强调了监控人工智能项目中偏见的重要性。
  4. 实时可观测性的重要性: 88% 的机器学习专业人士认为,实时可观测性对于识别生产模型中的问题至关重要,但由于缺乏自动化监控工具,并非所有企业都具备这种能力。
  5. 资源开发投资:报告显示,公司平均投资约四个月的时间来开发用于监控生产的工具和仪表板,这凸显了对此类投资的效率和成本效益的潜在担忧。

“我们的报告显示了业界的明确共识,人工智能产品正在快速部署,如果不监控这些机器学习模型,将会产生后果。” Aporia 首席执行官 Liran Hason 说道。 “这些工具背后的工程师已经说过——技术存在问题,并且可以修复。但需要正确的可观察工具来确保企业和消费者都获得最好的产品,没有幻觉和偏见。”

致力于提升机器学习驱动的人工智能产品的有效性,并持续应对MLOps挑战,倡导负责任的人工智能实践。公司秉持以客户为中心的理念,并积极整合用户反馈,开发出一系列强大的工具和功能,以提升用户体验,支持生产模型的扩展,并帮助消除幻觉。

Aporia 的完整报告深入探讨了这些发现及其对人工智能行业的影响。要探索更多信息,请访问 Aporia的调查报告.

Antoine 是一位富有远见的领导者,也是 Unite.AI 的创始合伙人,他对塑造和推动人工智能和机器人技术的未来有着坚定不移的热情。作为一名连续创业者,他相信人工智能将像电力一样颠覆社会,并经常对颠覆性技术和 AGI 的潜力赞不绝口。

作为一个 未来学家他致力于探索这些创新将如何塑造我们的世界。此外,他还是 证券一个专注于投资重新定义未来和重塑整个行业的尖端技术的平台。