关注我们.

人工智能

生成式人工智能时代的开源人工智能之战

mm
生成式人工智能时代的开源人工智能之战

开源人工智能正在迅速重塑软件 生态系统 让组织可以使用人工智能模型和工具。 这导致了一些 优势,包括加速创新、提高质量和降低成本。

根据2023 开放逻辑 报告显示,与去年的 80% 相比,77% 的组织正在使用更多开源软件来获取最新创新成果、提高开发速度、减少供应商锁定并最大限度降低许可成本。

当前开源人工智能的格局仍在不断发展。 科技巨头如 Google (米娜、巴德和帕LM), Microsoft (图灵 NLG),以及 亚马逊网络服务 (Amazon Lex)在发布人工智能创新方面更加谨慎。 然而,一些组织,例如 Meta 和其他基于人工智能的研究公司,正在积极开源其人工智能模型。

此外,还存在着激烈的争论 开源人工智能 这围绕着它挑战大型科技的潜力。 本文旨在深入分析开源人工智能的潜在优势,并强调未来的挑战。

开创性的进步——开源人工智能的潜力

许多从业者认为 开源人工智能的兴起是一个积极的发展 因为它使人工智能更加透明、灵活、负责任、负担得起且易于使用。 但出于商业、隐私和安全方面的考虑,OpenAI 和谷歌等科技巨头在开源其模型时非常谨慎。 通过开源,他们可能会失去竞争优势,或者不得不泄露有关其数据和模型架构的敏感信息,而恶意行为者可能会将这些模型用于有害目的。

然而,开源人工智能模型皇冠上的宝石是更快的创新。 几个值得注意的 人工智能进步 已通过开源协作向公众开放。 例如,Meta 通过开源其 LLM 模型做出了开创性的举动 骆驼.

随着研究界获得 骆驼,它促进了人工智能的进一步突破,导致了衍生模型的发展,例如 羊驼骆马。 XNUMX月,稳定性AI 建立了两个法学硕士,名为 Beluga 1 和 Beluga 2 分别利用 LLaMA 和 LLaMA 2。 与当时最先进的模型相比,他们在推理、特定领域问答和理解语言微妙之处等许多语言任务上展示了更好的结果。 最近,Meta推出了 代码 LLaMA– 一种开源 AI 编码工具,在编码任务上的性能优于最先进的模型 – 也构建在 LLaMA 2 之上。

研究人员和从业者也在增强 LLaMA 与专有模型竞争的能力。例如,来自 Giraffe 的开源模型 算盘人工智能Llama-2-7B-32K-指示一起人工智能 现在能够处理 32K 长输入上下文长度——这一功能仅在 GPT-4 等专有 LLM 中可用。 此外,行业举措,例如 MosaicML的 开放源码 MPT 7B30B 模型,使研究人员能够从头开始训练他们的生成式人工智能模型。

总体而言,这种集体努力改变了人工智能的格局,促进了协作和知识共享,从而继续推动突破性的发现。

开源人工智能对公司的好处

开源人工智能具有众多优势,使其成为人工智能领域引人注目的方法。 开源人工智能拥抱透明度和社区驱动的协作,有可能彻底改变我们开发和部署人工智能解决方案的方式。

以下是开源人工智能的一些好处:

  • 快速发展: 开源人工智能模型允许开发人员在现有框架和架构的基础上进行构建,从而实现新模型的快速开发和迭代。 有了坚实的基础,开发人员就可以创建新颖的应用程序,而无需重新发明轮子。
  • 增加透明度: 阳光透明 是开源的一个关键特征,提供了底层算法和数据的清晰视图。 这种可见性减少了偏见并促进公平,从而形成更加公平的人工智能环境。
  • 加强合作: 开源人工智能使人工智能开发民主化,促进协作,培育具有不同专业知识的多元化贡献者社区。

应对挑战——开源人工智能的风险

虽然开源提供了许多优势,但重要的是要意识到它可能带来的潜在风险。 以下是与开源人工智能相关的一些关键问题:

  • 监管挑战: 开源人工智能模型的兴起导致了无节制的发展,其固有的风险需要谨慎的监管。 人工智能的纯粹可访问性和民主化引发了人们对其潜在恶意使用的担忧。 根据最近的一份报告 硅角,一些开源人工智能项目使用安全性较差的生成式人工智能和法学硕士,使组织和消费者面临风险。
  • 质量下降: 虽然开源人工智能模型带来了透明度和社区协作,但随着时间的推移,它们可能会出现质量下降的问题。 与由专门团队维护的闭源模型不同,维护的负担通常落在社区身上。 这通常会导致潜在的忽视​​和过时的模型版本。 这种退化可能会阻碍关键应用程序,危及用户信任和人工智能的整体进步。
  • 人工智能监管复杂性: 开源人工智能模型给人工智能监管机构带来了新的复杂性。 有很多因素需要考虑,例如如何保护敏感数据、如何防止模型被用于恶意目的以及如何确保模型得到良好维护。 因此,对于人工智能监管机构来说,确保开源模型的用途是有益的而不是有害的,这是相当具有挑战性的。

开源人工智能争论的不断演变

“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建。 它还提高了安全性,因为当软件开放时,更多的人可以仔细检查它以识别和修复潜在问题”, 说过 马克·扎克伯格 当他宣布 美洲驼2 今年XNUMX月份的大型语言模型。

另一方面,微软支持的 OpenAI 和谷歌等主要参与者则保持其人工智能系统的封闭性。 他们的目标是获得竞争优势并最大限度地降低人工智能滥用的风险。

OpenAI联合创始人兼首席科学家, Ilya Sutskever 告诉 The Verge, “这些模型非常有效,而且正变得越来越有效。 在某些时候,如果有人愿意的话,这些模型会很容易造成很大的伤害。 随着能力变得越来越高,你不想透露它们也是有道理的。” 因此,与开源人工智能模型相关的潜在风险是人类无法忽视的。

虽然人工智能能够造成人类毁灭可能还需要几十年的时间,但开源人工智能工具已经被滥用。 例如,第一个 LLaMA 模型只是为了推进人工智能研究而发布的。 但恶意代理利用了它 创建传播仇恨内容的聊天机器人 比如种族歧视和刻板印象。

在开放人工智能协作和负责任的治理之间保持平衡至关重要。 它确保人工智能的进步仍然对社会有益,同时防止潜在的危害。 技术界必须合作建立促进道德人工智能发展的指导方针和机制。 更重要的是,他们必须采取措施防止滥用,使人工智能技术成为积极变革的力量。

想提高你的AI IQ吗? 浏览 联合人工智能内容丰富、富有洞察力的 AI 资源目录可扩展您的知识。

哈兹卡 是一位数据科学家,在为 AI 和 SaaS 公司编写技术内容方面拥有丰富的经验。