人工智能
开源AI的战斗——在生成AI的浪潮中

开源AI正在迅速重塑软件生态系统,使AI模型和工具能够被组织所使用。这导致了一系列的好处,包括加速创新、提高质量和降低成本。
根据2023年OpenLogic报告,80%的组织正在使用更多的开源软件,相比去年的77%,以便能够获取最新的创新、提高开发速度、减少供应商锁定和最小化许可成本。
当前的开源AI格局仍在不断演变。科技巨头如Google(Meena、Bard和PaLM)、Microsoft(Turing NLG)和Amazon Web Services(Amazon Lex)在发布他们的AI创新时更加谨慎。然而,一些组织,如Meta和其他AI研究公司,正在积极地开源他们的AI模型。
此外,关于开源AI的辩论非常激烈,围绕着它可能挑战大科技公司的潜力。这篇文章旨在对开源AI的潜在好处进行深入分析,并强调前方的挑战。
开创性进展——开源AI的潜力
许多从业者认为开源AI的崛起是一种积极的发展,因为它使AI更加透明、灵活、负责、廉价和易于获取。但是,像OpenAI和Google这样的科技巨头在开源他们的模型时非常谨慎,因为他们担心商业、隐私和安全问题。通过开源,他们可能会失去竞争优势,或者他们将不得不泄露有关他们的数据和模型架构的敏感信息,恶意行为者可能会将这些模型用于有害目的。
然而,开源AI模型的王冠是更快的创新。几项值得注意的AI进展已经通过开源合作成为公开的。例如,Meta通过开源他们的LLM模型LLaMA,做出了开创性的举动。
随着研究人员获得了LLaMA的访问权限,它促进了进一步的AI突破,导致了衍生模型的开发,如Alpaca和Vicuna。在七月,Stability AI 构建了两个LLM,名为Beluga 1和Beluga 2,分别利用LLaMA和LLaMA 2。他们在许多语言任务中展示了更好的结果,例如推理、特定领域的问答和理解语言细微差别,相比当时的最先进模型。最近,Meta推出了Code LLaMA,这是一种开源的AI工具,用于编码,建立在LLaMA 2的基础上,已经在编码任务中超越了最先进的模型。
研究人员和从业者也在增强LLaMA的能力,以便与专有模型竞争。例如,开源模型,如Abacus AI的Giraffe和Together AI的Llama-2-7B-32K-Instruct,现在可以处理长达32K的输入上下文长度,这一特性以前只在专有LLM中可用,例如GPT-4。此外,行业倡议,如MosaicML的开源MPT 7B和30B模型,正在赋予研究人员从头开始训练他们的生成AI模型的能力。
总体而言,这种集体努力已经改变了AI的格局,促进了合作和知识共享,这些将继续推动开创性的发现。
开源AI对公司的好处
开源AI提供了众多好处,使其成为人工智能领域的一种令人信服的方法。通过拥抱透明度和社区驱动的合作,开源AI有可能改变我们开发和部署AI解决方案的方式。
以下是开源AI的一些好处:
- 快速开发:开源AI模型允许开发人员建立在现有的框架和架构之上,实现快速开发和迭代新的模型。有了坚实的基础,开发人员可以创建新的应用程序,而无需重新发明轮子。
- 提高透明度:透明度是开源的一个关键特征,提供了对底层算法和数据的清晰视图。这种可见性降低了偏见,促进了公平,导致了更加公平的AI环境。
- 提高合作:开源AI使AI开发民主化,这促进了合作,培养了一个具有不同专业知识的贡献者多样化的社区。
应对挑战——开源AI的风险
虽然开源提供了许多优势,但也必须意识到它可能带来的潜在风险。以下是开源AI的一些关键问题:
- 监管挑战:开源AI模型的崛起导致了无拘无束的发展,带来了内在的风险,需要谨慎监管。AI的可及性和民主化引发了人们对其潜在恶意使用的担忧。根据SiliconAngle的一份最近报告,一些开源AI项目使用生成AI和LLM,安全性差,危及组织和消费者的安全。
- 质量下降:开源AI模型带来了透明度和社区合作,但也可能随着时间的推移而恶化。与由专用团队维护的专有模型不同,维护的负担通常落在社区身上。这通常会导致潜在的忽视和过时的模型版本。这种恶化可能会阻碍关键应用,危及用户的信任和整体AI进步。
- AI监管复杂性:开源AI模型引入了新的复杂性,给AI监管者带来了挑战。需要考虑诸如如何保护敏感数据、如何防止模型被用于恶意目的以及如何确保模型得到良好的维护等因素。因此,对于AI监管者来说,确保开源模型被用于善事而不是恶事是非常具有挑战性的。
开源AI辩论的演变
“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建。它还提高了安全性和可靠性,因为当软件开源时,更多的人可以检查它以识别和修复潜在问题”,Mark Zuckerberg在七月份宣布LLaMA 2大型语言模型时曾说过。
另一方面,像Microsoft支持的OpenAI和Google这样的主要玩家正在保持他们的AI系统封闭。他们旨在获得竞争优势并最小化AI滥用的风险。
OpenAI的联合创始人和首席科学家Ilya Sutskever告诉The Verge,“这些模型非常强大,它们变得越来越强大。到某个时候,如果有人想要的话,很容易对这些模型造成巨大的伤害。而随着能力的提高,人们不希望公开这些模型是有道理的”。因此,开源AI模型存在潜在风险,人类无法忽视。
虽然能够造成人类毁灭的AI可能还需要几十年的时间,但开源AI工具已经被滥用。例如,第一个LLaMA模型仅用于推进AI研究。但是,恶意行为者使用它创建了传播仇恨内容的聊天机器人,如种族歧视和刻板印象。
在开源AI合作与负责任的治理之间保持平衡至关重要。这确保了AI的进步对社会有益,同时保护免受潜在的危害。技术社区必须合作,建立促进道德AI开发的指南和机制。更重要的是,他们必须采取措施防止滥用,确保AI技术成为积极的变革力量。
您想提高您的AI智商吗?浏览Unite.ai的广泛AI资源目录,扩大您的知识。













