Connect with us

思想领袖

为什么要去中心化您的 AI 技术栈

mm
Decentralized AI

关于 AI 开发的讨论已经被一个未来主义和哲学的辩论所主导 – 我们应该追求通用人工智能,即 AI 将变得足够先进,以像人类一样执行任何任务?这是否可能实现?

虽然关于加速与减速的讨论很重要,并且与 Q-star 模型等进步同时进行,但其他方面也很重要。主要是去中心化技术栈的重要性,以及如何在不增加太多成本负担的情况下实现这一点。这些两个挑战可能会相互冲突:构建和部署模型的成本非常高,但过度依赖一个模型可能会在长期内造成损害。作为一名 AI 创始人,我亲身经历了这个挑战。

为了构建智能,您需要人才、数据和可扩展的计算能力。为了加快上市速度并用更少的资源做更多事情,许多公司将选择在现有模型的基础上构建,而不是从头开始构建。这种方法在您构建的东西非常耗资源时是有意义的。这种挑战的复合因素是,到目前为止,AI 领域的大部分进步都是通过增加规模来实现的,这需要更多的计算能力和因此更高的成本。

但是,当您构建解决方案的公司出现治理失败或产品故障时会发生什么?从实际角度来看,依赖单个模型来构建您的产品意味着您现在是任何发生的事情的负面连锁反应的一部分。

我们也必须记住使用概率系统的风险。我们不习惯这样,而且我们迄今为止所生活的世界是被设计成具有明确答案的。模型在输出方面是流动的,公司也会不断调整模型,这意味着您编写的支持这些模型的代码以及客户依赖的结果都可能在您不知情或无法控制的情况下发生变化。

集中化也会产生安全问题,因为它引入了单点故障。每家公司都在为自己的最佳利益工作。如果模型存在安全或风险问题,您将对解决该问题或访问替代方案的控制权较少。

这将我们带到哪里?

AI 无疑将改善我们的生活。它能够实现和解决很多事情,从我们收集信息的方式到我们理解大量数据的方式。但是,随着这些机会也带来了风险。如果我们过度依赖单个模型,所有公司都将面临安全和产品挑战。

为了解决这个问题,我们需要降低推理成本,并使公司更容易采用多模型方法。当然,一切都与数据有关。数据和数据所有权将很重要。数据越独特、质量越高、可用性越好,它就越有用。

对于许多问题,您可以优化模型以适应特定应用。AI 的最后一公里是公司在不同模型上构建路由逻辑、评估和编排层,专门为不同垂直领域服务。

在这个领域已经有多项重大投资,这些投资正在使我们更接近这一目标。Mistal 最近(并令人印象深刻)的融资轮是朝着 OpenAI 替代品迈出的一步。还有公司帮助其他 AI 提供商实现跨模型多路复用并通过专用硬件、软件和模型蒸馏来降低推理成本,仅举几例。

我们也将看到开源的兴起,政府机构必须使开源保持开源。使用开源模型,您可以更容易地控制它。然而,性能差距仍然存在。

我假设我们最终将进入一个世界,您将拥有针对执行较少复杂任务的初级模型进行优化,而更大的超级智能模型将作为更新的oracle,并将越来越多地花费计算资源来解决更复杂的问题。您不需要一个 trillion 参数模型来响应客户服务请求。我将其比喻为不让高级主管处理一名实习生可以处理的任务。就像我们有多个人类对应的角色一样,大多数公司也将依赖于具有不同复杂度级别的模型集合。

为了实现这种平衡,您需要明确的任务分解和基准测试,考虑时间、计算复杂性、成本和所需的规模。根据用例,您可以相应地优先考虑。确定一个基准真相、一个理想的结果用于比较,以及一个示例输入和输出数据,因此您可以运行各种提示来优化并获得最接近基准真相的结果。

如果 AI 公司能够成功去中心化其技术栈并在多个模型上构建,我们可以提高这些工具的安全性和可靠性,从而最大限度地发挥 AI 的积极影响。我们不再处于理论辩论的阶段 – 现在是时候专注于如何使 AI 工作以使这些技术更有效和更有韧性。

Naré Vardanyan 是 Ntropy 的 CEO 和联合创始人,Ntropy 是一家金融数据标准化和丰富 API。