思想领袖
向人工智能推理的转变将实时智能带入边缘

人工智能行业——以及由此引发的讨论——正在将焦点从训练人工智能模型上转移。过去,这种模式主要集中在云端或数据中心(或两者兼有),如今已是“旧闻”。如今,随着大多数行业中大量用例的出现,这些模型正在分布式、去中心化的环境中部署和运行。行业正在从训练阶段过渡到推理阶段,而这一转变发生在边缘计算领域,从智能摄像头到嵌入工业机械的设备,所有设备都需要实时智能。焦点正在从集中式人工智能训练转向边缘人工智能,即混合部署。
在速度、精度和数据隐私比以往任何时候都更加重要的时代, 边缘AI 正在重新定义企业最关键接触点的运营流程。与依赖云基础设施的传统人工智能模型不同,边缘人工智能让决策更接近数据生成点。
边缘人工智能的价值
最小化数据生成和决策之间的距离,消除网络传输延迟,从而最大程度地降低延迟,从而更快地提供预测性洞察和自动化决策。这种实时处理能够提升组织效率,改善从客户体验到产品质量的各个方面,甚至支持员工安全。无论用例如何,更短的距离还能通过减少敏感数据的传输时间并降低所需带宽来提高安全性和可靠性。
无论哪个行业,即时性和相关性都是最重要的。
例如,在制造业中,边缘人工智能可以为质量保证系统提供支持,该系统可以立即标记产品缺陷。在医疗保健领域,它可以支持 病人监护系统 在检测到异常时立即触发警报。零售商将使用边缘人工智能来个性化店内顾客体验并动态管理库存。然而,在所有这些场景中,位于边缘的必要智能是主要的区别因素。在毫秒之间至关重要的情况下,边缘人工智能至关重要。
从数据中心到边缘,环境至关重要
虽然 GPU 通常被视为 AI 的代名词,但边缘 AI 涉及更多细微差别,因为推理工作负载的需求和性质与模型训练工作负载有着根本的不同。许多推理工作负载(尤其是基于视觉的应用程序)可以通过 CPU 高效处理,而 CPU 的功耗和成本效率更高。即使边缘部署需要更高的性能,新型低功耗 GPU 也应运而生,为边缘提供量身定制的解决方案。
最终,选择正确的配置需要平衡具体的工作负载、所需的吞吐量和环境限制。边缘 AI 部署需要硬件在性能和实际操作性之间取得平衡。
边缘计算的成功需要一种截然不同的方法,在保持性能的同时,解决空间、电力和冷却方面的限制。硬件和软件必须专门针对边缘计算的需求进行设计,这通常包括在恶劣环境下可靠运行且不影响计算能力的能力。否则,停机可能会带来毁灭性的下游影响。
成功之路
边缘 AI 的成功之路始于确定一个单一且影响深远的用例,并专注于其进行初始部署。这种专注力能够使组织保持范围可控,同时为部署建立积极的势头,使组织能够把握这项技术的潜力,并完善运营流程和支持框架。
然而,这也是说起来容易做起来难!
大多数希望充分利用人工智能部署的组织并不精通,也未深入研究所有底层技术。这种知识差距促使他们寻求外部合作伙伴的指导和增强能力。尤其是随着部署激增,以及行业从核心训练转向边缘推理,与硬件配套的软件和服务需求也变得更加重要。此外,未来复杂性只会越来越高。尤其是在边缘,停机可能会对下游造成巨大且代价高昂的影响,因此,与确保持续性能所需的专业知识和服务合作是不可或缺的。
组织经常遇到的一个陷阱是过于狭隘地关注概念验证项目,而缺乏清晰的扩展路径。组织还必须考虑运营的复杂性——从远程管理、容错到生命周期支持。与经验丰富的合作伙伴合作,找到更多理由至关重要。与系统受到密切监控和频繁更新的数据中心不同,边缘基础设施必须以长寿命为设计目标,通常目标是五到七年。
此外,企业越来越热衷于整合边缘计算资源,以减少占用空间和成本。这将传统工作负载与人工智能应用在统一的虚拟化平台上相结合,消除了对独立基础设施的需求,但增加了对实时智能的需求。
边缘人工智能的未来
边缘人工智能正在快速发展,从基于规则的系统转向更具适应性、能够感知情境的智能。随着生成式人工智能和基础模型的进步,边缘系统开始支持持续学习循环,并根据数据输入自主调整,而无需依赖云端。
基于 Kubernetes 的部署和容器化模型建立了必要的一致性,以保持边缘 AI 部署的高效性。容器化使快速更新从云端推送到边缘变得更加容易,而 Kubernetes 可以大规模编排容器,自动管理部署、更新和健康检查。这种跨边缘节点推送更新的效率和可靠性的提升,也提高了模型准确性,并提供了更强的弹性和正常运行时间——这对于保持任何边缘 AI 部署的价值都至关重要。同时,边缘设备可以收集新数据,帮助在闭环 AI 系统中训练出更高效的模型。
边缘人工智能不仅仅是一个流行词。 这是未来各行各业在交互点运用智能的切实变革,而且这一变革正在快速推进。通过边缘人工智能 (Edge AI) 计划,并结合合适的基础设施和系统功能,企业可以释放强大的人工智能新效率,在提高响应速度的同时避免代价高昂的停机。