Connect with us

人工智能

算法预测处理器功耗速度惊人

mm

杜克大学的计算机工程师开发了一种新的人工智能(AI)方法,可以准确预测任何类型的计算机处理器的功耗。这种新方法最令人印象深刻的特点是,它可以在每秒超过一万亿次的速度下进行此操作,同时使用非常少的计算能力。

APOLLO 技术

这种新技术被称为 APOLLO,它已经在现实世界的高性能微处理器上得到了验证。它可以以多种方式应用,包括提高微处理器的效率和指导微处理器的开发。

有关研究的详细信息已发表在 MICRO-54:第 54 届 IEEE/ACM 国际微架构 симпозиум上。

Xie 是论文的第一作者,也是 Yiran Chen 实验室的博士生,Yiran Chen 是杜克大学电气和计算机工程教授。

“这是一个被广泛研究的问题,传统上依赖于额外的电路来解决,”Xie 说。“但我们的方法直接在微处理器的后台运行,这开启了许多新的机会。我认为这就是为什么人们对它感到兴奋的原因。”

现代计算机处理器

现代计算机处理器依赖于每秒进行 3 万亿次的计算周期。为了维持芯片的性能和效率,这些快速转换的功耗必须被跟踪。当处理器消耗过多功耗时,它可能会导致过热和损坏。当功耗快速变化时,它可能会导致内部电磁兼容问题,从而导致处理器变慢。

软件可以预测和停止这些极端情况,计算机工程师可以使用它来保护硬件和提高性能。然而,这个过程需要额外的硬件和计算能力。

“APOLLO 接近于理想的功耗估计算法,它既准确又快,并且可以轻松地以低功耗成本构建到处理核心中,”Xie 说。“并且由于它可以用于任何类型的处理单元,因此它可能会成为未来芯片设计中的一个常见组件。”

利用 AI

APOLLO 依赖于人工智能来实现其功能。算法依赖于人工智能来识别和选择处理器的数百万个信号中的 100 个,这些信号与其功耗相关。然后使用这些 100 个信号来构建功耗模型,算法监测它们以实时预测芯片的性能。

这个过程是自治的和数据驱动的,这意味着它可以在几乎任何类型的计算机处理器架构上实现。

“在人工智能选择了 100 个信号后,你可以查看算法并看到它们是什么,”Xie 说。“很多选择在直觉上是有意义的,即使它们没有意义,它们也可以为设计师提供反馈,告诉他们哪些过程与功耗和性能最密切相关。”

研究人员说,算法仍需要在不同平台上进行进一步的测试和全面评估,然后才能被商业计算机制造商采用。

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。