Connect with us

人工智能

能源高效人工智能:基于神经形态计算机的新曙光

mm

人工智能(AI)的快速发展领域以其性能而闻名,但其带来了巨大的能耗。位于德国埃尔朗根的马克斯·普朗克光学科学研究所的两位领先科学家提出了一种新方法,旨在更高效地训练AI,可能会改变AI处理数据的方式。

当前的AI模型在训练过程中消耗了大量的能量。虽然确切的数字难以估计,但根据Statista的估计,GPT-3的训练需要大约1000兆瓦时的电力——相当于200个大型德国家庭的一年消耗量。虽然这种耗能的训练已经使GPT-3能够预测词序,但人们普遍认为它并没有理解这些短语的内在含义。

神经形态计算:融合大脑和机器

虽然传统的AI系统依赖于数字人工神经网络,但未来可能在于神经形态计算。马克斯·普朗克研究所的主任和埃尔朗根大学教授弗洛里安·马尔夸特(Florian Marquardt)阐述了传统AI设置的缺点。

“仅处理器和内存之间的数据传输就消耗了大量的能量,”马尔夸特强调了训练大型神经网络的低效率。

神经形态计算从人脑中汲取灵感,数据并行处理而不是顺序处理。从本质上讲,大脑中的突触既作为处理器又作为内存。目前正在探索模仿这些特征的系统,例如使用光进行计算的光子电路。

使用自学习物理机训练AI

与博士生维克托·洛佩兹-帕斯特尔(Víctor López-Pastor)合作,马尔夸特提出了神经形态计算机的创新训练方法。他们的“自学习物理机”通过内在的物理过程基本上优化了其参数,使外部反馈变得多余。“不需要这种反馈使训练更加高效,”马尔夸特强调,这种方法将节省能量和计算时间。

然而,这种开创性的技术有特定的要求。该过程必须是可逆的,确保最小的能量损失,并且必须足够复杂或非线性。“只有非线性过程才能执行输入数据和结果之间的复杂转换,”马尔夸特指出,区分了线性和非线性动作。

向实用实施迈进

二人理论基础与实用应用相符。与实验团队合作,他们正在推进使用叠加光波处理信息的光学神经形态计算机。他们的目标很明确:实现自学习物理机的概念。

“我们希望在三年内展示第一个自学习物理机,”马尔夸特预测,这些未来网络将处理更多数据,并使用比当代系统更大的数据集进行训练。考虑到人工智能日益增长的需求和当前设置的固有低效率,转向高效训练的神经形态计算机似乎既不可避免又充满希望。

用马尔夸特的话来说,“我们相信自学习物理机在人工智能的不断演化中有很好的机会。”科学界和人工智能爱好者们都屏息等待着未来会带来什么。

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。