人工智能
能源高效人工智能:基于神经形态计算机的新曙光

人工智能(AI)的快速发展领域以其性能而闻名,但其带来了巨大的能耗。位于德国埃尔朗根的马克斯·普朗克光学科学研究所的两位领先科学家提出了一种新方法,旨在更高效地训练AI,可能会改变AI处理数据的方式。
当前的AI模型在训练过程中消耗了大量的能量。虽然确切的数字难以估计,但根据Statista的估计,GPT-3的训练需要大约1000兆瓦时的电力——相当于200个大型德国家庭的一年消耗量。虽然这种耗能的训练已经使GPT-3能够预测词序,但人们普遍认为它并没有理解这些短语的内在含义。
神经形态计算:融合大脑和机器
虽然传统的AI系统依赖于数字人工神经网络,但未来可能在于神经形态计算。马克斯·普朗克研究所的主任和埃尔朗根大学教授弗洛里安·马尔夸特(Florian Marquardt)阐述了传统AI设置的缺点。
“仅处理器和内存之间的数据传输就消耗了大量的能量,”马尔夸特强调了训练大型神经网络的低效率。
神经形态计算从人脑中汲取灵感,数据并行处理而不是顺序处理。从本质上讲,大脑中的突触既作为处理器又作为内存。目前正在探索模仿这些特征的系统,例如使用光进行计算的光子电路。
使用自学习物理机训练AI
与博士生维克托·洛佩兹-帕斯特尔(Víctor López-Pastor)合作,马尔夸特提出了神经形态计算机的创新训练方法。他们的“自学习物理机”通过内在的物理过程基本上优化了其参数,使外部反馈变得多余。“不需要这种反馈使训练更加高效,”马尔夸特强调,这种方法将节省能量和计算时间。
然而,这种开创性的技术有特定的要求。该过程必须是可逆的,确保最小的能量损失,并且必须足够复杂或非线性。“只有非线性过程才能执行输入数据和结果之间的复杂转换,”马尔夸特指出,区分了线性和非线性动作。
向实用实施迈进
二人理论基础与实用应用相符。与实验团队合作,他们正在推进使用叠加光波处理信息的光学神经形态计算机。他们的目标很明确:实现自学习物理机的概念。
“我们希望在三年内展示第一个自学习物理机,”马尔夸特预测,这些未来网络将处理更多数据,并使用比当代系统更大的数据集进行训练。考虑到人工智能日益增长的需求和当前设置的固有低效率,转向高效训练的神经形态计算机似乎既不可避免又充满希望。
用马尔夸特的话来说,“我们相信自学习物理机在人工智能的不断演化中有很好的机会。”科学界和人工智能爱好者们都屏息等待着未来会带来什么。
