Connect with us

思想领袖

每位数据科学家都应了解的图转换器及其对结构化数据的影响

mm

我在斯坦福大学期间共同创造了图神经网络。我很早就认识到这种技术的强大力量。每个数据点、每个观察、每个知识点都不孤立存在;它是连接到其他知识点的图的一部分。重要的是,大多数有价值的商业数据通常存储在数据库和数据仓库中的表中,可以自然地表示为一个 。利用这种关系结构是构建准确和非幻觉人工智能模型的关键。

图神经网络(GNNs)引入了消息传递架构,可以在捕获知识点之间连接的图上进行推理。但是,就像Transformer改变了语言理解一样,一类新的模型——图转换器,正在为基于图的数据带来类似的收益。这些模型结合了注意力机制的灵活性和结构图先验,更有效地模拟复杂关系,而比其GNN前辈更有效。

为什么图需要更多 než 消息传递

传统的图神经网络(GNNs)依赖于 消息传递,这是一个过程,其中每个节点通过聚合来自其邻居的信息来更新其内部状态。可以将其视为每个节点与附近的节点交换摘要,然后使用这些摘要来改进其自己的理解。经过多个层次,这允许信息在图中传播。

虽然对于学习局部模式很强大,但消息传递有重要的局限性:

  • 过度压缩:当信息在多个跳跃中被聚合时,它可能会变得压缩,丢失有意义的细节。这在深度GNNs中尤其成问题。
  • 有限的上下文:标准的消息传递不能容易地捕获长距离依赖关系,而不需要多个层次,这会增加复杂性和噪音。
  • 表达能力:许多图结构不能仅使用局部邻域信息来区分,限制了模型在需要细结构区分的任务上的性能。

这就是图转换器的用武之地。通过用注意力机制替换或增强消息传递,它们允许每个节点直接根据学习到的重要性关注其他节点(甚至是远程节点)。结果是更丰富的表示,更好的可扩展性,以及更灵活地推理复杂结构的能力。

从GNNs到图转换器

原始的Transformer模型是在标志性的论文中引入的,注意力就是你需要的所有,它的设计目的是为了模拟序列中的标记之间的关系。其成功在于自注意力机制,这允许每个输入根据学习到的相关性权重考虑每个其他输入。

图转换器 适应了这种范式,允许节点不仅关注其邻居,还可以关注图中的任何节点,既可以通过完全连接的注意力,也可以通过平衡全局和局部信号的混合方法。挑战在于将结构的概念引入为序列而设计的模型中。

图特定位置编码

与文本不同,图没有固有的顺序,使得 位置编码,即将结构或位置信息注入模型的技术,变得不那么直接。图转换器通过各种方法解决了这个问题:

  • 拉普拉斯特征向量:从图拉普拉斯矩阵中派生,提供了捕获全局结构的谱嵌入。
  • 随机游走:捕获从一个节点到另一个节点的多步游走的概率。
  • 结构编码:包括距离度量、节点度或边类型。

这些位置编码,无论是谱、概率还是结构,都为图转换器提供了一种理解每个节点在更广泛的图中的位置的方法。这种结构感知对于使注意力机制在不规则、无序的数据上有意义地运行至关重要, 궁극上使模型能够捕获到简单的局部方法无法看到的关系。

实际应用和用例

将图转换器带入生产需要能够扩展到实际数据规模的基础设施。像 PyTorch Geometric (PyG) 这样的库正在使其成为可能。PyG建立在PyTorch之上,提供了一个模块化的框架,用于在从分子建模到推荐系统的各种应用中实现GNNs和图转换器。它支持在多个小图和单个大图上进行小批量训练,并具有多GPU和torch.compile支持,使其适合研究和企业工作流。

这些工具已经在广泛的实际应用中发挥作用。在药物发现中,图转换器通过将原子相互作用建模为图来帮助预测分子性质。在物流和供应链优化中,它们可以表示和推理动态网络、仓库和路线。在电子商务中,公司使用图转换器来改进推荐,通过理解产品的协同购买和浏览行为作为关系图。在网络安全中,图模型用于通过分析访问模式、网络拓扑和事件序列来检测异常。

在每一种情况下,从复杂的相互连接的结构中学习的能力,而不仅仅依赖手工制作的特征,已经被证明是一个主要的优势。

技术考虑

尽管图转换器具有潜力,但它们带来了真正的工程权衡。全自注意力机制的计算复杂度随节点数量的增加而平方,使得内存和计算效率成为首要关注的问题,尤其是对于大规模或密集的图。许多实际图也具有有向边,引入了复杂性,使结构信息的编码变得困难。在实际部署中,输入很少是统一的:将图结构数据与文本、时间序列或图像结合需要仔细的架构选择和强大的数据预处理。

这些挑战并非不可逾越,但它们确实需要周密的系统设计,尤其是在从研究原型转向生产就绪模型时。

接下来是什么:LLMs遇到图

一个主要的研究方向是将大型语言模型(LLMs)与图结构集成。这些混合系统使用LLMs来编码文本上下文或提取实体,然后将该信息放入图中以进行推理和决策。

在生物学中,这已经使得像 AlphaFold 这样的工具成为可能。在企业AI中,它使得能够将文档和行为图结合的客户支持系统成为可能。图转换器在使AI代理能够做出更智能、更可行的决策方面发挥着越来越重要的作用,允许它们推理结构化状态表示并动态优先考虑交互。这种融合有助于代理更好地理解层次关系、跟踪随时间的依赖关系并在复杂环境中适应其行为。

该领域仍在不断发展,但其潜力是巨大的。

结论

图转换器不仅仅是GNNs的下一个迭代;它们代表了注意力、结构和可扩展性的融合。不管您是在金融、生命科学还是推荐系统领域工作,信息都很明确:您的数据形成一个图,因此您的模型也应该如此。

Dr. Jure Leskovec 是 Kumo 的首席科学家和联合创始人,Kumo 是一家领先的预测 AI 公司。他是斯坦福大学的计算机科学教授,在那里他已经教书超过 15 年。Jure 共同创造了图神经网络,并致力于推进 AI 从相关信息中学习。他之前曾在 Pinterest 任首席科学家,并在 Yahoo 和 Microsoft 进行了获奖研究。