SEO 101
SEO 优化:谷歌 AI 的工作原理(April 2026)

By
Antoine Tardif, CEO & Founder of Unite.AI
搜索引擎优化(SEO)是优化网页和外部因素以影响网页在特定搜索词下的排名的过程。这是一个多方面的过程,包括优化页面加载速度、生成链接建设策略、使用 SEO 工具,以及通过使用 计算思维 来逆向工程谷歌的 AI。
计算思维是一种高级的分析和问题解决技术,计算机程序员在编写代码和算法时使用。计算思维者将通过分解问题并使用第一原理思维来分析它来寻求基本真相。
由于谷歌不会向任何人发布其秘密配方,我们将依赖计算思维。我们将回顾谷歌历史上一些关键时刻,这些时刻塑造了所使用的算法,我们将学习为什么这很重要。
如何创建一个心智
我们将从 2012 年出版的一本书开始,叫做 “如何创建一个心智:揭示人类思维的秘密“,由著名的未来学家和发明家雷·库兹韦尔撰写。这本书解析了人类大脑,并分解了大脑的工作方式。我们从基础上学习大脑如何使用模式识别来训练自己,成为一个预测机器,总是预测未来,甚至预测下一个词。
人类如何在日常生活中识别模式?这些连接如何在大脑中形成?这本书从理解层次思维开始,这是理解一个由多样元素组成的结构,这些元素以某种模式排列,这种排列代表一个符号,例如一个字母或字符,然后这个符号进一步排列成一个更高级的模式,例如一个词,最后是一个句子。最终,这些模式形成了想法,这些想法被转化为人类负责构建的产品。
通过模仿人类大脑,揭示了一条创建超越当前神经网络能力的高级 AI 的途径。
这本书是创建一个可以扩展的 AI 的蓝图,通过吸收世界的数据,并使用其多层次的模式识别处理来解析文本、图像、音频和视频。一个针对云计算和其并行处理能力的优化系统。换句话说,没有最大数据输入或输出限制。
这本书如此重要,以至于在出版后不久,作者雷·库兹韦尔被谷歌聘为工程总监,专注于机器学习和语言技术。这个角色与他写的书完美匹配。
很难否认这本书对谷歌的未来和网站排名的影响。这本 AI 书 应该是任何想要成为 SEO 专家的必读书籍。
DeepMind
DeepMind 于 2010 年推出,是一个使用革命性的新型 AI 算法的热门新创业公司,这种算法正在席卷世界,称为强化学习。DeepMind 将其描述为:
“我们提出第一个成功地从高维感官输入中直接学习控制策略的深度学习模型。该模型是一个卷积神经网络,使用一种 Q 学习的变体进行训练,其输入是原始像素,其输出是估计未来奖励的值函数。”
通过将深度学习与强化学习相结合,它成为了一种 深度强化学习 系统。到 2013 年,DeepMind 使用这些算法在雅达利 2600 游戏中击败人类玩家 – 这是通过模仿人类大脑和其学习方式实现的。
类似于人类通过重复学习,DeepMind 的神经网络跟踪性能并会自我改进,导致下一次迭代中选择更强的动作。
DeepMind 的技术领先地位如此显著,以至于谷歌不得不以超过 5 亿美元的价格收购它。 DeepMind 被收购 于 2014 年。
在收购后,AI 行业见证了连续的突破,这种程度自 1997 年 5 月 11 日以来未曾出现,当时国际象棋 大师 加里·卡斯帕罗夫 输掉了对阵 IBM 开发的国际象棋计算机 Deep Blue 的六局比赛中的第一局。
2015 年,DeepMind 提炼了算法来测试它在雅达利的 49 款游戏套件中,并且机器在 23 款游戏中击败了人类的表现。
这只是开始,2015 年后期,DeepMind 开始关注 AlphaGo,一个旨在击败职业围棋世界冠军的程序。围棋是 4000 年前在中国首次出现的最具挑战性的游戏,具有 10360 种可能的移动。
DeepMind 使用监督学习来训练 AlphaGo 系统,通过学习人类玩家。后来,DeepMind 在 2016 年 3 月的一场五局比赛中击败了世界冠军 李世石。
不甘落后,2017 年 10 月,DeepMind 发布了 AlphaGo Zero,一种新模型,其关键区别在于它不需要任何人类训练。由于它不需要人类训练,它也不需要任何数据标记,系统本质上使用了 无监督学习。AlphaGo Zero 迅速超越了其前身,如 DeepMind 所述。
“之前的 AlphaGo 版本最初在成千上万的人类业余和专业游戏中训练,以学习如何下围棋。AlphaGo Zero 跳过这一步,只是通过与自己对战来学习,最初从完全随机的游戏开始。在这样做的同时,它很快超过了人类的水平,并以 100 比 0 的成绩击败了之前发表的冠军级版本的 AlphaGo。”
与此同时,SEO 世界非常关注 PageRank,这是谷歌的骨干。它始于 1995 年,当时拉里·佩奇和谢尔盖·布林是斯坦福大学的博士生。二人开始合作一个名为“BackRub”的研究项目。目标是通过将网页的反向链接数据转换为重要性度量来对网页进行排名。反向链接只是一个页面指向另一个页面的链接,类似于这个 链接。
算法后来被重命名为 PageRank,以网页和联合创始人拉里·佩奇的名字命名。拉里·佩奇和谢尔盖·布林有雄心壮志的目标,即通过反向链接为整个网络提供动力。
而且它奏效了。
PageRank 主导头条
SEO 专业人员立即理解了谷歌如何使用 PageRank 计算网页质量排名。一些狡猾的黑帽 SEO 企业家更进一步,理解到扩展内容可能需要购买链接,而不是等待有机获取。
一个新的经济体围绕着反向链接出现。急于提高搜索引擎排名的网站所有者会购买链接,而急于将网站货币化的网站会出售链接。
购买链接的网站通常会在一夜之间入侵谷歌,超越已建立的品牌。
使用这种方法排名曾经很有效 – 直到它停止工作,可能是在机器学习开始并解决了潜在问题的同时。随着深度强化学习的引入,PageRank 将成为一个排名变量,而不是主导因素。
到目前为止,SEO 社区已经对购买链接作为策略的分歧。我个人认为购买链接提供了次优结果,最好的获取反向链接的方法是基于行业特定的变量。一个我可以推荐的合法服务是 HARO(帮助记者)。HARO 的机会是通过满足媒体请求来获取反向链接。
成熟的品牌从不需要担心获取链接,因为他们有时间站在他们这边。网站越老,就有更多时间收集高质量的反向链接。换句话说,搜索引擎排名严重依赖于网站的年龄,如果你使用时间 = 反向链接的指标来计算。
例如,CNN 会自然地为新闻文章获得反向链接,因为其品牌、信任和最初的高排名 – 所以自然地获得了更多反向链接来自人们研究文章并链接到他们找到的第一个搜索结果。
这意味着更高排名的网页自然会获得更多反向链接。不幸的是,这意味着新网站通常被迫滥用反向链接算法,转向反向链接市场。
在 2000 年代初,购买反向链接效果非常好,这是一个简单的过程。链接购买者从高权威网站购买链接,通常是站点范围的脚部链接,或者可能是每篇文章的基础(通常伪装成客座帖子),而急于将网站货币化的卖家很乐意配合 – 不幸的是,通常以牺牲质量为代价。
最终,谷歌的机器学习工程师人才库了解到,手动编码搜索引擎结果是徒劳的,PageRank 中有很多手写代码。相反,他们了解到 AI 最终将负责完全计算排名,几乎没有人类干预。
为了保持竞争力,谷歌使用了他们的所有工具,包括 深度强化学习 – 世界上最先进的机器学习算法。
这个系统叠加在 谷歌收购 MetaWeb 之上是一个游戏规则的改变者。2010 年 MetaWeb 收购的原因是它减少了谷歌对关键词的权重。上下文变得重要,这是通过使用称为“实体”的分类方法实现的。正如 Fast Company 所述:
一旦 MetaWeb 确定您指的是哪个实体,它就可以提供一组结果。它甚至可以将实体组合起来进行更复杂的搜索 – “40 岁以上的女演员”可能是一个实体,“住在纽约市的女演员”可能是另一个实体,“有正在播放的电影的女演员”可能是另一个实体。 “。
该技术被整合到一个名为 RankBrain 的主要算法更新中,该更新于 2015 年春季推出。RankBrain 专注于理解上下文而不是仅仅基于关键词,并且还会考虑环境上下文(例如搜索者的位置)并推断出以前没有的含义。这个更新对于移动用户来说尤为重要。
现在我们已经了解了谷歌如何使用这些技术,让我们使用计算理论来推测它是如何完成的。
什么是深度学习?
深度学习 是最常用的机器学习类型 – 谷歌不可能不使用这个算法。
深度学习在很大程度上受到人类大脑工作方式的影响,并试图模仿大脑使用模式识别来识别和分类对象的行为。
例如,如果你看到字母 a,你的大脑会自动识别线条和形状,然后将其识别为字母 a。同样,对于字母 ap,你的大脑会自动尝试预测未来,提出诸如 app 或 apple 之类的潜在单词。其他模式可能包括数字、道路标志或识别拥挤机场中的一个熟人。
你可以将深度学习系统中的相互连接想象成类似于人类大脑中神经元和突触的连接方式。
深度学习最终是指将多个多层感知器连接在一起的机器学习架构,因此不仅仅是一个隐藏层,而是很多隐藏层。深度神经网络越“深”,网络就能学习越复杂的模式。
完全连接的网络可以与其他机器学习函数结合,创建不同的深度学习架构。
谷歌如何使用深度学习
谷歌通过跟随连接网站的超链接(类似于神经元)来爬行世界的网站。这是谷歌从第一天开始使用的原始方法,仍然在使用。一旦网站被索引,各种类型的 AI 被用于分析这些数据的宝藏。
谷歌的系统根据各种内部指标标记网页,几乎没有人类的输入或干预。一个干预的例子是手动删除特定的 URL,因为有 DMCA 删除请求。
谷歌工程师以在 SEO 会议 上让与会者感到沮丧而闻名,这是因为谷歌高管无法正确地解释谷歌如何运作。当被问及为什么某些网站无法排名时,几乎总是会得到相同的模糊回答。这个回答如此频繁,以至于与会者经常预先声明他们已经致力于创建好的内容数月甚至数年,但没有任何积极的结果。
可以预测的,网站所有者被指示专注于构建有价值的内容 – 一个重要的组成部分,但远远不够全面。
这种缺乏答案是因为高管无法正确回答这个问题。谷歌的算法在一个黑盒中运行。有输入,然后有输出 – 这就是深度学习的工作原理。
让我们现在回到一个对数百万网站产生负面影响的排名惩罚。
PageSpeed Insights
谷歌通常不透明,但 PageSpeed Insights 是一个例外。加载速度慢的网站将被送入惩罚箱 – 尤其是如果移动用户受到影响。
怀疑的是,在某个时候,有一个决策树来解析快速加载的网站和加载缓慢的网站(PageSpeed Insights 失败)。决策树本质上是一种算法方法,它根据不同的标准将数据集划分为单个数据点。标准可能是对移动用户和桌面用户产生负面影响。
假设惩罚可以应用于自然排名分数。例如,一个没有惩罚就能排名第 5 的网站可能会有 -20、-50 或其他未知变量,这将降低排名到第 25、第 55 或 AI 选择的其他数字。
在未来,我们可能会看到 PageSpeed Insights 的消亡,当谷歌对其 AI 更加自信时。这是谷歌对速度的当前干预,可能会消除原本可能是最佳的结果,并且它歧视了技术能力较差的人。
要求每个经营小企业的人都具备诊断和解决速度测试问题的专业知识,这是一个很大的要求。一个简单的解决方案是谷歌可以为 WordPress 用户发布一个速度优化插件,因为 WordPress 支持互联网的 43%。
不幸的是,所有 SEO 努力都是徒劳的,如果一个网站无法通过 谷歌的 PageSpeed Insights。赌注是网站从谷歌上消失。
如何通过这个测试是一个供以后撰写的文章,但至少你应该验证你的 网站是否通过。
另一个重要的技术指标是安全协议,称为 SSL(安全套接字层)。这会将域的 URL 从 http 更改为 https,并确保数据的安全传输。任何没有启用 SSL 的网站都将受到惩罚。虽然有例外,但电子商务和金融网站将受到最大的影响。
低成本的网络托管服务会对 SSL 实现收取年度费用,而好的网络托管服务,如 Siteground,会免费提供 SSL 证书并自动集成。
元数据
网站上的另一个重要元素是元标题和元描述。这些内容字段具有可能与页面的整个内容一样对成功或失败做出贡献的重要性。
这是因为谷歌很可能会选择元标题和元描述来显示在搜索结果中。并且这就是为什么填写元标题和元描述字段至关重要的原因。
替代方案是谷歌可能会忽略元标题和元描述,而是自动生成它预测会导致更多点击的数据。如果谷歌预测不良,会导致搜索者点击量减少,进而导致搜索引擎排名下降。
如果谷歌认为包含的元描述已针对点击进行了优化,它将在搜索结果中显示。如果谷歌选择了页面上的最佳文本,问题是这是一种彩票系统,谷歌一直很糟糕地选择要选择的描述。
当然,如果您认为页面上的内容真的很好,有时让谷歌选择与用户查询最匹配的元描述是有意义的。对于这篇文章,我们将选择不使用元描述,因为它是内容丰富的,谷歌可能会选择一个好的描述。
与此同时,数十亿人正在点击最佳搜索结果 – 这是 人机循环,谷歌的最后一个反馈机制 – 这也是强化学习发挥作用的地方。
什么是强化学习?
强化学习 是一种机器学习技术,涉及通过重复动作和相关奖励来训练 AI 代理。强化学习代理在环境中实验,采取行动并在采取正确行动时获得奖励。随着时间的推移,代理 学习采取最大化其奖励的行动。
奖励可能基于计算用户在推荐页面上花费的时间。
如果你将这种方法与人机循环子程序结合起来,这听起来很像控制我们数字生活的所有方面的现有推荐引擎,例如 YouTube、Netflix、Amazon Prime – 如果它听起来像搜索引擎应该运行的方式,你是正确的。
谷歌如何使用强化学习
谷歌的飞轮随着每次搜索而改进,人类通过选择最能回答他们查询的最佳结果来训练 AI,并且类似的查询来自数百万其他用户。
强化学习代理不断地自我改进,通过只强化最积极的搜索和交付搜索结果之间的交互。
谷歌测量用户扫描结果页面所需的时间,点击的 URL,以及访问网站所花费的时间,并注册返回点击。然后将这些数据编译并与提供类似数据匹配或用户体验的每个网站进行比较。
具有低保留率(停留时间)的网站将由强化学习系统提供负值,其他竞争网站将被测试以提高排名。谷歌是无偏见的,假设没有手动干预,谷歌最终会提供理想的搜索结果页面。
用户是人机循环,为谷歌提供免费的数据,并成为深度强化学习系统的最终组成部分。作为交换,谷歌为最终用户提供了点击广告的机会。
谷歌本质上学习了用户想要什么。这可以粗略地与视频流媒体服务的推荐引擎进行比较。在这种情况下,推荐引擎会向用户提供针对其兴趣的内容。例如,一个习惯于观看浪漫喜剧的用户可能会喜欢一些包含相同喜剧演员的恶搞节目。
这如何帮助 SEO?
如果我们继续使用计算思维,我们可以假设谷歌已经训练自己提供最佳结果,这通常是通过概括和满足人类偏见来实现的。事实上,谷歌的 AI 不可能优化不符合这些偏见的结果,如果它这样做,结果将是次优的。
换句话说,没有魔术公式,但有一些最佳实践。
SEO 实践者的责任是识别谷歌在其行业中寻求的特定偏见 – 并且要满足这些偏见。例如,搜索选举民意调查结果而不指定日期的人可能正在寻找最新的结果 – 这是一个新鲜度偏见。搜索食谱的人可能不需要最新的页面,可能更喜欢一个经受住时间考验的食谱。
SEO 实践者的责任是为访问者提供他们正在寻找的结果。这是排名谷歌的最可持续的方式。
网站所有者必须放弃以特定的关键词为目标的想法,希望能够向最终用户提供任何内容。搜索结果必须精确地匹配用户的需求。
什么是偏见?它可能是拥有一个看起来很有权威的域名,换句话说,域名是否与您服务的市场相匹配?拥有一个带有“印度”一词的域名可能会阻止美国用户点击 URL,因为他们偏爱来自其居住国的结果。拥有一个单词域名也可能给人一种权威的感觉。
最重要的偏见是用户的搜索查询想要匹配什么?是 FAQ、前 10 名列表、博客文章?这需要答案,而且答案很容易找到。你只需要分析竞争对手,通过在目标市场进行谷歌搜索。
黑帽 SEO 已死
将其与黑帽 SEO 进行比较,黑帽 SEO 是一种排名网站的激进方法,利用恶意垃圾邮件技术,包括购买反向链接、伪造反向链接、入侵网站、自动在大规模生成社交书签,以及其他通过黑帽工具应用的黑暗方法。这些工具通常被改造并在各种搜索引擎营销论坛上转售,产品几乎没有价值,对最终用户来说几乎没有成功的机会。
这就是为什么我建议放弃黑帽 SEO。专注于从机器学习的角度来看待 SEO。了解每次有人跳过搜索结果点击更深层的结果时,人机循环就与深度强化学习系统合作。人类正在帮助 AI 自我改进,并且随着时间的推移变得越来越好。
这是一个由有史以来最多的用户训练的机器学习算法。
谷歌每分钟平均处理 380 万次搜索,全球范围内,每小时 2.28 亿次搜索,56 亿次搜索每天。这是大量的数据,这就是为什么尝试黑帽 SEO 是愚蠢的。假设谷歌的 AI 将保持静止是愚蠢的,系统正在使用加速回报法则来指数级地自我改进。
谷歌的 AI 正在变得如此强大,以至于可以想象它最终可能成为第一个达到 通用人工智能(AGI) 的 AI。AGI 是一种可以使用 迁移学习 来掌握一个领域并将其学习的智能应用于多个领域的智能。虽然探索谷歌的未来 AGI 努力很有趣,但应该了解,一旦这个过程开始,就很难停止。这当然是对未来的推测,目前谷歌只是一个狭义的 AI,但这是另一个话题。
知道这一点,在黑帽上多花一秒钟都是愚蠢的。
白帽 SEO
如果我们接受谷歌的 AI 将会不断自我改进,那么我们别无选择,只能放弃试图智胜谷歌。相反,专注于优化网站,以便为谷歌提供它正在寻找的东西。
如前所述,这涉及启用 SSL、优化页面加载速度以及优化元标题和元描述。为了优化这些字段,元标题和元描述必须与竞争对手的网站进行比较 – 确定导致高点击率的获胜元素。
如果你优化了被点击的机会,下一个里程碑是创建最佳的着陆页。目标是优化用户价值的着陆页,以至于平均停留时间超过竞争对手。
只有通过提供最佳用户体验,网页才能提高排名。
到目前为止,我们已经确定以下指标是最重要的:
- 加载速度
- 启用 SSL
- 元标题和元描述
- 着陆页
着陆页是最困难的元素,因为你正在与世界竞争。着陆页必须快速加载,并且必须提供所有预期的内容,然后用更多的内容惊艳用户。
最后的想法
很容易用更多的 AI 技术来填充 2000 个字,以及更深入地探索 SEO 的兔子洞。这里的目的是将注意力重新集中在最重要的指标上。
SEO 实践者如此专注于智胜系统,以至于他们忘记了最终,SEO 最重要的元素是为用户提供尽可能多的价值。
实现这一点的一种方法是永远不要让重要的内容变得过时。如果我在一个月内想到一个重要的贡献,它将被添加到这篇文章中。然后谷歌可以识别出内容的新鲜度,并与页面提供价值的历史相匹配。
如果您仍然担心获取反向链接,解决方案很简单。尊重访问者时间,并为他们提供价值。反向链接将自然而然地出现,因为用户会在找到价值时分享您的内容。
问题变成了网站所有者的责任,如何为用户提供最佳的价值和用户体验。
安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。
作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。











