talon Optimisation SEO : comment fonctionne l'IA de Google (mai 2024)
Suivez nous sur

SEO

Optimisation SEO : comment fonctionne l'IA de Google (mai 2024)

mm
Le kit de préparation mis à jour on

L'optimisation des moteurs de recherche (SEO) est le processus d'optimisation des facteurs sur la page et hors page qui ont un impact sur le classement d'une page Web pour un terme de recherche spécifique. Il s'agit d'un processus à multiples facettes qui comprend l'optimisation de la vitesse de chargement des pages, la génération d'une stratégie de création de liens, l'utilisation Outils de référencement, ainsi que l'apprentissage de la rétro-ingénierie de l'IA de Google à l'aide de la pensée computationnelle.

La pensée computationnelle est un type avancé d'analyse et de technique de résolution de problèmes que les programmeurs informatiques utilisent lors de l'écriture de code et d'algorithmes. Les penseurs computationnels chercheront la vérité fondamentale en décomposant un problème et en l'analysant en utilisant la pensée des premiers principes.

Étant donné que Google ne divulgue sa sauce secrète à personne, nous nous appuierons sur la pensée computationnelle. Nous passerons en revue certains moments charnières de l'histoire de Google qui ont façonné les algorithmes utilisés, et nous apprendrons pourquoi cela est important.

Comment créer un esprit

Nous commencerons par un livre paru en 2012, intitulé «Comment créer un esprit : le secret de la pensée humaine révélé» par le célèbre futuriste et inventeur Ray Kurzweil. Ce livre a disséqué le cerveau humain et a décomposé son fonctionnement. Nous apprenons à partir de zéro comment le cerveau s'entraîne en utilisant la reconnaissance des formes pour devenir une machine à prédire, travaillant toujours à prédire l'avenir, même à prédire le mot suivant.

Comment les humains reconnaissent-ils les modèles dans la vie de tous les jours ? Comment ces connexions se forment-elles dans le cerveau ? Le livre commence par comprendre la pensée hiérarchique, c'est comprendre une structure composée de divers éléments qui sont disposés selon un motif, cet arrangement représente ensuite un symbole tel qu'une lettre ou un caractère, puis cela est ensuite arrangé en un motif plus avancé. comme un mot, et éventuellement une phrase. Finalement, ces modèles forment des idées, et ces idées sont transformées en produits que les humains sont responsables de la construction.

En imitant le cerveau humain, révélé est une voie vers la création d'une IA avancée au-delà des capacités actuelles des réseaux de neurones qui existaient au moment de la publication.

Le livre était un plan pour créer une IA qui peut évoluer en aspirant les données du monde et utiliser son traitement de reconnaissance de formes multicouches pour analyser le texte, les images, l'audio et la vidéo. Un système optimisé pour la mise à l'échelle grâce aux avantages du cloud et à ses capacités de traitement parallèle. En d'autres termes, il n'y aurait pas de maximum sur l'entrée ou la sortie de données.

Ce livre était si crucial que peu de temps après sa publication, l'auteur Ray Kurzweil a été embauché par Google pour devenir directeur de l'ingénierie axée sur l'apprentissage automatique et le traitement du langage. Un rôle qui correspondait parfaitement au livre qu'il avait écrit.

Il serait impossible de nier l'influence de ce livre sur l'avenir de Google et la manière dont il classe les sites Web. Ce Livre d'IA devrait être une lecture obligatoire pour quiconque souhaite devenir un expert en référencement.

DeepMind

Lancé en 2010, DeepMind était une nouvelle startup en vogue utilisant un nouveau type révolutionnaire d'algorithme d'IA qui prenait d'assaut le monde, il s'appelait l'apprentissage par renforcement. DeepMind l'a décrit comme suit :

« Nous présentons le premier modèle d’apprentissage profond à apprendre avec succès les politiques de contrôle directement à partir d’entrées sensorielles de grande dimension en utilisant l’apprentissage par renforcement. Le modèle est un réseau neuronal convolutif, entraîné avec une variante de Q-learning, dont l’entrée est constituée de pixels bruts et dont la sortie est une fonction de valeur estimant les récompenses futures.

En fusionnant l'apprentissage en profondeur avec l'apprentissage par renforcement, il est devenu un apprentissage par renforcement profond système. En 2013, DeepMind utilisait ces algorithmes pour accumuler des victoires contre des joueurs humains sur les jeux Atari 2600 - Et cela a été réalisé en imitant le cerveau humain et comment il apprend de l'entraînement et de la répétition.

Semblable à la façon dont un humain apprend par répétition, qu'il s'agisse de taper dans un ballon ou de jouer à Tetris, l'IA apprendrait également. Le réseau neuronal de l'IA suivait les performances et s'auto-améliorait progressivement, ce qui se traduisait par une sélection de mouvements plus forte lors de la prochaine itération.

DeepMind était si dominant dans son avance technologique que Google a dû acheter l'accès à la technologie. DeepMind a été acquis pour plus de 500 millions de dollars en 2014.

Après l'acquisition, l'industrie de l'IA a connu des percées successives, un type jamais vu depuis Le 11 mai 1997, quand les échecs grand maître Garry Kasparov a perdu le premier match d'un match de six matchs contre Deep Blue, un ordinateur jouant aux échecs développé par des scientifiques d'IBM. 

En 2015, DeepMind a affiné l'algorithme pour le tester sur la suite de 49 jeux d'Atari, et la machine a battu les performances humaines sur 23 d'entre eux.

Ce n'était que le début, plus tard en 2015, DeepMind a commencé à se concentrer sur AlphaGo, un programme dont l'objectif déclaré est de vaincre un champion du monde professionnel de go. L'ancien jeu de go, qui a été vu pour la première fois en Chine il y a environ 4000 ans, est considéré comme le jeu le plus difficile de l'histoire humaine, avec son potentiel 10360 déplacements possibles.

DeepMind a utilisé l'apprentissage supervisé pour former le système AlphaGo en apprenant des joueurs humains. Peu de temps après, DeepMind a fait la une des journaux après le battement d'AlphaGo Lee Sédol, le champion du monde, dans un match de cinq matchs en mars 2016.

Ne soyez pas en reste, en octobre 2017, DeepMind a lancé AlphaGo Zero, un nouveau modèle avec le différenciateur clé qu'il nécessitait zéro formation humaine. Comme il ne nécessitait pas de formation humaine, il ne nécessitait également aucun étiquetage des données, le système essentiellement utilisé apprentissage non supervisé. AlphaGo Zero a rapidement dépassé son prédécesseur, car décrit par DeepMind.

"Les versions précédentes d'AlphaGo s'entraînaient initialement sur des milliers de jeux humains amateurs et professionnels pour apprendre à jouer au Go. AlphaGo Zero saute cette étape et apprend à jouer simplement en jouant à des jeux contre lui-même, à partir d'un jeu complètement aléatoire. Ce faisant, il a rapidement dépassé le niveau de jeu humain et vaincu le déjà publié version championne d'AlphaGo par 100 jeux à 0. "

En attendant, le monde du référencement était hyper focalisé sur le PageRank, l'épine dorsale de Google. Cela commence en 1995, lorsque Larry Page et Sergey Brin étaient titulaires d'un doctorat. étudiants de l'université de Stanford. Le duo a commencé à collaborer sur un nouveau projet de recherche surnommé "Massage de dos”. L'objectif était de classer les pages Web dans une mesure d'importance en convertissant leurs données de backlink. Un backlink est tout simplement n'importe quel lien d'une page à une autre, semblable à ceci lien.

L'algorithme a ensuite été renommé PageRank, du nom à la fois du terme "page Web" et du co-fondateur Larry Page. Larry Page et Sergey Brin avaient l'objectif ambitieux de créer un moteur de recherche capable d'alimenter l'ensemble du Web uniquement par des backlinks.

Et cela a fonctionné.

Le PageRank domine les gros titres

Les professionnels du référencement ont immédiatement compris les bases de la façon dont Google calcule un classement de qualité pour une page Web en utilisant le PageRank. Certains entrepreneurs Savvy black hat SEO sont allés plus loin, comprenant que pour faire évoluer le contenu, il pourrait être judicieux d'acheter des liens au lieu d'attendre de les acquérir de manière organique.

Une nouvelle économie a émergé autour des backlinks. Les propriétaires de sites Web désireux d'avoir un impact sur les classements des moteurs de recherche achèteraient des liens et, en retour, désespérés de monétiser les sites Web, leur vendraient des liens.

Les sites Web qui achetaient des liens envahissaient souvent du jour au lendemain Google, surclassant les marques établies.

Le classement utilisant cette méthode a très bien fonctionné pendant longtemps. Jusqu'à ce qu'il cesse de fonctionner, probablement à peu près au même moment où l'apprentissage automatique est entré en jeu et a résolu le problème sous-jacent. Avec l’introduction de l’apprentissage par renforcement profond, le PageRank deviendrait une variable de classement et non le facteur dominant.

À l'heure actuelle, la communauté SEO est divisée sur l'achat de liens en tant que stratégie. Je crois personnellement que l'achat de liens offre des résultats sous-optimaux et que les meilleures méthodes pour acquérir des backlinks sont basées sur des variables spécifiques à l'industrie. Un service légitime que je peux recommander s'appelle HARO (Aider un journaliste à sortir). L'opportunité chez HARO est d'acquérir des backlinks en répondant aux demandes des médias.

Les marques établies n'ont jamais eu à se soucier des liens d'approvisionnement, car elles avaient l'avantage de travailler en leur faveur. Plus un site Web est ancien, plus il a eu de temps pour collecter des backlinks de haute qualité. En d'autres termes, un classement dans un moteur de recherche dépendait fortement de l'âge d'un site Web, si vous calculez à l'aide de la métrique temps = backlinks.

Par exemple, CNN recevrait naturellement des backlinks pour un article d'actualité en raison de sa marque, de sa confiance et parce qu'il figurait en haut de la liste au départ - Donc, naturellement, il a gagné plus de backlinks de la part des personnes recherchant un article et renvoyant au premier résultat de recherche qu'ils ont trouvé .

Cela signifie que les pages Web les mieux classées ont reçu organiquement plus de backlinks. Malheureusement, cela signifiait que les nouveaux sites Web étaient souvent obligés d'abuser de l'algorithme de backlink en se tournant vers un marché de backlink.

Au début des années 2000, l'achat de backlinks fonctionnait remarquablement bien et c'était un processus simple. Les acheteurs de liens ont acheté des liens sur des sites Web de haute autorité, souvent des liens de pied de page à l'échelle du site, ou peut-être sur une base par article (souvent déguisés en article invité), et les vendeurs désespérés de monétiser leurs sites Web étaient heureux d'obliger - Malheureusement, souvent au sacrifice de qualité.

Finalement, le pool de talents de Google, composé d'ingénieurs en apprentissage automatique, a compris que coder à la main les résultats des moteurs de recherche était futile et qu'une grande partie du PageRank était du codage manuscrit. Au lieu de cela, ils ont compris que l'IA deviendrait éventuellement responsable du calcul complet des classements sans ou avec peu d'interférence humaine.

Pour rester compétitif, Google utilise tous les outils de son arsenal, y compris apprentissage par renforcement profond – Le type d'algorithme d'apprentissage automatique le plus avancé au monde.

Ce système superposé à Acquisition de MetaWeb par Google était un changeur de jeu. La raison pour laquelle l'acquisition de MetaWeb en 2010 était si importante est qu'elle a réduit le poids que Google accordait aux mots-clés. Le contexte était tout d'un coup important, cela a été réalisé en utilisant une méthodologie de catégorisation appelée « entités ». Comme Fast Company décrit:

Une fois que Metaweb a déterminé à quelle entité vous vous référez, il peut fournir un ensemble de résultats. Il peut même combiner des entités pour des recherches plus complexes - "actrices de plus de 40 ans" pourrait être une entité, "actrices vivant à New York" pourrait être une autre, et "actrices avec un film en cours de lecture" pourrait être une autre. “.

Cette technologie a été intégrée dans une mise à jour majeure de l'algorithme appelée RankBrain qui a été lancé au printemps 2015. RankBrain s'est concentré sur la compréhension du contexte plutôt que d'être purement basé sur des mots clés, et RankBrain prendrait également en compte les contextes environnementaux (par exemple, l'emplacement du chercheur) et extrapolerait le sens là où il n'y en avait pas auparavant. Il s'agissait d'une mise à jour importante, en particulier pour les utilisateurs mobiles.

Maintenant que nous comprenons comment Google utilise ces technologies, utilisons la théorie informatique pour spéculer sur la façon dont cela se fait.

Qu'est-ce que le Deep Learning?

L'apprentissage en profondeur est le type d'apprentissage automatique le plus couramment utilisé - Il serait impossible pour Google de ne pas utiliser cet algorithme.

L'apprentissage en profondeur est influencé de manière significative par le fonctionnement du cerveau humain et tente de refléter le comportement du cerveau dans la façon dont il utilise la reconnaissance des formes pour identifier et catégoriser les objets.

Par exemple, si vous voyez la lettre a, votre cerveau reconnaît automatiquement les lignes et les formes pour ensuite l'identifier comme la lettre a. La même chose est appliquée par les lettres ap, votre cerveau tente automatiquement de prédire l'avenir en proposant des mots potentiels tels que appli or pomme. D'autres modèles peuvent inclure des chiffres, des panneaux de signalisation ou l'identification d'un être cher dans un aéroport bondé.

Vous pouvez penser que les interconnexions dans un système d'apprentissage en profondeur sont similaires à la façon dont le cerveau humain fonctionne avec la connexion des neurones et des synapses.

L'apprentissage en profondeur est finalement le terme donné aux architectures d'apprentissage automatique qui associent de nombreux perceptrons multicouches, de sorte qu'il n'y a pas qu'une seule couche cachée mais plusieurs couches cachées. Plus le réseau neuronal profond est "profond", plus le réseau peut apprendre des modèles sophistiqués.

Des réseaux entièrement connectés peuvent être combinés avec d'autres fonctions d'apprentissage automatique pour créer différentes architectures d'apprentissage en profondeur.

Comment Google utilise l'apprentissage en profondeur

Google explore les sites Web du monde entier en suivant des hyperliens (pensez aux neurones) qui relient les sites Web les uns aux autres. C'était la méthodologie originale que Google utilisait depuis le premier jour et qui est toujours utilisée. Une fois les sites Web indexés, divers types d'IA sont utilisés pour analyser ce trésor de données.

Le système de Google étiquette les pages Web en fonction de diverses mesures internes, avec seulement une intervention ou une intervention humaine mineure. Un exemple d'intervention serait la suppression manuelle d'une URL spécifique en raison d'un Demande de suppression DMCA.

Les ingénieurs de Google sont réputés pour frustrer les participants à Conférences SEO, et c'est parce que les dirigeants de Google ne peuvent jamais articuler correctement le fonctionnement de Google. Lorsque des questions sont posées sur les raisons pour lesquelles certains sites Web ne parviennent pas à se classer, c'est presque toujours la même réponse mal articulée. La réponse est si fréquente que les participants déclarent souvent de manière préventive qu'ils se sont engagés à créer un bon contenu pendant des mois, voire des années, sans résultats positifs.

Comme on pouvait s'y attendre, les propriétaires de sites Web sont chargés de se concentrer sur la création d'un contenu précieux - Un élément important, mais loin d'être complet.

Cette absence de réponse est due au fait que les dirigeants sont incapables de répondre correctement à la question. L'algorithme de Google fonctionne dans une boîte noire. Il y a une entrée, puis une sortie - et c'est ainsi que fonctionne l'apprentissage en profondeur.

Revenons maintenant à une pénalité de classement qui a un impact négatif sur des millions de sites Web, souvent à l'insu du propriétaire du site Web.

PageSpeed ​​Insights

Google n'est pas souvent transparent, PageSpeed ​​Insights est l'exception. Les sites Web qui échouent à ce test de vitesse seront envoyés dans une boîte de pénalité pour chargement lent - Surtout si les utilisateurs mobiles sont impactés.

Ce que l'on soupçonne, c'est qu'à un moment donné du processus, il existe un arbre de décision qui analyse les sites Web rapides, par opposition aux sites Web à chargement lent (échec de PageSpeed ​​Insights). Un arbre de décision est essentiellement une approche algorithmique qui divise l'ensemble de données en points de données individuels basés sur différents critères. Les critères peuvent être d'influencer négativement le classement d'une page pour les utilisateurs mobiles par rapport aux utilisateurs d'ordinateurs de bureau.

Hypothétiquement, une pénalité pourrait être appliquée au score de classement naturel. Par exemple, un site Web qui, sans pénalité, se classerait au n ° 5 peut avoir un -20, -50 ou une autre variable inconnue qui réduira le classement au n ° 25, au n ° 55 ou à un autre nombre sélectionné par l'IA.

À l'avenir, nous verrons peut-être la fin de PageSpeed ​​Insights, lorsque Google deviendra plus confiant dans son IA. Cette intervention actuelle de Google sur la vitesse est dangereuse car elle peut potentiellement éliminer des résultats qui auraient été optimaux, et elle discrimine les moins férus de technologie.

C'est une grande demande d'exiger que tous ceux qui dirigent une petite entreprise aient l'expertise nécessaire pour diagnostiquer et résoudre avec succès les problèmes de test de vitesse. Une solution simple serait que Google publie simplement un plug-in d'optimisation de la vitesse pour les utilisateurs de WordPress, comme puissances wordpress 43% de l'internet.

Malheureusement, tous les efforts de référencement sont vains si un site Web échoue PageSpeed ​​Insights de Google. Les enjeux ne sont rien de moins qu'un site Web qui disparaît de Google.

Comment réussir ce test est un article pour une autre fois mais au minimum vous devriez vérifier si votre laissez-passer pour le site Web.

Une autre mesure technique importante à prendre en compte est un protocole de sécurité appelé SSL (Couche de sockets sécurisée). Cela modifie l'URL d'un domaine de http à https et garantit la transmission sécurisée des données. Tout site Web sur lequel SSL n'est pas activé sera pénalisé. Bien qu'il existe quelques exceptions à cette règle, les sites Web de commerce électronique et financiers seront les plus touchés.

Les hébergeurs à faible coût facturent des frais annuels pour la mise en œuvre de SSL, tandis que les bons hébergeurs tels que Siteground émettre des certificats SSL gratuitement et les intégrer automatiquement.

Meta-données

Un autre élément important du site Web est le méta-titre et la méta-description. Ces champs de contenu ont un ordre d'importance démesuré qui peut autant contribuer au succès ou à l'échec d'une page que l'ensemble du contenu de cette page.

En effet, Google a une forte probabilité de sélectionner le méta-titre et la méta-description à afficher dans les résultats de recherche. Et c'est pourquoi il est important de remplir le plus soigneusement possible le champ meta title et meta description.

L'alternative est que Google peut choisir d'ignorer le méta-titre et la méta-description pour générer automatiquement des données qui, selon lui, entraîneront davantage de clics. Si Google prédit mal quel titre générer automatiquement, cela contribuera à réduire le nombre de clics par les internautes et, par conséquent, à perdre le classement des moteurs de recherche.

Si Google pense que la méta description incluse est optimisée pour recevoir des clics, il la présentera dans les résultats de recherche. À défaut, Google récupère un morceau de texte aléatoire sur le site Web. Souvent, Google sélectionne le meilleur texte sur la page, le problème est que c'est le système de loterie et Google est toujours mauvais pour choisir la description à sélectionner.

Bien sûr, si vous pensez que le contenu de votre page est vraiment bon, il est parfois logique de permettre à Google de choisir la méta description optimisée qui correspond le mieux à la requête de l'utilisateur. Nous opterons pour l'absence de méta description pour cet article car il est riche en contenu, et Google est susceptible de sélectionner une bonne description.

En attendant, des milliards d'humains cliquent sur les meilleurs résultats de recherche - C'est le humain dans la boucle, le dernier mécanisme de rétroaction de Google - Et c'est là que l'apprentissage par renforcement entre en jeu.

Qu'est-ce que l'apprentissage par renforcement ?

Apprentissage par renforcement est une technique d'apprentissage automatique qui consiste à former un agent d'IA par la répétition d'actions et les récompenses associées. Un agent d'apprentissage par renforcement expérimente dans un environnement, prend des mesures et est récompensé lorsque les mesures correctes sont prises. Au fil du temps, l'agent apprend à prendre les mesures qui maximiseront sa récompense.

La récompense pourrait être basée sur un calcul simple qui calcule le temps passé sur une page recommandée.

Si vous combinez cette méthodologie avec une sous-routine Human-in-the-loop, cela ressemblerait énormément aux moteurs de recommandation existants qui contrôlent tous les aspects de notre vie numérique tels que YouTube, Netflix, Amazon Prime - Et si cela ressemble à comment un moteur de recherche devrait fonctionner, vous avez raison.

Comment Google utilise l'apprentissage par renforcement

Le volant d'inertie de Google s'améliore à chaque recherche, les humains entraînent l'IA en sélectionnant le meilleur résultat qui répond le mieux à leur requête, et à la requête similaire de millions d'autres utilisateurs.

L'agent d'apprentissage renforçant travaille en permanence sur l'auto-amélioration en renforçant uniquement les interactions les plus positives entre la recherche et le résultat de recherche fourni.

Google mesure le temps qu'il faut à un utilisateur pour parcourir la page de résultats, l'URL sur laquelle il clique, et ils mesurent le temps passé sur le site Web visité, et ils enregistrent le clic de retour. Ces données sont ensuite compilées et comparées pour chaque site Web qui offre une correspondance de données ou une expérience utilisateur similaire.

Un site Web avec un faible taux de rétention (temps passé sur le site), est alors alimenté par le système d'apprentissage par renforcement d'une valeur négative, et d'autres sites Web concurrents sont testés pour améliorer les classements proposés. Google est impartial, en supposant qu'il n'y a pas d'intervention manuelle, Google fournit finalement la page de résultats de recherche souhaitée.

Les utilisateurs sont l'humain dans la boucle qui fournit à Google des données gratuites et devient le composant final du système d'apprentissage par renforcement en profondeur. En échange de ce service, Google offre à l'utilisateur final la possibilité de cliquer sur une annonce.

Les publicités en dehors de la génération de revenus servent de facteur de classement secondaire, diffusant plus de données sur ce qui incite un utilisateur à cliquer.

Google apprend essentiellement ce que veut un utilisateur. Cela peut être vaguement comparé à un moteur de recommandation par un service de streaming vidéo. Dans ce cas, un moteur de recommandation alimenterait un contenu utilisateur ciblé sur ses intérêts. Par exemple, un utilisateur qui apprécie habituellement un flux de comédies romantiques peut apprécier certaines parodies s'il partage les mêmes comédiens.

Comment cela aide-t-il le référencement ?

Si nous continuons avec la pensée computationnelle, nous pouvons supposer que Google s'est formé pour fournir les meilleurs résultats, et cela est souvent réalisé en généralisant et en satisfaisant les préjugés humains. Il serait en effet impossible pour l'IA de Google de ne pas optimiser les résultats qui répondent à ces biais, sinon les résultats seraient sous-optimaux.

En d'autres termes, il n'y a pas de formule magique, mais il existe quelques bonnes pratiques.

Il est de la responsabilité du praticien du référencement de reconnaître les préjugés que Google recherche et qui sont spécifiques à son secteur - Et d'alimenter ces préjugés. Par exemple, quelqu'un qui recherche les résultats d'un sondage électoral sans spécifier de date recherche très probablement les résultats les plus récents - il s'agit d'un biais de récence. Quelqu'un qui recherche une recette n'a probablement pas besoin de la page la plus récente et peut en fait préférer une recette qui a résisté à l'épreuve du temps.

Il est de la responsabilité du praticien SEO d'offrir aux visiteurs les résultats qu'ils recherchent. C'est le moyen le plus durable de se classer dans Google.

Les propriétaires de sites Web doivent abandonner le ciblage d'un mot clé spécifique dans l'espoir de pouvoir fournir ce qu'ils veulent à l'utilisateur final. Le résultat de la recherche doit correspondre précisément au besoin de l'utilisateur.

Qu'est-ce qu'un biais ? Il peut s'agir d'avoir un nom de domaine qui ressemble à une haute autorité, en d'autres termes, le nom de domaine correspond-il au marché que vous desservez ? Le fait d'avoir un nom de domaine contenant le mot Inde peut décourager les utilisateurs américains de cliquer sur l'URL, en raison d'un biais nationaliste consistant à faire confiance aux résultats provenant du pays de résidence de l'utilisateur. Avoir un domaine d'un seul mot peut également donner l'illusion d'autorité.

Le préjugé le plus important est qu'est-ce qu'un utilisateur veut faire correspondre à sa requête de recherche ? Est-ce une FAQ, une liste des 10 meilleurs, un article de blog ? Cela doit être répondu, et la réponse est facile à trouver. Il vous suffit d'analyser la concurrence en effectuant une recherche Google sur votre marché cible.

Black Hat SEO est mort

Comparez cela à Black Hat SEO, une méthode agressive de classement des sites Web qui exploite des techniques de SPAM sournoises, notamment l'achat de backlinks, la falsification de backlinks, le piratage de sites Web, la génération automatique de signets sociaux à grande échelle et d'autres méthodologies sombres appliquées via un réseau d'outils black hat. .

Des outils qui sont souvent réutilisés et revendus sur divers forums de marketing des moteurs de recherche, des produits sans valeur et avec peu de chances de réussir. Pour le moment, ces outils permettent aux vendeurs de devenir riches tout en offrant une valeur minimale à l'utilisateur final.

C'est pourquoi je recommande d'abandonner Black Hat. Concentrez votre référencement sur sa visualisation sous l'angle de l'apprentissage automatique. Il est important de comprendre que chaque fois que quelqu'un saute un résultat de recherche pour cliquer sur un résultat enfoui en dessous, c'est l'humain dans la boucle qui collabore avec le système d'apprentissage par renforcement profond. L'humain aide l'IA à s'améliorer, devenant infiniment meilleure au fil du temps.

Il s'agit d'un algorithme d'apprentissage automatique qui a été formé par plus d'utilisateurs que tout autre système dans l'histoire de l'humanité.

Google traite en moyenne 3.8 millions de recherches par minute dans le monde. Cela revient à 228 millions de recherches par heure, 5.6 milliards de recherches par jour. C'est beaucoup de données, et c'est pourquoi il est insensé de tenter un référencement black hat. Supposer que l'IA de Google va rester stagnante est insensé, le système utilise le Loi des rendements accélérés pour s'auto-améliorer de manière exponentielle.

L'IA de Google devient si puissante qu'il est concevable qu'elle devienne éventuellement la première IA à atteindre Intelligence générale artificielle (AGI). Une AGI est une intelligence capable d'utiliser transférer l'apprentissage maîtriser un domaine pour ensuite appliquer cette intelligence apprise dans plusieurs domaines. Bien qu'il puisse être intéressant d'explorer les futurs efforts de Google en matière d'IAG, il faut comprendre qu'une fois que le processus est en marche, il est difficile de l'arrêter. Il s'agit bien sûr de spéculer sur l'avenir car Google est actuellement un type d'IA étroite, mais c'est un sujet pour un autre article.

Sachant que passer une seconde de plus sur un chapeau noir est une course folle.

Référencement chapeau blanc

Si nous acceptons que l'IA de Google s'améliore continuellement, nous n'avons d'autre choix que de renoncer à tenter de déjouer Google. Au lieu de cela, concentrez-vous sur l'optimisation d'un site Web pour fournir à Google de manière optimale ce qu'il recherche.

Comme décrit, cela implique l'activation de SSL, l'optimisation de la vitesse de chargement des pages et l'optimisation du méta-titre et de la méta-description. Pour optimiser ces champs, le Meta Title et la Meta Description doivent être comparés aux sites concurrents - Identifiez les éléments gagnants qui se traduisent par un taux de clic élevé.

Si vous avez optimisé les clics, la prochaine étape consiste à créer la meilleure page de destination. L'objectif est une page de destination qui optimise tellement la valeur de l'utilisateur que le temps moyen passé sur la page surpasse les concurrents similaires qui se disputent les meilleurs résultats des moteurs de recherche.

Ce n'est qu'en offrant la meilleure expérience utilisateur qu'une page Web peut augmenter son classement.

Jusqu'à présent, nous avons identifié ces mesures comme étant les plus importantes :

  • Vitesse de chargement
  • SSL activé
  • Méta-titre et méta-description
  • Page de Destination

La page de destination est l'élément le plus difficile car vous êtes en compétition avec le monde. La page de destination doit se charger rapidement et doit servir tout ce qui est attendu, puis surprendre l'utilisateur avec plus.

Réflexions finales

Il serait facile de remplir 2000 mots supplémentaires décrivant d'autres technologies d'intelligence artificielle utilisées par Google, ainsi que de creuser plus profondément dans le terrier du lapin du référencement. L'intention ici est de recentrer l'attention sur les mesures les plus importantes.

Les partitionneurs SEO sont tellement concentrés sur le jeu du système qu'ils oublient qu'en fin de compte, l'élément le plus important du SEO est de donner aux utilisateurs autant de valeur que possible.

Une façon d'y parvenir est de ne jamais laisser un contenu important devenir obsolète. Si dans un mois je pense à une contribution importante, elle sera ajoutée à cet article. Google peut alors identifier la fraîcheur du contenu, en fonction de l'historique de la page offrant de la valeur.

Si vous craignez toujours d'acquérir des backlinks, la solution est simple. Respectez le temps de vos visiteurs et valorisez-les. Les backlinks viendront naturellement, car les utilisateurs trouveront de la valeur à partager votre contenu.

La question se pose alors au propriétaire du site Web sur la manière de fournir la meilleure valeur utilisateur et la meilleure expérience utilisateur.

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.