Connect with us
SEO 101:

SEO 101

Optimización de SEO: Cómo funciona el AI de Google (abril 2026)

mm

La Optimización de Motores de Búsqueda (SEO) es el proceso de optimizar factores en página y fuera de página que impactan cómo de alto rango es una página web para un término de búsqueda específico. Este es un proceso multifacético que incluye optimizar la velocidad de carga de la página, generar una estrategia de creación de enlaces, utilizar herramientas de SEO, así como aprender a ingenierizar inversamente el AI de Google utilizando pensamiento computacional.

El pensamiento computacional es un tipo avanzado de análisis y técnica de resolución de problemas que los programadores de computadora utilizan al escribir código y algoritmos. Los pensadores computacionales buscarán la verdad fundamental al descomponer un problema y analizarlo utilizando el pensamiento de primeros principios.

Dado que Google no publica su secreto a nadie, confiaremos en el pensamiento computacional. Pasaremos por algunos momentos cruciales en la historia de Google que dieron forma a los algoritmos que se utilizan, y aprenderemos por qué esto es importante.

Cómo crear una mente

Comenzaremos con un libro que se publicó en 2012, llamado “Cómo crear una mente: El secreto del pensamiento humano revelado” por el futurista y inventor renombrado, Ray Kurzweil. Este libro diseccionó el cerebro humano y desglosó las formas en que funciona. Aprendemos desde abajo cómo el cerebro se entrena utilizando el reconocimiento de patrones para convertirse en una máquina de predicción, siempre trabajando para predecir el futuro, incluso prediciendo la próxima palabra.

¿Cómo reconocen los humanos patrones en la vida diaria? ¿Cómo se forman estas conexiones en el cerebro? El libro comienza con la comprensión del pensamiento jerárquico, esto es, comprender una estructura que está compuesta por elementos diversos que se organizan en un patrón, esta organización luego representa un símbolo como una letra o carácter, y luego esto se organiza en un patrón más avanzado como una palabra, y eventualmente una oración. Eventualmente, estos patrones forman ideas, y estas ideas se transforman en los productos que los humanos son responsables de construir.

Al emular el cerebro humano, se revela una vía para crear un AI avanzado más allá de las capacidades actuales de las redes neuronales que estaban alrededor en el momento de la publicación.

El libro fue una guía para crear un AI que pueda escalar al vaciar los datos del mundo y utilizar su procesamiento de reconocimiento de patrones multiestratificado para analizar texto, imágenes, audio y video. Un sistema optimizado para escalar debido a los beneficios de la nube y sus capacidades de procesamiento paralelo. En otras palabras, no habría un límite máximo en la entrada o salida de datos.

Este libro fue tan crucial que pronto después de su publicación, el autor Ray Kurzweil fue contratado por Google para convertirse en el Director de Ingeniería enfocado en aprendizaje automático y procesamiento de lenguaje. Un papel que se alineaba perfectamente con el libro que había escrito.

Sería imposible negar cuán influyente fue este libro en el futuro de Google y en cómo clasifica los sitios web. Este libro de AI debería ser lectura obligatoria para cualquier persona que desee convertirse en un experto en SEO.

DeepMind

Lanzado en 2010, DeepMind fue una startup caliente que utilizaba un tipo revolucionario de algoritmo de AI que estaba tomando el mundo por asalto, se llamaba aprendizaje reforzado. DeepMind lo describió mejor como:

“Presentamos el primer modelo de aprendizaje profundo que aprende políticas de control directamente desde la entrada sensorial de alta dimensión utilizando aprendizaje reforzado. El modelo es una red neuronal convolucional, entrenada con una variante de Q-aprendizaje, cuya entrada es píxeles crudos y cuya salida es una función de valor que estima recompensas futuras.”

Al fusionar el aprendizaje profundo con el aprendizaje reforzado se convirtió en un sistema de aprendizaje reforzado profundo. Para 2013, DeepMind estaba utilizando estos algoritmos para acumular victorias contra jugadores humanos en juegos de Atari 2600 – Y esto se logró al imitar el cerebro humano y cómo aprende de la capacitación y la repetición.

Similar a cómo un humano aprende por repetición, ya sea pateando una pelota o jugando Tetris, el AI también aprende. La red neuronal del AI rastrea el rendimiento y se auto-mejora incrementalmente, lo que resulta en una selección de movimientos más fuerte en la siguiente iteración.

DeepMind fue tan dominante en su ventaja tecnológica que Google tuvo que comprar el acceso a la tecnología. DeepMind fue adquirida por más de $500 millones en 2014.

Después de la adquisición, la industria de AI presenció avances sucesivos, un tipo no visto desde 11 de mayo de 1997, cuando el gran maestro de ajedrez Garry Kasparov perdió el primer juego de una partida de seis juegos contra Deep Blue, una computadora que jugaba ajedrez desarrollada por científicos de IBM.

En 2015, DeepMind refinó el algoritmo para probarlo en la suite de 49 juegos de Atari, y la máquina superó el rendimiento humano en 23 de ellos.

Eso fue solo el comienzo, más tarde en 2015 DeepMind comenzó a centrarse en AlphaGo, un programa con el objetivo declarado de derrotar a un campeón mundial de Go profesional. El antiguo juego de Go, que se vio por primera vez en China hace unos 4000 años, se considera el juego más desafiante de la historia humana, con sus posibles 10360 movimientos posibles.

DeepMind utilizó el aprendizaje supervisado para entrenar el sistema AlphaGo aprendiendo de jugadores humanos. Pronto después, DeepMind hizo titulares después de que AlphaGo derrotara a Lee Sedol, el campeón mundial, en una partida de cinco juegos en marzo de 2016.

No ser superado, en octubre de 2017 DeepMind lanzó AlphaGo Zero, un nuevo modelo con el diferenciador clave de que no requería entrenamiento humano. Desde que no requería entrenamiento humano, también no requería etiquetado de datos, el sistema esencialmente utilizó aprendizaje no supervisado. AlphaGo Zero rápidamente superó a su predecesor, como describe DeepMind.

“Las versiones anteriores de AlphaGo se entrenaron inicialmente en miles de juegos de ajedrez amateur y profesional para aprender a jugar Go. AlphaGo Zero salta este paso y aprende a jugar simplemente jugando partidas contra sí mismo, comenzando desde un juego completamente aleatorio. Al hacerlo, rápidamente superó el nivel de juego humano y derrotó a la versión publicada anteriormente de AlphaGo por 100 juegos a 0.”

Mientras tanto, el mundo de SEO estaba hiper enfocado en PageRank, la columna vertebral de Google. Comienza en 1995, cuando Larry Page y Sergey Brin eran estudiantes de doctorado en la Universidad de Stanford. El dúo comenzó a colaborar en un proyecto de investigación novel llamado “BackRub”. El objetivo era clasificar páginas web en una medida de importancia al convertir sus datos de enlaces de retroceso. Un enlace de retroceso es simplemente cualquier enlace de una página a otra, similar a este enlace.

El algoritmo más tarde se renombró como PageRank, nombrado después del término “página web” y el cofundador Larry Page. Larry Page y Sergey Brin tenían el objetivo ambicioso de construir un motor de búsqueda que pudiera alimentar toda la web puramente mediante enlaces de retroceso.

Y funcionó.

PageRank domina los titulares

Los profesionales de SEO inmediatamente entendieron los conceptos básicos de cómo Google calcula una clasificación de calidad para una página web utilizando PageRank. Algunos empresarios de SEO de sombrero negro astutos tomaron esto un paso más allá, entendiendo que para escalar contenido, podría tener sentido comprar enlaces en lugar de esperar a adquirirlos de forma orgánica.

Una nueva economía surgió alrededor de los enlaces de retroceso. Los propietarios de sitios web ansiosos por impactar las clasificaciones de los motores de búsqueda compraban enlaces, y a cambio, los propietarios de sitios web desesperados por monetizar sus sitios web vendían enlaces.

Los sitios web que compraban enlaces a menudo invadían Google de la noche a la mañana, superando a las marcas establecidas.

Clasificar utilizando este método funcionó muy bien durante mucho tiempo – Hasta que dejó de funcionar, probablemente alrededor del mismo tiempo en que el aprendizaje automático resolvió el problema subyacente. Con la introducción del aprendizaje reforzado profundo, PageRank se convertiría en una variable de clasificación, no en el factor dominante.

En este punto, la comunidad de SEO está dividida sobre la compra de enlaces como estrategia. Personalmente creo que la compra de enlaces ofrece resultados subóptimos, y que los mejores métodos para adquirir enlaces de retroceso se basan en variables que son específicas de la industria. Un servicio legítimo que puedo recomendar se llama HARO (Help a Reporter Out). La oportunidad en HARO es adquirir enlaces de retroceso al cumplir con las solicitudes de los medios.

Las marcas establecidas nunca tuvieron que preocuparse por buscar enlaces, ya que tenían los beneficios del tiempo a su favor. Cuanto más antiguo es un sitio web, más tiempo ha tenido para recopilar enlaces de retroceso de alta calidad. En otras palabras, una clasificación de motor de búsqueda dependía mucho de la edad del sitio web, si se calcula utilizando la métrica tiempo = enlaces de retroceso.

Por ejemplo, CNN naturalmente recibiría enlaces de retroceso por un artículo de noticias debido a su marca, su confianza y porque estaba listado alto para empezar – Así que naturalmente ganó más enlaces de retroceso de personas que investigaban un artículo y enlazaban al primer resultado de búsqueda que encontraban.

Lo que significa que las páginas web con clasificaciones más altas recibieron orgánicamente más enlaces de retroceso. Desafortunadamente, esto significó que los nuevos sitios web a menudo se vieron obligados a abusar del algoritmo de enlaces de retroceso al recurrir a un mercado de enlaces de retroceso.

A principios de la década de 2000, comprar enlaces de retroceso funcionó de manera sorprendente y fue un proceso simple. Los compradores de enlaces compraban enlaces de sitios web de alta autoridad, a menudo enlaces en el pie de página de todo el sitio, o tal vez en una base por artículo (a menudo disfrazados de publicación de invitados), y los vendedores desesperados por monetizar sus sitios web estaban felices de complacer – Desafortunadamente, a menudo a expensas de la calidad.

Eventualmente, el grupo de talentos de Google de ingenieros de aprendizaje automático entendió que codificar los resultados de los motores de búsqueda a mano era inútil, y que mucha de PageRank era codificación manual. En cambio, entendieron que el AI eventualmente se convertiría en responsable de calcular completamente las clasificaciones con poca o ninguna interferencia humana.

Para mantenerse competitivo, Google utiliza todas las herramientas de su arsenal, y esto incluye aprendizaje reforzado profundo – El tipo más avanzado de algoritmo de aprendizaje automático del mundo.

Este sistema, combinado con la adquisición de MetaWeb por parte de Google, fue un cambio de juego. La razón por la que la adquisición de MetaWeb en 2010 fue tan importante es que redujo el peso que Google otorgaba a las palabras clave. El contexto se volvió importante, y esto se logró mediante una metodología de categorización llamada ‘entidades’. Como describe Fast Company:

Una vez que Metaweb determina a qué entidad se refiere, puede proporcionar un conjunto de resultados. Incluso puede combinar entidades para búsquedas más complejas – “actrices mayores de 40” podría ser una entidad, “actrices que viven en la ciudad de Nueva York” podría ser otra, y “actrices con una película que se estrena actualmente” podría ser otra. “.

Esta tecnología se integró en una actualización importante del algoritmo llamada RankBrain que se lanzó en la primavera de 2015. RankBrain se centró en comprender el contexto en lugar de basarse únicamente en palabras clave, y RankBrain también consideraría contextos ambientales (por ejemplo, la ubicación del buscador) y extrapolaría el significado donde no había ninguno antes. Esta fue una actualización importante, especialmente para los usuarios móviles.

Ahora que entendemos cómo Google utiliza estas tecnologías, usemos el pensamiento computacional para especular sobre cómo se hace.

¿Qué es el aprendizaje profundo?

El aprendizaje profundo es el tipo más común de aprendizaje automático – Sería imposible que Google no utilice este algoritmo.

El aprendizaje profundo se ve influenciado significativamente por la forma en que opera el cerebro humano y trata de imitar el comportamiento del cerebro en la forma en que utiliza el reconocimiento de patrones para identificar y categorizar objetos.

Por ejemplo, si ves la letra a, tu cerebro reconoce automáticamente las líneas y las formas para luego identificarla como la letra a. Lo mismo se aplica a las letras ap, tu cerebro intenta automáticamente predecir el futuro al generar posibles palabras como app o apple. Otros patrones pueden incluir números, señales de tráfico o identificar a un ser querido en un aeropuerto concurrido.

Puedes pensar en las interconexiones en un sistema de aprendizaje profundo como similares a la forma en que opera el cerebro humano con la conexión de neuronas y sinapsis.

El aprendizaje profundo es en última instancia el término dado a las arquitecturas de aprendizaje automático que unen muchos perceptrones multilayer en una sola capa, de modo que no haya solo una capa oculta, sino muchas capas ocultas. Cuanto más “profundo” sea la red neuronal, más sofisticados patrones puede aprender la red.

Las redes completamente conectadas se pueden combinar con otras funciones de aprendizaje automático para crear diferentes arquitecturas de aprendizaje profundo.

Cómo utiliza Google el aprendizaje profundo

Google rastrea los sitios web del mundo al seguir los hiperenlaces (como neuronas) que conectan los sitios web entre sí. Esta fue la metodología original que Google utilizó desde el primer día y todavía está en uso. Una vez que los sitios web están indexados, se utilizan varios tipos de AI para analizar este tesoro de datos.

El sistema de Google etiqueta las páginas web según varias métricas internas, con solo una intervención o interferencia humana menor. Un ejemplo de una intervención sería la eliminación manual de una URL específica debido a una solicitud de eliminación de DMCA.

Los ingenieros de Google son famosos por frustrar a los asistentes a conferencias de SEO, y esto se debe a que los ejecutivos de Google nunca pueden articular adecuadamente cómo opera Google. Cuando se les preguntan por qué ciertos sitios web no logran clasificar, es casi siempre la misma respuesta mal articulada. La respuesta es tan frecuente que a menudo los asistentes anticipan que han estado creando contenido de calidad durante meses o incluso años sin resultados positivos.

Predeciblemente, a los propietarios de sitios web se les instruye que se centren en crear contenido valioso – Un componente importante, pero lejos de ser exhaustivo.

Esta falta de respuesta se debe a que los ejecutivos son incapaces de responder adecuadamente a la pregunta. El algoritmo de Google opera en una caja negra. Hay entrada, y luego salida – y así es como funciona el aprendizaje profundo.

Ahora volvamos a una penalización de clasificación que afecta negativamente a millones de sitios web a menudo sin el conocimiento del propietario del sitio web.

PageSpeed Insights

Google no suele ser transparente, PageSpeed Insights es la excepción. Los sitios web que no superan esta prueba de velocidad se enviarán a una caja de penalización por cargar lentamente – Especialmente si los usuarios móviles se ven afectados.

Lo que se sospecha es que en algún momento del proceso hay un árbol de decisión que analiza sitios web rápidos versus sitios web que cargan lentamente (PageSpeed Insights fallidos). Un árbol de decisión es esencialmente un enfoque algorítmico que divide el conjunto de datos en puntos de datos individuales según diferentes criterios. El criterio puede ser para influir negativamente en cómo de alto rango es una página para usuarios móviles versus usuarios de escritorio.

Hipotéticamente, se podría aplicar una penalización al puntaje de clasificación natural. Por ejemplo, un sitio web que sin penalización clasificaría en el #5 puede tener un -20, -50 o alguna otra variable desconocida que reducirá el rango al #25, #55 o algún otro número seleccionado por el AI.

En el futuro, es posible que veamos el fin de PageSpeed Insights, cuando Google se vuelva más confiado en su AI. Esta intervención actual sobre la velocidad por parte de Google es peligrosa, ya que podría potencialmente eliminar resultados que habrían sido óptimos y discrimina a los menos técnicamente hábiles.

Es una gran solicitud exigir que todos los que operen un negocio pequeño tengan la experiencia para diagnosticar y remediar los problemas de la prueba de velocidad con éxito. Una solución simple sería que Google simplemente lanzara un plugin de optimización de velocidad para usuarios de WordPress, ya que WordPress alimenta el 43% de Internet.

Desafortunadamente, todos los esfuerzos de SEO son en vano si un sitio web no supera PageSpeed Insights de Google. Las apuestas no son menos que la desaparición de un sitio web de Google.

Cómo pasar esta prueba es un artículo para otra ocasión, pero como mínimo debes verificar si tu sitio web supera la prueba.

Otra métrica técnica importante de la que preocuparse es un protocolo de seguridad llamado SSL (Capa de sockets seguros). Esto cambia la URL de un dominio de http a https y garantiza la transmisión segura de datos. Cualquier sitio web que no tenga habilitado SSL será penalizado. Si bien hay algunas excepciones a esta regla, los sitios web de comercio electrónico y financieros se verán más afectados.

Los proveedores de servicios web de bajo costo cobran una tarifa anual por la implementación de SSL, mientras que los buenos proveedores de servicios web como Siteground emiten certificados SSL de forma gratuita y los integran automáticamente.

Metadatos

Otro elemento importante en el sitio web es el Título de metadatos y la Descripción de metadatos. Estos campos de contenido tienen un orden de importancia desproporcionado que puede contribuir tanto al éxito o fracaso de una página como el contenido completo de esa página.

Esto se debe a que Google tiene una alta probabilidad de seleccionar el Título de metadatos y la Descripción de metadatos para mostrarlos en los resultados de búsqueda. Y esta es la razón por la que es importante llenar los campos de título de metadatos y descripción de metadatos con la mayor precisión posible.

La alternativa es que Google puede optar por ignorar el título de metadatos y la descripción de metadatos para generar automáticamente datos que predice que resultarán en más clics. Si Google predice mal qué título generar automáticamente, esto contribuirá a menos clics por parte de los buscadores y, en consecuencia, esto contribuirá a una clasificación de búsqueda perdida.

Si Google cree que la descripción de metadatos incluida está optimizada para recibir clics, la mostrará en los resultados de búsqueda. Si no, Google tomará un trozo aleatorio de texto del sitio web. A menudo, Google selecciona el mejor texto de la página, el problema es que este es un sistema de lotería y Google es consistentemente malo para elegir qué descripción seleccionar.

Por supuesto, si crees que el contenido de tu página es realmente bueno, a veces tiene sentido permitir que Google elija la descripción de metadatos optimizada que mejor se adapte a la consulta del usuario. Optaremos por no incluir una descripción de metadatos para este artículo, ya que es rico en contenido y Google probablemente seleccionará una buena descripción.

Mientras tanto, miles de millones de humanos están haciendo clic en los mejores resultados de búsqueda – Esto es el humano en el bucle, el último mecanismo de retroalimentación de Google – Y aquí es donde entra en juego el aprendizaje reforzado.

¿Qué es el aprendizaje reforzado?

El aprendizaje reforzado es una técnica de aprendizaje automático que implica entrenar a un agente de AI a través de la repetición de acciones y recompensas asociadas. Un agente de aprendizaje reforzado experimenta en un entorno, toma acciones y es recompensado cuando se toman las acciones correctas. Con el tiempo, el agente aprende a tomar las acciones que maximizarán su recompensa.

La recompensa podría basarse en un cálculo simple que calcula la cantidad de tiempo que se pasa en una página recomendada.

Si combinas esta metodología con una subrutina de humano en el bucle, esto sonaría mucho a cómo opera un motor de recomendación existente que controla todos los aspectos de nuestras vidas digitales, como YouTube, Netflix, Amazon Prime – Y si suena a cómo debería operar un motor de búsqueda, estás en lo correcto.

Cómo utiliza Google el aprendizaje reforzado

La rueda de Google mejora con cada búsqueda, los humanos entrenan al AI al seleccionar el mejor resultado que mejor responda a su consulta, y la consulta similar de millones de otros usuarios.

El agente de aprendizaje reforzado trabaja continuamente para auto-mejorarse, reforzando solo las interacciones más positivas entre la búsqueda y el resultado de la búsqueda entregado.

Google mide la cantidad de tiempo que se tarda en escanear la página de resultados, la URL que se hace clic, y miden la cantidad de tiempo que se pasa en el sitio web visitado, y registran el clic de regreso. Estos datos se compilan y se comparan con todos los sitios web que ofrecen una coincidencia de datos similar o una experiencia del usuario.

Un sitio web con una tasa de retención baja (tiempo que se pasa en el sitio), se le asigna un valor negativo al sistema de aprendizaje reforzado, y otros sitios web competidores se prueban para mejorar las clasificaciones ofrecidas. Google es imparcial, asumiendo que no hay intervención manual, Google eventualmente proporciona los resultados de búsqueda deseados.

Los usuarios son el humano en el bucle que proporciona a Google datos gratuitos y se convierten en el componente final del sistema de aprendizaje reforzado profundo. A cambio de este servicio, Google ofrece al usuario final la oportunidad de hacer clic en un anuncio.

Los anuncios, fuera de generar ingresos, sirven como un factor de clasificación secundario, flotando más datos sobre qué hace que un usuario quiera hacer clic.

Google esencialmente aprende qué es lo que un usuario quiere. Esto se puede comparar vagamente con un motor de recomendación de un servicio de transmisión de video. En ese caso, un motor de recomendación alimentaría al usuario con contenido dirigido a sus intereses. Por ejemplo, un usuario que habitualmente disfruta de una corriente de comedias románticas podría disfrutar de algunas parodias si comparten los mismos comediantes.

¿Cómo ayuda esto al SEO?

Si continuamos con el pensamiento computacional, podemos asumir que Google se ha entrenado a sí mismo para entregar los mejores resultados, y esto a menudo se logra generalizando y satisfaciendo los sesgos humanos. De hecho, sería imposible que el AI de Google no optimice los resultados que se ajusten a estos sesgos, si lo hiciera, los resultados serían subóptimos.

En otras palabras, no hay una fórmula mágica, pero hay algunas mejores prácticas.

Es la responsabilidad del practicante de SEO reconocer los sesgos que Google busca que son específicos de su industria – Y alimentar esos sesgos. Por ejemplo, alguien que busca resultados de encuestas electorales sin especificar una fecha, probablemente esté buscando los resultados más recientes – este es un sesgo de recencia. Alguien que busca una receta, probablemente no necesite la página más reciente, y puede preferir una receta que ha resistido la prueba del tiempo.

Es la responsabilidad del practicante de SEO ofrecer a los visitantes los resultados que están buscando. Esta es la forma más sostenible de clasificar en Google.

Los propietarios de sitios web deben abandonar la estrategia de orientar un keyword específico con la expectativa de que puedan entregar lo que quieran al usuario final. El resultado de la búsqueda debe coincidir precisamente con la necesidad del usuario.

¿Qué es un sesgo? Puede ser tener un nombre de dominio que parezca de alta autoridad, es decir, ¿coincide el nombre de dominio con el mercado que se está sirviendo? Tener un nombre de dominio con la palabra India en él puede disuadir a los usuarios de EE. UU. de hacer clic en la URL, debido a un sesgo de nacionalismo de confianza en los resultados que provienen del país de residencia del usuario. Tener un dominio de una sola palabra también puede dar la ilusión de autoridad.

El sesgo más importante es qué es lo que un usuario quiere que coincida con su consulta de búsqueda. ¿Es un FAQ, una lista de los 10 mejores, un artículo de blog? Esto debe responderse, y la respuesta es fácil de encontrar. Solo necesitas analizar la competencia realizando una búsqueda de Google en tu mercado objetivo.

El SEO de sombrero negro está muerto

Compare esto con el SEO de sombrero negro, un método agresivo de clasificar sitios web que explota técnicas de SPAM astutas, incluyendo la compra de enlaces de retroceso, la falsificación de enlaces de retroceso, el pirateo de sitios web, la generación automática de marcadores sociales a gran escala y otras metodologías oscuras que se aplican a través de una red de herramientas de sombrero negro.

Herramientas que a menudo se vuelven a utilizar y se venden en varios foros de marketing de motores de búsqueda, productos con poco valor y pocas posibilidades de éxito. En este momento, estas herramientas permiten que los vendedores se vuelvan ricos, mientras que ofrecen un valor mínimo al usuario final.

Esta es la razón por la que recomiendo abandonar el SEO de sombrero negro. Centra tu SEO en verlo a través de la lente del aprendizaje automático. Es importante entender que cada vez que alguien salta un resultado de búsqueda para hacer clic en un resultado enterrado debajo, es el humano en el bucle que colabora con el sistema de aprendizaje reforzado profundo. El humano está ayudando al AI a auto-mejorarse, volviéndose infinitamente mejor con el tiempo.

Este es un algoritmo de aprendizaje automático que ha sido entrenado por más usuarios que cualquier otro sistema en la historia humana.

Google maneja 3.8 millones de búsquedas por minuto en promedio en todo el mundo. Eso equivale a 228 millones de búsquedas por hora, 5.6 mil millones de búsquedas por día. Eso es mucha data, y esta es la razón por la que es tonto intentar SEO de sombrero negro. Asumir que el AI de Google permanecerá estático es tonto, el sistema está utilizando la Ley de rendimientos acelerados para auto-mejorarse exponencialmente.

El AI de Google se está volviendo tan poderoso que es concebible que eventualmente se convierta en el primer AI en alcanzar Inteligencia Artificial General (AGI). Un AGI es una inteligencia que puede utilizar aprendizaje de transferencia para dominar un campo y luego aplicar esa inteligencia aprendida en múltiples dominios. Si bien puede ser interesante explorar los esfuerzos futuros de AGI de Google, debe entenderse que una vez que el proceso está en marcha, es difícil detenerlo. Esto es especular hacia el futuro, ya que Google actualmente es un tipo de inteligencia estrecha, pero ese es un tema para otro artículo.

Al saber esto, gastar un segundo más en SEO de sombrero negro es una tontería.

SEO de sombrero blanco

Si aceptamos que el AI de Google continuará auto-mejorándose, entonces no tenemos más remedio que renunciar a intentar superar a Google. En cambio, centra tu atención en optimizar un sitio web para proporcionar a Google específicamente lo que está buscando.

Como se describe, esto implica habilitar SSL, optimizar la velocidad de carga de la página y optimizar el Título de metadatos y la Descripción de metadatos. Para optimizar estos campos, el Título de metadatos y la Descripción de metadatos deben compararse con sitios web competidores – Identificar los elementos ganadores que resultan en una tasa de clics alta.

Si se optimiza para ser hecho clic, el próximo hito es crear la mejor página de destino. El objetivo es una página de destino que optimice tanto el valor del usuario que el tiempo promedio que se pasa en la página supere a los competidores que están compitiendo por los mejores resultados de búsqueda.

Solo al ofrecer la mejor experiencia del usuario puede una página web aumentar en clasificación.

Hasta ahora, hemos identificado estas métricas como las más importantes:

  • Velocidad de carga
  • SSL habilitado
  • Título de metadatos y Descripción de metadatos
  • Página de destino

La página de destino es el elemento más difícil, ya que estás compitiendo contra el mundo. La página de destino debe cargar rápidamente y debe servir todo lo que se espera, y luego sorprender al usuario con más.

Pensamientos finales

Sería fácil llenar otros 2000 palabras describiendo otras tecnologías de AI que Google utiliza, así como sumergirse más en el conejo de SEO. La intención aquí es refocar la atención en las métricas más importantes.

Los profesionales de SEO están tan enfocados en jugar con el sistema que olvidan que al final del día, el elemento más importante de SEO es dar a los usuarios tanto valor como sea posible.

Una forma de lograr esto es nunca permitir que el contenido importante se vuelva obsoleto. Si en un mes pienso en una contribución importante, se agregará a este artículo. Google puede identificar entonces qué tan fresco es el contenido, coincidiendo con la historia de la página que entrega valor.

Si todavía te preocupa adquirir enlaces de retroceso, la solución es simple. Respetar el tiempo de tus visitantes y darles valor. Los enlaces de retroceso vendrán naturalmente, ya que los usuarios encontrarán valor en compartir tu contenido.

La pregunta entonces se desplaza al propietario del sitio web sobre cómo proporcionar el mejor valor y experiencia del usuario.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.