toco Otimização de SEO: como funciona a IA do Google (maio de 2024)
Entre em contato

Search Engine Optimization

Otimização de SEO: como funciona a IA do Google (maio de 2024)

mm
Atualização do on

Search Engine Optimization (SEO) é o processo de otimização de fatores on-page e off-page que afetam a classificação de uma página da Web para um termo de pesquisa específico. Este é um processo multifacetado que inclui otimizar a velocidade de carregamento da página, gerar uma estratégia de link building, usar Ferramentas de SEO, além de aprender como fazer engenharia reversa da IA ​​do Google usando pensamento computacional.

O pensamento computacional é um tipo avançado de análise e técnica de solução de problemas que os programadores de computador usam ao escrever códigos e algoritmos. Os pensadores computacionais buscarão a verdade básica decompondo um problema e analisando-o usando o pensamento dos primeiros princípios.

Como o Google não divulga seu molho secreto para ninguém, vamos contar com o pensamento computacional. Passaremos por alguns momentos cruciais na história do Google que moldaram os algoritmos usados ​​e aprenderemos por que isso é importante.

Como criar uma mente

Começaremos com um livro que foi publicado em 2012, chamado “Como criar uma mente: o segredo do pensamento humano revelado” pelo renomado futurista e inventor Ray Kurzweil. Este livro dissecou o cérebro humano e quebrou as formas como ele funciona. Aprendemos desde o início como o cérebro se treina usando o reconhecimento de padrões para se tornar uma máquina de previsão, sempre trabalhando para prever o futuro, até mesmo prevendo a próxima palavra.

Como os humanos reconhecem padrões na vida cotidiana? Como essas conexões são formadas no cérebro? O livro começa com a compreensão do pensamento hierárquico, isto é, a compreensão de uma estrutura que é composta de diversos elementos que são organizados em um padrão, esse arranjo então representa um símbolo como uma letra ou caractere, e então isso é organizado em um padrão mais avançado. como uma palavra e, eventualmente, uma frase. Eventualmente, esses padrões formam ideias, e essas ideias são transformadas em produtos que os humanos são responsáveis ​​por construir.

Ao emular o cérebro humano, é revelado um caminho para a criação de uma IA avançada além das capacidades atuais das redes neurais que existiam no momento da publicação.

O livro foi um projeto para a criação de uma IA que pode ser dimensionada ao aspirar os dados do mundo e usar seu processamento de reconhecimento de padrões multicamadas para analisar texto, imagens, áudio e vídeo. Um sistema otimizado para upscaling devido aos benefícios da nuvem e seus recursos de processamento paralelo. Em outras palavras, não haveria máximo na entrada ou saída de dados.

Este livro foi tão fundamental que, logo após sua publicação, o autor Ray Kurzweil foi contratado pelo Google para se tornar o Diretor de Engenharia com foco em aprendizado de máquina e processamento de linguagem. Um papel que se alinha perfeitamente com o livro que ele escreveu.

Seria impossível negar o quão influente este livro foi para o futuro do Google e como eles classificam os sites. Esse livro de IA deve ser leitura obrigatória para quem deseja se tornar um especialista em SEO.

DeepMind

Lançado em 2010, o DeepMind era uma nova startup que usava um novo tipo revolucionário de algoritmo de IA que estava conquistando o mundo, chamado aprendizado por reforço. DeepMind descreveu melhor como:

“Apresentamos o primeiro modelo de aprendizagem profunda para aprender com sucesso políticas de controle diretamente a partir de informações sensoriais de alta dimensão usando aprendizagem por reforço. O modelo é uma rede neural convolucional, treinada com uma variante do Q-learning, cuja entrada são pixels brutos e cuja saída é uma função de valor que estima recompensas futuras.”

Ao fundir o aprendizado profundo com o aprendizado por reforço, tornou-se um aprendizagem por reforço profundo sistema. Em 2013, a DeepMind estava usando esses algoritmos para obter vitórias contra jogadores humanos em jogos do Atari 2600 – e isso foi conseguido imitando o cérebro humano e como ele aprende com o treinamento e a repetição.

Semelhante a como um humano aprende por repetição, seja chutando uma bola ou jogando Tetris, a IA também aprenderia. A rede neural da IA ​​rastreou o desempenho e se autoaprimorou de forma incremental, resultando em uma seleção de movimento mais forte na próxima iteração.

A DeepMind era tão dominante em sua liderança tecnológica que o Google teve que comprar o acesso à tecnologia. DeepMind foi adquirido por mais de US$ 500 milhões em 2014.

Após a aquisição, a indústria de IA testemunhou avanços sucessivos, um tipo não visto desde 11 de maio de 1997, quando o xadrez grande mestre Gary Kasparov perdeu o primeiro jogo de uma partida de seis jogos contra o Deep Blue, um computador para jogar xadrez desenvolvido por cientistas da IBM. 

Em 2015, a DeepMind refinou o algoritmo para testá-lo no conjunto de 49 jogos do Atari, e a máquina superou o desempenho humano em 23 deles.

Isso foi apenas o começo, no final de 2015 a DeepMind começou a se concentrar em AlphaGo, um programa com o objetivo declarado de derrotar um Go World Champion profissional. O antigo jogo Go, que foi visto pela primeira vez na China há cerca de 4000 anos, é considerado o jogo mais desafiador da história da humanidade, com seu potencial 10360 movimentos possíveis.

A DeepMind usou o aprendizado supervisionado para treinar o sistema AlphaGo aprendendo com jogadores humanos. Logo depois, o DeepMind ganhou as manchetes após a derrota do AlphaGo Lee sedol, campeã mundial, em uma partida de cinco jogos em março de 2016.

Para não ficar atrás, em outubro de 2017, a DeepMind lançou o AlphaGo Zero, um novo modelo com o principal diferencial que exigia zero formação humana. Como não exigia treinamento humano, também não exigia rotulagem de dados, o sistema usado essencialmente aprendizado não supervisionado. AlphaGo Zero superou rapidamente seu antecessor, como descrito por DeepMind.

“Versões anteriores do AlphaGo inicialmente treinadas em milhares de jogos humanos amadores e profissionais para aprender a jogar Go. O AlphaGo Zero pula esta etapa e aprende a jogar simplesmente jogando contra si mesmo, começando com o jogo completamente aleatório. Ao fazer isso, rapidamente ultrapassou o nível humano de jogo e derrotou o publicado anteriormente versão do AlphaGo que derrotou campeões por 100 jogos a 0.

Nesse ínterim, o mundo do SEO estava hiper focado no PageRank, a espinha dorsal do Google. Tudo começa em 1995, quando Larry Page e Sergey Brin eram Ph.D. alunos da Universidade de Stanford. A dupla começou a colaborar em um novo projeto de pesquisa apelidado de “Massagem nas costas”. O objetivo era classificar as páginas da web em uma medida de importância, convertendo seus dados de backlink. Um backlink é simplesmente qualquer link de uma página para outra, semelhante a este link.

O algoritmo foi posteriormente renomeado para PageRank, em homenagem ao termo “página da web” e ao cofundador Larry Page. Larry Page e Sergey Brin tinham o objetivo ambicioso de construir um mecanismo de busca que pudesse alimentar toda a web apenas por backlinks.

E funcionou.

PageRank domina as manchetes

Os profissionais de SEO entenderam imediatamente o básico de como o Google calcula uma classificação de qualidade para uma página da web usando o PageRank. Alguns empreendedores de SEO de chapéu preto experientes deram um passo adiante, entendendo que, para dimensionar o conteúdo, pode fazer sentido comprar links em vez de esperar para adquiri-los organicamente.

Uma nova economia surgiu em torno dos backlinks. Proprietários de sites ansiosos que precisavam impactar as classificações dos mecanismos de pesquisa comprariam links e, em troca, desesperados para monetizar sites, venderiam links para eles.

Os sites que compravam links frequentemente invadiam o Google da noite para o dia, superando marcas estabelecidas.

A classificação usando esse método funcionou muito bem por muito tempo – até parar de funcionar, provavelmente na mesma época em que o aprendizado de máquina entrou em ação e resolveu o problema subjacente. Com a introdução do aprendizado por reforço profundo, o PageRank se tornaria uma variável de classificação, não o fator dominante.

Até agora, a comunidade de SEO está dividida sobre a compra de links como estratégia. Pessoalmente, acredito que a compra de links oferece resultados abaixo do ideal e que os melhores métodos para adquirir backlinks são baseados em variáveis ​​específicas do setor. Um serviço legítimo que posso recomendar chama-se HARO (Ajude um repórter). A oportunidade na HARO é adquirir backlinks atendendo a solicitações de mídia.

Marcas estabelecidas nunca tiveram que se preocupar com links de sourcing, pois tinham os benefícios do tempo trabalhando a seu favor. Quanto mais antigo um site, mais tempo ele teve para coletar backlinks de alta qualidade. Em outras palavras, a classificação de um mecanismo de pesquisa dependia muito da idade de um site, se você calcular usando a métrica tempo = backlinks.

Por exemplo, a CNN receberia naturalmente backlinks para um artigo de notícias devido à sua marca, sua confiança e porque estava listado no topo para começar - Então, naturalmente, ganhou mais backlinks de pessoas pesquisando um artigo e vinculando ao primeiro resultado de pesquisa que encontraram .

O que significa que as páginas da web com classificação mais alta receberam organicamente mais backlinks. Infelizmente, isso significava que novos sites muitas vezes eram forçados a abusar do algoritmo de backlink, recorrendo a um mercado de backlink.

No início dos anos 2000, a compra de backlinks funcionava muito bem e era um processo simples. Os compradores de links compraram links de sites de alta autoridade, geralmente links de rodapé em todo o site ou talvez por artigo (muitas vezes disfarçados de postagem de convidado), e os vendedores desesperados para monetizar seus sites ficaram felizes em obrigar - Infelizmente, muitas vezes com o sacrifício de qualidade.

Eventualmente, o pool de talentos de engenheiros de aprendizado de máquina do Google entendeu que codificar os resultados do mecanismo de pesquisa manualmente era inútil e muito do PageRank era codificação manuscrita. Em vez disso, eles entenderam que a IA acabaria se tornando responsável por calcular totalmente os rankings com pouca ou nenhuma interferência humana.

Para se manter competitivo, o Google usa todas as ferramentas de seu arsenal e isso inclui aprendizagem por reforço profundo – O tipo mais avançado de algoritmo de aprendizado de máquina do mundo.

Este sistema em camadas sobre Aquisição da MetaWeb pelo Google foi um divisor de águas. A razão pela qual a aquisição da MetaWeb em 2010 foi tão importante é que ela reduziu o peso que o Google colocava nas palavras-chave. De repente, o contexto tornou-se importante, isso foi obtido usando uma metodologia de categorização chamada 'entidades'. Como Empresa rápida descrita:

Depois que a Metaweb descobrir a qual entidade você está se referindo, ela poderá fornecer um conjunto de resultados. Ele pode até combinar entidades para pesquisas mais complexas – “atrizes com mais de 40 anos” podem ser uma entidade, “atrizes que moram na cidade de Nova York” podem ser outras e “atrizes com um filme em exibição no momento” podem ser outras. “.

Essa tecnologia foi lançada em uma grande atualização de algoritmo chamada RankBrain que foi lançado na primavera de 2015. O RankBrain se concentrou em entender o contexto em vez de ser puramente baseado em palavras-chave, e o RankBrain também consideraria contextos ambientais (por exemplo, localização do pesquisador) e extrapolaria o significado onde não havia nenhum antes. Esta foi uma atualização importante especialmente para usuários móveis.

Agora que entendemos como o Google usa essas tecnologias, vamos usar a teoria computacional para especular sobre como isso é feito.

O que é Deep Learning?

Aprendizado profundo é o tipo de aprendizado de máquina mais comumente usado – Seria impossível para o Google não usar esse algoritmo.

O aprendizado profundo é influenciado significativamente pela forma como o cérebro humano opera e tenta espelhar o comportamento do cérebro em como ele usa o reconhecimento de padrões para identificar e categorizar objetos.

Por exemplo, se você vir a letra a, seu cérebro reconhece automaticamente as linhas e formas para depois identificar como a letra a. O mesmo é aplicado pelas letras ap, seu cérebro tenta automaticamente prever o futuro criando palavras em potencial como app or maçã. Outros padrões podem incluir números, sinais de trânsito ou a identificação de um ente querido em um aeroporto lotado.

Você pode pensar nas interconexões em um sistema de aprendizado profundo como semelhantes a como o cérebro humano opera com a conexão de neurônios e sinapses.

Aprendizado profundo é, em última análise, o termo dado às arquiteturas de aprendizado de máquina que unem muitos perceptrons multicamadas, de modo que não haja apenas uma camada oculta, mas muitas camadas ocultas. Quanto mais “profunda” for a rede neural profunda, mais sofisticados serão os padrões que a rede poderá aprender.

Redes totalmente conectadas podem ser combinadas com outras funções de aprendizado de máquina para criar diferentes arquiteturas de aprendizado profundo.

Como o Google usa o aprendizado profundo

O Google rastreia os sites do mundo seguindo hiperlinks (pense em neurônios) que conectam os sites uns aos outros. Essa foi a metodologia original que o Google usou desde o primeiro dia e ainda está em uso. Depois que os sites são indexados, vários tipos de IA são usados ​​para analisar esse tesouro de dados.

O sistema do Google rotula as páginas da web de acordo com várias métricas internas, com apenas uma pequena entrada ou intervenção humana. Um exemplo de intervenção seria a remoção manual de uma URL específica devido a um Solicitação de remoção de DMCA.

Os engenheiros do Google são conhecidos por frustrar os participantes em conferências de SEO, e isso ocorre porque os executivos do Google nunca conseguem articular adequadamente como o Google opera. Quando são feitas perguntas sobre por que certos sites falham na classificação, quase sempre é a mesma resposta mal articulada. A resposta é tão frequente que muitas vezes os participantes declaram preventivamente que se comprometeram a criar um bom conteúdo por meses ou até anos sem resultados positivos.

Previsivelmente, os proprietários de sites são instruídos a se concentrar na criação de conteúdo valioso – um componente importante, mas longe de ser abrangente.

Essa falta de resposta ocorre porque os executivos são incapazes de responder adequadamente à pergunta. O algoritmo do Google opera em uma caixa preta. Há entrada e, em seguida, saída - e é assim que o aprendizado profundo funciona.

Vamos agora voltar a uma penalidade de classificação que está afetando negativamente milhões de sites, muitas vezes sem o conhecimento do proprietário do site.

PageSpeed ​​Insights

O Google nem sempre é transparente, o PageSpeed ​​Insights é a exceção. Os sites que falharem nesse teste de velocidade serão enviados para uma caixa de penalidade por carregamento lento – especialmente se os usuários móveis forem afetados.

O que se suspeita é que em algum ponto do processo há uma árvore de decisão que analisa sites rápidos em comparação com sites de carregamento lento (falha no PageSpeed ​​​​Insights). Uma árvore de decisão é essencialmente uma abordagem algorítmica que divide o conjunto de dados em pontos de dados individuais com base em critérios diferentes. Os critérios podem influenciar negativamente a classificação de uma página para usuários de dispositivos móveis em comparação com usuários de computadores.

Hipoteticamente, uma penalidade poderia ser aplicada à pontuação de classificação natural. Por exemplo, um site que sem penalidade classificaria em 5º lugar pode ter -20, -50 ou alguma outra variável desconhecida que reduzirá a classificação para 25º, 55º ou outro número selecionado pela IA.

No futuro, poderemos ver o fim do PageSpeed ​​Insights, quando o Google se tornar mais confiante em sua IA. Essa intervenção atual do Google na velocidade é perigosa, pois pode potencialmente eliminar resultados que seriam ótimos e discriminar os menos experientes em tecnologia.

É um grande pedido exigir que todos os que administram uma pequena empresa tenham o conhecimento necessário para diagnosticar e solucionar problemas de teste de velocidade com sucesso. Uma solução simples seria o Google simplesmente lançar um plug-in de otimização de velocidade para usuários do wordpress, como poderes do wordpress 43% da internet.

Infelizmente, todos os esforços de SEO são em vão se um site não for aprovado Insights de velocidade de página do Google. As apostas são nada menos do que um site desaparecendo do Google.

Como passar neste teste é um artigo para outro momento, mas no mínimo você deve verificar se o seu site passa.

Outra métrica técnica importante para se preocupar é um protocolo de segurança chamado SSL (Camada de soquetes segura). Isso altera a URL de um domínio de http para https e garante a transmissão segura de dados. Qualquer site que não tenha SSL ativado será penalizado. Embora existam algumas exceções a essa regra, os sites financeiros e de comércio eletrônico serão os mais afetados.

Os webhosts de baixo custo cobram uma taxa anual pela implementação do SSL, enquanto os bons webhosts, como Siteground emitir certificados SSL gratuitamente e integrá-los automaticamente.

Metadados

Outro elemento importante no site é o Meta Title e a Meta Description. Esses campos de conteúdo têm uma ordem de importância exagerada que pode contribuir tanto para o sucesso ou fracasso de uma página quanto todo o conteúdo dessa página.

Isso ocorre porque o Google tem uma alta probabilidade de selecionar o Meta Title e a Meta Description para mostrar nos resultados da pesquisa. E é por isso que é importante preencher o campo meta título e meta descrição com a maior atenção possível.

A alternativa é que o Google pode optar por ignorar o meta título e a meta descrição para, em vez disso, gerar dados automaticamente que prevê que resultarão em mais cliques. Se o Google prever mal qual título gerar automaticamente, isso contribuirá para menos cliques pelos pesquisadores e, consequentemente, para a perda de classificações nos mecanismos de pesquisa.

Se o Google acreditar que a meta descrição incluída está otimizada para receber cliques, ela será exibida nos resultados da pesquisa. Se isso falhar, o Google pega um pedaço aleatório de texto do site. Muitas vezes, o Google seleciona o melhor texto na página, o problema é que este é o sistema de loteria e o Google é sempre ruim em escolher qual descrição selecionar.

É claro que, se você acredita que o conteúdo da sua página é realmente bom, às vezes faz sentido permitir que o Google escolha a meta descrição otimizada que melhor corresponda à consulta do usuário. Optaremos por nenhuma meta descrição para este artigo, pois é rico em conteúdo e o Google provavelmente selecionará uma boa descrição.

Enquanto isso, bilhões de humanos estão clicando nos melhores resultados de pesquisa – este é o humano no circuito, o último mecanismo de feedback do Google – E é aqui que o aprendizado por reforço entra em ação.

O que é Aprendizado por Reforço?

Aprendizagem de reforço é uma técnica de aprendizado de máquina que envolve o treinamento de um agente de IA por meio da repetição de ações e recompensas associadas. Um agente de aprendizado por reforço experimenta em um ambiente, realizando ações e sendo recompensado quando as ações corretas são executadas. Com o tempo, o agente aprende a realizar as ações que maximizarão sua recompensa.

A recompensa pode ser baseada em um cálculo simples que calcula a quantidade de tempo gasto em uma página recomendada.

Se você combinar essa metodologia com uma sub-rotina Human-in-the-loop, isso pareceria muito com os mecanismos de recomendação existentes que controlam todos os aspectos de nossas vidas digitais, como YouTube, Netflix, Amazon Prime - e se parece como um mecanismo de pesquisa deve operar, você está correto.

Como o Google usa o aprendizado por reforço

O volante do Google melhora a cada pesquisa, os humanos treinam a IA selecionando o melhor resultado que melhor responde à sua consulta e a consulta semelhante de milhões de outros usuários.

O agente de aprendizado reforçador trabalha continuamente no autoaperfeiçoamento, reforçando apenas as interações mais positivas entre a pesquisa e o resultado da pesquisa entregue.

O Google mede a quantidade de tempo que leva para um usuário verificar a página de resultados, a URL em que ele clica, mede a quantidade de tempo gasto no site visitado e registra o clique de retorno. Esses dados são então compilados e comparados para cada site que oferece uma correspondência de dados ou experiência de usuário semelhante.

Um site com baixa taxa de retenção (tempo gasto no site) é então alimentado pelo sistema de aprendizado por reforço com um valor negativo e outros sites concorrentes são testados para melhorar as classificações oferecidas. O Google é imparcial, supondo que não haja intervenção manual, o Google eventualmente fornece a página de resultados de pesquisa desejada.

Os usuários são os humanos no loop que fornecem dados gratuitos ao Google e se tornam o componente final do sistema de aprendizado de reforço profundo. Em troca desse serviço, o Google oferece ao usuário final a oportunidade de clicar em um anúncio.

Os anúncios fora da geração de receita servem como um fator de classificação secundário, exibindo mais dados sobre o que faz um usuário querer clicar.

O Google basicamente aprende o que um usuário deseja. Isso pode ser vagamente comparado a um mecanismo de recomendação por um serviço de streaming de vídeo. Nesse caso, um mecanismo de recomendação alimentaria um conteúdo de usuário direcionado aos seus interesses. Por exemplo, um usuário que gosta habitualmente de um fluxo de comédias românticas pode gostar de algumas paródias se compartilhar os mesmos comediantes.

Como isso ajuda o SEO?

Se continuarmos com o pensamento computacional, podemos supor que o Google se treinou para entregar os melhores resultados, e isso geralmente é alcançado generalizando e satisfazendo os vieses humanos. De fato, seria impossível para a IA do Google não otimizar os resultados que atendem a esses vieses; se o fizesse, os resultados seriam abaixo do ideal.

Em outras palavras, não existe uma fórmula mágica, mas existem algumas boas práticas.

É responsabilidade do praticante de SEO reconhecer os vieses que o Google busca que são específicos para sua indústria – e alimentar esses vieses. Por exemplo, alguém que procura resultados de pesquisas eleitorais sem especificar uma data provavelmente está procurando os resultados mais recentes – isso é um viés de recência. Alguém que procura uma receita provavelmente não precisa da página mais recente e pode, de fato, preferir uma receita que resistiu ao teste do tempo.

É responsabilidade do profissional de SEO oferecer aos visitantes os resultados que eles procuram. Essa é a forma mais sustentável de ranquear no Google.

Os proprietários de sites devem abandonar a segmentação de uma palavra-chave específica com a expectativa de que possam entregar o que quiserem ao usuário final. O resultado da pesquisa deve corresponder exatamente à necessidade do usuário.

O que é um viés? Pode ser ter um nome de domínio que pareça de alta autoridade, em outras palavras, o nome de domínio corresponde ao mercado que você está atendendo? Ter um nome de domínio com a palavra Índia pode desencorajar os usuários dos EUA a clicarem no URL, devido a um viés nacionalista de confiança nos resultados originários do país de residência do usuário. Ter um domínio de uma palavra também pode dar a ilusão de autoridade.

O viés mais importante é o que um usuário deseja que corresponda à sua consulta de pesquisa? É um FAQ, uma lista dos 10 melhores, uma postagem no blog? Isso precisa ser respondido, e a resposta é fácil de encontrar. Você só precisa analisar a concorrência realizando uma pesquisa no Google em seu mercado-alvo.

Black Hat SEO está morto

Compare isso com o Black Hat SEO, um método agressivo de classificação de sites que explora técnicas desonestas de SPAM, incluindo compra de backlinks, falsificação de backlinks, hacking de sites, geração automática de marcadores sociais em escala e outras metodologias obscuras aplicadas por meio de uma rede de ferramentas black hat .

Ferramentas que muitas vezes são reaproveitadas e revendidas em vários fóruns de marketing de mecanismos de pesquisa, produtos quase sem valor e com poucas chances de sucesso. No momento, essas ferramentas permitem que os vendedores fiquem ricos enquanto oferecem um valor mínimo ao usuário final.

É por isso que recomendo abandonar o Black Hat. Concentre seu SEO em visualizá-lo pelas lentes do aprendizado de máquina. É importante entender que toda vez que alguém pula um resultado de pesquisa para clicar em um resultado oculto abaixo, é o humano no loop colaborando com o sistema de aprendizado por reforço profundo. O humano está ajudando a IA a se autoaperfeiçoar, tornando-se infinitamente melhor com o passar do tempo.

Este é um algoritmo de aprendizado de máquina que foi treinado por mais usuários do que qualquer outro sistema na história da humanidade.

O Google lida com 3.8 milhões de pesquisas por minuto, em média, em todo o mundo. Isso resulta em 228 milhões de pesquisas por hora, 5.6 bilhões de pesquisas por dia. São muitos dados, e é por isso que é tolice tentar SEO black hat. Supor que a IA do Google permanecerá estagnada é tolice, o sistema está usando o Lei dos Retornos Acelerados para auto-aperfeiçoar-se exponencialmente.

A IA do Google está se tornando tão poderosa que é concebível que eventualmente se torne a primeira IA a alcançar Inteligência Geral Artificial (AGI). Uma AGI é uma inteligência capaz de usar transferir aprendizado dominar um campo para aplicar essa inteligência aprendida em vários domínios. Embora possa ser interessante explorar os futuros esforços de AGI do Google, deve-se entender que uma vez que o processo está em movimento, é difícil parar. É claro que isso é uma especulação para o futuro, já que o Google é atualmente um tipo de IA restrita, mas isso é assunto para outro artigo.

Saber disso gastando um segundo a mais com chapéu preto é uma missão tola.

White Hat SEO

Se aceitarmos que a IA do Google se aprimorará continuamente, não teremos escolha a não ser desistir de tentar enganar o Google. Em vez disso, concentre-se em otimizar um site para fornecer ao Google de maneira otimizada especificamente o que ele está procurando.

Conforme descrito, isso envolve habilitar o SSL, otimizar a velocidade de carregamento da página e otimizar o Meta Title e a Meta Description. Para otimizar esses campos, o Meta Title e a Meta Description devem ser comparados a sites concorrentes – Identifique os elementos vencedores que resultam em uma alta taxa de cliques.

Se você otimizou sendo clicado, o próximo marco é criar a melhor página de destino. O objetivo é uma página de destino que otimize tanto o valor do usuário que o tempo médio gasto na página supere os concorrentes semelhantes que estão competindo pelos principais resultados do mecanismo de pesquisa.

Somente oferecendo a melhor experiência do usuário uma página da Web pode aumentar no ranking.

Até agora, identificamos essas métricas como as mais importantes:

  • Velocidade de carregamento
  • SSL ativado
  • Meta Título e Meta Descrição
  • Landing Page

A página de destino é o elemento mais difícil, pois você está competindo contra o mundo. A página de destino deve carregar rapidamente e deve atender a tudo o que é esperado e surpreender o usuário com mais.

Considerações Finais

Seria fácil preencher outras 2000 palavras descrevendo outras tecnologias de IA que o Google usa, bem como cavar mais fundo na toca do coelho do SEO. A intenção aqui é reorientar a atenção para as métricas mais importantes.

Os particionadores de SEO estão tão focados em enganar o sistema que esquecem que, no final das contas, o elemento mais importante do SEO é dar aos usuários o máximo de valor possível.

Uma maneira de conseguir isso é nunca permitir que um conteúdo importante fique obsoleto. Se em um mês eu pensar em uma contribuição importante, ela será adicionada a este artigo. O Google pode identificar o quão novo é o conteúdo, combinado com o histórico da página que fornece valor.

Se você ainda está preocupado em adquirir backlinks, a solução é simples. Respeite o tempo de seus visitantes e dê valor a eles. Os backlinks virão naturalmente, pois os usuários encontrarão valor em compartilhar seu conteúdo.

A questão então muda para o proprietário do site sobre como fornecer o melhor valor e experiência do usuário.

Sócio fundador da unite.AI e membro do Conselho de Tecnologia da Forbes, Antoine é um futurista que é apaixonado pelo futuro da IA ​​e da robótica.

Ele também é o fundador da Valores Mobiliários.io, um site que foca em investir em tecnologia disruptiva.