Connect with us
SEO 101:

SEO 101

Ottimizzazione SEO: Come Funziona l’AI di Google (aprile 2026)

mm

L’ottimizzazione per i motori di ricerca (SEO) è il processo di ottimizzazione dei fattori on-page e off-page che influiscono su come una pagina web si classifica per un termine di ricerca specifico. Questo è un processo multifacetto che include l’ottimizzazione della velocità di caricamento della pagina, la generazione di una strategia di costruzione di link, l’utilizzo di strumenti SEO, nonché l’apprendimento di come invertire l’ingegneria dell’AI di Google utilizzando pensiero computazionale.

Il pensiero computazionale è un tipo avanzato di analisi e tecnica di risoluzione dei problemi che i programmatori informatici utilizzano quando scrivono codice e algoritmi. I pensatori computazionali cercheranno la verità fondamentale rompendo un problema e analizzandolo utilizzando la tecnica di pensiero dei primi principi.

Poiché Google non rilascia la sua “salsa segreta” a nessuno, ci affideremo al pensiero computazionale. Passeremo in rassegna alcuni momenti cruciali nella storia di Google che hanno plasmato gli algoritmi utilizzati e impareremo perché questo è importante.

Come Creare una Mente

Inizieremo con un libro pubblicato nel 2012, intitolato “Come Creare una Mente: Il Segreto del Pensiero Umano Rivelato” del noto futurista e inventore Ray Kurzweil. Questo libro ha sezionato il cervello umano e ha smontato i modi in cui funziona. Impariamo dalle basi come il cervello si allena utilizzando il riconoscimento di pattern per diventare una macchina predittiva, lavorando costantemente per prevedere il futuro, anche prevedendo la prossima parola.

Come fanno gli esseri umani a riconoscere i pattern nella vita di tutti i giorni? Come vengono formate queste connessioni nel cervello? Il libro inizia con la comprensione del pensiero gerarchico, questo è comprendere una struttura composta da elementi diversi disposti in un pattern, questa disposizione rappresenta poi un simbolo come una lettera o un carattere, e poi questo è ulteriormente disposto in un pattern più avanzato come una parola, e infine una frase. Alla fine, questi pattern formano idee, e queste idee vengono trasformate nei prodotti che gli esseri umani sono responsabili di costruire.

Emulando il cervello umano, viene rivelata una via per creare un’AI avanzata oltre le capacità attuali delle reti neurali che erano presenti al momento della pubblicazione.

Il libro è stato una sorta di progetto per creare un’AI che possa scalare aspirando i dati del mondo e utilizzando il suo processamento di riconoscimento di pattern multistrato per analizzare testo, immagini, audio e video. Un sistema ottimizzato per l’upscale grazie ai benefici del cloud e delle sue capacità di elaborazione parallela. In altre parole, non ci sarebbe stato un massimo di input o output di dati.

Questo libro è stato così cruciale che subito dopo la sua pubblicazione l’autore Ray Kurzweil è stato assunto da Google per diventare il direttore dell’ingegneria focalizzato sull’apprendimento automatico e l’elaborazione del linguaggio. Un ruolo che si allineava perfettamente con il libro che aveva scritto.

Sarebbe impossibile negare quanto questo libro sia stato influente per il futuro di Google e per come classifica i siti web. Questo libro sull’AI dovrebbe essere una lettura obbligatoria per chiunque desideri diventare un esperto di SEO.

DeepMind

Lanciato nel 2010, DeepMind era una startup calda che utilizzava un tipo rivoluzionario di algoritmo di intelligenza artificiale che stava facendo scalpore nel mondo, si chiamava apprendimento per rinforzo. DeepMind lo descriveva meglio come:

“Presentiamo il primo modello di apprendimento profondo che impara con successo le politiche di controllo direttamente dall’input sensoriale ad alta dimensionalità utilizzando l’apprendimento per rinforzo. Il modello è una rete neurale convoluzionale, addestrata con una variante di Q-learning, il cui input sono i pixel grezzi e il cui output è una funzione di valutazione che stima le ricompense future.”

Fondendo l’apprendimento profondo con l’apprendimento per rinforzo, è diventato un sistema di apprendimento per rinforzo profondo. Nel 2013, DeepMind stava utilizzando questi algoritmi per ottenere vittorie contro giocatori umani nei giochi Atari 2600 – E questo è stato ottenuto emulando il cervello umano e il modo in cui impara dall’addestramento e dalla ripetizione.

Simile a come un essere umano impara con la ripetizione, sia che si tratti di calciare una palla o giocare a Tetris, l’AI avrebbe anche imparato. La rete neurale dell’AI ha tracciato le prestazioni e si sarebbe migliorata gradualmente, risultando in scelte di mosse più forti nella prossima iterazione.

DeepMind era così dominante nel suo vantaggio tecnologico che Google ha dovuto acquistare l’accesso a questa tecnologia. DeepMind è stata acquisita per più di 500 milioni di dollari nel 2014.

Dopo l’acquisizione, l’industria dell’AI ha assistito a una serie di innovazioni, un tipo non visto dal 11 maggio 1997, quando il campione di scacchi grandmaster Garry Kasparov ha perso la prima partita di una partita di sei contro Deep Blue, un computer che gioca a scacchi sviluppato da scienziati della IBM.

Nel 2015, DeepMind ha raffinato l’algoritmo per testarlo sui 49 giochi della suite Atari, e la macchina ha superato le prestazioni umane in 23 di essi.

Questo è stato solo l’inizio, più tardi nel 2015 DeepMind ha iniziato a concentrarsi su AlphaGo, un programma con l’obiettivo dichiarato di sconfiggere un campione del mondo di Go professionista. Il gioco antico di Go, che è stato visto per la prima volta in Cina circa 4000 anni fa, è considerato il gioco più impegnativo della storia umana, con le sue potenziali 10360 mosse possibili.

DeepMind ha utilizzato l’apprendimento supervisionato per addestrare il sistema AlphaGo imparando da giocatori umani. Presto dopo, DeepMind ha fatto notizia dopo che AlphaGo ha sconfitto Lee Sedol, il campione del mondo, in una partita di cinque partite nel marzo 2016.

Per non essere superati, nel ottobre 2017 DeepMind ha rilasciato AlphaGo Zero, un nuovo modello con la differenza chiave che non richiedeva alcun addestramento umano. Poiché non richiedeva addestramento umano, non richiedeva anche etichettatura dei dati, il sistema ha essenzialmente utilizzato apprendimento non supervisionato. AlphaGo Zero ha rapidamente superato il suo predecessore, come descritto da DeepMind.

“Le versioni precedenti di AlphaGo si sono addestrate inizialmente su migliaia di partite di scacchi umane per imparare a giocare. AlphaGo Zero salta questo passaggio e impara a giocare semplicemente giocando partite contro se stesso, partendo da un gioco completamente casuale. Facendo ciò, ha rapidamente superato il livello di gioco umano e ha sconfitto la versione di AlphaGo pubblicata in precedenza per 100 partite a 0.”

Nel frattempo, il mondo dell’SEO era iper-focalizzato su PageRank, la colonna portante di Google. Inizia nel 1995, quando Larry Page e Sergey Brin erano studenti di dottorato all’Università di Stanford. La coppia ha iniziato a collaborare su un progetto di ricerca innovativo soprannominato “BackRub”. L’obiettivo era classificare le pagine web in una misura di importanza convertendo i loro dati di collegamento. Un collegamento è semplicemente qualsiasi collegamento da una pagina all’altra, simile a questo collegamento.

L’algoritmo è stato successivamente rinominato in PageRank, nominato sia dal termine “pagina web” che dal co-fondatore Larry Page. Larry Page e Sergey Brin avevano l’obiettivo ambizioso di costruire un motore di ricerca che potesse alimentare l’intero web solo attraverso i collegamenti.

E ha funzionato.

PageRank Domina i Titoli

I professionisti dell’SEO hanno immediatamente capito i fondamenti di come Google calcola una classificazione di qualità per una pagina web utilizzando PageRank. Alcuni imprenditori di SEO neri astuti hanno capito che per scalare il contenuto, potrebbe avere senso acquistare collegamenti invece di aspettare di acquisirli organicamente.

Una nuova economia è emersa intorno ai collegamenti. I proprietari di siti web desiderosi di impattare i ranking dei motori di ricerca hanno acquistato collegamenti, e in cambio i siti web disperati di monetizzare si sono offerti di venderli.

I siti web che hanno acquistato collegamenti spesso hanno invaso Google superando i marchi stabiliti.

La classificazione utilizzando questo metodo ha funzionato molto bene per un lungo periodo – Fino a quando non ha smesso di funzionare, probabilmente intorno allo stesso tempo in cui l’apprendimento automatico ha risolto il problema sottostante. Con l’introduzione dell’apprendimento per rinforzo profondo, PageRank è diventato un fattore di classificazione, non il fattore dominante.

A questo punto, la comunità dell’SEO è divisa sull’acquisto di collegamenti come strategia. Io personalmente credo che l’acquisto di collegamenti offra risultati subottimali e che i migliori metodi per acquisire collegamenti siano basati su variabili specifiche dell’industria. Un servizio legittimo che posso consigliare si chiama HARO (Help a Reporter Out). L’opportunità su HARO è acquisire collegamenti soddisfacendo le richieste dei media.

I marchi stabiliti non hanno mai dovuto preoccuparsi di cercare collegamenti, poiché avevano il beneficio del tempo a loro favore. Più vecchio è il sito web, più tempo ha avuto per raccogliere collegamenti di alta qualità. In altre parole, una classificazione del motore di ricerca dipendeva fortemente dall’età del sito web, se si calcola utilizzando la metrica tempo = collegamenti.

Ad esempio, CNN avrebbe naturalmente ricevuto collegamenti per un articolo di notizie a causa del suo marchio, della sua fiducia e perché era elencato in alto per iniziare – Quindi naturalmente ha guadagnato più collegamenti dalle persone che cercavano un articolo e collegavano al primo risultato di ricerca che trovavano.

Ciò significa che le pagine web classificate più in alto hanno ricevuto organicamente più collegamenti. Purtroppo, ciò ha significato che i nuovi siti web sono stati spesso costretti ad abusare dell’algoritmo dei collegamenti rivolgendosi a un mercato dei collegamenti.

All’inizio degli anni 2000, l’acquisto di collegamenti funzionava notevolmente bene ed era un processo semplice. Gli acquirenti di collegamenti acquistavano collegamenti da siti web ad alta autorità, spesso collegamenti nel piè di pagina del sito o forse su base per articolo (spesso mascherati come post di ospite), e i venditori disperati di monetizzare i loro siti web erano felici di accontentarli – Purtroppo, spesso a scapito della qualità.

Alla fine, il pool di talenti di Google di ingegneri di apprendimento automatico ha capito che codificare i risultati del motore di ricerca a mano era futile e che gran parte di PageRank era codificata a mano. Invece, hanno capito che l’AI sarebbe diventata alla fine responsabile del calcolo completo dei ranking con poco o nessun intervento umano.

Per rimanere competitiva, Google utilizza ogni strumento nel suo arsenale, compreso l’apprendimento per rinforzo profondo – Il tipo più avanzato di algoritmo di apprendimento automatico nel mondo.

Questo sistema strato su strato su l’acquisizione di MetaWeb da parte di Google è stato un gioco-changer. Il motivo per cui l’acquisizione di MetaWeb del 2010 è stata così importante è che ha ridotto il peso che Google ha assegnato alle parole chiave. Il contesto è diventato improvvisamente importante, ciò è stato ottenuto utilizzando una metodologia di categorizzazione chiamata ‘entità’. Come Fast Company ha descritto:

Una volta che Metaweb determina a quale entità si fa riferimento, può fornire un set di risultati. Può anche combinare entità per ricerche più complesse – “attrici over 40” potrebbe essere un’entità, “attrici che vivono a New York City” potrebbe essere un’altra, e “attrici con un film attualmente in programmazione” potrebbe essere un’altra. “.

Questa tecnologia è stata integrata in un importante aggiornamento dell’algoritmo chiamato RankBrain che è stato lanciato nella primavera del 2015. RankBrain si concentra sulla comprensione del contesto rispetto a essere basato esclusivamente sulle parole chiave e RankBrain considererebbe anche contesti ambientali (ad esempio, la posizione del ricercatore) ed estrapolerebbe il significato dove non ce n’era prima. Questo è stato un aggiornamento importante, specialmente per gli utenti mobili.

Ora che comprendiamo come Google utilizza queste tecnologie, utilizziamo la teoria computazionale per speculare su come funziona.

Cosa è l’Apprendimento Profondo?

L’apprendimento profondo è il tipo più comunemente utilizzato di apprendimento automatico – Sarebbe impossibile per Google non utilizzare questo algoritmo.

L’apprendimento profondo è influenzato in modo significativo da come funziona il cervello umano e tenta di emulare il comportamento del cervello nell’utilizzo del riconoscimento di pattern per identificare e categorizzare oggetti.

Ad esempio, se vedi la lettera a, il tuo cervello riconosce automaticamente le linee e le forme per poi identificarla come la lettera a. Lo stesso si applica alle lettere ap, il tuo cervello tenta automaticamente di prevedere il futuro proponendo parole potenziali come app o apple. Altri pattern possono includere numeri, segnali stradali o l’identificazione di una persona amata in un aeroporto affollato.

Puoi pensare alle interconnessioni in un sistema di apprendimento profondo come simili a come funziona il cervello umano con la connessione di neuroni e sinapsi.

L’apprendimento profondo è essenzialmente il termine dato alle architetture di apprendimento automatico che uniscono molti percettori multistrato insieme, in modo che non ci sia solo uno strato nascosto ma molti strati nascosti. Più “profondo” è la rete neurale, più pattern sofisticati la rete può imparare.

Le reti completamente connesse possono essere combinate con altre funzioni di apprendimento automatico per creare diverse architetture di apprendimento profondo.

Come Google Utilizza l’Apprendimento Profondo

Google esplora i siti web del mondo seguendo i collegamenti ipertestuali (pensaci come neuroni) che collegano i siti web gli uni agli altri. Questo è stato il metodo originale che Google ha utilizzato fin dal giorno uno e è ancora in uso. Una volta che i siti web sono indicizzati, vengono utilizzati vari tipi di AI per analizzare questo tesoro di dati.

Il sistema di Google etichetta le pagine web in base a vari metriche interne, con solo un minimo intervento umano o interferenza. Un esempio di un intervento potrebbe essere la rimozione manuale di un URL specifico a causa di una richiesta di rimozione DMCA.

Gli ingegneri di Google sono rinomati per frustrare i partecipanti alle conferenze SEO e questo è perché gli esecutivi di Google non possono mai articolare correttamente come funziona Google. Quando vengono poste domande su perché alcuni siti web non riescono a classificarsi, è quasi sempre la stessa risposta poco articolata. La risposta è così frequente che spesso i partecipanti anticipano affermando di aver dedicato mesi o addirittura anni a creare contenuti di qualità senza risultati positivi.

Prevedibilmente, i proprietari di siti web vengono istruiti a concentrarsi sulla creazione di contenuti preziosi – Un componente importante, ma lontano dall’essere esaustivo.

Questa mancanza di risposta è perché gli esecutivi non sono in grado di rispondere correttamente alla domanda. L’algoritmo di Google funziona in una scatola nera. C’è input e poi output – ed è così che funziona l’apprendimento profondo.

Ritorniamo ora a una penalità di classificazione che sta impattando negativamente milioni di siti web, spesso senza la conoscenza del proprietario del sito web.

PageSpeed Insights

Google non è spesso trasparente, PageSpeed Insights è l’eccezione. I siti web che non superano questo test di velocità verranno inviati in una sorta di “penalità” per il caricamento lento – Soprattutto se gli utenti mobili sono interessati.

Ciò che si sospetta è che in qualche punto del processo ci sia un albero decisionale che analizza i siti web veloci rispetto a quelli che caricano lentamente (che non superano PageSpeed Insights). Un albero decisionale è essenzialmente un approccio algoritmico che divide il set di dati in punti di dati individuali in base a diversi criteri. I criteri possono essere per influenzare negativamente come una pagina si classifica per gli utenti mobili rispetto agli utenti desktop.

Ipoticamente, una penalità potrebbe essere applicata al punteggio di classificazione naturale. Ad esempio, un sito web che senza penalità si classificherebbe al #5 potrebbe avere un -20, -50 o un’altra variabile sconosciuta che ridurrà la classificazione al #25, #55 o un altro numero selezionato dall’AI.

In futuro potremmo vedere la fine di PageSpeed Insights, quando Google diventerà più fiduciosa nella sua AI. Questo intervento attuale sulla velocità da parte di Google è pericoloso poiché potrebbe potenzialmente eliminare risultati che sarebbero stati ottimali e discrimina contro i meno esperti di tecnologia.

È una grande richiesta chiedere a chiunque gestisca una piccola impresa di avere l’esperienza per diagnosticare e risolvere i problemi del test di velocità. Una soluzione semplice sarebbe che Google rilasci un plug-in di ottimizzazione della velocità per gli utenti di WordPress, poiché WordPress alimenta il 43% di Internet.

Purtroppo, tutti gli sforzi di SEO sono vani se un sito web non supera PageSpeed Insights di Google. Le poste in gioco sono nulla meno che la scomparsa di un sito web da Google.

Come superare questo test è un argomento per un’altra volta, ma come minimo dovresti verificare se il tuo sito web supera il test.

Un’altra metrica tecnica importante di cui preoccuparsi è un protocollo di sicurezza chiamato SSL (Secure Sockets Layer). Ciò cambia l’URL di un dominio da http a https e assicura la trasmissione sicura dei dati. Qualsiasi sito web che non abbia abilitato SSL verrà penalizzato. Mentre ci sono alcune eccezioni a questa regola, i siti web di e-commerce e finanziari saranno i più colpiti.

Gli host web a basso costo addebitano una tassa annuale per l’implementazione di SSL, mentre gli host web di alta qualità come Siteground rilasciano certificati SSL gratuitamente e li integrano automaticamente.

Meta Dati

Un altro elemento importante sul sito web è il Titolo Meta e la Descrizione Meta. Questi campi di contenuto hanno un ordine di importanza sproporzionato che potrebbe contribuire tanto al successo o al fallimento di una pagina quanto l’intero contenuto di quella pagina.

Ciò è perché Google ha una probabilità elevata di selezionare il Titolo Meta e la Descrizione Meta per visualizzarli nei risultati di ricerca. E questo è il motivo per cui è importante compilare i campi del titolo meta e della descrizione meta con la massima cura possibile.

L’alternativa è che Google potrebbe ignorare il titolo meta e la descrizione meta per generare automaticamente i dati che prevede porteranno a più clic.

Se Google prevede che la descrizione meta inclusa sia ottimizzata per ricevere clic, la visualizzerà nei risultati di ricerca. In caso di insuccesso, Google seleziona un blocco casuale di testo dal sito web. Spesso Google seleziona il miglior testo sulla pagina, il problema è che questo è un sistema di lotteria e Google è costantemente cattivo nel selezionare quale descrizione selezionare.

Naturalmente, se credi che il contenuto della tua pagina sia davvero buono, a volte ha senso permettere a Google di selezionare la descrizione meta ottimizzata che meglio corrisponde alla query dell’utente. Opteremo per nessuna descrizione meta per questo articolo, poiché è ricco di contenuto e Google è probabile che selezioni una buona descrizione.

Nel frattempo, miliardi di esseri umani stanno facendo clic sui migliori risultati di ricerca – Questo è l’human-in-the-loop, l’ultimo meccanismo di feedback di Google – E questo è dove l’apprendimento per rinforzo si attiva.

Cosa è l’Apprendimento per Rinforzo?

L’apprendimento per rinforzo è una tecnica di apprendimento automatico che coinvolge l’addestramento di un agente AI attraverso la ripetizione di azioni e ricompense associate. Un agente di apprendimento per rinforzo sperimenta in un ambiente, esegue azioni e viene ricompensato quando vengono eseguite le azioni corrette. Nel tempo, l’agente impara a eseguire le azioni che massimizzeranno la sua ricompensa.

La ricompensa potrebbe essere basata su un calcolo semplice che calcola la quantità di tempo trascorsa su una pagina raccomandata.

Se si combina questa metodologia con una subroutine human-in-the-loop, questo suonerebbe molto come i motori di raccomandazione esistenti che controllano tutti gli aspetti delle nostre vite digitali, come YouTube, Netflix, Amazon Prime – E se suona come come dovrebbe funzionare un motore di ricerca, hai ragione.

Come Google Utilizza l’Apprendimento per Rinforzo

La ruota di Google migliora con ogni ricerca, gli esseri umani addestrano l’AI selezionando il miglior risultato che meglio risponde alla loro query e alla query simile di milioni di altri utenti.

L’agente di apprendimento per rinforzo continua a lavorare per migliorarsi, rafforzando solo le interazioni più positive tra la ricerca e il risultato di ricerca consegnato.

Google misura il tempo che impiega un utente per scorrere la pagina dei risultati, l’URL che fa clic e misura il tempo trascorso sul sito web visitato e registra il clic di ritorno. Questi dati vengono quindi compilati e confrontati per ogni sito web che offre una corrispondenza di dati o un’esperienza utente simile.

Un sito web con un tasso di ritenzione basso (tempo trascorso sul sito), viene quindi alimentato dal sistema di apprendimento per rinforzo con un valore negativo e altri siti web concorrenti vengono testati per migliorare le classifiche offerte. Google è imparziale, supponendo che non ci sia un intervento manuale, Google alla fine fornisce i desiderati risultati di ricerca.

Gli utenti sono l’human-in-the-loop che fornisce a Google dati gratuiti e diventano l’ultimo componente del sistema di apprendimento per rinforzo profondo. In cambio di questo servizio, Google offre all’utente finale l’opportunità di fare clic su un annuncio.

Gli annunci al di fuori della generazione di entrate servono come un fattore di classificazione secondario, fluttuando ulteriori dati su cosa rende un utente desideroso di fare clic.

Google impara essenzialmente cosa vuole l’utente. Ciò può essere paragonato in modo approssimativo a un motore di raccomandazione di un servizio di streaming video. In quel caso, un motore di raccomandazione alimenterebbe all’utente contenuti mirati ai suoi interessi. Ad esempio, un utente che abitualmente apprezza una serie di commedie romantiche potrebbe apprezzare alcune parodie se condividono gli stessi comici.

Come Ciò Aiuta l’SEO?

Se continuiamo con il pensiero computazionale, possiamo supporre che Google si sia addestrato per fornire i migliori risultati e che ciò sia spesso ottenuto generalizzando e soddisfacendo i pregiudizi umani. Sarebbe in realtà impossibile per l’AI di Google non ottimizzare i risultati che si adattano a questi pregiudizi, se lo facesse, i risultati sarebbero subottimali.

In altre parole, non c’è una formula magica, ma ci sono alcune best practice.

È responsabilità del praticante di SEO riconoscere i pregiudizi che Google cerca che sono specifici del loro settore – E alimentare questi pregiudizi. Ad esempio, qualcuno che cerca i risultati dei sondaggi elettorali senza specificare una data, probabilmente sta cercando i risultati più recenti – questo è un pregiudizio di recentità. Qualcuno che cerca una ricetta, probabilmente non ha bisogno della pagina più recente e potrebbe in realtà preferire una ricetta che ha resistito alla prova del tempo.

È responsabilità del praticante di SEO offrire ai visitatori i risultati che stanno cercando. Questo è il modo più sostenibile per classificarsi su Google.

I proprietari di siti web devono abbandonare l’obiettivo di un keyword specifico con l’aspettativa che possano consegnare qualsiasi cosa all’utente finale. Il risultato di ricerca deve corrispondere esattamente al bisogno dell’utente.

Cosa è un pregiudizio? Potrebbe essere avere un nome di dominio che sembra di alta autorità, in altre parole, il nome di dominio corrisponde al mercato che si sta servendo? Avere un nome di dominio con la parola India potrebbe scoraggiare gli utenti USA dal fare clic sull’URL, a causa di un pregiudizio di nazionalismo di fiducia nei risultati che provengono da un paese di residenza dell’utente. Avere un nome di dominio a una parola potrebbe anche dare l’illusione di autorità.

Il pregiudizio più importante è cosa vuole l’utente per corrispondere alla sua query di ricerca? È una FAQ, un elenco dei primi 10, un post di blog? Ciò deve essere risposto e la risposta è facile da trovare. Basta analizzare la concorrenza eseguendo una ricerca Google nel mercato di destinazione.

Il Black Hat SEO è Morto

Confronta questo con il Black Hat SEO, un metodo aggressivo per classificare i siti web che sfrutta tecniche di SPAM ingannevoli, inclusi l’acquisto di collegamenti, la falsificazione di collegamenti, l’hacking di siti web, la generazione automatica di segnalibri social a larga scala e altre metodologie oscure applicate tramite una rete di strumenti di Black Hat.

Gli strumenti che vengono spesso riutilizzati e rivenduti su vari forum di marketing dei motori di ricerca, prodotti con valore quasi nullo e poche probabilità di successo. Al momento, questi strumenti consentono ai venditori di diventare ricchi, mentre offrono valore minimo all’utente finale.

Questo è il motivo per cui consiglio di abbandonare il Black Hat. Concentra il tuo SEO sul vederlo attraverso la lente dell’apprendimento automatico. È importante capire che ogni volta che qualcuno salta un risultato di ricerca per fare clic su un risultato sepolto sotto, è l’human-in-the-loop che collabora con il sistema di apprendimento per rinforzo profondo. L’essere umano sta aiutando l’AI a migliorarsi, diventando infinitamente migliore con il passare del tempo.

Questo è un algoritmo di apprendimento automatico che è stato addestrato da più utenti di qualsiasi altro sistema nella storia umana.

Google gestisce 3,8 milioni di ricerche al minuto in media in tutto il mondo. Ciò si traduce in 228 milioni di ricerche all’ora, 5,6 miliardi di ricerche al giorno. Ciò è un sacco di dati e questo è il motivo per cui è folle provare a fare SEO di Black Hat. Supporre che l’AI di Google rimarrà stagnante è folle, il sistema sta utilizzando la Legge dei Ritorni Accelerati per migliorarsi esponenzialmente.

L’AI di Google sta diventando così potente che è concepibile che potrebbe eventualmente diventare la prima AI a raggiungere Intelligenza Artificiale Generale (AGI). Un AGI è un’intelligenza in grado di utilizzare apprendimento di trasferimento per padroneggiare un campo e poi applicare quell’intelligenza appresa in più domini. Mentre potrebbe essere interessante esplorare gli sforzi futuri di AGI di Google, dovrebbe essere compreso che una volta avviato il processo è difficile fermarlo. Ciò è naturalmente speculare sul futuro, poiché Google è attualmente un tipo di intelligenza ristretta, ma questo è un argomento per un altro articolo.

Sapendo questo, spendere un secondo in più sul Black Hat è un’impresa folle.

White Hat SEO

Se accettiamo che l’AI di Google continuerà a migliorarsi, allora non abbiamo altra scelta che rinunciare a provare a ingannare Google. Invece, concentra l’ottimizzazione di un sito web per fornire specificamente a Google ciò che sta cercando.

Come descritto, ciò include l’abilitazione di SSL, l’ottimizzazione della velocità di caricamento della pagina e l’ottimizzazione del Titolo Meta e della Descrizione Meta. Per ottimizzare questi campi, il Titolo Meta e la Descrizione Meta devono essere confrontati con i siti web concorrenti – Identificare gli elementi vincenti che portano a un alto tasso di clic.

Se hai ottimizzato per essere cliccato, il prossimo traguardo è creare la migliore pagina di destinazione. L’obiettivo è una pagina di destinazione che ottimizza il valore dell’utente così tanto che il tempo medio trascorso sulla pagina supera i concorrenti che competono per i primi risultati di ricerca.

Solo offrendo la migliore esperienza utente può una pagina web aumentare la sua classificazione.

Finora abbiamo identificato queste metriche come le più importanti:

  • Velocità di caricamento
  • SSL Abilitato
  • Titol o Meta e Descrizione Meta
  • Pagina di destinazione

La pagina di destinazione è l’elemento più difficile poiché stai competendo contro il mondo. La pagina di destinazione deve caricarsi velocemente e deve servire tutto ciò che ci si aspetta e poi sorprendere l’utente con di più.

Pensieri Finali

Sarebbe facile riempire altri 2000 parole descrivendo altre tecnologie di AI che Google utilizza, nonché scavare più a fondo nel coniglio dell’SEO. L’intento qui è quello di riconcentrare l’attenzione sulle metriche più importanti.

I praticanti di SEO sono così focalizzati sul gioco del sistema che dimenticano che alla fine della giornata, l’elemento più importante dell’SEO è dare agli utenti il maggior valore possibile.

Un modo per ottenere ciò è quello di non permettere mai che i contenuti importanti diventino obsoleti. Se tra un mese penso a un contributo importante, verrà aggiunto a questo articolo. Google può quindi identificare quanto è fresco il contenuto, abbinato alla storia della pagina che fornisce valore.

Se sei ancora preoccupato per l’acquisto di collegamenti, la soluzione è semplice. Rispetta il tempo dei tuoi visitatori e offri loro valore. I collegamenti verranno naturalmente, poiché gli utenti troveranno valore nel condividere i tuoi contenuti.

La domanda si sposta quindi al proprietario del sito web su come fornire il miglior valore e la migliore esperienza utente.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.