stomp SEO-optimalisatie: hoe de AI van Google werkt (mei 2024)
Verbind je met ons

Search Engine Optimization

SEO-optimalisatie: hoe de AI van Google werkt (mei 2024)

mm
Bijgewerkt on

Search Engine Optimization (SEO) is het proces van het optimaliseren van on-page en off-page factoren die van invloed zijn op hoe hoog een webpagina scoort voor een specifieke zoekterm. Dit is een veelzijdig proces, waaronder het optimaliseren van de laadsnelheid van pagina's, het genereren van een linkbuildingstrategie, het gebruik van SEO-tools, evenals leren hoe u de AI van Google kunt reverse-engineeren door gebruik te maken van computationeel denken.

Computational thinking is een geavanceerd type analyse- en probleemoplossende techniek die computerprogrammeurs gebruiken bij het schrijven van code en algoritmen. Computationele denkers zullen de grondwaarheid zoeken door een probleem op te splitsen en te analyseren met behulp van eerste principes.

Aangezien Google hun geheime saus aan niemand vrijgeeft, vertrouwen we op computationeel denken. We zullen enkele cruciale momenten in de geschiedenis van Google doornemen die de gebruikte algoritmen hebben gevormd, en we zullen leren waarom dit belangrijk is.

Hoe een geest te creëren

We beginnen met een boek dat in 2012 is verschenen, genaamd “Hoe een geest te creëren: het geheim van het menselijk denken onthuld” door de beroemde futurist en uitvinder Ray Kurzweil. Dit boek heeft het menselijk brein ontleed en de manieren waarop het werkt ontleed. We leren vanaf het begin hoe het brein zichzelf traint door patroonherkenning te gebruiken om een ​​voorspellingsmachine te worden, altijd bezig met het voorspellen van de toekomst, zelfs het volgende woord voorspellend.

Hoe herkennen mensen patronen in het dagelijks leven? Hoe worden deze verbindingen in de hersenen gevormd? Het boek begint met het begrijpen van hiërarchisch denken, dit is het begrijpen van een structuur die is samengesteld uit diverse elementen die in een patroon zijn gerangschikt, deze rangschikking vertegenwoordigt dan een symbool zoals een letter of teken, en dan wordt dit verder gerangschikt in een meer geavanceerd patroon zoals een woord en uiteindelijk een zin. Uiteindelijk vormen deze patronen ideeën, en deze ideeën worden omgezet in de producten die mensen moeten bouwen.

Door het menselijk brein na te bootsen, wordt een weg onthuld naar het creëren van een geavanceerde AI die verder gaat dan de huidige mogelijkheden van de neurale netwerken die er waren op het moment van publicatie.

Het boek was een blauwdruk voor het creëren van een AI die kan worden geschaald door alle gegevens van de wereld op te zuigen en die zijn meerlagige patroonherkenningsverwerking kan gebruiken om tekst, afbeeldingen, audio en video te ontleden. Een systeem dat is geoptimaliseerd voor opschaling dankzij de voordelen van de cloud en de mogelijkheden voor parallelle verwerking. Met andere woorden, er zou geen maximum zijn aan de invoer of uitvoer van gegevens.

Dit boek was zo cruciaal dat kort na de publicatie de auteur Ray Kurzweil werd ingehuurd door Google om Director of Engineering te worden, gericht op machinaal leren en taalverwerking. Een rol die perfect aansloot bij het boek dat hij had geschreven.

Het zou onmogelijk zijn om te ontkennen hoe invloedrijk dit boek was voor de toekomst van Google en hoe ze websites rangschikken. Dit AI-boek zou verplicht leesvoer moeten zijn voor iedereen die een SEO-expert wil worden.

DeepMind

DeepMind, gelanceerd in 2010, was een hete nieuwe startup die gebruik maakte van een revolutionair nieuw type AI-algoritme dat de wereld stormenderhand veroverde. DeepMind beschreef het het beste als:

“We presenteren het eerste deep learning-model dat met succes controlebeleid rechtstreeks leert van hoogdimensionale sensorische input met behulp van versterkend leren. Het model is een convolutioneel neuraal netwerk, getraind met een variant van Q-learning, waarvan de input ruwe pixels is en waarvan de output een waardefunctie is die toekomstige beloningen schat.”

Door diep leren te combineren met versterkend leren werd het een diep versterkend leren systeem. In 2013 gebruikte DeepMind deze algoritmen om overwinningen te behalen tegen menselijke spelers in Atari 2600-games. Dit werd bereikt door het menselijk brein na te bootsen en hoe het leert van training en herhaling.

Vergelijkbaar met hoe een mens leert door herhaling, of het nu gaat om het trappen van een bal of het spelen van Tetris, de AI zou ook leren. Het neurale netwerk van de AI volgde de prestaties en zou zichzelf stapsgewijs verbeteren, wat zou resulteren in een sterkere bewegingsselectie in de volgende iteratie.

DeepMind was zo dominant in zijn technologische voorsprong dat Google toegang tot de technologie moest kopen. DeepMind werd overgenomen voor meer dan $ 500 miljoen in 2014.

Na de overname was de AI-industrie getuige van opeenvolgende doorbraken, een type dat sindsdien niet meer is gezien 11 mei 1997, toen schaken grootmeester Gary Kasparov verloor de eerste game van een wedstrijd van zes games tegen Deep Blue, een schaakcomputer ontwikkeld door wetenschappers van IBM. 

In 2015 verfijnde DeepMind het algoritme om het te testen op Atari's suite van 49 games, en de machine versloeg de menselijke prestaties op 23 daarvan.

Dat was nog maar het begin, later in 2015 begon DeepMind zich te focussen op AlphaGo, een programma met als doel het verslaan van een professionele Go World Champion. Het oeroude spel Go, dat zo'n 4000 jaar geleden voor het eerst in China werd gezien, wordt beschouwd als het meest uitdagende spel in de menselijke geschiedenis, met zijn potentieel 10360 mogelijke zetten.

DeepMind gebruikte begeleid leren om het AlphaGo-systeem te trainen door te leren van menselijke spelers. Kort daarna haalde DeepMind de krantenkoppen nadat AlphaGo versloeg Lee Sedol, de wereldkampioen, in een wedstrijd van vijf wedstrijden in maart 2016.

Om niet achter te blijven, bracht DeepMind in oktober 2017 AlphaGo Zero uit, een nieuw model met als belangrijkste onderscheidende factor dat het nul vereiste menselijke opleiding. Omdat er geen menselijke training voor nodig was, vereiste het ook geen labeling van gegevens, het systeem dat in wezen werd gebruikt zonder toezicht leren. AlphaGo Zero overtrof snel zijn voorganger, zoals beschreven door DeepMind.

“Eerdere versies van AlphaGo trainden in eerste instantie op duizenden menselijke amateur- en professionele spellen om Go te leren spelen. AlphaGo Zero slaat deze stap over en leert spelen door simpelweg games tegen zichzelf te spelen, uitgaande van volledig willekeurig spel. Daarbij overtrof het al snel het menselijke spelniveau en versloeg het de eerder gepubliceerd kampioen-verslaande versie van AlphaGo met 100 games naar 0.”

Ondertussen was de SEO-wereld hyper gefocust op PageRank, de ruggengraat van Google. Het begint in 1995, toen Larry Page en Sergey Brin Ph.D. studenten aan Stanford University. Het duo begon samen te werken aan een nieuw onderzoeksproject met de bijnaam "Rug massage”. Het doel was om webpagina's te rangschikken tot een mate van belangrijkheid door hun backlink-gegevens om te zetten. Een backlink is simpelweg elke link van de ene pagina naar de andere, vergelijkbaar met deze link.

Het algoritme werd later hernoemd naar PageRank, vernoemd naar zowel de term "webpagina" als mede-oprichter Larry Page. Larry Page en Sergey Brin hadden het ambitieuze doel om een ​​zoekmachine te bouwen die het hele web van stroom zou kunnen voorzien, puur door backlinks.

En het werkte.

PageRank domineert de krantenkoppen

SEO-professionals begrepen meteen de basisprincipes van hoe Google een kwaliteitsrangschikking voor een webpagina berekent door PageRank te gebruiken. Sommige slimme Black Hat SEO-ondernemers gingen nog een stap verder en begrepen dat het, om inhoud te schalen, zinvol zou kunnen zijn om links te kopen in plaats van te wachten om ze organisch te verwerven.

Rond backlinks ontstond een nieuwe economie. Enthousiaste website-eigenaren die de positie van zoekmachines moesten beïnvloeden, kochten links, en in ruil daarvoor, wanhopig om geld te verdienen met websites, zouden ze links verkopen.

De websites die links kochten, vielen Google vaak van de ene op de andere dag binnen en overtroffen de gevestigde merken.

Het rangschikken met behulp van deze methode werkte lange tijd heel goed. Totdat het niet meer werkte, begon machine learning waarschijnlijk rond dezelfde tijd en loste het onderliggende probleem op. Met de introductie van diepgaand versterkend leren zou PageRank een rankingvariabele worden, en niet de dominante factor.

Inmiddels is de SEO-gemeenschap verdeeld over het kopen van links als strategie. Persoonlijk ben ik van mening dat het kopen van links suboptimale resultaten oplevert en dat de beste methoden om backlinks te verwerven gebaseerd zijn op variabelen die branchespecifiek zijn. Een legitieme service die ik kan aanbevelen, wordt genoemd HARO (Help een verslaggever). De mogelijkheid bij HARO is om backlinks te verwerven door aan mediaverzoeken te voldoen.

Gevestigde merken hoefden zich nooit zorgen te maken over het vinden van links, omdat ze het voordeel hadden dat de tijd in hun voordeel werkte. Hoe ouder een website, hoe meer tijd hij heeft gehad om backlinks van hoge kwaliteit te verzamelen. Met andere woorden, een zoekmachine ranking was sterk afhankelijk van de leeftijd van een website, als je rekent met behulp van de statistiek tijd = backlinks.

CNN zou bijvoorbeeld natuurlijk backlinks ontvangen voor een nieuwsartikel vanwege het merk, het vertrouwen en omdat het in het begin hoog stond. Het kreeg dus natuurlijk meer backlinks van mensen die onderzoek deden naar een artikel en linkten naar het eerste zoekresultaat dat ze vonden .

Dit betekent dat hoger gerangschikte webpagina's organisch meer backlinks ontvingen. Helaas betekende dit dat nieuwe websites vaak gedwongen werden het backlink-algoritme te misbruiken door zich te wenden tot een backlink-marktplaats.

In de vroege jaren 2000 werkte het kopen van backlinks opmerkelijk goed en was het een eenvoudig proces. Kopers van links kochten links van websites met een hoge autoriteit, vaak voettekstlinks op de hele site, of misschien per artikel (vaak vermomd als een gastpost), en de verkopers die wanhopig geld wilden verdienen met hun websites waren blij om te verplichten - helaas vaak ten koste van kwaliteit.

Uiteindelijk begreep de Google-talentenpool van machine learning-ingenieurs dat het zinloos was om zoekresultaten van zoekmachines handmatig te coderen, en dat veel PageRank handgeschreven code was. In plaats daarvan begrepen ze dat de AI uiteindelijk verantwoordelijk zou worden voor het volledig berekenen van de ranglijst zonder tot weinig menselijke tussenkomst.

Om concurrerend te blijven gebruikt Google elke tool in hun arsenaal, inclusief diep versterkend leren – Het meest geavanceerde type machine learning-algoritme ter wereld.

Dit systeem gelaagd op de top van Google's overname van MetaWeb was een spelwisselaar. De reden dat de overname van MetaWeb in 2010 zo belangrijk was, is dat het het gewicht dat Google aan zoekwoorden hechtte, verminderde. Context was opeens belangrijk, dit werd bereikt door een categoriseringsmethodiek genaamd 'entiteiten' te gebruiken. Als Fast Company beschreven:

Zodra Metaweb erachter is gekomen naar welke entiteit u verwijst, kan het een reeks resultaten opleveren. Het kan zelfs entiteiten combineren voor complexere zoekopdrachten - "actrices ouder dan 40" kan een entiteit zijn, "actrices die in New York City wonen" kan een andere zijn, en "actrices met een film die momenteel wordt afgespeeld" kan een andere zijn. “.

Deze technologie werd in een grote algoritme-update gerold, genaamd RankBrain dat werd gelanceerd in het voorjaar van 2015. RankBrain concentreerde zich op het begrijpen van de context versus puur op trefwoorden gebaseerd zijn, en RankBrain zou ook rekening houden met omgevingscontexten (bijvoorbeeld de locatie van de zoeker) en betekenis extrapoleren waar er nog geen eerder was. Vooral voor mobiele gebruikers was dit een belangrijke update.

Nu we begrijpen hoe Google deze technologieën gebruikt, laten we de computationele theorie gebruiken om te speculeren over hoe het werkt.

Wat is diep leren?

Diepe leer is de meest gebruikte vorm van machine learning – het zou voor Google onmogelijk zijn om dit algoritme niet te gebruiken.

Diep leren wordt aanzienlijk beïnvloed door hoe het menselijk brein werkt en het probeert het gedrag van het brein te spiegelen in hoe het patroonherkenning gebruikt om objecten te identificeren en te categoriseren.

Bijvoorbeeld als je de brief ziet a, herkennen je hersenen automatisch de lijnen en vormen om deze vervolgens te identificeren als de letter a. Hetzelfde wordt toegepast door de letters ap, probeert je brein automatisch de toekomst te voorspellen door potentiële woorden te bedenken zoals gebruiken or appel. Andere patronen zijn bijvoorbeeld nummers, verkeersborden of het identificeren van een geliefde op een drukke luchthaven.

Je kunt je voorstellen dat de onderlinge verbindingen in een deep learning-systeem vergelijkbaar zijn met hoe het menselijk brein werkt met de verbinding van neuronen en synapsen.

Diep leren is uiteindelijk de term die wordt gegeven aan machine learning-architecturen die veel meerlagige perceptrons met elkaar verbinden, zodat er niet slechts één verborgen laag is, maar veel verborgen lagen. Hoe "dieper" het diepe neurale netwerk is, hoe geavanceerder patronen het netwerk kan leren.

Volledig verbonden netwerken kunnen worden gecombineerd met andere machine learning-functies om verschillende deep learning-architecturen te creëren.

Hoe Google deep learning gebruikt

Google spint websites over de hele wereld door hyperlinks te volgen (denk aan neuronen) die websites met elkaar verbinden. Dit was de oorspronkelijke methode die Google vanaf de eerste dag gebruikte en nog steeds in gebruik is. Zodra websites zijn geïndexeerd, worden verschillende soorten AI gebruikt om deze schat aan gegevens te analyseren.

Het systeem van Google labelt de webpagina's volgens verschillende interne statistieken, met slechts minimale menselijke input of tussenkomst. Een voorbeeld van een interventie is het handmatig verwijderen van een specifieke URL vanwege een DMCA-verwijderingsverzoek.

De technici van Google staan ​​bekend om het frustreren van deelnemers aan SEO-conferenties, en dit komt omdat leidinggevenden van Google nooit goed kunnen verwoorden hoe Google werkt. Als er vragen worden gesteld over waarom bepaalde websites niet scoren, is dat bijna altijd hetzelfde slecht geformuleerde antwoord. De respons is zo frequent dat aanwezigen vaak preventief aangeven dat ze zich hebben gecommitteerd aan het creëren van goede inhoud gedurende maanden of zelfs jaren zonder positieve resultaten.

Het is voorspelbaar dat website-eigenaren de instructie krijgen om zich te concentreren op het bouwen van waardevolle inhoud - een belangrijk onderdeel, maar verre van volledig.

Dit gebrek aan antwoord is omdat de leidinggevenden niet in staat zijn om de vraag goed te beantwoorden. Het algoritme van Google werkt in een zwarte doos. Er is input en dan output – en zo werkt deep learning.

Laten we nu teruggaan naar een rankingstraf die miljoenen websites negatief beïnvloedt, vaak zonder medeweten van de website-eigenaar.

PageSpeed ​​Insights

Google is niet vaak transparant, PageSpeed ​​Insights is de uitzondering. Websites die deze snelheidstest niet doorstaan, worden naar een strafbox gestuurd omdat ze langzaam laden - vooral als dit gevolgen heeft voor mobiele gebruikers.

Wat wordt vermoed is dat er op een bepaald punt in het proces een beslissingsboom is die snelle websites analyseert, versus langzaam ladende (PageSpeed ​​Insights mislukte) websites. Een beslissingsboom is in wezen een algoritmische benadering die de dataset opsplitst in individuele datapunten op basis van verschillende criteria. Het criterium kan zijn dat het een negatieve invloed heeft op hoe hoog een pagina scoort voor mobiele versus desktopgebruikers.

Hypothetisch zou een straf kunnen worden toegepast op de natuurlijke rankingscore. Een website die zonder straf op #5 zou staan, kan bijvoorbeeld een -20, -50 of een andere onbekende variabele hebben die de rangorde verlaagt tot #25, #55 of een ander nummer zoals geselecteerd door de AI.

In de toekomst zien we mogelijk het einde van PageSpeed ​​Insights, wanneer Google meer vertrouwen krijgt in hun AI. Deze huidige snelheidsinterventie door Google is gevaarlijk omdat het mogelijk resultaten die optimaal zouden zijn teniet kan doen, en het discrimineert de minder technisch onderlegde gebruikers.

Het is een groot verzoek om te eisen dat iedereen die een klein bedrijf runt de expertise heeft om problemen met snelheidstests met succes te diagnosticeren en op te lossen. Een simpele oplossing zou zijn dat Google simpelweg een plug-in voor snelheidsoptimalisatie uitbrengt voor WordPress-gebruikers, zoals wordpress machtigt 43% van het internet.

Helaas zijn alle SEO-inspanningen tevergeefs als een website niet slaagt PageSpeed ​​Insights van Google. De inzet is niets minder dan een website die van Google verdwijnt.

Hoe u voor deze test slaagt, is een artikel voor een andere keer, maar u moet in ieder geval controleren of uw website passeert.

Een andere belangrijke technische maatstaf om je zorgen over te maken, is een beveiligingsprotocol genaamd SSL (Secure Sockets-laag). Dit verandert de URL van een domein van http naar https en zorgt voor een veilige overdracht van gegevens. Elke website die SSL niet heeft ingeschakeld, wordt bestraft. Hoewel er enkele uitzonderingen op deze regel zijn, zullen e-commerce en financiële websites het zwaarst worden getroffen.

Goedkope webhosts rekenen een jaarlijkse vergoeding voor SSL-implementatie, terwijl goede webhosts zoals Siteground gratis SSL-certificaten uitgeven en automatisch integreren.

Meta Data

Een ander belangrijk element op de website is de metatitel en metabeschrijving. Deze inhoudsvelden hebben een buitenmaatse volgorde van belangrijkheid die evenveel kan bijdragen aan het succes of falen van een pagina als de volledige inhoud van die pagina.

Dit komt omdat de kans groot is dat Google de metatitel en metabeschrijving selecteert om in de zoekresultaten te laten zien. En daarom is het belangrijk om het veld metatitel en metabeschrijving zo zorgvuldig mogelijk in te vullen.

Het alternatief is dat Google ervoor kan kiezen om de metatitel en metabeschrijving te negeren om in plaats daarvan automatisch gegevens te genereren waarvan het voorspelt dat deze zullen resulteren in meer klikken. Als Google slecht voorspelt welke titel automatisch moet worden gegenereerd, zal dit bijdragen aan minder doorkliks door zoekers en bijgevolg aan verloren posities in zoekmachines.

Als Google denkt dat de opgenomen metabeschrijving is geoptimaliseerd om klikken te ontvangen, wordt deze weergegeven in de zoekresultaten. Als dit niet lukt, pakt Google een willekeurig stuk tekst van de website. Vaak selecteert Google de beste tekst op de pagina, het probleem is dat dit het loterijsysteem is en Google is consequent slecht in het kiezen van de beschrijving die moet worden geselecteerd.

Natuurlijk, als u denkt dat de inhoud op uw pagina echt goed is, is het soms logisch om Google de geoptimaliseerde metabeschrijving te laten kiezen die het beste overeenkomt met de zoekopdracht van de gebruiker. We kiezen voor geen metabeschrijving voor dit artikel omdat het rijk is aan inhoud en Google zal waarschijnlijk een goede beschrijving selecteren.

Ondertussen klikken miljarden mensen op de beste zoekresultaten – Dit is de mens-in-the-loop, het laatste feedbackmechanisme van Google - En dit is waar leren met versterking van start gaat.

Wat is versterkend leren?

Versterking leren is een machine learning-techniek waarbij een AI-agent wordt getraind door herhaling van acties en bijbehorende beloningen. Een versterkende lerende agent experimenteert in een omgeving, onderneemt acties en wordt beloond wanneer de juiste acties worden ondernomen. Na verloop van tijd, de agent leert de acties te ondernemen die de beloning maximaliseren.

De beloning kan gebaseerd zijn op een eenvoudige berekening die de hoeveelheid tijd berekent die op een aanbevolen pagina wordt doorgebracht.

Als je deze methodologie combineert met een Human-in-the-loop-subroutine, zou dit heel erg lijken op bestaande aanbevelingsengines die alle aspecten van ons digitale leven beheersen, zoals YouTube, Netflix, Amazon Prime. een zoekmachine zou moeten werken, je hebt gelijk.

Hoe Google Reinforcement Learning gebruikt

Het vliegwiel van Google verbetert met elke zoekopdracht, mensen trainen de AI door het beste resultaat te selecteren dat het beste antwoord geeft op hun vraag, en de soortgelijke vraag van miljoenen andere gebruikers.

De versterkende lerende agent werkt continu aan zelfverbetering door alleen de meest positieve interacties tussen zoekopdracht en opgeleverd zoekresultaat te versterken.

Google meet de hoeveelheid tijd die een gebruiker nodig heeft om de resultatenpagina te scannen, de URL waarop ze klikken, en ze meten de hoeveelheid tijd die op de bezochte website is doorgebracht, en ze registreren de terugklik. Deze gegevens worden vervolgens verzameld en vergeleken voor elke website die een vergelijkbare gegevensovereenkomst of gebruikerservaring biedt.

Een website met een lage retentiegraad (tijd doorgebracht op de site), krijgt dan door het versterkingsleersysteem een ​​negatieve waarde, en andere concurrerende websites worden getest om de aangeboden rankings te verbeteren. Google is onbevooroordeeld, ervan uitgaande dat er geen handmatige tussenkomst is, Google levert uiteindelijk de gewenste pagina met zoekresultaten.

Gebruikers zijn de 'human-in-the-loop' die Google voorziet van gratis gegevens en het laatste onderdeel worden van het leersysteem voor diepe versterking. In ruil voor deze dienst biedt Google de eindgebruiker de mogelijkheid om op een advertentie te klikken.

De advertenties buiten het genereren van inkomsten dienen als een secundaire rangschikkingsfactor, waardoor meer gegevens worden verspreid over waarom een ​​gebruiker wil klikken.

Google leert in wezen wat een gebruiker wil. Dit kan losjes worden vergeleken met een aanbevelingsmotor door een videostreamingservice. In dat geval zou een aanbevelingsengine een gebruiker inhoud geven die is gericht op hun interesses. Een gebruiker die gewoonlijk geniet van een stroom romantische komedies, kan bijvoorbeeld genieten van enkele parodieën als ze dezelfde komieken delen.

Hoe helpt dit SEO?

Als we doorgaan met computationeel denken, kunnen we aannemen dat Google zichzelf heeft getraind om de beste resultaten te leveren, en dit wordt vaak bereikt door te generaliseren en tegemoet te komen aan menselijke vooroordelen. Het zou voor de AI van Google in feite onmogelijk zijn om resultaten die aan deze vooroordelen tegemoet komen niet te optimaliseren, als dat wel het geval zou zijn, zouden de resultaten suboptimaal zijn.

Met andere woorden, er is geen magische formule, maar er zijn enkele best practices.

Het is de verantwoordelijkheid van de SEO-beoefenaar om de vooroordelen te herkennen die Google zoekt en die specifiek zijn voor hun branche - en om in die vooroordelen te voorzien. Iemand die bijvoorbeeld zoekt naar resultaten van verkiezingspeilingen zonder een datum op te geven, zoekt waarschijnlijk naar de meest recente resultaten - dit is een recentheidsbias. Iemand die op zoek is naar een recept, heeft hoogstwaarschijnlijk niet de meest recente pagina nodig en geeft misschien de voorkeur aan een recept dat de tand des tijds heeft doorstaan.

Het is de verantwoordelijkheid van de SEO-professional om bezoekers de resultaten te bieden waarnaar ze op zoek zijn. Dit is de meest duurzame manier van ranking in Google.

Website-eigenaren moeten afzien van het targeten van een specifiek zoekwoord in de verwachting dat ze de eindgebruiker kunnen bieden wat ze maar willen. Het zoekresultaat moet exact aansluiten bij de behoefte van de gebruiker.

Wat is een vooroordeel? Het kan een domeinnaam zijn die een hoge autoriteit lijkt, met andere woorden, past de domeinnaam bij de markt die u bedient? Het hebben van een domeinnaam met het woord India erin kan gebruikers in de VS ontmoedigen om op de URL te klikken vanwege een nationalistische neiging om resultaten te vertrouwen die afkomstig zijn uit het land waar de gebruiker woont. Het hebben van een domein van één woord kan ook de illusie van autoriteit wekken.

De belangrijkste bias is wat wil een gebruiker overeenkomen met zijn zoekopdracht? Is het een FAQ, een top 10-lijst, een blogpost? Dit moet worden beantwoord en het antwoord is gemakkelijk te vinden. U hoeft alleen maar de concurrentie te analyseren door een Google-zoekopdracht uit te voeren in uw doelmarkt.

Black Hat SEO is dood

Vergelijk dit met Black Hat SEO, een agressieve methode om websites te rangschikken die misbruik maakt van slinkse SPAM-technieken, waaronder het kopen van backlinks, het vervalsen van backlinks, het hacken van websites, het automatisch genereren van sociale bladwijzers op grote schaal en andere duistere methodologieën die worden toegepast via een netwerk van black hat-tools. .

Tools die vaak worden hergebruikt en doorverkocht op verschillende fora voor zoekmachinemarketing, producten met bijna geen waarde en weinig kans van slagen. Op dit moment stellen deze tools de verkopers in staat rijk te worden terwijl ze minimale waarde bieden aan de eindgebruiker.

Daarom raad ik aan om Black Hat te verlaten. Richt uw SEO op het bekijken vanuit de lens van machine learning. Het is belangrijk om te begrijpen dat elke keer dat iemand een zoekresultaat overslaat om op een resultaat te klikken dat eronder begraven ligt, het de mens-in-the-loop is die samenwerkt met het leersysteem voor diepe versterking. De mens helpt de AI met zelfverbetering en wordt oneindig veel beter naarmate de tijd vordert.

Dit is een machine learning-algoritme dat door meer gebruikers is getraind dan enig ander systeem in de menselijke geschiedenis.

Google verwerkt wereldwijd gemiddeld 3.8 miljoen zoekopdrachten per minuut. Dat komt neer op 228 miljoen zoekopdrachten per uur, 5.6 miljard zoekopdrachten per dag. Dat zijn veel gegevens en daarom is het dwaas om black hat SEO te proberen. Ervan uitgaande dat de AI van Google stagneert, is dwaas, het systeem gebruikt de Wet van versnellende opbrengsten om zichzelf exponentieel te verbeteren.

De AI van Google wordt zo krachtig dat het denkbaar is dat het uiteindelijk de eerste AI wordt die dit bereikt Algemene kunstmatige intelligentie (AGI). Een AGI is een intelligentie die in staat is om te gebruiken overdracht leren om één veld onder de knie te krijgen om die geleerde intelligentie vervolgens toe te passen op meerdere domeinen. Hoewel het interessant kan zijn om de toekomstige AGI-inspanningen van Google te verkennen, moet men begrijpen dat het moeilijk is om het proces te stoppen als het eenmaal in gang is gezet. Dit is natuurlijk speculeren naar de toekomst, aangezien Google momenteel een soort smalle AI is, maar dat is een onderwerp voor een ander artikel.

Wetende dat dit een seconde meer besteden aan zwarte hoed een dwaze boodschap is.

White Hat SEO

Als we accepteren dat de AI van Google zichzelf voortdurend verbetert, hebben we geen andere keuze dan te stoppen met proberen Google te slim af te zijn. Richt u in plaats daarvan op het optimaliseren van een website om Google optimaal specifiek te bieden waarnaar het op zoek is.

Zoals beschreven omvat dit het inschakelen van SSL, het optimaliseren van de laadsnelheid van pagina's en het optimaliseren van de metatitel en metabeschrijving. Om deze velden te optimaliseren, moeten de metatitel en metabeschrijving worden vergeleken met concurrerende websites. Identificeer de winnende elementen die resulteren in een hoge klikfrequentie.

Als je hebt geoptimaliseerd dat erop wordt geklikt, is de volgende mijlpaal het maken van de beste bestemmingspagina. Het doel is een bestemmingspagina die de gebruikerswaarde zo optimaliseert dat de gemiddelde tijd die op de pagina wordt doorgebracht, beter presteert dan vergelijkbare concurrenten die strijden om de topresultaten van zoekmachines.

Alleen door de beste gebruikerservaring te bieden, kan een webpagina hoger in de ranking komen.

Tot nu toe hebben we vastgesteld dat deze statistieken de belangrijkste zijn:

  • Laadsnelheid
  • SSL ingeschakeld
  • Metatitel en metabeschrijving
  • Landing Page

De bestemmingspagina is het moeilijkste element omdat je het opneemt tegen de wereld. De landingspagina moet snel laden, alles bedienen wat verwacht wordt, en vervolgens de gebruiker verrassen met meer.

Conclusie

Het zou gemakkelijk zijn om nog eens 2000 woorden te vullen die andere AI-technologieën beschrijven die Google gebruikt, en om dieper in het konijnenhol van SEO te graven. De bedoeling is hier om de aandacht weer te vestigen op de belangrijkste metrics.

SEO-partitioners zijn zo gefocust op het gamen van het systeem dat ze vergeten dat het belangrijkste element van SEO uiteindelijk is om gebruikers zoveel mogelijk waarde te geven.

Een manier om dit te bereiken is door belangrijke inhoud nooit oud te laten worden. Als ik over een maand een belangrijke bijdrage bedenk, wordt deze aan dit artikel toegevoegd. Google kan dan identificeren hoe vers de inhoud is, gekoppeld aan de geschiedenis van de pagina die waarde levert.

Als u zich nog steeds zorgen maakt over het verkrijgen van backlinks, is de oplossing eenvoudig. Respecteer de tijd van uw bezoekers en geef ze waarde. De backlinks komen vanzelf, omdat gebruikers waarde zullen hechten aan het delen van uw inhoud.

De vraag verschuift vervolgens naar de website-eigenaar hoe hij de beste gebruikerswaarde en gebruikerservaring kan bieden.

Een van de oprichters van unite.AI en lid van de Forbes Technologieraad, Antoine is een futuristisch die gepassioneerd is over de toekomst van AI en robotica.

Hij is tevens de oprichter van Effecten.io, een website die zich richt op het investeren in disruptieve technologie.