stub SEO-optimalisering: Slik fungerer Googles AI (mai 2024)
Kontakt med oss

Search Engine Optimization

SEO-optimalisering: Hvordan Googles AI fungerer (mai 2024)

mm
oppdatert on

Søkemotoroptimalisering (SEO) er prosessen med å optimalisere faktorer på siden og utenfor siden som påvirker hvor høyt en nettside rangerer for et bestemt søkeord. Dette er en mangefasettert prosess som inkluderer optimalisering av sidelastingshastighet, generering av en strategi for koblingsbygging, bruk SEO verktøy, i tillegg til å lære å reversere Googles AI ved å bruke beregningstenkning.

Beregningstenkning er en avansert type analyse- og problemløsningsteknikk som dataprogrammerere bruker når de skriver kode og algoritmer. Beregningstenkere vil søke grunnsannheten ved å bryte ned et problem og analysere det ved å bruke førsteprinsippstenkning.

Siden Google ikke gir ut deres hemmelige saus til noen, vil vi stole på beregningstenkning. Vi vil gå gjennom noen sentrale øyeblikk i Googles historie som formet algoritmene som brukes, og vi vil lære hvorfor dette er viktig.

Hvordan skape et sinn

Vi begynner med en bok som ble utgitt i 2012, kalt "Hvordan skape et sinn: Hemmeligheten bak menneskelig tanke avslørt” av den anerkjente fremtidsforskeren og oppfinneren Ray Kurzweil. Denne boken dissekerte den menneskelige hjernen, og brøt ned måtene den fungerer på. Vi lærer fra grunnen av hvordan hjernen trener seg selv ved å bruke mønstergjenkjenning til å bli en prediksjonsmaskin, som alltid jobber med å forutsi fremtiden, til og med forutsi neste ord.

Hvordan gjenkjenner mennesker mønstre i hverdagen? Hvordan dannes disse forbindelsene i hjernen? Boken begynner med å forstå hierarkisk tenkning, dette er å forstå en struktur som er sammensatt av ulike elementer som er arrangert i et mønster, dette arrangementet representerer så et symbol som en bokstav eller et tegn, og deretter blir dette arrangert videre til et mer avansert mønster for eksempel et ord, og til slutt en setning. Til slutt danner disse mønstrene ideer, og disse ideene blir transformert til produktene som mennesker er ansvarlige for å bygge.

Ved å emulere den menneskelige hjernen, avslørt er en vei til å skape en avansert AI utover de nåværende egenskapene til de nevrale nettverkene som eksisterte på publiseringstidspunktet.

Boken var en blåkopi for å lage en AI som kan skaleres ved å støvsuge verdens data, og bruke sin flerlags mønstergjenkjenningsbehandling til å analysere tekst, bilder, lyd og video. Et system optimalisert for oppskalering på grunn av fordelene med skyen og dens parallelle prosesseringsevner. Med andre ord ville det ikke være noe maksimum på datainngang eller -utgang.

Denne boken var så sentral at forfatteren like etter utgivelsen Ray Kurzweil ble ansatt av Google å bli direktør for ingeniørfag med fokus på maskinlæring og språkbehandling. En rolle som passet perfekt med boken han hadde skrevet.

Det ville være umulig å benekte hvor innflytelsesrik denne boken var for fremtiden til Google, og hvordan de rangerer nettsteder. Dette AI bok bør være obligatorisk lesing for alle som ønsker å bli en SEO-ekspert.

DeepMind

DeepMind ble lansert i 2010, og var en het ny oppstart som brukte en revolusjonerende ny type AI-algoritme som tok verden med storm, det ble kalt forsterkningslæring. DeepMind beskrev det best som:

"Vi presenterer den første dyplæringsmodellen for å lykkes med å lære kontrollpolitikk direkte fra høydimensjonale sensoriske input ved å bruke forsterkende læring. Modellen er et konvolusjonelt nevralt nettverk, trent med en variant av Q-learning, hvis input er råpiksler og hvis utgang er en verdifunksjon som estimerer fremtidige belønninger."

Ved å kombinere dyp læring med forsterkende læring ble det en dyp forsterkning læring system. I 2013 brukte DeepMind disse algoritmene for å samle seire mot menneskelige spillere på Atari 2600-spill – Og dette ble oppnådd ved å etterligne den menneskelige hjernen og hvordan den lærer av trening og repetisjon.

I likhet med hvordan et menneske lærer ved repetisjon, enten det er å sparke en ball eller spille Tetris, vil AI også lære. AIs nevrale nettverk sporet ytelse og ville gradvis forbedre seg selv, noe som resulterte i sterkere trekkvalg i neste iterasjon.

DeepMind var så dominerende i sitt teknologiske forsprang at Google måtte kjøpe tilgang til teknologien. DeepMind ble kjøpt opp for mer enn 500 millioner dollar i 2014.

Etter oppkjøpet var AI-industrien vitne til suksessive gjennombrudd, en type som ikke er sett siden 11. mai 1997, da sjakk stormester Garry Kasparov tapte det første spillet i en seks-kamps kamp mot Deep Blue, en sjakkspillende datamaskin utviklet av forskere ved IBM. 

I 2015 foredlet DeepMind algoritmen for å teste den på Ataris serie med 49 spill, og maskinen slo menneskelig ytelse på 23 av dem.

Det var bare begynnelsen, senere i 2015 begynte DeepMind å fokusere på AlphaGo, et program med det uttalte målet om å beseire en profesjonell Go-verdensmester. Det eldgamle spillet Go, som først ble sett i Kina for rundt 4000 år siden, regnes for å være det mest utfordrende spillet i menneskets historie, med sitt potensial 10360 mulige trekk.

DeepMind brukte veiledet læring for å trene AlphaGo-systemet ved å lære av menneskelige spillere. Like etter skapte DeepMind overskrifter etter at AlphaGo slo Lee Sedol, verdensmesteren, i en kamp med fem kamper i mars 2016.

Ikke bli overgått, i oktober 2017 ga DeepMind ut AlphaGo Zero, en ny modell med nøkkeldifferensiatoren at den krevde null menneskelig trening. Siden det ikke krevde menneskelig opplæring, krevde det heller ingen merking av data, systemet som i hovedsak ble brukt uovervåket læring. AlphaGo Zero overgikk raskt forgjengeren, som beskrevet av DeepMind.

«Tidligere versjoner av AlphaGo ble opprinnelig trent på tusenvis av menneskelige amatører og profesjonelle spill for å lære å spille Go. AlphaGo Zero hopper over dette trinnet og lærer å spille ganske enkelt ved å spille mot seg selv, med utgangspunkt i helt tilfeldig spill. Ved å gjøre det, overgikk det raskt menneskelig spillnivå og beseiret tidligere publisert mesterbeseirende versjon av AlphaGo med 100 spill til 0.»

I mellomtiden var SEO-verdenen hyperfokusert på PageRank, ryggraden til Google. Det begynner i 1995, da Larry Page og Sergey Brin var Ph.D. studenter ved Stanford University. Duoen begynte å samarbeide om et nytt forskningsprosjekt med kallenavnet "Ryggmassasje". Målet var å rangere nettsider til et mål for viktighet ved å konvertere tilbakekoblingsdataene deres. En tilbakekobling er ganske enkelt en hvilken som helst lenke fra en side til en annen, lik denne link.

Algoritmen ble senere omdøpt til PageRank, oppkalt etter både begrepet "webside" og medgründer Larry Page. Larry Page og Sergey Brin hadde det ambisiøse målet om å bygge en søkemotor som kunne drive hele nettet ved hjelp av tilbakekoblinger.

Og det virket.

PageRank dominerer overskrifter

SEO-fagfolk forsto umiddelbart det grunnleggende om hvordan google beregner en kvalitetsrangering for en nettside ved å bruke PageRank. Noen kyndige svarte hatt SEO-gründere tok det et skritt videre, og forsto at for å skalere innhold, kan det være fornuftig å kjøpe lenker i stedet for å vente med å skaffe dem organisk.

En ny økonomi dukket opp rundt tilbakekoblinger. Ivrige nettstedeiere som trengte å påvirke søkemotorrangeringer ville kjøpe lenker, og til gjengjeld ville de desperate etter å tjene penger på nettsteder selge dem lenker.

Nettstedene som kjøpte lenker, invaderte ofte Google over de etablerte merkevarene.

Rangering ved hjelp av denne metoden fungerte veldig bra i lang tid – inntil den sluttet å virke, sannsynligvis omtrent samtidig som maskinlæring startet og løste det underliggende problemet. Med introduksjonen av dyp forsterkende læring ville PageRank blitt en rangeringsvariabel, ikke den dominerende faktoren.

Nå er SEO-fellesskapet delt på lenkekjøp som strategi. Jeg personlig tror at koblingskjøp gir suboptimale resultater, og at de beste metodene for å skaffe tilbakekoblinger er basert på variabler som er bransjespesifikke. En legitim tjeneste som jeg kan anbefale kalles HARO (Hjelp en reporter). Muligheten hos HARO er å skaffe tilbakekoblinger ved å oppfylle medieforespørsler.

Etablerte merkevarer trengte aldri å bekymre seg for å skaffe lenker, siden de hadde fordelene av at tiden jobbet i deres favør. Jo eldre et nettsted, desto mer tid har det hatt til å samle tilbakekoblinger av høy kvalitet. Med andre ord, en søkemotorrangering var sterkt avhengig av alderen på et nettsted, hvis du beregner ved hjelp av beregningen tid = tilbakekoblinger.

For eksempel vil CNN naturlig motta tilbakekoblinger for en nyhetsartikkel på grunn av merkevaren, tilliten og fordi den ble oppført høyt til å begynne med – så naturlig nok fikk den flere tilbakekoblinger fra folk som undersøkte en artikkel og lenket til det første søkeresultatet de fant .

Dette betyr at høyere rangerte nettsider organisk mottok flere tilbakekoblinger. Dessverre betydde dette at nye nettsteder ofte ble tvunget til å misbruke tilbakekoblingsalgoritmen ved å vende seg til en markedsplass for tilbakekoblinger.

På begynnelsen av 2000-tallet fungerte kjøp av tilbakekoblinger bemerkelsesverdig bra, og det var en enkel prosess. Lenkekjøpere kjøpte lenker fra nettsteder med høy autoritet, ofte bunntekstlenker på hele nettstedet, eller kanskje per artikkel (ofte forkledd som et gjesteinnlegg), og selgere som var desperate etter å tjene penger på nettsidene sine, var glade for å forplikte seg – dessverre, ofte på ofring av kvalitet.

Etter hvert forsto Googles talentmasse av maskinlæringsingeniører at koding av søkemotorresultater for hånd var fåfengt, og mye av PageRank var håndskrevet koding. I stedet forsto de at AI til slutt ville bli ansvarlig for å beregne rangeringene fullstendig uten til lite menneskelig innblanding.

For å holde seg konkurransedyktig bruker Google alle verktøyene i deres arsenal, og dette inkluderer dyp forsterkning læring – Den mest avanserte typen maskinlæringsalgoritme i verden.

Dette systemet lagde på toppen av Googles oppkjøp av MetaWeb var en gamechanger. Grunnen til at MetaWeb-oppkjøpet i 2010 var så viktig, er at det reduserte vekten Google la på søkeord. Kontekst var plutselig viktig, dette ble oppnådd ved å bruke en kategoriseringsmetodikk kalt "entiteter". Som Rask Firma beskrevet:

Når Metaweb finner ut til hvilken enhet du refererer til, kan det gi et sett med resultater. Den kan til og med kombinere enheter for mer komplekse søk – "skuespillerinner over 40" kan være én enhet, "skuespillerinner som bor i New York City" kan være en annen, og "skuespillerinner med en film som spilles nå" kan være en annen. ".

Denne teknologien ble rullet inn i en stor algoritmeoppdatering kalt RankBrain som ble lansert våren 2015. RankBrain fokuserte på å forstå kontekst versus å være rent nøkkelordbasert, og RankBrain ville også vurdere miljøkontekster (f.eks. søkerens plassering) og ekstrapolere mening der det ikke hadde vært noen før. Dette var en viktig oppdatering spesielt for mobilbrukere.

Nå som vi forstår hvordan Google bruker disse teknologiene, la oss bruke beregningsteori for å spekulere i hvordan det gjøres.

Hva er Deep Learning?

Dyp læring er den mest brukte typen maskinlæring – Det ville være umulig for Google å ikke bruke denne algoritmen.

Dyplæring påvirkes betydelig av hvordan den menneskelige hjernen fungerer, og den prøver å speile hjernens oppførsel i hvordan den bruker mønstergjenkjenning for å identifisere og kategorisere objekter.

For eksempel hvis du ser bokstaven a, gjenkjenner hjernen automatisk linjene og formene for deretter å identifisere den som bokstaven a. Det samme gjelder bokstavene ap, prøver hjernen din automatisk å forutsi fremtiden ved å komme opp med potensielle ord som f.eks app or eple. Andre mønstre kan inkludere tall, veiskilt eller å identifisere en kjær på en overfylt flyplass.

Du kan tenke på at sammenkoblingene i et dyplæringssystem ligner på hvordan den menneskelige hjernen opererer med koblingen av nevroner og synapser.

Deep learning er til syvende og sist betegnelsen for maskinlæringsarkitekturer som føyer sammen mange flerlagsperceptroner, slik at det ikke bare er ett skjult lag, men mange skjulte lag. Jo "dypere" det dype nevrale nettverket er, jo mer sofistikerte mønstre kan nettverket lære.

Fullt tilkoblede nettverk kan kombineres med andre maskinlæringsfunksjoner for å skape forskjellige dyplæringsarkitekturer.

Hvordan Google bruker dyp læring

Google spiderer verdens nettsteder ved å følge hyperkoblinger (tenk nevroner) som kobler nettsteder til hverandre. Dette var den opprinnelige metodikken som Google brukte fra dag én, og som fortsatt er i bruk. Når nettsteder er indeksert, brukes ulike typer AI til å analysere denne skattekisten av data.

Googles system merker nettsidene i henhold til ulike interne beregninger, med bare mindre menneskelige innspill eller intervensjoner. Et eksempel på en intervensjon vil være manuell fjerning av en spesifikk URL på grunn av en Forespørsel om DMCA-fjerning.

Google-ingeniører er kjent for frustrerende deltakere på SEO-konferanser, og dette er fordi Google-ledere aldri kan artikulere ordentlig hvordan Google opererer. Når det stilles spørsmål om hvorfor enkelte nettsteder ikke klarer å rangere, er det nesten alltid det samme dårlig artikulerte svaret. Responsen er så hyppig at deltakere ofte på forhånd oppgir at de har forpliktet seg til å lage godt innhold i måneder eller til og med år på ende uten positive resultater.

Forutsigbart blir nettstedeiere instruert til å fokusere på å bygge verdifullt innhold – en viktig komponent, men langt fra å være omfattende.

Denne mangelen på svar er fordi lederne ikke er i stand til å svare ordentlig på spørsmålet. Googles algoritme opererer i en svart boks. Det er input, og deretter output – og det er slik dyp læring fungerer.

La oss nå gå tilbake til en rangeringsstraff som påvirker millioner av nettsteder negativt, ofte uten at eieren av nettstedet kjenner til det.

Pagespeed Insights

Google er ikke ofte gjennomsiktig, PageSpeed ​​Insights er unntaket. Nettsteder som mislykkes i denne hastighetstesten vil bli sendt inn i en straffeboks for sakte lasting – spesielt hvis mobilbrukere er berørt.

Det som mistenkes er at det på et tidspunkt i prosessen er et beslutningstre som analyserer raske nettsteder, kontra sakte lasting (PageSpeed ​​Insights mislyktes) nettsteder. Et beslutningstre er i hovedsak en algoritmisk tilnærming som deler opp datasettet i individuelle datapunkter basert på forskjellige kriterier. Kriteriene kan være å negativt påvirke hvor høyt en side rangerer for mobil kontra desktop-brukere.

Hypotetisk kan en straff bli brukt på den naturlige rangeringsscore. For eksempel kan et nettsted som uten straff rangeres som #5 ha en -20, -50 eller en annen ukjent variabel som vil redusere rangeringen til #25, #55 eller et annet tall valgt av AI.

I fremtiden kan vi se slutten på PageSpeed ​​Insights, når Google blir mer trygg på AI. Dette nåværende inngrepet på hastighet fra Google er farlig, ettersom det potensielt kan eliminere resultater som ville vært optimale, og det diskriminerer de mindre teknisk kunnskapsrike.

Det er en stor forespørsel å kreve at alle som driver en liten bedrift skal ha ekspertisen til å lykkes med å diagnostisere og rette opp problemer med hastighetstester. En enkel løsning ville være at Google ganske enkelt slipper en plug-in for hastighetsoptimalisering for wordpress-brukere, som wordpress makter 43 % av internett.

Dessverre er all SEO-innsats forgjeves hvis et nettsted ikke klarer å bestå Googles PageSpeed ​​Insights. Innsatsen er intet mindre enn et nettsted som forsvinner fra Google.

Hvordan bestå denne testen er en artikkel for en annen gang, men du bør som et minimum bekrefte om din nettsted passerer.

En annen viktig teknisk beregning å bekymre seg for er en sikkerhetsprotokoll kalt SSL (Secure Sockets Layer). Dette endrer URL-en til et domene fra http til https, og sikrer sikker overføring av data. Ethvert nettsted som ikke har SSL aktivert vil bli straffet. Selv om det er noen unntak fra denne regelen, vil netthandel og finansielle nettsteder bli hardest påvirket.

Lavpriswebverter tar en årlig avgift for SSL-implementering, i mellomtiden gode webverter som f.eks Siteground utstede SSL-sertifikater gratis og integrere dem automatisk.

Metadata

Et annet viktig element på nettstedet er Meta Title og Meta description. Disse innholdsfeltene har en større rekkefølge av betydning som kan bidra like mye til suksessen eller fiaskoen til en side som hele innholdet på siden.

Dette er fordi Google har stor sannsynlighet for å velge metatittelen og metabeskrivelsen som skal vises i søkeresultatene. Og det er derfor det er viktig å fylle ut metatittelen og metabeskrivelsesfeltet så nøye som mulig.

Alternativet er at Google kan velge å ignorere metatittelen og metabeskrivelsen for i stedet å automatisk generere data som den forutsier vil resultere i flere klikk. Hvis Google forutsier dårlig hvilken tittel som skal genereres automatisk, vil dette bidra til færre klikk for søkere, og følgelig bidrar dette til tapte søkemotorrangeringer.

Hvis Google mener at den inkluderte metabeskrivelsen er optimalisert for å motta klikk, vil den vise den i søkeresultatene. Hvis dette mislykkes, henter Google en tilfeldig tekstbit fra nettstedet. Ofte velger Google den beste teksten på siden, problemet er at dette er lotterisystemet og Google er gjennomgående dårlige til å velge hvilken beskrivelse som skal velges.

Selvfølgelig, hvis du mener at innholdet på siden din er veldig bra, er det noen ganger fornuftig å la Google velge den optimaliserte metabeskrivelsen som passer best til brukersøket. Vi vil ikke velge noen metabeskrivelse for denne artikkelen, siden den er innholdsrik, og Google vil sannsynligvis velge en god beskrivelse.

I mellomtiden klikker milliarder av mennesker på de beste søkeresultatene – Dette er menneske-i-løkken, Googles siste tilbakemeldingsmekanisme – Og det er her forsterkende læring starter.

Hva er forsterkende læring?

Forsterkningslæring er en maskinlæringsteknikk som involverer opplæring av en AI-agent gjennom repetisjon av handlinger og tilhørende belønninger. En forsterkende læringsagent eksperimenterer i et miljø, tar handlinger og blir belønnet når de riktige handlingene blir tatt. Over tid, agenten lærer å ta de handlingene som vil maksimere belønningen.

Belønningen kan være basert på en enkel beregning som beregner hvor mye tid brukt på en anbefalt side.

Hvis du kombinerer denne metodikken med en Human-in-the-loop-underrutine, vil dette høres veldig mye ut som eksisterende anbefalingsmotorer som kontrollerer alle aspekter av våre digitale liv som YouTube, Netflix, Amazon Prime – Og hvis det høres ut som hvordan en søkemotor skal fungere du har rett.

Hvordan Google bruker forsterkende læring

Googles svinghjul forbedres med hvert søk, mennesker trener AI ved å velge det beste resultatet som best svarer på søket deres, og det lignende søket fra millioner av andre brukere.

Den forsterkende læringsagenten jobber kontinuerlig med å forbedre seg selv ved å kun forsterke de mest positive interaksjonene mellom søk og levert søkeresultat.

Google måler hvor lang tid det tar for en bruker å skanne resultatsiden, nettadressen de klikker på, og de måler hvor lang tid som er brukt på det besøkte nettstedet, og de registrerer returklikket. Disse dataene blir deretter samlet og sammenlignet for hvert nettsted som tilbyr en lignende datamatch eller brukeropplevelse.

Et nettsted med lav retensjonsrate (tid brukt på stedet), mates deretter av forsterkningslæringssystemet med en negativ verdi, og andre konkurrerende nettsteder blir testet for å forbedre den tilbudte rangeringen. Google er objektiv, forutsatt at det ikke er noen manuell intervensjon, gir Google til slutt den ønskede søkeresultatsiden.

Brukerne er menneskene som gir Google gratis data og blir den siste komponenten i læringssystemet for dyp forsterkning. I bytte mot denne tjenesten tilbyr Google sluttbrukeren en mulighet til å klikke på en annonse.

Annonsene utenom inntektsgenerering fungerer som en sekundær rangeringsfaktor, og gir mer data om hva som får en bruker til å ønske å klikke.

Google lærer i hovedsak hva en bruker vil ha. Dette kan løst sammenlignes med en anbefalingsmotor av en videostrømmetjeneste. I så fall vil en anbefalingsmotor mate et brukerinnhold som er målrettet mot deres interesser. For eksempel kan en bruker som vanligvis liker en strøm av romantiske komedier nyte noen parodier hvis de deler de samme komikerne.

Hvordan hjelper dette SEO?

Hvis vi fortsetter med beregningstenkning, kan vi anta at Google har trent seg til å levere de beste resultatene, og dette oppnås ofte ved å generalisere og tilfredsstille menneskelige skjevheter. Det ville faktisk være umulig for Googles AI å ikke optimalisere resultater som imøtekommer disse skjevhetene, hvis det gjorde det, ville resultatene være suboptimale.

Det er med andre ord ingen magisk formel, men det er noen beste praksiser.

Det er SEO-utøverens ansvar å gjenkjenne skjevhetene som Google søker som er spesifikke for deres bransje – og å legge inn disse skjevhetene. For eksempel, noen som søker etter valgresultater uten å spesifisere en dato, søker mest sannsynlig etter de siste resultatene – dette er en skjevhet for nylig. Noen som søker etter en oppskrift, trenger mest sannsynlig ikke den nyeste siden, og kan faktisk foretrekke en oppskrift som har tålt tidens tann.

Det er SEO-utøverens ansvar å tilby besøkende resultatene de leter etter. Dette er den mest bærekraftige måten å rangere på i Google.

Nettstedseiere må slutte å målrette mot et spesifikt søkeord med forventning om at de kan levere hva de vil til sluttbrukeren. Søkeresultatet må samsvare nøyaktig med brukerens behov.

Hva er en skjevhet? Det kan være å ha et domenenavn som ser høy autoritet ut, med andre ord samsvarer domenenavnet med markedet du betjener? Å ha et domenenavn med ordet India i kan motvirke USA-brukere fra å klikke på URL-en, på grunn av en nasjonalistisk skjevhet av tillitsfulle resultater som kommer fra brukerens bostedsland. Å ha et ettordsdomene kan også gi en illusjon av autoritet.

Den viktigste skjevheten er hva en bruker ønsker for å matche søket sitt? Er det en FAQ, en topp 10-liste, et blogginnlegg? Dette må besvares, og svaret er lett å finne. Du trenger bare å analysere konkurrentene ved å utføre et Google-søk i målmarkedet.

Black Hat SEO er død

Sammenlign dette med Black Hat SEO, en aggressiv metode for rangering av nettsteder som utnytter utspekulerte SPAM-teknikker, inkludert kjøp av tilbakekoblinger, forfalskning av tilbakekoblinger, hacking av nettsteder, automatisk generering av sosiale bokmerker i stor skala og andre mørke metoder som brukes via et nettverk av black hat-verktøy .

Verktøy som ofte brukes på nytt og selges videre på ulike søkemotormarkedsføringsfora, produkter med nesten ingen verdi og få sjanser for å lykkes. For øyeblikket gjør disse verktøyene det mulig for selgerne å bli velstående mens de tilbyr minimal verdi for sluttbrukeren.

Dette er grunnen til at jeg anbefaler å forlate Black Hat. Fokuser SEO på å se den fra linsen til maskinlæring. Det er viktig å forstå at hver gang noen hopper over et søkeresultat for å klikke på et resultat som er begravet under, er det mennesket-i-løkken som samarbeider med læringssystemet for dyp forsterkning. Mennesket hjelper AI med selvforbedring, og blir uendelig mye bedre etter hvert som tiden skrider frem.

Dette er en maskinlæringsalgoritme som har blitt trent opp av flere brukere enn noe annet system i menneskehetens historie.

Google håndterer i gjennomsnitt 3.8 millioner søk per minutt over hele verden. Det blir 228 millioner søk i timen, 5.6 milliarder søk per dag. Det er mye data, og dette er grunnen til at det er dumt å prøve black hat SEO. Å anta at Googles AI kommer til å forbli stillestående er dumt, systemet bruker Loven om akselererende returer å eksponentielt forbedre seg selv.

Googles AI blir så kraftig at det kan tenkes at den til slutt kan bli den første AI som når Kunstig generell intelligens (AGI). En AGI er en intelligens som er i stand til å bruke overføre læring å mestre ett felt for deretter å bruke den lærte intelligensen på tvers av flere domener. Selv om det kan være interessant å utforske Googles fremtidige AGI-innsats, bør det forstås at når prosessen først er i gang er det vanskelig å stoppe. Dette spekulerer selvfølgelig mot fremtiden ettersom Google for tiden er en type smal AI, men det er et emne for en annen artikkel.

Å vite dette med å bruke ett sekund mer på svart lue er en dummesak.

White Hat SEO

Hvis vi aksepterer at Googles AI kontinuerlig vil forbedre seg selv, har vi ikke noe annet valg enn å gi opp forsøket på å overliste Google. Fokuser heller på å optimalisere et nettsted for å gi Google det spesifikt det leter etter optimalt.

Som beskrevet innebærer dette å aktivere SSL, optimalisere sidelastingshastighet og å optimalisere metatittelen og metabeskrivelsen. For å optimalisere disse feltene, må Meta Tittel og Meta Description sammenlignes med konkurrerende nettsteder – Identifiser de vinnende elementene som resulterer i en høy klikkfrekvens.

Hvis du optimaliserte å bli klikket på, er neste milepæl å lage den beste landingssiden. Målet er en landingsside som optimerer brukerverdien så mye at den gjennomsnittlige tiden brukt på siden utkonkurrerer lignende konkurrenter som kjemper om de beste søkemotorresultatene.

Bare ved å tilby den beste brukeropplevelsen kan en nettside øke i rangering.

Så langt har vi identifisert disse beregningene som de viktigste:

  • Lastehastighet
  • SSL aktivert
  • Metatittel og Metabeskrivelse
  • Landing Page

Landingssiden er det vanskeligste elementet når du konkurrerer mot verden. Landingssiden må lastes raskt, og skal servere alt som forventes, for så å overraske brukeren med mer.

Final Thoughts

Det ville være enkelt å fylle ytterligere 2000 ord som beskriver andre AI-teknologier som Google bruker, i tillegg til å grave dypere inn i kaninhullet til SEO. Hensikten her er å rette oppmerksomheten mot de viktigste beregningene.

SEO-partisjonerer er så fokusert på å spille systemet at de glemmer at det viktigste elementet i SEO til syvende og sist er å gi brukerne så mye verdi som mulig.

En måte å oppnå dette på er å aldri la viktig innhold bli foreldet. Hvis jeg om en måned tenker på et viktig bidrag, vil det bli lagt til denne artikkelen. Google kan deretter identifisere hvor ferskt innholdet er, matchet med historien til siden som gir verdi.

Hvis du fortsatt er bekymret for å skaffe deg tilbakekoblinger, er løsningen enkel. Respekter de besøkendes tid og gi dem verdi. Tilbakekoblingene vil komme naturlig, ettersom brukere vil finne verdi i å dele innholdet ditt.

Spørsmålet går så over til eieren av nettstedet om hvordan man kan gi den beste brukerverdien og brukeropplevelsen.

En grunnlegger av unite.AI og et medlem av Forbes teknologiråd, Antoine er en futurist som brenner for fremtiden til AI og robotikk.

Han er også grunnleggeren av Securities.io, et nettsted som fokuserer på å investere i forstyrrende teknologi.