Følg os
SEO 101:

Search Engine Optimization

SEO-optimering: SĂĄdan fungerer Googles AI (september 2025)

mm

Søgemaskineoptimering (SEO) er processen med at optimere on-side og off-page faktorer, der påvirker, hvor højt en webside rangerer for et specifikt søgeudtryk. Dette er en mangesidet proces, der inkluderer optimering af sideindlæsningshastighed, generering af en linkbuildingsstrategi, brug SEO værktøjer, samt at lære at reverse engineere Googles AI ved hjælp af beregningstænkning.

Beregningstænkning er en avanceret type analyse og problemløsningsteknik, som computerprogrammører bruger, når de skriver kode og algoritmer. Beregningstænkere vil søge grundsandheden ved at nedbryde et problem og analysere det ved hjælp af første principstænkning.

Da Google ikke frigiver deres hemmelige ingrediens til nogen, vil vi benytte os af beregningsmæssig tænkning. Vi vil gennemgå nogle afgørende øjeblikke i Googles historie, der har formet de algoritmer, der bruges, og vi vil lære, hvorfor dette er vigtigt.

SĂĄdan skaber du et sind

Vi begynder med en bog, der udkom i 2012, kaldet "Sådan skaber du et sind: Hemmeligheden bag menneskelig tanke afsløret” af den kendte fremtidsforsker og opfinder Ray Kurzweil. Denne bog dissekere den menneskelige hjerne og nedbryde den måde, den fungerer på. Vi lærer fra bunden af, hvordan hjernen træner sig selv ved hjælp af mønstergenkendelse til at blive en forudsigelsesmaskine, der altid arbejder på at forudsige fremtiden, endda forudsige det næste ord.

Hvordan genkender mennesker mønstre i hverdagen? Hvordan dannes disse forbindelser i hjernen? Bogen begynder med at forstå hierarkisk tænkning, dette er at forstå en struktur, der er sammensat af forskellige elementer, der er arrangeret i et mønster, dette arrangement repræsenterer så et symbol såsom et bogstav eller et tegn, og derefter er dette yderligere arrangeret i et mere avanceret mønster såsom et ord og til sidst en sætning. Til sidst danner disse mønstre ideer, og disse ideer omdannes til de produkter, som mennesker er ansvarlige for at bygge.

Ved at efterligne den menneskelige hjerne er afsløret en vej til at skabe en avanceret AI ud over de nuværende muligheder i de neurale netværk, der eksisterede på tidspunktet for udgivelsen.

Bogen var en plan for at skabe en AI, der kan skalere ved at støvsuge verdens data og bruge sin flerlagede mønstergenkendelsesbehandling til at analysere tekst, billeder, lyd og video. Et system optimeret til opskalering på grund af fordelene ved skyen og dens parallelle behandlingsmuligheder. Med andre ord ville der ikke være noget maksimum for datainput eller -output.

Denne bog var sĂĄ afgørende, at forfatteren kort efter udgivelsen Ray Kurzweil blev ansat af Google at blive direktør for Engineering med fokus pĂĄ maskinlæring og sprogbehandling. En rolle, der passede perfekt til den bog, han havde skrevet.

Det ville være umuligt at benægte, hvor indflydelsesrig denne bog var for Googles fremtid, og hvordan de rangerer websteder. Det her AI bog bør være obligatorisk læsning for alle, der ønsker at blive SEO-eksperter.

DeepMind

DeepMind blev lanceret i 2010 og var en hot ny startup, der brugte en revolutionerende ny type AI-algoritme, der tog verden med storm, det blev kaldt forstærkningslæring. DeepMind beskrev det bedst som:

"Vi præsenterer den første dybe læringsmodel til succesfuldt at lære kontrolpolitikker direkte fra højdimensionelle sensoriske input ved hjælp af forstærkende læring. Modellen er et foldet neuralt netværk, trænet med en variant af Q-learning, hvis input er rå pixels, og hvis output er en værdifunktion, der estimerer fremtidige belønninger."

Ved at fusionere dyb læring med forstærkende læring blev det en dyb forstærkende læring system. I 2013 brugte DeepMind disse algoritmer til at vinde sejre mod menneskelige spillere på Atari 2600-spil – Og dette blev opnået ved at efterligne den menneskelige hjerne, og hvordan den lærer fra træning og gentagelse.

Ligesom et menneske lærer ved gentagelse, uanset om det er at sparke til en bold eller spille Tetris, ville AI'en også lære. AI'ens neurale netværk sporede præstationen og ville gradvist forbedre sig selv, hvilket resulterede i stærkere bevægelsesvalg i den næste iteration.

DeepMind var så dominerende i sit teknologiske forspring, at Google måtte købe adgang til teknologien. DeepMind blev opkøbt for mere end 500 millioner dollars i 2014.

Efter opkøbet oplevede AI-industrien successive gennembrud, en type, der ikke er set siden 11. maj 1997, da skak stormester Garry Kasparov tabte det første spil i en seks-kamps kamp mod Deep Blue, en skak-computer udviklet af videnskabsmænd hos IBM. 

I 2015 forfinede DeepMind algoritmen for at teste den på Ataris suite af 49 spil, og maskinen slog menneskelig præstation på 23 af dem.

Det var kun begyndelsen, senere i 2015 begyndte DeepMind at fokusere på AlphaGo, et program med det erklærede mål at besejre en professionel Go-verdensmester. Det antikke spil Go, som først blev set i Kina for omkring 4000 år siden, anses for at være det mest udfordrende spil i menneskehedens historie med dets potentiale 10360 mulige træk.

DeepMind brugte overvåget læring til at træne AlphaGo-systemet ved at lære af menneskelige spillere. Kort efter trak DeepMind overskrifter efter AlphaGo slog Lee Sedol, verdensmesteren, i en fem-kamps kamp i marts 2016.

Ikke overgås, i oktober 2017 udgav DeepMind AlphaGo Zero, en ny model med nøgledifferentiatoren, at den krævede nul menneskelig træning. Da det ikke krævede menneskelig træning, krævede det heller ingen mærkning af data, det system, der i det væsentlige blev brugt uovervåget læring. AlphaGo Zero overgik hurtigt sin forgænger, som beskrevet af DeepMind.

"Tidligere versioner af AlphaGo trænede oprindeligt på tusindvis af menneskelige amatører og professionelle spil for at lære at spille Go. AlphaGo Zero springer dette trin over og lærer at spille blot ved at spille mod sig selv, startende fra helt tilfældigt spil. Dermed overgik den hurtigt det menneskelige spilleniveau og besejrede tidligere offentliggjort mesterbesejrende version af AlphaGo med 100 spil til 0."

I mellemtiden var SEO-verdenen hyperfokuseret på PageRank, Googles rygrad. Det begynder i 1995, hvor Larry Page og Sergey Brin var ph.d. studerende ved Stanford University. Duoen begyndte at samarbejde om et nyt forskningsprojekt med tilnavnet "Rygmassage”. Målet var at rangere websider til et mål for betydning ved at konvertere deres backlink-data. Et backlink er ganske enkelt ethvert link fra en side til en anden, svarende til dette link.

Algoritmen blev senere omdøbt til PageRank, opkaldt efter både udtrykket "webside" og medstifter Larry Page. Larry Page og Sergey Brin havde det ambitiøse mål at bygge en søgemaskine, der kunne drive hele nettet udelukkende ved hjælp af backlinks.

Og det fungerede.

PageRank dominerer overskrifter

SEO-professionelle forstod straks det grundlæggende i, hvordan google beregner en kvalitetsplacering for en webside ved at bruge PageRank. Nogle kyndige sorte hat SEO-iværksættere tog det et skridt videre, idet de forstod, at for at skalere indhold, kunne det være fornuftigt at købe links i stedet for at vente med at erhverve dem organisk.

En ny økonomi opstod omkring backlinks. Ivrige webstedsejere, der havde brug for at påvirke placeringer i søgemaskinerne, ville købe links, og til gengæld ville de desperate efter at tjene penge på websteder sælge dem links.

De websteder, der købte links, invaderede ofte Google over den ene dag og overgik etablerede brands.

Rangering ved hjælp af denne metode fungerede rigtig godt i lang tid - Indtil det holdt op med at virke, formentlig omkring samme tid startede maskinlæring og løste det underliggende problem. Med introduktionen af ​​dyb forstærkende læring ville PageRank blive en rangeringsvariabel, ikke den dominerende faktor.

Efterhånden er SEO-fællesskabet delt i linkkøb som strategi. Jeg tror personligt på, at linkkøb giver suboptimale resultater, og at de bedste metoder til at erhverve backlinks er baseret på variabler, der er branchespecifikke. En legitim tjeneste, som jeg kan anbefale, kaldes HARO (Hjælp en reporter ud). Muligheden hos HARO er at erhverve backlinks ved at opfylde medieforespørgsler.

Etablerede mærker behøvede aldrig at bekymre sig om sourcing links, da de havde fordelene ved, at tiden arbejdede til deres fordel. Jo ældre en hjemmeside er, jo mere tid har den haft til at indsamle backlinks af høj kvalitet. Med andre ord var en søgemaskinerangering stærkt afhængig af alderen på et websted, hvis du beregner ved hjælp af metrikken tid = backlinks.

For eksempel ville CNN naturligt modtage backlinks til en nyhedsartikel på grund af dens brand, dens tillid, og fordi den var opført højt til at begynde med – så naturligvis fik det flere backlinks fra folk, der researchede en artikel og linkede til det første søgeresultat, de fandt .

Det betyder, at højere rangerede websider organisk modtog flere backlinks. Desværre betød dette, at nye websteder ofte blev tvunget til at misbruge backlink-algoritmen ved at henvende sig til en backlink-markedsplads.

I begyndelsen af ​​2000'erne fungerede køb af backlinks bemærkelsesværdigt godt, og det var en simpel proces. Linkkøbere købte links fra højautoritetswebsteder, ofte sidefodslinks på hele webstedet, eller måske på basis af artiklen (ofte forklædt som et gæsteindlæg), og sælgerne, der var desperate efter at tjene penge på deres websteder, var glade for at forpligte sig - Desværre ofte på ofring af kvalitet.

Til sidst forstod Googles talentpulje af maskinlæringsingeniører, at håndkodning af søgemaskineresultater var forgæves, og meget af PageRank var håndskrevet kodning. I stedet forstod de, at AI'en i sidste ende ville blive ansvarlig for fuldt ud at beregne placeringerne med ingen til lidt menneskelig indblanding.

For at forblive konkurrencedygtig bruger Google alle værktøjer i deres arsenal, og dette inkluderer dyb forstærkende læring – Den mest avancerede type maskinlæringsalgoritme i verden.

Dette system lagde ovenpå Googles opkøb af MetaWeb var revolutionerende. Grunden til at MetaWeb-opkøbet i 2010 var så vigtigt, var at det reducerede den vægt, som Google lagde på søgeord. Kontekst blev pludselig vigtig, og dette blev opnået ved at bruge en kategoriseringsmetode kaldet 'enheder'. Som Hurtigt firma beskrevet:

Når Metaweb finder ud af, hvilken enhed du henviser til, kan den give et sæt resultater. Det kan endda kombinere enheder til mere komplekse søgninger – "skuespillerinder over 40" kan være én enhed, "skuespillerinder, der bor i New York City" kan være en anden, og "skuespillerinder med en film i øjeblikket i gang" kan være en anden. “.

Denne teknologi blev rullet ind i en større algoritmeopdatering kaldet RankBrain som blev lanceret i foråret 2015. RankBrain fokuserede på at forstå kontekst i forhold til at være rent søgeordsbaseret, og RankBrain ville også overveje miljømæssige sammenhænge (f.eks. søgerens placering) og ekstrapolere betydning, hvor der ikke havde været nogen før. Dette var en vigtig opdatering især for mobilbrugere.

Nu hvor vi forstår, hvordan Google bruger disse teknologier, lad os bruge beregningsteori til at spekulere over, hvordan det gøres.

Hvad er Deep Learning?

Deep learning er den mest brugte type maskinlæring – Det ville være umuligt for Google ikke at bruge denne algoritme.

Dyb læring er betydeligt påvirket af, hvordan den menneskelige hjerne fungerer, og den forsøger at afspejle hjernens adfærd i, hvordan den bruger mønstergenkendelse til at identificere og kategorisere objekter.

For eksempel hvis du ser bogstavet a, genkender din hjerne automatisk linjerne og formerne for derefter at identificere det som bogstavet a. Det samme gælder bogstaverne ap, forsøger din hjerne automatisk at forudsige fremtiden ved at komme med potentielle ord som f.eks app or æble. Andre mønstre kan omfatte tal, vejskilte eller identifikation af en elsket i en overfyldt lufthavn.

Du kan tænke på, at forbindelserne i et dybt læringssystem ligner, hvordan den menneskelige hjerne fungerer med forbindelsen mellem neuroner og synapser.

Deep learning er i sidste ende betegnelsen for maskinlæringsarkitekturer, der forbinder mange flerlags perceptroner, så der ikke kun er ét skjult lag, men mange skjulte lag. Jo "dybere" det dybe neurale netværk er, desto mere sofistikerede mønstre kan netværket lære.

Fuldt forbundne netværk kan kombineres med andre maskinlæringsfunktioner for at skabe forskellige deep learning-arkitekturer.

SĂĄdan bruger Google Deep Learning

Google gennemsøger verdens hjemmesider ved at følge hyperlinks (tænk neuroner), der forbinder hjemmesider med hinanden. Dette var den oprindelige metode, som Google brugte fra dag ét, og den bruges stadig. Når hjemmesider er indekseret, bruges forskellige typer AI til at analysere denne skattekiste af data.

Googles system mærker websiderne i henhold til forskellige interne målinger, med kun mindre menneskelig input eller indgriben. Et eksempel på en indgriben ville være manuel fjernelse af en specifik URL på grund af en DMCA-anmodning om fjernelse.

Googles ingeniører er kendt for at frustrere deltagere på SEO konferencer, og det skyldes, at Googles ledere aldrig ordentligt kan formulere, hvordan Google fungerer. Når der stilles spørgsmål om, hvorfor bestemte websteder ikke rangerer, er det næsten altid det samme dårligt formulerede svar. Svaret er så hyppigt, at deltagerne ofte forebyggende angiver, at de har forpligtet sig til at skabe godt indhold i måneder eller endda år i træk uden positive resultater.

Forudsigeligt bliver webstedsejere instrueret i at fokusere på at bygge værdifuldt indhold - En vigtig komponent, men langt fra at være omfattende.

Denne mangel på svar skyldes, at lederne ikke er i stand til at besvare spørgsmålet korrekt. Googles algoritme opererer i en sort boks. Der er input, og så output – og det er sådan, deep learning fungerer.

Lad os nu vende tilbage til en rangeringsstraf, der pĂĄvirker millioner af websteder negativt, ofte uden webstedsejerens viden.

PageSpeed ​​Insights

Google er ikke ofte gennemsigtig, PageSpeed ​​Insights er undtagelsen. Websites, der fejler denne hastighedstest, vil blive sendt ind i en bøde for at indlæse langsomt – især hvis mobilbrugere er påvirket.

Det, der mistænkes, er, at der på et tidspunkt i processen findes et beslutningstræ, der analyserer hurtige websteder versus langsomt indlæsende (PageSpeed ​​Insights mislykkedes). Et beslutningstræ er i bund og grund en algoritmisk tilgang, der opdeler datasættet i individuelle datapunkter baseret på forskellige kriterier. Kriterierne kan være at påvirke, hvor højt en side rangerer for mobilbrugere versus desktopbrugere, negativt.

Hypotetisk kunne en straf pålægges den naturlige ranglistescore. For eksempel kan et websted, der uden straf ville rangere som #5, have en -20, -50 eller en anden ukendt variabel, der vil reducere rangeringen til #25, #55 eller et andet tal som valgt af AI.

I fremtiden vil vi muligvis se enden på PageSpeed ​​Insights, når Google bliver mere sikker på deres AI. Denne aktuelle indgriben på hastighed fra Google er farlig, da den potentielt kan eliminere resultater, der ville have været optimale, og den diskriminerer de mindre teknisk kyndige.

Det er en stor anmodning at kræve, at alle, der driver en lille virksomhed, har ekspertisen til at diagnosticere og afhjælpe problemer med hastighedstests. En simpel løsning ville være, at Google blot udgiver et hastighedsoptimerings-plugin til WordPress-brugere, da wordpress magter 43% af internettet.

Desværre er alle SEO-bestræbelser forgæves, hvis en hjemmeside ikke består Googles PageSpeed ​​Insights. Indsatsen er intet mindre end et websted, der forsvinder fra Google.

Sådan består denne test er en artikel til en anden gang, men du bør som minimum kontrollere, om din hjemmeside passerer.

En anden vigtig teknisk metrik at bekymre sig om er en sikkerhedsprotokol kaldet SSL (Secure Sockets Layer). Dette ændrer URL'en på et domæne fra http til https, og sikrer sikker overførsel af data. Ethvert websted, der ikke har SSL aktiveret, vil blive straffet. Selvom der er nogle undtagelser fra denne regel, vil e-handel og finansielle websteder blive hårdest påvirket.

Lavpris webhosts opkræver et årligt gebyr for SSL implementering, imens gode webhosts som f.eks Siteground udstede SSL-certifikater gratis og automatisk integrere dem.

Metadata

Et andet vigtigt element på hjemmesiden er Meta Title og Meta description. Disse indholdsfelter har en større rækkefølge af betydning, der kan bidrage lige så meget til en sides succes eller fiasko som hele indholdet på den pågældende side.

Dette skyldes, at Google har stor sandsynlighed for at vælge den metatitel og metabeskrivelse, der skal vises i søgeresultaterne. Og derfor er det vigtigt at udfylde metatitlen og metabeskrivelsesfeltet så omhyggeligt som muligt.

Alternativet er, at Google kan vælge at ignorere metatitlen og metabeskrivelsen for i stedet at automatisk generere data, som det forudsiger vil resultere i flere klik. Hvis Google forudsiger dårligt, hvilken titel der skal genereres automatisk, vil dette bidrage til færre klik-throughs af søgere og følgelig bidrager dette til tabte placeringer i søgemaskinerne.

Hvis Google mener, at den inkluderede metabeskrivelse er optimeret til at modtage klik, vil den vise den i søgeresultaterne. Hvis dette ikke lykkes, henter Google en tilfældig del af teksten fra hjemmesiden. Ofte vælger Google den bedste tekst på siden, problemet er at dette er lotterisystemet og Google er konsekvent dårlige til at vælge hvilken beskrivelse der skal vælges.

Selvfølgelig, hvis du mener, at indholdet på din side er rigtig godt, giver det nogle gange mening at lade Google vælge den optimerede metabeskrivelse, der bedst matcher brugerforespørgslen. Vi vælger ingen metabeskrivelse til denne artikel, da den er rig på indhold, og Google vil sandsynligvis vælge en god beskrivelse.

I mellemtiden klikker milliarder af mennesker på de bedste søgeresultater – Dette er den menneske-i-løkken, Googles sidste feedbackmekanisme – Og det er her, reinforcement learning træder i kraft.

Hvad er forstærkende læring?

Forstærkning læring er en maskinlæringsteknik, der involverer træning af en AI-agent gennem gentagelse af handlinger og tilhørende belønninger. En forstærkende læringsagent eksperimenterer i et miljø, tager handlinger og bliver belønnet, når de korrekte handlinger udføres. Over tid, agenten lærer at tage de handlinger, der vil maksimere sin belønning.

Belønningen kan være baseret på en simpel beregning, der beregner mængden af ​​tid brugt på en anbefalet side.

Hvis du kombinerer denne metodologi med en Human-in-the-loop-underrutine, ville dette lyde meget som eksisterende anbefalingsmotorer, der styrer alle aspekter af vores digitale liv, såsom YouTube, Netflix, Amazon Prime – Og hvis det lyder som hvordan en søgemaskine skal fungere, du har ret.

SĂĄdan bruger Google Reinforcement Learning

Googles svinghjul forbedres med hver søgning, mennesker træner AI'en ved at vælge det bedste resultat, der bedst besvarer deres forespørgsel, og den lignende forespørgsel fra millioner af andre brugere.

Den forstærkende læringsagent arbejder kontinuerligt på at forbedre sig selv ved kun at forstærke de mest positive interaktioner mellem søgning og leveret søgeresultat.

Google måler den tid, det tager for en bruger at scanne resultatsiden, den URL, de klikker på, og de måler mængden af ​​tid brugt på det besøgte websted, og de registrerer det tilbagevendende klik. Disse data kompileres og sammenlignes derefter for hvert websted, der tilbyder en lignende datamatch eller brugeroplevelse.

En hjemmeside med en lav retentionsrate (tid brugt på siden) får derefter en negativ værdi af reinforcement learning-systemet, og andre konkurrerende hjemmesider testes for at forbedre de tilbudte placeringer. Google er upartisk, og forudsat at der ikke er nogen manuel indgriben, leverer Google til sidst den ønskede søgeresultatside.

Brugerne er mennesket i løkken, der giver Google gratis data og bliver den sidste komponent i det dybe forstærkningslæringssystem. Til gengæld for denne service tilbyder Google slutbrugeren en mulighed for at klikke på en annonce.

Annoncerne, der ikke genererer omsætning, tjener som en sekundær rangeringsfaktor, der flyder flere data om, hvad der får en bruger til at ønske at klikke.

Google lærer i bund og grund, hvad en bruger vil have. Dette kan løst sammenlignes med en anbefalingsmaskine af en videostreamingtjeneste. I så fald vil en anbefalende motor fodre et brugerindhold, der er målrettet mod deres interesser. For eksempel kan en bruger, der sædvanligvis nyder en strøm af romantiske komedier, nyde nogle parodier, hvis de deler de samme komikere.

Hvordan hjælper dette SEO?

Hvis vi fortsætter med beregningsmæssig tænkning, kan vi antage, at Google har trænet sig selv til at levere de bedste resultater, og dette opnås ofte ved at generalisere og tilfredsstille menneskelige bias. Det ville faktisk være umuligt for Googles AI ikke at optimere resultater, der imødekommer disse bias, for hvis den gjorde det, ville resultaterne være suboptimale.

Der er med andre ord ingen magisk formel, men der er nogle bedste praksisser.

Det er SEO-udøverens ansvar at anerkende de skævheder, som Google søger, og som er specifikke for deres branche – og at indføje disse skævheder. En person, der f.eks. søger efter valgresultater uden at angive en dato, søger højst sandsynligt efter de seneste resultater – dette er en skævhed for nylig. En person, der søger efter en opskrift, har højst sandsynligt ikke brug for den seneste side, og foretrækker måske faktisk en opskrift, der har bestået tidens tand.

Det er SEO-udøverens ansvar at tilbyde besøgende de resultater, de leder efter. Dette er den mest bæredygtige måde at rangere på i Google.

Webstedsejere må opgive at målrette mod et specifikt søgeord med forventning om, at de kan levere, hvad de vil, til slutbrugeren. Søgeresultatet skal præcist matche brugerens behov.

Hvad er bias? Det kan være at have et domænenavn, der ser ud til at have høj autoritet, med andre ord, matcher domænenavnet det marked, du betjener? At have et domænenavn med ordet Indien i det kan afskrække amerikanske brugere fra at klikke på URL'en på grund af en nationalistisk bias, der går ud på at stole på resultater, der stammer fra en brugers bopælsland. At have et domænenavn med ét ord kan også give illusionen af ​​autoritet.

Den vigtigste bias er, hvad ønsker en bruger for at matche deres søgeforespørgsel? Er det en FAQ, en top 10 liste, et blogindlæg? Dette skal besvares, og svaret er let at finde. Du skal blot analysere konkurrenterne ved at udføre en Google-søgning på dit målmarked.

Black Hat SEO er død

Sammenlign dette med Black Hat SEO, en aggressiv metode til rangering af websteder, der udnytter underfundige SPAM-teknikker, herunder køb af backlinks, forfalskning af backlinks, hacking af websteder, automatisk generering af sociale bogmærker i stor skala og andre mørke metoder, der anvendes via et netværk af black hat-værktøjer .

Værktøjer, der ofte genbruges og sælges videre på forskellige søgemaskinemarkedsføringsfora, produkter med næsten ingen værdi og få odds for succes. I øjeblikket gør disse værktøjer det muligt for sælgerne at blive velhavende, mens de tilbyder minimal værdi for slutbrugeren.

Derfor anbefaler jeg at droppe Black Hat. Fokuser din SEO på at se det fra maskinlæringsperspektivet. Det er vigtigt at forstå, at hver gang nogen springer et søgeresultat over for at klikke på et resultat, der ligger begravet nedenunder, er det mennesket i loopet, der samarbejder med det dybe reinforcement learning-system. Mennesket hjælper AI'en med selvforbedring og bliver uendeligt bedre med tiden.

Dette er en maskinlæringsalgoritme, der er blevet trænet af flere brugere end noget andet system i menneskehedens historie.

Google håndterer i gennemsnit 3.8 millioner søgninger i minuttet over hele kloden. Det kommer ud til 228 millioner søgninger i timen, 5.6 milliarder søgninger om dagenDet er en masse data, og det er derfor, det er tåbeligt at forsøge black hat SEO. At antage, at Googles AI vil forblive stagnerende, er tåbeligt, systemet bruger loven om accelererende afkast til eksponentielt at forbedre sig selv.

Googles AI bliver så kraftfuld, at det er tænkeligt, at den i sidste ende kan blive den første AI, der når ... Kunstig generel intelligens (AGI). En AGI er en intelligens, der er i stand til at bruge overføre læring at mestre ét felt for derefter at anvende den lærte intelligens på tværs af flere domæner. Selvom det kan være interessant at udforske Googles fremtidige AGI-indsats, skal det forstås, at når processen først er i gang, er den svær at stoppe. Dette er selvfølgelig spekulationer i fremtiden, da Google i øjeblikket er en type smal AI, men det er et emne for en anden artikel.

At vide dette er et tåbeligt ærinde at bruge et sekund mere på black hat.

White Hat SEO

Hvis vi accepterer, at Googles kunstige intelligens løbende vil forbedre sig selv, har vi intet andet valg end at opgive forsøget på at overliste Google. Fokuser i stedet på at optimere et websted for optimalt at give Google specifikt det, det leder efter.

Som beskrevet involverer dette aktivering af SSL, optimering af sideindlæsningshastighed og optimering af metatitlen og metabeskrivelsen. For at optimere disse felter skal Meta Title og Meta Description sammenlignes med konkurrerende hjemmesider – Identificer de vindende elementer, der resulterer i en høj klikrate.

Hvis du har optimeret at blive klikket på, er den næste milepæl at skabe den bedste landingsside. Målet er en landingsside, der optimerer brugerværdien så meget, at den gennemsnitlige tid brugt på siden udkonkurrerer lignende konkurrenter, som kæmper om de bedste søgemaskineresultater.

Kun ved at tilbyde den bedste brugeroplevelse kan en webside øge sin placering.

Indtil videre har vi identificeret disse mĂĄlinger som de vigtigste:

  • Indlæsningshastighed
  • SSL aktiveret
  • Metatitel og metabeskrivelse
  • Landing Page

Landingssiden er det sværeste element, da du konkurrerer mod verden. Landingssiden skal indlæses hurtigt, og skal tjene alt, hvad der forventes, og så overraske brugeren med mere.

Afsluttende tanker

Det ville være nemt at udfylde yderligere 2000 ord, der beskriver andre AI-teknologier, som Google bruger, samt at grave dybt længere ned i SEO's kaninhul. Hensigten her er at genfokusere opmærksomheden på de vigtigste målinger.

SEO partitionere er så fokuserede på at spille systemet, at de glemmer, at det vigtigste element i SEO i sidste ende er at give brugerne så meget værdi som muligt.

En måde at opnå dette på er ved aldrig at tillade vigtigt indhold at blive forældet. Hvis jeg om en måned tænker på et vigtigt bidrag, vil det blive tilføjet til denne artikel. Google kan derefter identificere, hvor frisk indholdet er, matchet med sidens historie, der leverer værdi.

Hvis du stadig er bekymret for at anskaffe backlinks, er løsningen enkel. Respekter dine besøgendes tid og giv dem værdi. Backlinkene vil komme naturligt, da brugerne vil finde værdi i at dele dit indhold.

Spørgsmålet skifter derefter til webstedsejeren om, hvordan man giver den bedste brugerværdi og brugeroplevelse.

Antoine er en visionær leder og grundlægger af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for kunstig intelligens og robotteknologi. Som serieiværksætter mener han, at kunstig intelligens vil være lige så forstyrrende for samfundet som elektricitet, og han bliver ofte fanget i at begejstre for potentialet i forstyrrende teknologier og AGI.

Som en fremtidsforsker, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han stifter af Værdipapirer.io, en platform fokuseret på at investere i banebrydende teknologier, der omdefinerer fremtiden og omformer hele sektorer.