cung Optimizimi i SEO: Si funksionon AI i Google (maj 2024)
Lidhu me ne

Search Engine Optimization

Optimizimi i SEO: Si funksionon AI i Google (maj 2024)

mm
Përditësuar on

Optimizimi i Motorit të Kërkimit (SEO) është procesi i optimizimit të faktorëve brenda dhe jashtë faqes që ndikojnë në nivelin e lartë të renditjes së një faqe interneti për një term specifik kërkimi. Ky është një proces shumëplanësh që përfshin optimizimin e shpejtësisë së ngarkimit të faqeve, gjenerimin e një strategjie të ndërtimit të lidhjeve, duke përdorur Mjete SEO, si dhe të mësoni se si të ndryshoni inxhinierinë e inteligjencës artificiale të Google duke përdorur të menduarit llogaritës.

Të menduarit kompjuterik është një lloj i avancuar i teknikës së analizës dhe zgjidhjes së problemeve që programuesit kompjuterikë përdorin kur shkruajnë kode dhe algoritme. Mendimtarët kompjuterikë do të kërkojnë të vërtetën bazë duke zbërthyer një problem dhe duke e analizuar atë duke përdorur parimet e para të të menduarit.

Meqenëse Google nuk ia lëshon askujt salcën e tyre sekrete, ne do të mbështetemi në të menduarit llogaritës. Ne do të kalojmë nëpër disa momente kryesore në historinë e Google që formësuan algoritmet që përdoren dhe do të mësojmë pse kjo ka rëndësi.

Si të krijoni një mendje

Ne do të fillojmë me një libër që u botua në 2012, i quajtur "Si të krijoni një mendje: Zbulohet sekreti i mendimit njerëzor” nga futuristi dhe shpikësi i njohur Ray Kurzweil. Ky libër shpërndau trurin e njeriut dhe ndau mënyrat se si funksionon ai. Ne mësojmë nga themeli se si truri stërvit veten duke përdorur njohjen e modeleve për t'u bërë një makinë parashikimi, duke punuar gjithmonë në parashikimin e së ardhmes, madje duke parashikuar fjalën tjetër.

Si i njohin njerëzit modelet në jetën e përditshme? Si krijohen këto lidhje në tru? Libri fillon me të kuptuarit e të menduarit hierarkik, ky është të kuptuarit e një strukture që përbëhet nga elementë të ndryshëm që janë të renditur në një model, ky rregullim më pas përfaqëson një simbol të tillë si një shkronjë ose karakter, dhe më pas kjo rregullohet më tej në një model më të avancuar të tilla si një fjalë, dhe përfundimisht një fjali. Përfundimisht këto modele formojnë ide dhe këto ide shndërrohen në produkte që njerëzit janë përgjegjës për ndërtimin.

Duke emuluar trurin e njeriut, zbulohet një rrugë për krijimin e një AI të avancuar përtej aftësive aktuale të rrjeteve nervore që ishin përreth në kohën e publikimit.

Libri ishte një plan për krijimin e një AI që mund të shkallëzohet duke pastruar të dhënat e botës dhe të përdorë përpunimin e tij të njohjes së modelit me shumë shtresa për të analizuar tekstin, imazhet, audion dhe videon. Një sistem i optimizuar për përmirësim për shkak të përfitimeve të cloud dhe aftësive të tij të përpunimit paralel. Me fjalë të tjera nuk do të kishte maksimum në hyrjen ose daljen e të dhënave.

Ky libër ishte aq i rëndësishëm sa që menjëherë pas botimit të tij autori Ray Kurzweil u punësua nga Google të bëhet Drejtor i Inxhinierisë i fokusuar në mësimin e makinerive dhe përpunimin e gjuhës. Një rol që përputhej në mënyrë të përkryer me librin që kishte shkruar.

Do të ishte e pamundur të mohohej se sa ndikues ishte ky libër në të ardhmen e Google dhe si i renditin ato faqet e internetit. Kjo Libri i AI duhet të jetë lexim i detyrueshëm për këdo që dëshiron të bëhet ekspert SEO.

Deepmind

I lançuar në vitin 2010, DeepMind ishte një startup i ri i nxehtë duke përdorur një lloj të ri revolucionar të algoritmit të AI që po pushtonte botën nga stuhia, i quajtur të mësuarit përforcues. DeepMind e përshkroi atë më së miri si:

“Ne paraqesim modelin e parë të mësimit të thellë për të mësuar me sukses politikat e kontrollit direkt nga inputet ndijore me dimensione të larta duke përdorur të mësuarit përforcues. Modeli është një rrjet nervor konvolucionist, i trajnuar me një variant të mësimit Q, hyrja e të cilit janë pikselë të papërpunuar dhe dalja e të cilit është një funksion vlerash që vlerëson shpërblimet e ardhshme.

Duke bashkuar të mësuarit e thellë me të mësuarit përforcues, ai u bë a të mësuarit përforcues të thellë sistemi. Deri në vitin 2013, DeepMind po përdorte këto algoritme për të grumbulluar fitore kundër lojtarëve njerëzorë në lojërat Atari 2600 – Dhe kjo u arrit duke imituar trurin e njeriut dhe mënyrën se si ai mëson nga stërvitja dhe përsëritja.

Ngjashëm me mënyrën se si një njeri mëson duke përsëritur, nëse është duke shkelmuar një top ose duke luajtur Tetris, AI gjithashtu do të mësonte. Rrjeti nervor i AI gjurmoi performancën dhe do të përmirësohej gradualisht duke rezultuar në një përzgjedhje më të fortë të lëvizjeve në përsëritjen e ardhshme.

DeepMind ishte aq dominues në drejtimin e tij teknologjik sa Google iu desh të blinte akses në teknologji. DeepMind u ble për më shumë se 500 milionë dollarë në 2014.

Pas blerjes, industria e AI dëshmoi përparime të njëpasnjëshme, një lloj që nuk është parë që atëherë 11 maj 1997, kur shahu mjeshtër i madh Garry Kasparov humbi loja e parë e një ndeshje me gjashtë ndeshje kundër Deep Blue, një kompjuter që luan shah, i zhvilluar nga shkencëtarët në IBM. 

Në vitin 2015, DeepMind rafinoi algoritmin për ta testuar atë në grupin prej 49 lojërash të Atari, dhe makina mposhti performancën njerëzore në 23 prej tyre.

Ky ishte vetëm fillimi, më vonë në 2015 DeepMind filloi të fokusohej AlphaGo, një program me synimin e deklaruar për të mposhtur një kampion profesionist Go World. Loja e lashtë Go, e cila u pa për herë të parë në Kinë rreth 4000 vjet më parë, konsiderohet të jetë loja më sfiduese në historinë njerëzore, me potencialin e saj. 10360 lëvizjet e mundshme.

DeepMind përdori mësimin e mbikëqyrur për të trajnuar sistemin AlphaGo duke mësuar nga lojtarët njerëzorë. Menjëherë pas kësaj, DeepMind u bë tituj pas mposhtjes së AlphaGo Lee Sedol, kampion bote, në një ndeshje me pesë ndeshje në mars 2016.

Mos u zgjatni, në tetor 2017, DeepMind lëshoi ​​​​AlphaGo Zero, një model i ri me diferencuesin kryesor që kërkonte zero trajnimi i njeriut. Meqenëse nuk kërkonte trajnim njerëzor, ai gjithashtu nuk kërkonte etiketim të të dhënave, sistemi i përdorur në thelb të mësuarit pa mbikëqyrje. AlphaGo Zero e kaloi me shpejtësi paraardhësin e tij, si përshkruar nga DeepMind.

“Versionet e mëparshme të AlphaGo fillimisht u trajnuan në mijëra lojëra njerëzore amatore dhe profesionale për të mësuar se si të luani Go. AlphaGo Zero e anashkalon këtë hap dhe mëson të luajë thjesht duke luajtur lojëra kundër vetes, duke filluar nga loja krejtësisht e rastësishme. Duke vepruar kështu, ajo shpejt e tejkaloi nivelin njerëzor të lojës dhe e mposhti botuar më parë Versioni i AlphaGo që mundi kampionin me 100 lojëra në 0.”

Ndërkohë, bota e SEO ishte tepër e fokusuar në PageRank, shtylla kurrizore e Google. Fillon në vitin 1995, kur Larry Page dhe Sergey Brin ishin Ph.D. studentë në Universitetin e Stanfordit. Dyshja filloi të bashkëpunonte në një projekt të ri kërkimor me nofkën "backrub“. Qëllimi ishte renditja e faqeve të internetit në një masë të rëndësisë duke konvertuar të dhënat e tyre të lidhjes. Një backlink është thjesht çdo lidhje nga një faqe në tjetrën, e ngjashme me këtë lidhje.

Algoritmi më vonë u riemërua në PageRank, i emërtuar si nga termi "faqe në internet" dhe nga bashkëthemeluesi Larry Page. Larry Page dhe Sergey Brin kishin synimin ambicioz për të ndërtuar një motor kërkimi që mund të fuqizonte të gjithë ueb-in thjesht nga lidhjet e pasme.

Dhe kjo ka funksionuar.

PageRank dominon titujt

Profesionistët e SEO kuptuan menjëherë bazat se si google llogarit një renditje cilësore për një faqe në internet duke përdorur PageRank. Disa sipërmarrës të zgjuar SEO të kapelave të zeza shkuan një hap më tej, duke kuptuar se për të shkallëzuar përmbajtjen, mund të kishte kuptim të blini lidhje në vend që të prisnin për t'i blerë ato në mënyrë organike.

Një ekonomi e re u shfaq rreth backlinks. Pronarët e etur të faqeve të internetit që kishin nevojë të ndikonin në renditjen e motorëve të kërkimit do të blinin lidhje dhe në këmbim të dëshpëruar për të fituar para nga faqet e internetit do t'u shisnin atyre lidhje.

Uebsajtet që blenë lidhje shpesh brenda natës pushtuan Google duke i kaluar markat e njohura.

Renditja duke përdorur këtë metodë funksionoi me të vërtetë mirë për një kohë të gjatë - Derisa pushoi së funksionuari, ndoshta në të njëjtën kohë filloi mësimi i makinës dhe zgjidhi problemin themelor. Me prezantimin e të mësuarit me përforcim të thellë, PageRank do të bëhej një variabël renditjeje, jo faktori dominues.

Deri tani komuniteti SEO është i ndarë në blerjen e lidhjeve si një strategji. Unë personalisht besoj se blerja e lidhjeve ofron rezultate nën-optimale dhe se metodat më të mira për të marrë lidhjet e pasme bazohen në variabla që janë specifike për industrinë. Një shërbim legjitim që unë mund të rekomandoj quhet Haro (Ndihmoni një reporter të dalë). Mundësia në HARO është të përvetësoni backlinks duke përmbushur kërkesat e medias.

Markat e themeluara nuk u desh të shqetësoheshin kurrë për lidhjet ndihmuese, pasi ato kishin përfitimet e kohës duke punuar në favor të tyre. Sa më i vjetër të jetë një uebsajt, aq më shumë kohë i është dashur për të mbledhur lidhje me cilësi të lartë. Me fjalë të tjera, renditja e një motori kërkimi varej shumë nga mosha e një faqe interneti, nëse llogaritni duke përdorur metrikën kohë = backlinks.

Për shembull, CNN natyrisht do të merrte backlinks për një artikull lajmesh për shkak të markës së tij, besimit të tij dhe për shkak se ishte renditur lart në fillim - Pra, natyrisht, fitoi më shumë lidhje prapa nga njerëzit që hulumtonin një artikull dhe lidheshin me rezultatin e parë të kërkimit që gjetën. .

Do të thotë që faqet e internetit të renditura më të larta morën organikisht më shumë lidhje prapa. Fatkeqësisht, kjo do të thoshte se faqet e reja të internetit shpesh detyroheshin të abuzonin me algoritmin e lidhjes së pasme duke iu drejtuar një tregu të lidhjeve.

Në fillim të viteve 2000, blerja e lidhjeve kthyese funksiononte jashtëzakonisht mirë dhe ishte një proces i thjeshtë. Blerësit e lidhjeve blenë lidhje nga faqet e internetit me autoritet të lartë, shpesh lidhje me fundin e faqes në të gjithë faqen, ose ndoshta në bazë të artikullit (shpesh të maskuar si një postim i ftuar), dhe shitësit të dëshpëruar për të fituar para nga faqet e tyre të internetit ishin të lumtur t'i detyronin - Fatkeqësisht, shpesh në sakrificën e cilësisë.

Përfundimisht grupi i talenteve të Google të inxhinierëve të mësimit të makinerive e kuptoi se kodimi i rezultateve të motorit të kërkimit me dorë ishte i kotë dhe një shumë e PageRank ishte kodim i shkruar me dorë. Në vend të kësaj, ata e kuptuan se AI përfundimisht do të bëhej përgjegjës për llogaritjen e plotë të renditjes pa ndërhyrje njerëzore.

Për të qëndruar konkurrues, Google përdor çdo mjet në arsenalin e tij dhe kjo përfshin të mësuarit përforcues të thellë – Lloji më i avancuar i algoritmit të mësimit të makinerive në botë.

Ky sistem shtresohet në krye të Blerja e MetaWeb nga Google ishte një ndryshim i lojës. Arsyeja pse blerja e MetaWeb në vitin 2010 ishte kaq e rëndësishme është se uli peshën që Google vendosi në fjalë kyçe. Konteksti ishte papritmas i rëndësishëm, kjo u arrit duke përdorur një metodologji kategorizimi të quajtur 'entitete'. Si Kompania e shpejtë e përshkruar:

Pasi Metaweb të kuptojë se cilit entitet i referoheni, ai mund të sigurojë një sërë rezultatesh. Ai madje mund të kombinojë entitete për kërkime më komplekse - "aktoret mbi 40 vjeç" mund të jenë një entitet, "aktoret që jetojnë në New York City" mund të jenë një tjetër dhe "aktoret me një film që po luhet aktualisht" mund të jetë një tjetër. “.

Kjo teknologji u fut në një përditësim të madh të algoritmit të quajtur RankBrain që u lançua në pranverën e 2015. RankBrain u fokusua në kuptimin e kontekstit kundrejt të qenit i bazuar thjesht në fjalë kyçe, dhe RankBrain do të merrte gjithashtu në konsideratë kontekstet mjedisore (p.sh. vendndodhjen e kërkuesit) dhe do të ekstrapolonte kuptimin aty ku nuk kishte pasur më parë. Ky ishte një përditësim i rëndësishëm veçanërisht për përdoruesit e celularëve.

Tani që kuptojmë se si Google i përdor këto teknologji, le të përdorim teorinë llogaritëse për të spekuluar se si është bërë.

Çfarë është mësimi i thellë?

Mësim i thellë është lloji më i përdorur i mësimit të makinerive – Do të ishte e pamundur që Google të mos e përdorte këtë algoritëm.

Të mësuarit e thellë ndikohet ndjeshëm nga mënyra se si funksionon truri i njeriut dhe ai përpiqet të pasqyrojë sjelljen e trurit në mënyrën se si ai përdor njohjen e modelit për të identifikuar dhe kategorizuar objektet.

Për shembull, nëse shihni letrën a, truri juaj i njeh automatikisht linjat dhe format për ta identifikuar më pas si shkronjë a. E njëjta gjë zbatohet edhe nga shkronjat ap, truri juaj automatikisht përpiqet të parashikojë të ardhmen duke dalë me fjalë të mundshme si p.sh app or mollë. Modele të tjera mund të përfshijnë numra, shenja rrugore ose identifikimin e një të dashur në një aeroport të mbushur me njerëz.

Ju mund të mendoni se ndërlidhjet në një sistem të të mësuarit të thellë janë të ngjashme me mënyrën se si funksionon truri i njeriut me lidhjen e neuroneve dhe sinapseve.

Mësimi i thellë është në fund të fundit termi që u jepet arkitekturave të mësimit të makinerive që bashkojnë shumë perceptron me shumë shtresa së bashku, në mënyrë që të mos ketë vetëm një shtresë të fshehur, por shumë shtresa të fshehura. Sa më "i thellë" të jetë rrjeti nervor i thellë, aq më të sofistikuara mund të mësojë rrjeti.

Rrjetet e lidhura plotësisht mund të kombinohen me funksione të tjera të mësimit të makinerive për të krijuar arkitektura të ndryshme të të mësuarit të thellë.

Si e përdor Google mësimin e thellë

Google merimangë faqet e internetit të botës duke ndjekur hiperlidhjet (mendoni neuronet) që lidhin faqet e internetit me njëri-tjetrin. Kjo ishte metodologjia origjinale që Google përdori që nga dita e parë dhe është ende në përdorim. Pasi faqet e internetit të indeksohen, përdoren lloje të ndryshme të AI për të analizuar këtë thesar të dhënash.

Sistemi i Google i etiketon faqet e internetit sipas metrikave të ndryshme të brendshme, vetëm me kontribut ose ndërhyrje të vogla njerëzore. Një shembull i një ndërhyrjeje do të ishte heqja manuale e një URL specifike për shkak të a Kërkesë për heqje DMCA.

Inxhinierët e Google janë të njohur për acarimin e të pranishmëve në Konferenca SEO, dhe kjo për shkak se drejtuesit e Google nuk mund të artikulojnë kurrë siç duhet se si funksionon Google. Kur bëhen pyetje se përse disa faqe interneti dështojnë të renditen, është pothuajse gjithmonë e njëjta përgjigje e artikuluar dobët. Përgjigja është aq e shpeshtë saqë shpesh të pranishmit deklarojnë paraprakisht se janë zotuar të krijojnë përmbajtje të mirë për muaj apo edhe vite në fund pa rezultate pozitive.

Në mënyrë të parashikueshme, pronarët e faqeve të internetit udhëzohen të përqëndrohen në ndërtimin e përmbajtjes së vlefshme – Një komponent i rëndësishëm, por larg nga të qenit gjithëpërfshirës.

Kjo mungesë përgjigjeje është për shkak se drejtuesit nuk janë në gjendje t'i përgjigjen siç duhet pyetjes. Algoritmi i Google funksionon në një kuti të zezë. Ka të dhëna dhe më pas dalje – dhe kjo është mënyra se si funksionon mësimi i thellë.

Le të kthehemi tani te një penalitet i renditjes që po ndikon negativisht në miliona faqe interneti shpesh pa dijeninë e pronarit të faqes.

PageSpeed ​​Vështrime

Google nuk është shpesh transparent, PageSpeed ​​Insights është përjashtim. Faqet e internetit që dështojnë në këtë test të shpejtësisë do të dërgohen në një kuti ndëshkimi për ngarkimin e ngadaltë – Sidomos nëse preken përdoruesit e celularëve.

Ajo që dyshohet është se në një moment të procesit ka një pemë vendimi që analizon faqet e internetit të shpejta, kundrejt faqeve të internetit me ngarkim të ngadaltë (PageSpeed ​​Insights dështoi). Një pemë vendimi është në thelb një qasje algoritmike e cila ndan grupin e të dhënave në pika individuale të të dhënave bazuar në kritere të ndryshme. Kriteret mund të jenë të ndikojë negativisht në atë se sa lart renditet një faqe për përdoruesit e celularëve kundrejt desktopit.

Hipotetikisht një penallti mund të zbatohej për rezultatin e renditjes natyrore. Për shembull, një faqe interneti që pa penalitet do të renditej në #5 mund të ketë një -20, -50, ose ndonjë variabël tjetër të panjohur që do ta zvogëlojë renditjen në #25, #55, ose një numër tjetër të përzgjedhur nga AI.

Në të ardhmen mund të shohim fundin e PageSpeed ​​Insights, kur Google të bëhet më i sigurt në AI. Kjo ndërhyrje aktuale mbi shpejtësinë nga Google është e rrezikshme pasi mund të eliminojë potencialisht rezultatet që do të kishin qenë optimale dhe diskriminon ata që janë më pak të ditur në teknologji.

Është një kërkesë e madhe të kërkosh që të gjithë ata që drejtojnë një biznes të vogël të kenë ekspertizën për të diagnostikuar dhe korrigjuar me sukses problemet e testit të shpejtësisë. Një zgjidhje e thjeshtë do të ishte që Google të lëshonte thjesht një shtojcë për optimizimin e shpejtësisë për përdoruesit e wordpress, si fuqitë e wordpress 43% të internetit.

Fatkeqësisht, të gjitha përpjekjet për SEO janë të kota nëse një faqe interneti nuk kalon Insights për shpejtësinë e faqes së Google. Aksionet nuk janë asgjë më pak se një faqe interneti që zhduket nga Google.

Si ta kaloni këtë test është një artikull për një herë tjetër, por së paku duhet të verifikoni nëse jeni kalimet e faqes në internet.

Një tjetër metrikë e rëndësishme teknike për t'u shqetësuar është një protokoll sigurie i quajtur SSL (Secure Sockets Layer). Kjo ndryshon URL-në e një domeni nga http në https dhe siguron transmetimin e sigurt të të dhënave. Çdo faqe interneti që nuk ka të aktivizuar SSL do të penalizohet. Ndërsa ka disa përjashtime nga ky rregull, faqet e internetit të tregtisë elektronike dhe financiare do të ndikohen më së shumti.

Uebhostët me kosto të ulët ngarkojnë një tarifë vjetore për zbatimin e SSL, ndërkohë hostet e mirë të internetit si p.sh. Siteground lëshoni certifikata SSL falas dhe integroni ato automatikisht.

Të dhënat Meta

Një tjetër element i rëndësishëm në faqen e internetit është Titulli Meta dhe përshkrimi Meta. Këto fusha të përmbajtjes kanë një renditje të madhe rëndësie që mund të kontribuojë në suksesin ose dështimin e një faqeje sa e gjithë përmbajtja e asaj faqeje.

Kjo për shkak se Google ka një probabilitet të lartë për të zgjedhur titullin Meta dhe përshkrimin Meta për t'i shfaqur në rezultatet e kërkimit. Dhe kjo është arsyeja pse është e rëndësishme të plotësoni titullin meta dhe fushën e përshkrimit të meta me sa më shumë kujdes.

Alternativa është që Google mund të zgjedhë të injorojë titullin meta dhe përshkrimin meta për të gjeneruar automatikisht të dhëna që parashikon se do të rezultojnë në më shumë klikime. Nëse Google parashikon keq se çfarë titulli do të gjenerojë automatikisht, kjo do të kontribuojë në më pak klikime nga kërkuesit dhe rrjedhimisht kjo kontribuon në humbjen e renditjes së motorëve të kërkimit.

Nëse Google beson se përshkrimi meta i përfshirë është optimizuar për të marrë klikime, ai do ta shfaqë atë në rezultatet e kërkimit. Nëse kjo dështon, Google rrëmben një pjesë të rastësishme të tekstit nga faqja e internetit. Shpesh Google zgjedh tekstin më të mirë në faqe, problemi është ky është sistemi i lotarisë dhe Google është vazhdimisht i keq në zgjedhjen e përshkrimit të përzgjedhur.

Sigurisht, nëse besoni se përmbajtja në faqen tuaj është vërtet e mirë, ndonjëherë ka kuptim të lejoni Google të zgjedhë përshkrimin e optimizuar meta që përputhet më mirë me pyetjen e përdoruesit. Ne nuk do të zgjedhim asnjë përshkrim meta për këtë artikull pasi është i pasur me përmbajtje dhe Google ka të ngjarë të zgjedhë një përshkrim të mirë.

Ndërkohë, miliarda njerëz po klikojnë në rezultatet më të mira të kërkimit - kjo është njeri-në-lak, mekanizmi i fundit i reagimit të Google – Dhe këtu fillon mësimi përforcues.

Çfarë është të mësuarit përforcues?

Të mësuarit e përforcimit është një teknikë e të mësuarit të makinerive që përfshin trajnimin e një agjenti të AI përmes përsëritjes së veprimeve dhe shpërblimeve të lidhura. Një agjent mësimor përforcues eksperimenton në një mjedis, duke ndërmarrë veprime dhe duke u shpërblyer kur ndërmerren veprimet e duhura. Me kalimin e kohës, agjenti mëson të ndërmarrë veprime që do të maksimizojnë shpërblimin e tij.

Shpërblimi mund të bazohet në një llogaritje të thjeshtë që llogarit sasinë e kohës së shpenzuar në një faqe të rekomanduar.

Nëse e kombinoni këtë metodologji me një nën-rutinë Human-in-the-loop, kjo do të tingëllonte tmerrësisht shumë si motorët ekzistues rekomandues që kontrollojnë të gjitha aspektet e jetës sonë dixhitale si YouTube, Netflix, Amazon Prime - Dhe nëse tingëllon si një motor kërkimi duhet të funksionojë ju jeni të saktë.

Si e përdor Google të mësuarit përforcues

Flywheel Google përmirësohet me çdo kërkim, njerëzit trajnojnë AI duke zgjedhur rezultatin më të mirë që i përgjigjet më mirë pyetjes së tyre dhe pyetjes së ngjashme të miliona përdoruesve të tjerë.

Agjenti përforcues i të mësuarit punon vazhdimisht në vetë-përmirësimin duke përforcuar vetëm ndërveprimet më pozitive midis kërkimit dhe rezultatit të kërkimit të ofruar.

Google mat sasinë e kohës që i duhet një përdoruesi për të skanuar faqen e rezultateve, URL-në në të cilën klikon dhe matin sasinë e kohës së kaluar në faqen e vizituar të internetit dhe regjistron klikimin e kthimit. Këto të dhëna më pas përpilohen dhe krahasohen për çdo faqe interneti që ofron një përputhje të ngjashme të të dhënave ose përvojë të përdoruesit.

Një faqe interneti me një normë të ulët mbajtjeje (koha e shpenzuar në vend), ushqehet më pas nga sistemi i të mësuarit përforcues një vlerë negative dhe faqet e tjera të internetit konkurruese testohen për të përmirësuar renditjen e ofruar. Google është i paanshëm, duke supozuar se nuk ka ndërhyrje manuale, Google përfundimisht ofron faqen e dëshiruar të rezultateve të kërkimit.

Përdoruesit janë njerëzit që sigurojnë Google me të dhëna falas dhe bëhen komponenti përfundimtar i sistemit të mësimit të përforcimit të thellë. Në këmbim të këtij shërbimi, Google i ofron përdoruesit fundor një mundësi për të klikuar në një reklamë.

Reklamat jashtë gjenerimit të të ardhurave shërbejnë si një faktor dytësor renditjeje, duke shpërndarë më shumë të dhëna rreth asaj që e bën një përdorues të dëshirojë të klikojë.

Google në thelb mëson se çfarë dëshiron një përdorues. Kjo mund të krahasohet lirshëm me një motor rekomandues nga një shërbim transmetimi video. Në atë rast, një motor rekomandues do të ushqente një përmbajtje përdoruesi që synon interesat e tyre. Për shembull, një përdorues që zakonisht shijon një rrymë komedish romantike mund të shijojë disa parodi nëse ndajnë të njëjtët komedianët.

Si e ndihmon kjo SEO?

Nëse vazhdojmë me të menduarit llogaritës, mund të supozojmë se Google e ka trajnuar veten për të dhënë rezultatet më të mira, dhe kjo shpesh arrihet duke përgjithësuar dhe kënaqur paragjykimet njerëzore. Në fakt do të ishte e pamundur që AI i Google të mos optimizonte rezultatet që u përgjigjen këtyre paragjykimeve, nëse do të bënte, rezultatet do të ishin nën optimale.

Me fjalë të tjera nuk ka formulë magjike, por ka disa praktika më të mira.

Është përgjegjësi e praktikuesit të SEO të njohë paragjykimet që kërkon Google që janë specifike për industrinë e tyre – dhe të ushqehet me ato paragjykime. Për shembull, dikush që kërkon rezultatet e sondazheve zgjedhore pa specifikuar një datë, ka shumë të ngjarë të kërkojë rezultatet më të fundit - ky është një paragjykim i kohëve të fundit. Dikush që kërkon një recetë, me shumë mundësi nuk ka nevojë për faqen më të fundit dhe në fakt mund të preferojë një recetë që i ka rezistuar provës së kohës.

Është përgjegjësi e praktikuesit të SEO që t'u ofrojë vizitorëve rezultatet që ata kërkojnë. Kjo është mënyra më e qëndrueshme e renditjes në Google.

Pronarët e faqeve të internetit duhet të braktisin shënjestrimin e një fjale kyçe specifike me shpresën se ata mund t'i japin përdoruesit fundor gjithçka që duan. Rezultati i kërkimit duhet të përputhet saktësisht me nevojën e përdoruesit.

Çfarë është një paragjykim? Mund të jetë të kesh një emër domaini që duket me autoritet të lartë, me fjalë të tjera a përputhet emri i domenit me tregun që po i shërben? Të kesh një emër domaini me fjalën India në të mund t'i dekurajojë përdoruesit e SHBA-së që të klikojnë në URL, për shkak të një paragjykimi nacionalist për të besuar rezultatet që kanë origjinën nga vendi i banimit të një përdoruesi. Të kesh një domen me një fjalë mund të japë gjithashtu iluzionin e autoritetit.

Paragjykimi më i rëndësishëm është se çfarë dëshiron një përdorues të përputhet me pyetjen e tij të kërkimit? A është një FAQ, një listë e top 10-ve, një postim në blog? Kjo duhet të përgjigjet, dhe përgjigja është e lehtë për t'u gjetur. Thjesht duhet të analizoni konkurrencën duke kryer një kërkim në Google në tregun tuaj të synuar.

Black Hat SEO ka vdekur

Krahasoni këtë me Black Hat SEO, një metodë agresive e renditjes së faqeve të internetit që shfrytëzon teknikat e dredha të SPAM-it, duke përfshirë blerjen e lidhjeve të pasme, falsifikimin e lidhjeve prapa, hakimin e faqeve të internetit, gjenerimin automatik të faqeshënuesve socialë në shkallë, dhe metodologji të tjera të errëta që aplikohen nëpërmjet një rrjeti mjetesh të kapelave të zeza. .

Mjete që shpesh ripërdoren dhe rishiten në forume të ndryshme të marketingut të motorëve të kërkimit, produkte pa vlerë dhe pak shanse për të pasur sukses. Për momentin, këto mjete u mundësojnë shitësve të bëhen të pasur ndërkohë që ofrojnë vlerë minimale për përdoruesin përfundimtar.

Kjo është arsyeja pse unë rekomandoj të braktisni Kapelën e Zezë. Fokusoni SEO-në tuaj në shikimin e tij nga lentet e mësimit të makinerive. Është e rëndësishme të kuptohet se sa herë që dikush anashkalon një rezultat kërkimi për të klikuar mbi një rezultat të varrosur poshtë, është njeriu-in-the-loop që bashkëpunon me sistemin e të mësuarit të përforcimit të thellë. Njeriu po e ndihmon AI me vetë-përmirësimin, duke u bërë pafundësisht më i mirë me kalimin e kohës.

Ky është një algoritëm i mësimit të makinës që është trajnuar nga më shumë përdorues se çdo sistem tjetër në historinë njerëzore.

Google trajton mesatarisht 3.8 milionë kërkime në minutë në të gjithë globin. Kjo rezulton në 228 milionë kërkime në orë, 5.6 miliard kërkime në ditë. Këto janë shumë të dhëna, dhe kjo është arsyeja pse është marrëzi të provosh SEO të kapelës së zezë. Të supozosh se AI i Google do të mbetet i ndenjur është marrëzi, sistemi po përdor Ligji i Kthimeve të Përshpejtuara për t'u vetëpërmirësuar në mënyrë eksponenciale.

Inteligjenca artificiale e Google po bëhet aq e fuqishme saqë mund të imagjinohet që përfundimisht mund të bëhet AI i parë që arrin Inteligjenca e Përgjithshme Artificiale (AGI). Një AGI është një inteligjencë që mund të përdoret transferimi i të mësuarit për të zotëruar një fushë për të aplikuar më pas atë inteligjencë të mësuar në fusha të shumta. Ndërsa mund të jetë interesante të eksplorohen përpjekjet e ardhshme të AGI të Google, duhet të kuptohet se pasi procesi është në lëvizje, është e vështirë të ndalet. Kjo sigurisht është spekulim drejt së ardhmes pasi Google aktualisht është një lloj AI i ngushtë, por kjo është një temë për një artikull tjetër.

Të dish këtë shpenzim të një sekonde më shumë për kapelën e zezë është një detyrë budallai.

SEO e White Hat

Nëse pranojmë se inteligjenca artificiale e Google do të përmirësohet vazhdimisht, atëherë nuk na mbetet gjë tjetër veçse të heqim dorë nga përpjekjet për të mposhtur Google. Në vend të kësaj, përqendrohuni në optimizimin e një faqe interneti për t'i ofruar Google në mënyrë optimale atë që kërkon.

Siç përshkruhet, kjo përfshin aktivizimin e SSL, optimizimin e shpejtësisë së ngarkimit të faqeve dhe optimizimin e Titullit të Meta dhe Përshkrimit të Meta. Për të optimizuar këto fusha, Titulli i Meta dhe Përshkrimi i Meta duhet të krahasohen me faqet e internetit konkurruese – Identifikoni elementët fitues që rezultojnë në një shkallë të lartë të klikimeve.

Nëse keni optimizuar duke u klikuar, momenti historik tjetër është krijimi i faqes më të mirë të uljes. Qëllimi është një faqe uljeje që optimizon vlerën e përdoruesit aq shumë sa koha mesatare e shpenzuar në faqe tejkalon konkurrentët e ngjashëm që po konkurrojnë për rezultatet më të mira të motorit të kërkimit.

Vetëm duke ofruar përvojën më të mirë të përdoruesit, një faqe ueb mund të rritet në renditje.

Deri më tani ne kemi identifikuar këto metrika si më të rëndësishmet:

  • Shpejtësia e ngarkimit
  • SSL i aktivizuar
  • Titulli Meta dhe Përshkrimi Meta
  • Landing Page

Faqja e uljes është elementi më i vështirë pasi jeni duke konkurruar kundër botës. Faqja e uljes duhet të ngarkohet shpejt dhe duhet të shërbejë gjithçka që pritet, dhe më pas të befasojë përdoruesin me më shumë.

Mendime përfundimtare

Do të ishte e lehtë të plotësosh edhe 2000 fjalë të tjera që përshkruajnë teknologji të tjera të AI që përdor Google, si dhe të gërmosh më thellë në vrimën e lepurit të SEO. Qëllimi këtu është të ripërqendrohet vëmendja në metrikat më të rëndësishme.

Ndarësit e SEO janë aq të fokusuar në lojërat e sistemit sa harrojnë se në fund të fundit, elementi më i rëndësishëm i SEO është t'u japë përdoruesve sa më shumë vlerë që të jetë e mundur.

Një mënyrë për ta arritur këtë është duke mos lejuar kurrë që përmbajtjet e rëndësishme të bëhen të vjetruara. Nëse brenda një muaji mendoj për një kontribut të rëndësishëm, ai do t'i shtohet këtij artikulli. Më pas Google mund të identifikojë se sa e freskët është përmbajtja, e përputhur me historinë e vlerës së dhënë të faqes.

Nëse jeni ende i shqetësuar për blerjen e lidhjeve, zgjidhja është e thjeshtë. Respektoni kohën e vizitorëve tuaj dhe jepini vlerë. Lidhjet e pasme do të vijnë natyrshëm, pasi përdoruesit do të gjejnë vlerë në ndarjen e përmbajtjes suaj.

Pyetja më pas kalon te pronari i faqes së internetit se si të sigurojë vlerën më të mirë të përdoruesit dhe përvojën e përdoruesit.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.