stub Optymalizacja SEO: jak działa sztuczna inteligencja Google (maj 2024)
Kontakt z nami

Search Engine Optimization

Optymalizacja SEO: jak działa sztuczna inteligencja Google (maj 2024)

mm
Zaktualizowano on

Optymalizacja wyszukiwarek (SEO) to proces optymalizacji czynników znajdujących się na stronie i poza nią, które wpływają na wysoką pozycję strony internetowej dla określonego wyszukiwanego hasła. Jest to proces wieloaspektowy, który obejmuje optymalizację szybkości ładowania strony, wygenerowanie strategii budowania linków, wykorzystanie Narzędzia SEO, a także ucząc się, jak przeprowadzić inżynierię wsteczną sztucznej inteligencji Google za pomocą myślenie obliczeniowe.

Myślenie obliczeniowe to zaawansowany rodzaj analizy i techniki rozwiązywania problemów, z którego korzystają programiści komputerowi podczas pisania kodu i algorytmów. Osoby myślące obliczeniowo będą poszukiwać podstawowej prawdy, rozbijając problem i analizując go, stosując myślenie oparte na pierwszych zasadach.

Ponieważ Google nie zdradza nikomu swojego sekretnego sosu, będziemy polegać na myśleniu obliczeniowym. Przeanalizujemy kluczowe momenty w historii Google, które ukształtowały wykorzystywane algorytmy i dowiemy się, dlaczego jest to istotne.

Jak stworzyć umysł

Zaczniemy od wydanej w 2012 roku książki pt.Jak stworzyć umysł: ujawniono sekret ludzkiej myśli” autorstwa znanego futurysty i wynalazcy Raya Kurzweila. W tej książce dokonano szczegółowej analizy ludzkiego mózgu i sposobu, w jaki on działa. Uczymy się od podstaw, jak mózg trenuje się, korzystając z rozpoznawania wzorców, aby stać się maszyną prognostyczną, zawsze pracującą nad przewidywaniem przyszłości, a nawet przewidywaniem następnego słowa.

Jak ludzie rozpoznają wzorce w życiu codziennym? Jak powstają te połączenia w mózgu? Książka zaczyna się od zrozumienia myślenia hierarchicznego, czyli zrozumienia struktury składającej się z różnorodnych elementów ułożonych we wzór, następnie to ułożenie reprezentuje symbol, taki jak litera lub znak, a następnie jest to dalej układane w bardziej zaawansowany wzór takie jak słowo i ostatecznie zdanie. Ostatecznie te wzorce tworzą pomysły, które przekształcają się w produkty, za budowanie których odpowiedzialni są ludzie.

Odkryto, że emulacja ludzkiego mózgu umożliwia stworzenie zaawansowanej sztucznej inteligencji wykraczającej poza obecne możliwości sieci neuronowych istniejących w momencie publikacji.

Książka była planem stworzenia sztucznej inteligencji, która może być skalowana poprzez odkurzanie danych z całego świata i wykorzystywać wielowarstwowe przetwarzanie rozpoznawania wzorców do analizowania tekstu, obrazów, dźwięku i wideo. System zoptymalizowany pod kątem skalowania ze względu na zalety chmury i możliwości przetwarzania równoległego. Innymi słowy, nie byłoby maksimum danych wejściowych i wyjściowych.

Książka ta była tak kluczowa, że ​​wkrótce po jej opublikowaniu autor Ray Kurzweil został zatrudniony przez Google zostać dyrektorem ds. inżynierii zajmującym się uczeniem maszynowym i przetwarzaniem języków. Rola idealnie pasująca do napisanej przez niego książki.

Nie można zaprzeczyć, jak wpływowa ta książka miała na przyszłość Google i sposób, w jaki pozycjonuje strony internetowe. Ten Książka AI powinna być lekturą obowiązkową dla każdego, kto chce zostać ekspertem SEO.

DeepMind

Uruchomiony w 2010 roku DeepMind był nowym, gorącym start-upem wykorzystującym nowy, rewolucyjny algorytm sztucznej inteligencji, który szturmem podbił świat. Nazywało się to uczeniem przez wzmacnianie. DeepMind opisał to najlepiej jako:

„Prezentujemy pierwszy model głębokiego uczenia się, który skutecznie uczy się zasad kontroli bezpośrednio na podstawie wielowymiarowych danych sensorycznych za pomocą uczenia się przez wzmacnianie. Model to splotowa sieć neuronowa, trenowana za pomocą wariantu Q-learningu, której danymi wejściowymi są surowe piksele, a wynikiem jest funkcja wartości szacująca przyszłe nagrody.

Łącząc głębokie uczenie się z uczeniem się przez wzmacnianie, stało się to: nauka głębokiego wzmacniania system. Do 2013 roku firma DeepMind korzystała z tych algorytmów, aby odnosić zwycięstwa z ludzkimi graczami w grach na Atari 2600. Osiągnięto to poprzez naśladowanie ludzkiego mózgu oraz sposobu, w jaki uczy się on podczas treningów i powtórzeń.

Podobnie jak człowiek uczy się poprzez powtarzanie, niezależnie od tego, czy kopie piłkę, czy gra w Tetris, sztuczna inteligencja również będzie się uczyć. Sieć neuronowa sztucznej inteligencji śledziła wydajność i stopniowo się poprawiała, co skutkowało silniejszym wyborem ruchów w następnej iteracji.

DeepMind był tak dominujący na swojej pozycji technologicznej, że Google musiał wykupić dostęp do tej technologii. Przejęcie DeepMind za ponad 500 milionów dolarów w 2014 roku.

Po przejęciu w branży sztucznej inteligencji doszło do kolejnych przełomów, jakich od tamtej pory nie widziano 11 maja 1997 r., kiedy szachy Arcymistrz Garri Kasparow przegrał pierwsza partia meczu składającego się z sześciu partii przeciwko Deep Blue, komputerowi do gry w szachy opracowanemu przez naukowców z IBM. 

W 2015 roku DeepMind udoskonalił algorytm, aby przetestować go na zestawie 49 gier Atari, a w 23 z nich maszyna pobiła ludzkie możliwości.

To był dopiero początek, pod koniec 2015 roku DeepMind zaczął się skupiać AlphaGo, program, którego zamierzonym celem jest pokonanie zawodowego mistrza świata w go. Starożytna gra Go, którą po raz pierwszy zaobserwowano w Chinach około 4000 lat temu, uważana jest za najtrudniejszą grę w historii ludzkości, ze względu na jej potencjał 10360 możliwe ruchy.

DeepMind wykorzystał uczenie nadzorowane do szkolenia systemu AlphaGo, ucząc się od ludzkich graczy. Niedługo potem DeepMind trafił na pierwsze strony gazet po pokonaniu AlphaGo Lee Sedolmistrza świata w meczu składającym się z pięciu meczów w marcu 2016 r.

Nie daj się prześcignąć, w październiku 2017 DeepMind wypuścił AlphaGo Zero, nowy model z kluczowym wyróżnikiem, który wymagał zera szkolenie człowieka. Ponieważ nie wymagał szkolenia ludzi, nie wymagał również etykietowania danych, co było zasadniczo stosowanym systemem uczenie się bez nadzoru. AlphaGo Zero błyskawicznie prześcignął swojego poprzednika, gdyż opisane przez DeepMind.

„Poprzednie wersje AlphaGo początkowo trenowały na tysiącach amatorskich i profesjonalnych gier prowadzonych przez ludzi, aby nauczyć się grać w Go. AlphaGo Zero pomija ten krok i uczy się grać po prostu grając przeciwko sobie, zaczynając od całkowicie losowej rozgrywki. W ten sposób szybko przekroczył ludzki poziom gry i pokonał wcześniej opublikowane pokonująca mistrzów wersja AlphaGo o 100 gier do 0.”

W międzyczasie świat SEO był bardzo skupiony na PageRank, kręgosłupie Google. Zaczęło się w 1995 r., kiedy Larry Page i Sergey Brin uzyskali stopień doktora. studenci Uniwersytetu Stanforda. Duet rozpoczął współpracę nad nowatorskim projektem badawczym o nazwie „BackRub”. Celem było uszeregowanie stron internetowych pod kątem ważności poprzez konwersję danych o linkach zwrotnych. Link zwrotny to po prostu dowolny link prowadzący z jednej strony do drugiej, podobny do tego link.

Algorytm został później przemianowany na PageRank, nazwany zarówno na cześć terminu „strona internetowa”, jak i współzałożyciela Larry'ego Page'a. Larry Page i Sergey Brin mieli ambitny cel zbudowania wyszukiwarki, która mogłaby zasilać całą sieć wyłącznie za pomocą linków zwrotnych.

I zadziałało.

PageRank dominuje na pierwszych stronach gazet

Specjaliści SEO natychmiast zrozumieli podstawy sposobu, w jaki Google oblicza ranking jakości strony internetowej za pomocą PageRank. Niektórzy przedsiębiorcy zajmujący się SEO typu black hat w firmie Savvy poszli o krok dalej, rozumiejąc, że w celu skalowania treści sensowne może być kupowanie linków zamiast czekać na ich organiczne pozyskanie.

Nowa gospodarka pojawiła się wokół linków zwrotnych. Chętni właściciele witryn, którzy musieli wpłynąć na rankingi wyszukiwarek, kupowali linki, a w zamian desperacko chcący zarabiać na witrynach internetowych, sprzedawali im linki.

Strony internetowe, które zakupiły linki, często z dnia na dzień atakowały Google, wyprzedzając uznane marki.

Ranking przy użyciu tej metody działał naprawdę dobrze przez długi czas – dopóki nie przestał działać, prawdopodobnie mniej więcej w tym samym czasie włączyło się uczenie maszynowe i rozwiązało podstawowy problem. Wraz z wprowadzeniem głębokiego uczenia się przez wzmacnianie PageRank stanie się zmienną rankingową, a nie czynnikiem dominującym.

Do tej pory społeczność SEO jest podzielona co do strategii kupowania linków. Osobiście uważam, że kupowanie linków daje nieoptymalne rezultaty i że najlepsze metody pozyskiwania linków zwrotnych opierają się na zmiennych specyficznych dla branży. Jedna z legalnych usług, którą mogę polecić, nazywa się HARO (Pomóż reporterowi). Szansą w HARO jest pozyskiwanie linków zwrotnych poprzez realizację żądań mediów.

Uznane marki nigdy nie musiały się martwić o pozyskiwanie linków, ponieważ korzystały z czasu, który działał na ich korzyść. Im starsza witryna, tym więcej czasu potrzebowała na zebranie wysokiej jakości linków zwrotnych. Innymi słowy, ranking w wyszukiwarkach był w dużym stopniu zależny od wieku witryny internetowej, jeśli obliczysz ją za pomocą tego wskaźnika czas = linki zwrotne.

Na przykład CNN w naturalny sposób otrzyma linki zwrotne do artykułu informacyjnego ze względu na swoją markę, zaufanie i fakt, że na początku znajdował się wysoko na liście. Naturalnie więc zyskało więcej linków zwrotnych od osób szukających artykułu i linkujących do pierwszego znalezionego wyniku wyszukiwania .

Oznacza to, że strony internetowe o wyższej pozycji w rankingu otrzymały organicznie więcej linków zwrotnych. Niestety oznaczało to, że nowe strony internetowe często zmuszone były nadużywać algorytmu linków zwrotnych, zwracając się do rynku linków zwrotnych.

Na początku XXI wieku kupowanie linków zwrotnych działało wyjątkowo dobrze i było prostym procesem. Kupujący linki kupowali linki z witryn o dużym autorytecie, często linki w stopce całej witryny lub być może na podstawie poszczególnych artykułów (często pod przykrywką wpisu gościa), a sprzedawcy desperacko chcący zarabiać na swoich witrynach internetowych chętnie się do tego zobowiązali – niestety często kosztem jakość.

W końcu zespół talentów Google, składający się z inżynierów zajmujących się uczeniem maszynowym, zrozumiał, że ręczne kodowanie wyników wyszukiwania jest daremne i duża część PageRank została napisana ręcznie. Zamiast tego zrozumieli, że sztuczna inteligencja w końcu stanie się odpowiedzialna za pełne obliczenie rankingów przy zerowej lub niewielkiej ingerencji człowieka.

Aby zachować konkurencyjność, Google korzysta z każdego narzędzia ze swojego arsenału, w tym m.in nauka głębokiego wzmacniania – Najbardziej zaawansowany rodzaj algorytmu uczenia maszynowego na świecie.

Ten system jest nałożony na siebie Przejęcie MetaWeb przez Google był przełomem. Powodem, dla którego przejęcie MetaWeb w 2010 r. było tak ważne, jest to, że zmniejszyło wagę, jaką Google przywiązuje do słów kluczowych. Kontekst stał się nagle ważny, co osiągnięto dzięki zastosowaniu metodologii kategoryzacji zwanej „jednostkami”. Jak Opisano szybką firmę:

Gdy Metaweb zorientuje się, do jakiego podmiotu się odnosisz, może dostarczyć zestaw wyników. Może nawet łączyć jednostki w celu bardziej złożonych wyszukiwań – „aktorki powyżej 40. roku życia” mogą być jedną encją, „aktorki mieszkające w Nowym Jorku” mogą być drugą, a „aktorki z aktualnie odtwarzanym filmem” mogą być inną. „.

Technologia ta została włączona do dużej aktualizacji algorytmu o nazwie RankBrain który został uruchomiony wiosną 2015 r. RankBrain skupił się na zrozumieniu kontekstu, a nie opieraniu się wyłącznie na słowach kluczowych, a RankBrain uwzględnił także konteksty środowiskowe (np. lokalizację wyszukiwarki) i ekstrapolował znaczenie tam, gdzie nie było go wcześniej. Była to ważna aktualizacja szczególnie dla użytkowników mobilnych.

Teraz, gdy rozumiemy, w jaki sposób Google wykorzystuje te technologie, skorzystajmy z teorii obliczeniowej, aby spekulować, jak to się robi.

Co to jest uczenie głębokie?

Głęboka nauka to najczęściej stosowany rodzaj uczenia maszynowego – Google nie byłoby w stanie nie zastosować tego algorytmu.

Na głębokie uczenie się znacząco wpływa sposób, w jaki działa ludzki mózg, i próbuje ono odzwierciedlić zachowanie mózgu w sposobie, w jaki wykorzystuje on rozpoznawanie wzorców do identyfikowania i kategoryzowania obiektów.

Na przykład, jeśli widzisz literę a, Twój mózg automatycznie rozpoznaje linie i kształty, aby następnie zidentyfikować je jako literę a. To samo dotyczy liter ap, Twój mózg automatycznie próbuje przewidzieć przyszłość, wymyślając potencjalne słowa, takie jak Aplikacja or jabłko. Inne wzorce mogą obejmować liczby, znaki drogowe lub identyfikację ukochanej osoby na zatłoczonym lotnisku.

Można pomyśleć, że wzajemne połączenia w systemie głębokiego uczenia się są podobne do działania ludzkiego mózgu dzięki połączeniu neuronów i synaps.

Uczenie głębokie to ostatecznie termin nadawany architekturom uczenia maszynowego, które łączą wiele wielowarstwowych perceptronów, tak że nie istnieje tylko jedna ukryta warstwa, ale wiele ukrytych warstw. Im „głębsza” jest głęboka sieć neuronowa, tym bardziej wyrafinowanych wzorców może się ona nauczyć.

W pełni połączone sieci można łączyć z innymi funkcjami uczenia maszynowego, aby tworzyć różne architektury głębokiego uczenia się.

Jak Google wykorzystuje głębokie uczenie się

Google pająkuje witryny internetowe na całym świecie, podążając za hiperłączami (neuronami), które łączą ze sobą witryny internetowe. Była to oryginalna metodologia, którą Google stosował od samego początku i która jest nadal stosowana. Po zaindeksowaniu stron internetowych do analizy tej skarbnicy danych wykorzystywane są różne typy sztucznej inteligencji.

System Google oznacza strony internetowe według różnych wskaźników wewnętrznych, przy niewielkim udziale lub interwencji człowieka. Przykładem interwencji może być ręczne usunięcie określonego adresu URL z powodu: Prośba o usunięcie DMCA.

Inżynierowie Google są znani z frustrowania uczestników konferencje SEO, a dzieje się tak dlatego, że kadra kierownicza Google nigdy nie potrafi właściwie opisać sposobu działania Google. Kiedy zadaje się pytanie, dlaczego niektóre witryny nie zajmują rankingów, prawie zawsze jest to ta sama, słabo sformułowana odpowiedź. Reakcja jest tak częsta, że ​​często uczestnicy z wyprzedzeniem stwierdzają, że zobowiązali się do tworzenia dobrych treści przez miesiące, a nawet lata, bez żadnych pozytywnych rezultatów.

Jak można było się spodziewać, właściciele witryn internetowych powinni skupić się na tworzeniu wartościowej treści – ważnego elementu, ale nie kompleksowego.

Brak odpowiedzi wynika z tego, że kadra kierownicza nie jest w stanie właściwie odpowiedzieć na pytanie. Algorytm Google’a działa w czarnej skrzynce. Najpierw następuje wejście, a potem wyjście – i tak działa głębokie uczenie się.

Wróćmy teraz do kary za ranking, która ma negatywny wpływ na miliony witryn internetowych, często bez wiedzy ich właściciela.

PageSpeed ​​Insights

Google nie jest często przejrzysty, PageSpeed ​​Insights jest wyjątkiem. Witryny, które nie przejdą testu szybkości, zostaną ukarane za powolne ładowanie – zwłaszcza jeśli ma to wpływ na użytkowników mobilnych.

Podejrzewa się, że na pewnym etapie procesu istnieje drzewo decyzyjne, które analizuje szybkie witryny internetowe w porównaniu z witrynami wolno ładującymi się (niepowodzenie usługi PageSpeed ​​Insights). Drzewo decyzyjne to zasadniczo podejście algorytmiczne, które dzieli zbiór danych na poszczególne punkty danych w oparciu o różne kryteria. Kryteriami mogą być negatywny wpływ na ranking strony dla użytkowników urządzeń mobilnych i komputerów stacjonarnych.

Hipotetycznie można zastosować karę do naturalnego wyniku w rankingu. Na przykład witryna, która bez kary zajęłaby 5. miejsce, może mieć -20, -50 lub inną nieznaną zmienną, która obniży ranking do 25, 55 lub innej liczby wybranej przez sztuczną inteligencję.

W przyszłości możemy spodziewać się końca PageSpeed ​​Insights, gdy Google nabierze większej pewności w swojej sztucznej inteligencji. Obecna interwencja Google w kwestię szybkości jest niebezpieczna, ponieważ może potencjalnie wyeliminować wyniki, które byłyby optymalne, a także dyskryminuje osoby mniej obeznane z technologią.

To wielka prośba, aby wymagać od każdego, kto prowadzi małą firmę, wiedzy specjalistycznej umożliwiającej skuteczne diagnozowanie i rozwiązywanie problemów z testami prędkości. Jednym z prostych rozwiązań byłoby udostępnienie przez Google wtyczki optymalizującej prędkość dla użytkowników WordPressa, as wordpress ma moc 43% internetu.

Niestety, wszelkie wysiłki SEO są daremne, jeśli witryna nie przejdzie Google PageSpeed ​​Insights. Stawką jest nic innego jak zniknięcie witryny z Google.

Jak zdać ten test, to artykuł na inny czas, ale przynajmniej powinieneś sprawdzić, czy Twój przechodzi na stronę internetową.

Innym ważnym wskaźnikiem technicznym, o który należy się martwić, jest protokół bezpieczeństwa tzw SSL (Warstwa bezpiecznych gniazd). Zmienia to adres URL domeny z http na https i zapewnia bezpieczną transmisję danych. Każda witryna internetowa, która nie obsługuje protokołu SSL, zostanie ukarana. Chociaż istnieją pewne wyjątki od tej reguły, największy wpływ na nią odczują witryny e-commerce i strony finansowe.

Tanie hostingi pobierają roczną opłatę za wdrożenie protokołu SSL, natomiast dobre hostingi, takie jak Siteground wydawaj certyfikaty SSL za darmo i automatycznie je integruj.

Metadane

Kolejnym ważnym elementem na stronie jest Meta Title i Meta opis. Te pola treści mają zbyt dużą kolejność ważności, która może przyczynić się do sukcesu lub niepowodzenia strony w takim samym stopniu, jak cała zawartość tej strony.

Dzieje się tak, ponieważ Google ma duże prawdopodobieństwo wybrania meta tytułu i metaopisu do zaprezentowania w wynikach wyszukiwania. Dlatego ważne jest, aby jak najdokładniej wypełnić pole meta title i meta opis.

Alternatywą jest to, że Google może zignorować metatytuł i metaopis, aby zamiast tego automatycznie wygenerować dane, które według jego przewidywań spowodują więcej kliknięć. Jeśli Google źle przewidzie, jaki tytuł wygenerować automatycznie, przyczyni się to do mniejszej liczby kliknięć wśród wyszukiwarek, a w konsekwencji do utraty rankingów w wyszukiwarkach.

Jeśli Google uzna, że ​​dołączony metaopis jest zoptymalizowany pod kątem generowania kliknięć, zaprezentuje to w wynikach wyszukiwania. W przeciwnym razie Google pobiera losowy fragment tekstu ze strony internetowej. Często Google wybiera najlepszy tekst na stronie, problem polega na tym, że jest to system loterii i Google konsekwentnie źle wybiera opis.

Oczywiście, jeśli uważasz, że treść Twojej strony jest naprawdę dobra, czasami warto pozwolić Google wybrać zoptymalizowany metaopis, który najlepiej pasuje do zapytania użytkownika. Nie zdecydujemy się na brak metaopisu tego artykułu, ponieważ jest on bogaty w treść, a Google prawdopodobnie wybierze dobry opis.

W międzyczasie miliardy ludzi klikają najlepsze wyniki wyszukiwania – to jest człowiek-w-pętli, ostatni mechanizm sprzężenia zwrotnego Google – i tu zaczyna się uczenie przez wzmacnianie.

Co to jest uczenie się przez wzmacnianie?

Uczenie się przez wzmocnienie to technika uczenia maszynowego, która polega na szkoleniu agenta AI poprzez powtarzanie działań i związanych z nimi nagród. Agent uczenia się przez wzmacnianie eksperymentuje w środowisku, podejmując działania i otrzymując nagrodę, gdy zostaną podjęte właściwe działania. Z czasem agent uczy się podejmować działania, które zmaksymalizują nagrodę.

Nagroda może opierać się na prostym obliczeniu, które oblicza ilość czasu spędzonego na polecanej stronie.

Jeśli połączyć tę metodologię z podprocedurą „Human-in-the-loop”, brzmiałoby to bardzo podobnie do istniejących silników rekomendujących, które kontrolują wszystkie aspekty naszego cyfrowego życia, takich jak YouTube, Netflix, Amazon Prime – A jeśli brzmi to tak, jak wyszukiwarka powinna działać. Masz rację.

Jak Google wykorzystuje uczenie się przez wzmacnianie

Koło zamachowe Google poprawia się z każdym wyszukiwaniem, ludzie szkolą sztuczną inteligencję, wybierając najlepszy wynik, który najlepiej odpowiada na ich zapytanie, a także na podobne zapytania milionów innych użytkowników.

Wzmacniający agent uczenia się stale pracuje nad samodoskonaleniem, wzmacniając tylko najbardziej pozytywne interakcje między wyszukiwaniem a dostarczonym wynikiem wyszukiwania.

Google mierzy czas potrzebny użytkownikowi na przeskanowanie strony wyników, adres URL, w który klika, ilość czasu spędzonego na odwiedzanej witrynie i rejestruje kliknięcie zwrotne. Dane te są następnie kompilowane i porównywane dla każdej witryny internetowej, która oferuje podobne dopasowanie danych lub doświadczenie użytkownika.

Strona internetowa o niskim współczynniku retencji (czasu spędzonego na stronie) otrzymuje następnie przez system uczenia się przez wzmacnianie wartość ujemną, a inne konkurencyjne witryny są testowane w celu poprawy oferowanych rankingów. Google jest bezstronny i zakładając, że nie nastąpi ręczna interwencja, ostatecznie wyświetli żądaną stronę wyników wyszukiwania.

Użytkownicy pełnią rolę człowieka w pętli, dostarczając Google bezpłatne dane i stając się końcowym elementem systemu głębokiego uczenia się przez wzmacnianie. W zamian za tę usługę Google oferuje użytkownikowi końcowemu możliwość kliknięcia reklamy.

Reklamy nie generujące przychodów służą jako dodatkowy czynnik rankingowy, dostarczając więcej danych o tym, co sprawia, że ​​użytkownik chce kliknąć.

Google zasadniczo uczy się, czego chce użytkownik. Można to luźno porównać do silnika rekomendującego dostępnego w usłudze strumieniowego przesyłania wideo. W takim przypadku silnik rekomendujący dostarczałby użytkownikowi treści dostosowane do jego zainteresowań. Na przykład użytkownikowi, który zwykle ogląda seriale komediowe, mogą spodobać się parodie, jeśli udostępniają tych samych komediantów.

Jak to pomaga w SEO?

Jeśli będziemy kontynuować myślenie obliczeniowe, możemy założyć, że Google wyszkolił się, aby zapewniać najlepsze wyniki, a często osiąga się to poprzez uogólnianie i zaspokajanie ludzkich uprzedzeń. W rzeczywistości sztuczna inteligencja Google nie byłaby w stanie zoptymalizować wyników uwzględniających te błędy, gdyby tak się stało, wyniki byłyby nieoptymalne.

Innymi słowy, nie ma magicznej recepty, ale są pewne najlepsze praktyki.

Do obowiązków specjalisty SEO należy rozpoznanie uprzedzeń, których poszukuje Google, a które są specyficzne dla jego branży, i wykorzystanie tych uprzedzeń. Na przykład osoba wyszukująca wyniki sondaży wyborczych bez określenia daty najprawdopodobniej szuka najnowszych wyników – jest to błąd związany z niedawnością. Ktoś, kto szuka przepisu, najprawdopodobniej nie potrzebuje najnowszej strony, a może woli przepis, który przetrwał próbę czasu.

Obowiązkiem specjalisty SEO jest zapewnienie odwiedzającym wyników, których szukają. To najbardziej zrównoważony sposób na ranking w Google.

Właściciele witryn internetowych muszą zrezygnować z kierowania na określone słowo kluczowe, oczekując, że mogą dostarczyć użytkownikowi końcowemu wszystko, czego chcą. Wynik wyszukiwania musi dokładnie odpowiadać potrzebom użytkownika.

Co to jest stronniczość? Może to być nazwa domeny, która wygląda na autorytet, innymi słowy, czy nazwa domeny pasuje do rynku, który obsługujesz? Posiadanie nazwy domeny zawierającej słowo Indie może zniechęcić użytkowników z USA do klikania adresu URL ze względu na nacjonalizm polegający na ufaniu wynikom pochodzącym z kraju zamieszkania użytkownika. Posiadanie domeny składającej się z jednego słowa może również dawać iluzję autorytetu.

Najważniejszym błędem jest to, co użytkownik chce dopasować do wyszukiwanego hasła? Czy jest to FAQ, lista 10 najlepszych, post na blogu? Na to pytanie należy odpowiedzieć, a odpowiedź jest łatwa do znalezienia. Wystarczy przeanalizować konkurencję, przeprowadzając wyszukiwanie w Google na rynku docelowym.

SEO Black Hat umarło

Porównaj to z Black Hat SEO, agresywną metodą rankingu witryn internetowych, która wykorzystuje przebiegłe techniki SPAM, w tym kupowanie linków zwrotnych, fałszowanie linków zwrotnych, hakowanie witryn internetowych, automatyczne generowanie zakładek społecznościowych na dużą skalę i inne ciemne metodologie stosowane za pośrednictwem sieci narzędzi Black Hat .

Narzędzia, które są często wykorzystywane ponownie i odsprzedawane na różnych forach poświęconych marketingowi w wyszukiwarkach, produkty bez wartości i z niewielkimi szansami powodzenia. Obecnie narzędzia te umożliwiają sprzedawcom wzbogacenie się, oferując jednocześnie minimalną wartość użytkownikowi końcowemu.

Dlatego polecam porzucić Black Hat. Skoncentruj swoje działania SEO na spojrzeniu na nie z perspektywy uczenia maszynowego. Ważne jest, aby zrozumieć, że za każdym razem, gdy ktoś pominie wynik wyszukiwania i kliknie wynik ukryty pod spodem, jest to osoba pracująca w pętli współpracująca z systemem głębokiego uczenia się przez wzmacnianie. Człowiek pomaga sztucznej inteligencji w samodoskonaleniu, stając się nieskończenie lepszym w miarę upływu czasu.

Jest to algorytm uczenia maszynowego, który został przeszkolony przez większą liczbę użytkowników niż jakikolwiek inny system w historii ludzkości.

Google obsługuje średnio 3.8 miliona wyszukiwań na minutę na całym świecie. Daje to 228 milionów wyszukiwań na godzinę, 5.6 miliarda wyszukiwań dziennie. To dużo danych i dlatego głupio jest próbować SEO typu black hat. Zakładanie, że sztuczna inteligencja Google pozostanie w stagnacji, jest głupotą, system korzysta z Prawo przyspieszonych zwrotów wykładniczo samodoskonalić się.

Sztuczna inteligencja Google staje się tak potężna, że ​​można sobie wyobrazić, że w końcu stanie się pierwszą sztuczną inteligencją, która osiągnie ten poziom Sztuczna inteligencja ogólna (AGI). AGI to inteligencja, którą można wykorzystać przenieś naukę opanować jedną dziedzinę, aby następnie zastosować zdobytą wiedzę w wielu dziedzinach. Chociaż zbadanie przyszłych wysiłków Google w zakresie AGI może być interesujące, należy pamiętać, że gdy proces jest w toku, trudno go zatrzymać. To oczywiście spekulacje dotyczące przyszłości, ponieważ Google jest obecnie rodzajem wąskiej sztucznej inteligencji, ale to temat na inny artykuł.

Świadomość tego, że spędzenie jednej sekundy więcej na czarnym kapeluszu jest głupim posunięciem.

White Hat SEO

Jeśli zaakceptujemy fakt, że sztuczna inteligencja Google będzie stale się doskonalić, nie będziemy mieli innego wyjścia, jak tylko zrezygnować z prób przechytrzenia Google. Zamiast tego skup się na optymalizacji witryny, aby optymalnie zapewnić Google dokładnie to, czego szuka.

Jak opisano, obejmuje to włączenie protokołu SSL, optymalizację szybkości ładowania strony oraz optymalizację meta tytułu i meta opisu. Aby zoptymalizować te pola, należy porównać Meta Tytuł i Meta Opis z konkurencyjnymi witrynami. Zidentyfikuj zwycięskie elementy, które zapewniają wysoki współczynnik klikalności.

Jeśli zoptymalizowałeś kliknięcia, kolejnym kamieniem milowym jest stworzenie najlepszej strony docelowej. Celem jest strona docelowa, która optymalizuje wartość dla użytkownika na tyle, aby średni czas spędzony na stronie był lepszy od podobnych konkurentów walczących o najwyższe wyniki w wyszukiwarkach.

Tylko oferując najlepsze doświadczenia użytkownika, strona internetowa może zwiększyć swoją pozycję w rankingu.

Jak dotąd uznaliśmy, że najważniejsze są następujące wskaźniki:

  • Prędkość ładowania
  • Włączono protokół SSL
  • Meta Tytuł i Meta Opis
  • Landing Page

Strona docelowa to najtrudniejszy element w rywalizacji ze światem. Landing page musi ładować się szybko i spełniać wszystkie oczekiwania, a potem jeszcze bardziej zaskakiwać użytkownika.

Final Thoughts

Łatwo byłoby wypełnić kolejne 2000 słów opisujących inne technologie AI, z których korzysta Google, a także zagłębić się w króliczą norę SEO. Zamiarem jest tutaj ponowne skupienie uwagi na najważniejszych wskaźnikach.

Partycjonujący SEO są tak skupieni na graniu w system, że zapominają, że ostatecznie najważniejszym elementem SEO jest zapewnienie użytkownikom jak największej wartości.

Jednym ze sposobów osiągnięcia tego celu jest niedopuszczanie do tego, aby ważne treści stały się nieaktualne. Jeśli za miesiąc pomyślę o ważnym wpisie, zostanie on dodany do tego artykułu. Google może następnie określić, jak świeża jest treść, porównując ją z historią strony dostarczającej wartości.

Jeśli nadal martwisz się pozyskiwaniem linków zwrotnych, rozwiązanie jest proste. Szanuj czas swoich gości i dawaj im wartość. Linki zwrotne pojawią się naturalnie, ponieważ użytkownicy uznają wartość w udostępnianiu Twoich treści.

Następnie do właściciela witryny przechodzi pytanie, w jaki sposób zapewnić użytkownikowi najlepszą wartość i wygodę.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.