Stummel SEO-Optimierung: So funktioniert die KI von Google (Mai 2024)
Vernetzen Sie sich mit uns

SEO

SEO-Optimierung: So funktioniert die KI von Google (Mai 2024)

mm
Aktualisiert on

Suchmaschinenoptimierung (SEO) ist der Prozess der Optimierung von On-Page- und Off-Page-Faktoren, die sich darauf auswirken, wie hoch eine Webseite für einen bestimmten Suchbegriff rankt. Dies ist ein vielschichtiger Prozess, der die Optimierung der Seitenladegeschwindigkeit, die Entwicklung einer Linkbuilding-Strategie und die Verwendung umfasst SEO-ToolsAußerdem erfahren Sie, wie Sie mithilfe von Googles KI rückentwickeln können rechnerisches Denken.

Computational Thinking ist eine fortgeschrittene Art der Analyse und Problemlösungstechnik, die Computerprogrammierer beim Schreiben von Code und Algorithmen verwenden. Computerorientierte Denker suchen nach der Grundwahrheit, indem sie ein Problem aufschlüsseln und es mithilfe des Denkens erster Prinzipien analysieren.

Da Google sein Geheimrezept niemandem preisgibt, verlassen wir uns auf rechnerisches Denken. Wir werden einige entscheidende Momente in der Geschichte von Google durchgehen, die die verwendeten Algorithmen geprägt haben, und wir werden erfahren, warum dies wichtig ist.

Wie man einen Geist erschafft

Wir beginnen mit einem Buch aus dem Jahr 2012 mit dem Titel „Wie man einen Geist erschafft: Das Geheimnis des menschlichen Denkens enthüllt“ vom renommierten Zukunftsforscher und Erfinder Ray Kurzweil. Dieses Buch untersucht das menschliche Gehirn und erläutert seine Funktionsweise. Wir lernen von Grund auf, wie sich das Gehirn durch Mustererkennung zu einer Vorhersagemaschine trainiert, die immer daran arbeitet, die Zukunft vorherzusagen und sogar das nächste Wort vorherzusagen.

Wie erkennt der Mensch Muster im Alltag? Wie entstehen diese Verbindungen im Gehirn? Das Buch beginnt mit dem Verständnis des hierarchischen Denkens. Dabei geht es um das Verständnis einer Struktur, die aus verschiedenen Elementen besteht, die in einem Muster angeordnet sind. Diese Anordnung stellt dann ein Symbol wie einen Buchstaben oder ein Zeichen dar und wird dann zu einem fortgeschritteneren Muster weiter angeordnet wie ein Wort und schließlich ein Satz. Letztendlich bilden diese Muster Ideen, und diese Ideen werden in Produkte umgewandelt, für deren Herstellung der Mensch verantwortlich ist.

Durch die Nachahmung des menschlichen Gehirns wird ein Weg zur Schaffung einer fortschrittlichen KI aufgezeigt, die über die aktuellen Fähigkeiten der zum Zeitpunkt der Veröffentlichung vorhandenen neuronalen Netze hinausgeht.

Das Buch war eine Blaupause für die Schaffung einer KI, die durch das Absaugen der Daten der Welt skalieren und ihre mehrschichtige Mustererkennungsverarbeitung zum Parsen von Text, Bildern, Audio und Video nutzen kann. Ein System, das aufgrund der Vorteile der Cloud und ihrer parallelen Verarbeitungsmöglichkeiten für die Hochskalierung optimiert ist. Mit anderen Worten: Es gäbe kein Maximum für die Dateneingabe oder -ausgabe.

Dieses Buch war so entscheidend, dass der Autor es bald nach seiner Veröffentlichung veröffentlichte Ray Kurzweil wurde von Google eingestellt Er wird Director of Engineering mit Schwerpunkt auf maschinellem Lernen und Sprachverarbeitung. Eine Rolle, die perfekt zu dem Buch passte, das er geschrieben hatte.

Es lässt sich nicht leugnen, welchen Einfluss dieses Buch auf die Zukunft von Google und das Ranking von Websites hatte. Das KI-Buch sollte Pflichtlektüre für jeden sein, der SEO-Experte werden möchte.

DeepMind

DeepMind wurde 2010 gegründet und war ein angesagtes neues Startup, das einen revolutionären neuen Typ von KI-Algorithmus nutzte, der die Welt im Sturm eroberte. Er wurde „Reinforcement Learning“ genannt. DeepMind beschrieb es am besten als:

„Wir präsentieren das erste Deep-Learning-Modell, das mithilfe von Reinforcement Learning erfolgreich Kontrollrichtlinien direkt aus hochdimensionalen sensorischen Eingaben erlernt. Das Modell ist ein Faltungs-Neuronales Netzwerk, das mit einer Variante des Q-Learning trainiert wurde, dessen Eingabe Rohpixel und dessen Ausgabe eine Wertfunktion ist, die zukünftige Belohnungen schätzt.“

Durch die Kombination von Deep Learning und Reinforcement Learning wurde daraus ein tiefes Lernen der Verstärkung System. Bis 2013 nutzte DeepMind diese Algorithmen, um in Atari 2600-Spielen Siege gegen menschliche Spieler zu erringen – und dies wurde durch die Nachahmung des menschlichen Gehirns und seiner Lernweise durch Training und Wiederholung erreicht.

Ähnlich wie ein Mensch durch Wiederholung lernt, sei es beim Kicken eines Balls oder beim Spielen von Tetris, würde auch die KI lernen. Das neuronale Netzwerk der KI verfolgte die Leistung und verbesserte sich schrittweise selbst, was in der nächsten Iteration zu einer stärkeren Zugauswahl führte.

DeepMind war in seinem technologischen Vorsprung so dominant, dass Google den Zugang zu der Technologie erkaufen musste. DeepMind wurde übernommen für mehr als 500 Millionen US-Dollar im Jahr 2014.

Nach der Übernahme erlebte die KI-Branche sukzessive Durchbrüche, die es seitdem nicht mehr gab 11. Mai 1997, als Schach Großmeister Garry Kasparov hat verloren das erste Spiel eines Sechs-Spiele-Matches gegen Deep Blue, einen Schachcomputer, der von Wissenschaftlern bei IBM entwickelt wurde. 

Im Jahr 2015 verfeinerte DeepMind den Algorithmus, um ihn in Ataris Suite von 49 Spielen zu testen, und die Maschine übertraf bei 23 davon die menschliche Leistung.

Das war erst der Anfang, später im Jahr 2015 begann DeepMind, sich darauf zu konzentrieren AlphaGo, ein Programm mit dem erklärten Ziel, einen professionellen Go-Weltmeister zu besiegen. Das antike Go-Spiel, das erstmals vor etwa 4000 Jahren in China gesehen wurde, gilt aufgrund seines Potenzials als das anspruchsvollste Spiel in der Geschichte der Menschheit 10360 Zugmöglichkeiten.

DeepMind nutzte überwachtes Lernen, um das AlphaGo-System zu trainieren, indem es von menschlichen Spielern lernte. Kurz darauf machte DeepMind Schlagzeilen, nachdem AlphaGo besiegt wurde Lee Sedol, der Weltmeister, in einem Fünf-Spiele-Match im März 2016.

Um nicht zu übertreffen, veröffentlichte DeepMind im Oktober 2017 AlphaGo Zero, ein neues Modell mit dem Hauptunterscheidungsmerkmal, dass es Null erforderte menschliche Ausbildung. Da es keine menschliche Schulung erforderte, war auch keine Kennzeichnung der Daten erforderlich, das System wurde im Wesentlichen verwendet unbeaufsichtigtes Lernen. AlphaGo Zero übertraf seinen Vorgänger schnell beschrieben von DeepMind.

„Frühere Versionen von AlphaGo trainierten zunächst Tausende von menschlichen Amateur- und Profispielen, um das Spielen von Go zu erlernen. AlphaGo Zero überspringt diesen Schritt und lernt das Spielen, indem es einfach Spiele gegen sich selbst spielt, beginnend mit völlig zufälligen Spielen. Dabei übertraf es schnell das menschliche Spielniveau und besiegte die zuvor veröffentlicht Champion-besiegende Version von AlphaGo mit 100 zu 0 Spielen.“

In der Zwischenzeit konzentrierte sich die SEO-Welt stark auf PageRank, das Rückgrat von Google. Es beginnt im Jahr 1995, als Larry Page und Sergey Brin promovierten. Studenten der Stanford University. Das Duo begann mit der Zusammenarbeit an einem neuartigen Forschungsprojekt mit dem Spitznamen „Rückenmassage“. Das Ziel bestand darin, Webseiten durch die Umwandlung ihrer Backlink-Daten in ein Maß für ihre Wichtigkeit einzustufen. Ein Backlink ist ganz einfach jeder Link von einer Seite zu einer anderen, ähnlich wie dieser Link.

Der Algorithmus wurde später in PageRank umbenannt, benannt nach dem Begriff „Webseite“ und dem Mitbegründer Larry Page. Larry Page und Sergey Brin hatten das ehrgeizige Ziel, eine Suchmaschine zu entwickeln, die das gesamte Web ausschließlich über Backlinks antreiben könnte.

Und es hat funktioniert.

PageRank dominiert Schlagzeilen

SEO-Experten verstanden sofort die Grundlagen, wie Google mithilfe von PageRank ein Qualitätsranking für eine Webseite berechnet. Einige versierte Black-Hat-SEO-Unternehmer gingen noch einen Schritt weiter und erkannten, dass es zur Skalierung von Inhalten sinnvoll sein könnte, Links zu kaufen, anstatt darauf zu warten, sie organisch zu erwerben.

Rund um Backlinks entstand eine neue Wirtschaft. Eifrige Websitebesitzer, die das Suchmaschinenranking verbessern wollten, kauften Links und verkauften ihnen im Gegenzug Links, die Websites unbedingt monetarisieren wollten.

Die Websites, die Links kauften, drangen oft über Nacht in Google ein und übertrafen etablierte Marken.

Das Ranking mit dieser Methode funktionierte lange Zeit sehr gut – bis es nicht mehr funktionierte, wahrscheinlich ungefähr zur gleichen Zeit, als maschinelles Lernen einsetzte und das zugrunde liegende Problem löste. Mit der Einführung von Deep Reinforcement Learning würde der PageRank zu einer Ranking-Variable und nicht zum dominierenden Faktor.

Mittlerweile ist die SEO-Community hinsichtlich der Strategie Linkkauf gespalten. Ich persönlich glaube, dass der Linkkauf nicht optimale Ergebnisse liefert und dass die beste Methode zum Erwerb von Backlinks auf branchenspezifischen Variablen basiert. Ein legitimer Dienst, den ich empfehlen kann, heißt HARO (Helfen Sie einem Reporter). Die Möglichkeit bei HARO besteht darin, durch die Erfüllung von Medienanfragen Backlinks zu akquirieren.

Etablierte Marken mussten sich nie Gedanken über die Beschaffung von Links machen, da sie von der Zeit profitierten, die zu ihren Gunsten arbeitete. Je älter eine Website ist, desto mehr Zeit hatte sie, hochwertige Backlinks zu sammeln. Mit anderen Worten: Ein Suchmaschinenranking hing stark vom Alter einer Website ab, wenn man anhand der Metrik berechnet Zeit = Backlinks.

Beispielsweise erhielt CNN aufgrund seiner Marke, seines Vertrauens und weil er von Anfang an ganz oben auf der Liste stand, natürlicherweise Backlinks für einen Nachrichtenartikel. Daher erhielt CNN natürlich mehr Backlinks von Leuten, die einen Artikel recherchierten und auf das erste Suchergebnis verlinkten, das sie fanden .

Das bedeutet, dass höher bewertete Webseiten organisch mehr Backlinks erhielten. Leider führte dies dazu, dass neue Websites oft gezwungen waren, den Backlink-Algorithmus zu missbrauchen, indem sie sich an einen Backlink-Marktplatz wandten.

In den frühen 2000er Jahren funktionierte der Kauf von Backlinks bemerkenswert gut und war ein einfacher Vorgang. Linkkäufer kauften Links von Websites mit hoher Autorität, oft als Footer-Links für die gesamte Website oder vielleicht auf Artikelbasis (oft als Gastbeitrag getarnt), und die Verkäufer, die ihre Websites unbedingt monetarisieren wollten, kamen dem gerne nach – leider oft unter dem Verlust von Qualität.

Schließlich erkannte der Google-Talentpool aus Ingenieuren für maschinelles Lernen, dass es sinnlos war, Suchmaschinenergebnisse von Hand zu kodieren, und dass es sich bei einem Großteil des PageRank um handschriftliche Kodierung handelte. Stattdessen war ihnen klar, dass die KI letztendlich dafür verantwortlich sein würde, die Rangliste vollständig zu berechnen, ohne dass menschliches Eingreifen erforderlich wäre.

Um wettbewerbsfähig zu bleiben, nutzt Google jedes Tool in seinem Arsenal und dazu gehört auch tiefes Lernen der Verstärkung – Der fortschrittlichste Typ von maschinellem Lernalgorithmus der Welt.

Dieses System ist darüber geschichtet Übernahme von MetaWeb durch Google war ein Gamechanger. Der Grund, warum die Übernahme von MetaWeb im Jahr 2010 so wichtig war, liegt darin, dass dadurch die Gewichtung, die Google den Schlüsselwörtern beimisst, verringert wurde. Der Kontext war plötzlich wichtig. Dies wurde durch die Verwendung einer Kategorisierungsmethode namens „Entitäten“ erreicht. Als Schnelle Firma beschrieben:

Sobald Metaweb herausgefunden hat, auf welche Entität Sie sich beziehen, kann es eine Reihe von Ergebnissen liefern. Es können sogar Entitäten für komplexere Suchen kombiniert werden – „Schauspielerinnen über 40“ könnte eine Entität sein, „Schauspielerinnen, die in New York City leben“ könnte eine andere sein und „Schauspielerinnen, bei denen gerade ein Film läuft“ könnte eine andere sein. „.

Diese Technologie wurde in ein großes Algorithmus-Update namens integriert RankBrain Das wurde im Frühjahr 2015 eingeführt. RankBrain konzentrierte sich auf das Verständnis des Kontexts und nicht auf eine rein schlüsselwortbasierte Analyse. RankBrain berücksichtigte auch Umgebungskontexte (z. B. den Standort des Suchers) und extrapolierte Bedeutungen, wo zuvor keine vorhanden waren. Dies war ein wichtiges Update insbesondere für mobile Benutzer.

Nachdem wir nun verstanden haben, wie Google diese Technologien nutzt, lassen Sie uns mithilfe der Computertheorie darüber spekulieren, wie dies geschieht.

Was ist Deep Learning?

Tiefes Lernen ist die am häufigsten verwendete Art des maschinellen Lernens – es wäre für Google unmöglich, diesen Algorithmus nicht zu verwenden.

Deep Learning wird maßgeblich von der Funktionsweise des menschlichen Gehirns beeinflusst und versucht, das Verhalten des Gehirns darin widerzuspiegeln, wie es mithilfe der Mustererkennung Objekte identifiziert und kategorisiert.

Zum Beispiel, wenn Sie den Brief sehen a, erkennt Ihr Gehirn automatisch die Linien und Formen und identifiziert sie dann als Buchstaben a. Das Gleiche gilt für die Buchstaben ap, versucht Ihr Gehirn automatisch, die Zukunft vorherzusagen, indem es sich mögliche Wörter ausdenkt wie App or Apfel. Andere Muster können Nummern, Verkehrszeichen oder die Identifizierung einer geliebten Person auf einem überfüllten Flughafen sein.

Man kann sich die Verbindungen in einem Deep-Learning-System ähnlich vorstellen, wie das menschliche Gehirn mit der Verbindung von Neuronen und Synapsen funktioniert.

Unter Deep Learning versteht man letztlich Architekturen des maschinellen Lernens, die viele mehrschichtige Perzeptrone miteinander verbinden, so dass es nicht nur eine verborgene Schicht, sondern viele verborgene Schichten gibt. Je „tiefer“ das tiefe neuronale Netzwerk ist, desto ausgefeiltere Muster kann das Netzwerk lernen.

Vollständig verbundene Netzwerke können mit anderen Funktionen des maschinellen Lernens kombiniert werden, um unterschiedliche Deep-Learning-Architekturen zu erstellen.

Wie Google Deep Learning nutzt

Google durchsucht die Websites der Welt, indem es Hyperlinks (man denke an Neuronen) verfolgt, die Websites miteinander verbinden. Dies war die ursprüngliche Methode, die Google vom ersten Tag an verwendete und die auch heute noch verwendet wird. Sobald Websites indiziert sind, werden verschiedene Arten von KI verwendet, um diesen Datenschatz zu analysieren.

Das System von Google kennzeichnet die Webseiten anhand verschiedener interner Messwerte, wobei nur geringfügige menschliche Eingaben oder Eingriffe erforderlich sind. Ein Beispiel für einen Eingriff wäre die manuelle Entfernung einer bestimmten URL aufgrund eines DMCA-Entfernungsantrag.

Google-Ingenieure sind dafür bekannt, die Teilnehmer zu frustrieren SEO-Konferenzen, und das liegt daran, dass Google-Führungskräfte nie richtig artikulieren können, wie Google funktioniert. Wenn Fragen dazu gestellt werden, warum bestimmte Websites kein Ranking erzielen, ist die Antwort fast immer die gleiche, schlecht formulierte Antwort. Die Resonanz ist so häufig, dass die Teilnehmer oft vorab erklären, dass sie sich über Monate oder sogar Jahre hinweg dazu verpflichtet haben, gute Inhalte zu erstellen, ohne dass positive Ergebnisse erzielt wurden.

Erwartungsgemäß werden Websitebesitzer angewiesen, sich auf die Erstellung wertvoller Inhalte zu konzentrieren – eine wichtige Komponente, aber bei weitem nicht umfassend.

Diese fehlende Antwort liegt daran, dass die Führungskräfte nicht in der Lage sind, die Frage richtig zu beantworten. Der Algorithmus von Google arbeitet in einer Blackbox. Es gibt Input und dann Output – und so funktioniert Deep Learning.

Kehren wir nun zu einer Ranking-Strafe zurück, die sich oft ohne Wissen des Website-Eigentümers negativ auf Millionen von Websites auswirkt.

PageSpeed ​​Insights

Google ist oft nicht transparent, PageSpeed ​​Insights ist die Ausnahme. Websites, die diesen Geschwindigkeitstest nicht bestehen, werden wegen langsamen Ladens in eine Strafbox geschickt – insbesondere, wenn mobile Benutzer betroffen sind.

Es wird vermutet, dass es irgendwann im Prozess einen Entscheidungsbaum gibt, der schnelle Websites von langsam ladenden Websites (PageSpeed ​​Insights fehlgeschlagen) analysiert. Ein Entscheidungsbaum ist im Wesentlichen ein algorithmischer Ansatz, der den Datensatz anhand verschiedener Kriterien in einzelne Datenpunkte aufteilt. Die Kriterien können darin bestehen, den hohen Rang einer Seite für mobile Nutzer im Vergleich zu Desktop-Nutzern negativ zu beeinflussen.

Hypothetisch könnte eine Strafe auf den natürlichen Ranking-Score angewendet werden. Beispielsweise kann eine Website, die ohne Strafe auf Platz 5 rangieren würde, eine -20, -50 oder eine andere unbekannte Variable haben, die den Rang auf #25, #55 oder eine andere von der KI ausgewählte Zahl reduziert.

In Zukunft erleben wir möglicherweise das Ende von PageSpeed ​​Insights, wenn Google mehr Vertrauen in seine KI gewinnt. Dieser derzeitige Eingriff von Google in die Geschwindigkeit ist gefährlich, da dadurch möglicherweise Ergebnisse verloren gehen, die optimal gewesen wären, und weniger technisch versierte Personen diskriminiert werden.

Es ist eine große Forderung, dass jeder, der ein kleines Unternehmen betreibt, über das nötige Fachwissen verfügt, um Geschwindigkeitstestprobleme erfolgreich zu diagnostizieren und zu beheben. Eine einfache Lösung wäre, dass Google einfach ein Geschwindigkeitsoptimierungs-Plug-in für WordPress-Nutzer veröffentlicht WordPress-Leistungen 43 % des Internets.

Leider sind alle SEO-Bemühungen umsonst, wenn eine Website nicht besteht Googles PageSpeed ​​Insights. Es steht nichts Geringeres auf dem Spiel, als dass eine Website von Google verschwindet.

Wie Sie diesen Test bestehen, ist ein Artikel für ein anderes Mal, aber Sie sollten zumindest überprüfen, ob Sie Website geht vorbei.

Eine weitere wichtige technische Kennzahl, über die Sie sich Sorgen machen sollten, ist ein Sicherheitsprotokoll namens SSL (Secure Sockets Layer). Dadurch wird die URL einer Domain von http auf https geändert und die sichere Übertragung der Daten gewährleistet. Jede Website, auf der SSL nicht aktiviert ist, wird bestraft. Obwohl es einige Ausnahmen von dieser Regel gibt, werden E-Commerce- und Finanz-Websites am stärksten betroffen sein.

Günstige Webhosts erheben eine jährliche Gebühr für die SSL-Implementierung, während gute Webhosts wie z Siteground Stellen Sie SSL-Zertifikate kostenlos aus und integrieren Sie diese automatisch.

Metadaten

Ein weiteres wichtiges Element auf der Website ist der Meta-Titel und die Meta-Beschreibung. Diese Inhaltsfelder haben eine übergroße Bedeutung, die ebenso zum Erfolg oder Misserfolg einer Seite beitragen kann wie der gesamte Inhalt dieser Seite.

Dies liegt daran, dass Google mit hoher Wahrscheinlichkeit den Meta-Titel und die Meta-Beschreibung auswählt, die in den Suchergebnissen angezeigt werden sollen. Und deshalb ist es wichtig, das Meta-Titel- und Meta-Beschreibungsfeld so sorgfältig wie möglich auszufüllen.

Die Alternative besteht darin, dass Google den Meta-Titel und die Meta-Beschreibung möglicherweise ignoriert und stattdessen automatisch Daten generiert, von denen es vorhersagt, dass sie zu mehr Klicks führen werden. Wenn Google schlecht vorhersagt, welcher Titel automatisch generiert werden soll, führt dies zu weniger Klicks durch Suchende und folglich zu verlorenen Suchmaschinen-Rankings.

Wenn Google davon ausgeht, dass die enthaltene Meta-Beschreibung für den Erhalt von Klicks optimiert ist, wird sie in den Suchergebnissen angezeigt. Gelingt dies nicht, greift Google auf einen zufälligen Textabschnitt von der Website zurück. Google wählt oft den besten Text auf der Seite aus. Das Problem ist, dass es sich hierbei um das Lotteriesystem handelt und Google bei der Auswahl der Beschreibung immer schlecht ist.

Wenn Sie der Meinung sind, dass der Inhalt Ihrer Seite wirklich gut ist, ist es natürlich manchmal sinnvoll, Google die Auswahl der optimierten Meta-Beschreibung zu überlassen, die am besten zur Nutzeranfrage passt. Wir entscheiden uns für keine Meta-Beschreibung für diesen Artikel, da er inhaltsreich ist und Google wahrscheinlich eine gute Beschreibung auswählt.

Mittlerweile klicken Milliarden Menschen auf die besten Suchergebnisse – Das ist das Mensch-in-the-Loop, Googles letzter Feedback-Mechanismus – und hier setzt Reinforcement Learning an.

Was ist Reinforcement Learning?

Verstärkung lernen ist eine Technik des maschinellen Lernens, bei der ein KI-Agent durch die Wiederholung von Aktionen und damit verbundenen Belohnungen trainiert wird. Ein Reinforcement-Learning-Agent experimentiert in einer Umgebung, ergreift Maßnahmen und wird belohnt, wenn die richtigen Maßnahmen ergriffen werden. Im Laufe der Zeit der Agent lernt, die Maßnahmen zu ergreifen, die seine Belohnung maximieren.

Die Belohnung könnte auf einer einfachen Berechnung basieren, die die auf einer empfohlenen Seite verbrachte Zeit berechnet.

Wenn Sie diese Methodik mit einer Human-in-the-Loop-Subroutine kombinieren, würde das sehr nach vorhandenen Empfehlungsmaschinen klingen, die alle Aspekte unseres digitalen Lebens steuern, wie YouTube, Netflix, Amazon Prime – und wenn es danach klingt Eine Suchmaschine sollte funktionieren. Sie haben Recht.

Wie Google Reinforcement Learning nutzt

Das Schwungrad von Google verbessert sich mit jeder Suche, Menschen trainieren die KI, indem sie das beste Ergebnis auswählen, das ihre Anfrage und die ähnliche Anfrage von Millionen anderer Nutzer am besten beantwortet.

Der verstärkende Lernagent arbeitet kontinuierlich an der Selbstverbesserung, indem er nur die positivsten Interaktionen zwischen der Suche und dem gelieferten Suchergebnis verstärkt.

Google misst die Zeit, die ein Nutzer zum Scannen der Ergebnisseite benötigt, die URL, auf die er klickt, misst die Zeit, die er auf der besuchten Website verbringt, und registriert den erneuten Klick. Diese Daten werden dann für jede Website zusammengestellt und verglichen, die eine ähnliche Datenübereinstimmung oder Benutzererfahrung bietet.

Eine Website mit einer niedrigen Retention-Rate (auf der Website verbrachte Zeit) erhält dann vom Reinforcement-Learning-System einen negativen Wert und andere konkurrierende Websites werden getestet, um die angebotenen Rankings zu verbessern. Google ist unvoreingenommen. Unter der Annahme, dass kein manueller Eingriff erfolgt, stellt Google schließlich die gewünschte Suchergebnisseite bereit.

Nutzer sind die Human-in-the-Loop, die Google mit kostenlosen Daten versorgen und zur letzten Komponente des Deep-Reinforcement-Learning-Systems werden. Als Gegenleistung für diesen Service bietet Google dem Endnutzer die Möglichkeit, auf eine Anzeige zu klicken.

Die Anzeigen dienen nicht nur der Generierung von Einnahmen, sondern dienen auch als sekundärer Ranking-Faktor und liefern mehr Daten darüber, was einen Nutzer zum Klicken bewegt.

Google lernt im Wesentlichen, was ein Nutzer will. Dies kann grob mit einer Empfehlungsmaschine eines Video-Streaming-Dienstes verglichen werden. In diesem Fall würde eine Empfehlungsmaschine einem Benutzer Inhalte bereitstellen, die auf seine Interessen zugeschnitten sind. Beispielsweise könnte ein Benutzer, der regelmäßig eine Reihe romantischer Komödien genießt, einige Parodien mögen, wenn er dieselben Komiker teilt.

Wie hilft das SEO?

Wenn wir mit dem rechnerischen Denken fortfahren, können wir davon ausgehen, dass Google sich darauf trainiert hat, die besten Ergebnisse zu liefern, und dies wird oft durch die Verallgemeinerung und Befriedigung menschlicher Vorurteile erreicht. Tatsächlich wäre es für die KI von Google unmöglich, Ergebnisse nicht zu optimieren, die diesen Verzerrungen Rechnung tragen. Andernfalls wären die Ergebnisse nicht optimal.

Mit anderen Worten: Es gibt keine Zauberformel, aber einige Best Practices.

Es liegt in der Verantwortung des SEO-Praktikers, die Vorurteile zu erkennen, die Google sucht und die für seine Branche spezifisch sind – und diese Vorurteile zu berücksichtigen. Wenn beispielsweise jemand nach Wahlumfrageergebnissen sucht, ohne ein Datum anzugeben, sucht er höchstwahrscheinlich nach den aktuellsten Ergebnissen – hierbei handelt es sich um einen Aktualitätsfehler. Jemand, der nach einem Rezept sucht, benötigt höchstwahrscheinlich nicht die aktuellste Seite und bevorzugt möglicherweise tatsächlich ein Rezept, das den Test der Zeit überstanden hat.

Es liegt in der Verantwortung des SEO-Praktikers, den Besuchern die Ergebnisse zu bieten, die sie suchen. Dies ist die nachhaltigste Art, bei Google zu ranken.

Websitebesitzer müssen auf die Ausrichtung auf ein bestimmtes Keyword verzichten, in der Erwartung, dass sie dem Endbenutzer das liefern können, was sie wollen. Das Suchergebnis muss genau dem Bedürfnis des Nutzers entsprechen.

Was ist eine Voreingenommenheit? Möglicherweise haben Sie einen Domänennamen, der eine hohe Autorität aufweist. Mit anderen Worten: Passt der Domänenname zu dem Markt, den Sie bedienen? Ein Domainname mit dem Wort „Indien“ kann Benutzer in den USA davon abhalten, auf die URL zu klicken, da eine nationalistische Tendenz besteht, Ergebnissen zu vertrauen, die aus dem Wohnsitzland eines Benutzers stammen. Eine Ein-Wort-Domain kann auch die Illusion von Autorität erwecken.

Die wichtigste Tendenz besteht darin, was ein Benutzer mit seiner Suchanfrage vergleichen möchte. Handelt es sich um eine FAQ, eine Top-10-Liste, einen Blogbeitrag? Dies muss beantwortet werden, und die Antwort ist leicht zu finden. Sie müssen lediglich die Konkurrenz analysieren, indem Sie eine Google-Suche in Ihrem Zielmarkt durchführen.

Black Hat SEO ist tot

Vergleichen Sie dies mit Black Hat SEO, einer aggressiven Methode zum Ranking von Websites, die hinterhältige SPAM-Techniken ausnutzt, darunter den Kauf von Backlinks, die Fälschung von Backlinks, das Hacken von Websites, die automatische Generierung sozialer Lesezeichen in großem Maßstab und andere dunkle Methoden, die über ein Netzwerk von Black-Hat-Tools angewendet werden .

Tools, die oft zweckentfremdet und in verschiedenen Suchmaschinenmarketing-Foren weiterverkauft werden, Produkte mit nahezu keinem Wert und geringen Erfolgsaussichten. Derzeit ermöglichen diese Tools den Verkäufern, reich zu werden, während sie dem Endverbraucher nur einen minimalen Wert bieten.

Aus diesem Grund empfehle ich, auf Black Hat zu verzichten. Konzentrieren Sie Ihre SEO darauf, sie aus der Perspektive des maschinellen Lernens zu betrachten. Es ist wichtig zu verstehen, dass jedes Mal, wenn jemand ein Suchergebnis überspringt, um auf ein darunter vergrabenes Ergebnis zu klicken, der Human-in-the-Loop mit dem Deep-Reinforcement-Learning-System zusammenarbeitet. Der Mensch unterstützt die KI bei der Selbstverbesserung und wird im Laufe der Zeit unendlich besser.

Hierbei handelt es sich um einen maschinellen Lernalgorithmus, der von mehr Benutzern trainiert wurde als jedes andere System in der Geschichte der Menschheit.

Google wickelt weltweit durchschnittlich 3.8 Millionen Suchanfragen pro Minute ab. Das entspricht 228 Millionen Suchanfragen pro Stunde. 5.6 Milliarden Suchanfragen pro Tag. Das sind viele Daten, und deshalb ist es dumm, Black-Hat-SEO zu versuchen. Anzunehmen, dass die KI von Google stagnieren wird, ist töricht, das System nutzt das Gesetz der beschleunigten Rendite sich exponentiell zu verbessern.

Die KI von Google wird so mächtig, dass es vorstellbar ist, dass sie irgendwann die erste KI sein könnte, die sie erreicht Künstliche allgemeine Intelligenz (AGI). Ein AGI ist eine Intelligenz, die man nutzen kann Transferlernen ein Fachgebiet zu beherrschen, um die erlernte Intelligenz dann in mehreren Bereichen anzuwenden. Auch wenn es interessant sein mag, die zukünftigen AGI-Bemühungen von Google zu untersuchen, sollte man sich darüber im Klaren sein, dass es schwierig ist, den Prozess zu stoppen, sobald er in Gang gekommen ist. Dies ist natürlich eine Spekulation in die Zukunft, da Google derzeit eine Art engstirnige KI ist, aber das ist ein Thema für einen anderen Artikel.

Zu wissen, dass es eine Dummheit ist, eine Sekunde mehr für Black Hat zu verwenden.

Weißer Hut SEO

Wenn wir akzeptieren, dass sich die KI von Google kontinuierlich verbessert, bleibt uns keine andere Wahl, als den Versuch, Google auszutricksen, aufzugeben. Konzentrieren Sie sich stattdessen auf die Optimierung einer Website, um Google genau das zu bieten, was es sucht.

Wie beschrieben umfasst dies die Aktivierung von SSL, die Optimierung der Seitenladegeschwindigkeit sowie die Optimierung des Meta-Titels und der Meta-Beschreibung. Um diese Felder zu optimieren, müssen der Meta-Titel und die Meta-Beschreibung mit konkurrierenden Websites verglichen werden – Identifizieren Sie die erfolgreichen Elemente, die zu einer hohen Klickrate führen.

Wenn Sie die Anklickbarkeit optimiert haben, besteht der nächste Meilenstein darin, die beste Landingpage zu erstellen. Das Ziel ist eine Zielseite, die den Benutzernutzen so weit optimiert, dass die durchschnittliche Verweildauer auf der Seite die vergleichbarer Konkurrenten übersteigt, die um die besten Suchmaschinenergebnisse wetteifern.

Nur wenn eine Webseite das beste Benutzererlebnis bietet, kann sie im Ranking steigen.

Bisher haben wir diese Kennzahlen als die wichtigsten identifiziert:

  • Ladegeschwindigkeit
  • SSL aktiviert
  • Metatitel und Metabeschreibung
  • Landing Page

Die Landingpage ist das schwierigste Element, wenn Sie mit der Welt konkurrieren. Die Zielseite muss schnell laden, alles bieten, was erwartet wird, und den Benutzer dann mit mehr überraschen.

Abschließende Überlegungen

Es wäre einfach, weitere 2000 Wörter zu füllen, die andere KI-Technologien beschreiben, die Google verwendet, und tiefer in das Kaninchenloch der Suchmaschinenoptimierung einzutauchen. Ziel ist es, die Aufmerksamkeit wieder auf die wichtigsten Kennzahlen zu lenken.

SEO-Partitionierer konzentrieren sich so darauf, das System zu manipulieren, dass sie vergessen, dass das wichtigste Element von SEO letztendlich darin besteht, den Benutzern so viel Wert wie möglich zu bieten.

Eine Möglichkeit, dies zu erreichen, besteht darin, zu verhindern, dass wichtige Inhalte veraltet werden. Wenn mir in einem Monat ein wichtiger Beitrag einfällt, wird er diesem Artikel hinzugefügt. Google kann dann erkennen, wie aktuell der Inhalt ist, und ihn mit dem Verlauf der Seite abgleichen, die einen Mehrwert liefert.

Wenn Sie immer noch Bedenken haben, Backlinks zu erhalten, ist die Lösung einfach. Respektieren Sie die Zeit Ihrer Besucher und geben Sie ihnen einen Mehrwert. Die Backlinks ergeben sich von selbst, da die Nutzer Wert darauf legen, Ihre Inhalte zu teilen.

Die Frage verlagert sich dann auf den Websitebesitzer, wie er den besten Benutzernutzen und die beste Benutzererfahrung bieten kann.

Ein Gründungspartner von unite.AI und Mitglied der Forbes Technology Council, Antoine ist ein Futurist der sich leidenschaftlich für die Zukunft von KI und Robotik interessiert.

Er ist auch der Gründer von Wertpapiere.io, eine Website, die sich auf Investitionen in bahnbrechende Technologien konzentriert.