SEO 101
SEO-Optimierung: Wie Googles KI funktioniert (Mai 2026)

Search Engine Optimization (SEO) ist der Prozess der Optimierung von On-Page- und Off-Page-Faktoren, die beeinflussen, wie hoch eine Webseite für einen bestimmten Suchbegriff rangiert. Dies ist ein mehrschichtiger Prozess, der die Optimierung der Ladezeit einer Seite, die Generierung einer Link-Building-Strategie, die Verwendung von SEO-Tools und das Lernen, wie man Googles KI mit komputationellem Denken rückwärts konstruieren kann, umfasst.
Komputationelles Denken ist eine fortschrittliche Art der Analyse und Problemlösung, die Computerprogrammierer verwenden, wenn sie Code und Algorithmen schreiben. Komputationelle Denker suchen nach der Grundwahrheit, indem sie ein Problem zerlegen und es mit Hilfe des ersten Prinzipsdenkens analysieren.
Da Google seine geheime Sauce niemandem preisgibt, werden wir auf komputationelles Denken zurückgreifen. Wir werden einige wichtige Momente in Googles Geschichte durchgehen, die die Algorithmen geprägt haben, die verwendet werden, und wir werden lernen, warum dies wichtig ist.
Wie man ein Gehirn erschafft
Wir beginnen mit einem Buch, das 2012 veröffentlicht wurde und “Wie man ein Gehirn erschafft: Das Geheimnis des menschlichen Denkens enthüllt” heißt, geschrieben von dem renommierten Futuristen und Erfinder Ray Kurzweil. Dieses Buch zerlegt das menschliche Gehirn und bricht die Wege auf, wie es funktioniert. Wir lernen von Grund auf, wie das Gehirn sich selbst mit Hilfe von Mustererkennung zu einer Vorhersagemaschine trainiert, die ständig daran arbeitet, die Zukunft vorherzusagen, sogar das nächste Wort vorherzusagen.
Wie erkennen Menschen Muster im Alltag? Wie werden diese Verbindungen im Gehirn gebildet? Das Buch beginnt mit dem Verständnis hierarchischen Denkens, das bedeutet, eine Struktur zu verstehen, die aus verschiedenen Elementen besteht, die in einem Muster angeordnet sind, diese Anordnung dann ein Symbol wie einen Buchstaben oder ein Zeichen darstellt und dies weiter in ein komplexeres Muster wie ein Wort und schließlich einen Satz anordnet. Schließlich bilden diese Muster Ideen, und diese Ideen werden in die Produkte umgesetzt, die Menschen bauen.
Indem wir das menschliche Gehirn nachahmen, wird ein Weg zur Schaffung einer fortgeschrittenen KI jenseits der aktuellen Fähigkeiten der neuronalen Netze, die zum Zeitpunkt der Veröffentlichung existierten, enthüllt.
Das Buch war ein Blueprint für die Schaffung einer KI, die durch das Aufsaugen der Welt Daten und die Verwendung ihrer mehrschichtigen Mustererkennungsverarbeitung Texte, Bilder, Audio und Video parsen kann. Ein System, das für die Skalierung aufgrund der Vorteile der Cloud und ihrer parallelen Verarbeitungsfähigkeiten optimiert ist. Mit anderen Worten gibt es kein Maximum für Dateninput oder -output.
Dieses Buch war so wichtig, dass der Autor Ray Kurzweil bald nach der Veröffentlichung von Google als Direktor für Maschinelles Lernen und Sprachtechnologie eingestellt wurde. Eine Rolle, die perfekt mit dem Buch übereinstimmte, das er geschrieben hatte.
Es wäre unmöglich, die Bedeutung dieses Buches für die Zukunft von Google und die Bewertung von Webseiten zu leugnen. Dieses KI-Buch sollte für jeden, der ein SEO-Experte werden möchte, Pflichtlektüre sein.
DeepMind
Gegründet im Jahr 2010, war DeepMind ein brandneues Startup, das einen revolutionären neuen Typ von KI-Algorithmus verwendete, der die Welt im Sturm eroberte, es handelte sich um ein sogenanntes Reinforcement-Learning. DeepMind beschrieb es am besten als:
“Wir präsentieren das erste Deep-Learning-Modell, das erfolgreich Steuerungsrichtlinien direkt aus hochdimensionalen sensorischen Eingaben mit Hilfe von Reinforcement-Learning lernt. Das Modell ist ein konvolutionales neuronales Netzwerk, das mit einer Variante des Q-Learnings trainiert wird, dessen Eingabe rohe Pixel sind und dessen Ausgabe eine Wertefunktion ist, die zukünftige Belohnungen schätzt.”
Durch die Kombination von Deep Learning und Reinforcement Learning wurde es zu einem Deep-Reinforcement-Learning-System. Bis 2013 verwendete DeepMind diese Algorithmen, um Siege gegen menschliche Spieler in Atari-2600-Spielen zu erringen – und dies wurde dadurch erreicht, dass es das menschliche Gehirn und seine Lernmechanismen durch Wiederholung nachahmte.
Ähnlich wie ein Mensch durch Wiederholung lernt, sei es durch das Kicken eines Balles oder das Spielen von Tetris, lernte auch die KI. Das neuronale Netzwerk der KI verfolgte die Leistung und verbesserte sich schrittweise, was zu stärkeren Zugriffen in der nächsten Iteration führte.
DeepMind war so dominant in seiner technologischen Führung, dass Google Zugang zu dieser Technologie erwerben musste. DeepMind wurde für mehr als 500 Millionen Dollar im Jahr 2014 erworben.
Nach dem Erwerb erlebte die KI-Branche aufeinanderfolgende Durchbrüche, eine Art, die seit dem 11. Mai 1997, als der Schachgroßmeister Garry Kasparov das erste Spiel einer sechsteiligen Partie gegen Deep Blue, einen Schachcomputer, der von Wissenschaftlern bei IBM entwickelt wurde, verlor, nicht mehr gesehen wurde.
Im Jahr 2015 verfeinerte DeepMind den Algorithmus, um ihn auf Atari-Suite von 49 Spielen zu testen, und die Maschine übertraf die menschliche Leistung in 23 davon.
Das war nur der Anfang. Später im Jahr 2015 begann DeepMind, sich auf AlphaGo zu konzentrieren, ein Programm mit dem erklärten Ziel, einen professionellen Go-Weltmeister zu besiegen. Das alte Spiel Go, das erstmals in China vor etwa 4000 Jahren gesehen wurde, gilt als das herausforderndste Spiel in der menschlichen Geschichte, mit seiner potenziellen 10360 möglichen Zügen.
DeepMind verwendete überwachtes Lernen, um das AlphaGo-System durch das Lernen von menschlichen Spielern zu trainieren. Bald darauf machte DeepMind Schlagzeilen, nachdem AlphaGo Lee Sedol, den Weltmeister, in einer fünfteiligen Partie im März 2016 besiegt hatte.
Um nicht übertroffen zu werden, veröffentlichte DeepMind im Oktober 2017 AlphaGo Zero, ein neues Modell mit dem Schlüsselmerkmal, dass es keinerlei menschliches Training benötigte. Da es kein menschliches Training benötigte, benötigte es auch keine Kennzeichnung von Daten, das System verwendete im Wesentlichen unüberwachtes Lernen. AlphaGo Zero übertraf seinen Vorgänger rasch, wie von DeepMind beschrieben.
“Frühere Versionen von AlphaGo lernten zunächst anhand von Tausenden von menschlichen Amateur- und Profispielen, um zu lernen, wie man Go spielt. AlphaGo Zero überspringt diesen Schritt und lernt, indem es einfach Spiele gegen sich selbst spielt, beginnend mit völlig zufälligem Spiel. Durch diese Vorgehensweise übertraf es rasch die menschliche Spielstärke und besiegte die zuvor veröffentlichte Version von AlphaGo mit 100 zu 0.”
Inzwischen war die SEO-Welt stark auf PageRank fokussiert, das Rückgrat von Google. Es begann im Jahr 1995, als Larry Page und Sergey Brin Doktoranden an der Stanford University waren. Das Duo begann mit einer neuen Forschungsarbeit, die mit dem Spitznamen “BackRub” bezeichnet wurde. Das Ziel war es, Webseiten in eine Maßeinheit der Bedeutung zu rangieren, indem ihre Verlinkungsdaten umgewandelt wurden. Eine Verlinkung ist einfach ein Link von einer Seite zu einer anderen, ähnlich wie dieser Link.
Der Algorithmus wurde später in PageRank umbenannt, benannt nach dem Begriff “Webseite” und dem Mitbegründer Larry Page. Larry Page und Sergey Brin hatten das ehrgeizige Ziel, eine Suchmaschine zu bauen, die rein durch Verlinkungen das gesamte Web betreiben konnte.
Und es funktionierte.
PageRank beherrscht die Schlagzeilen
SEO-Profis verstanden sofort die Grundlagen, wie Google eine Qualitätseinstufung für eine Webseite berechnet, indem es PageRank verwendet. Einige cleveren Black-Hat-SEO-Unternehmer gingen noch einen Schritt weiter und verstanden, dass es sinnvoll sein könnte, Links zu kaufen, anstatt darauf zu warten, sie organisch zu erwerben.
Eine neue Wirtschaft entstand um Verlinkungen. Eifrige Webseitenbesitzer, die die Suchmaschinen-Rankings beeinflussen wollten, kauften Links, und verzweifelte Webseitenbesitzer, die ihre Webseiten monetarisieren wollten, verkauften Links.
Die Webseiten, die Links kauften, drangen oft über Nacht in die Google-Rankings ein und übertrafen etablierte Marken.
Das Ranking mit dieser Methode funktionierte lange Zeit gut – bis es aufhörte zu funktionieren, wahrscheinlich zu dem Zeitpunkt, als maschinelles Lernen eingesetzt wurde und das zugrunde liegende Problem löste. Mit der Einführung von Deep Reinforcement Learning würde PageRank zu einer Rangvariablen und nicht mehr zum dominanten Faktor werden.
Inzwischen ist die SEO-Community in Bezug auf Linkkauf als Strategie gespalten. Ich persönlich glaube, dass Linkkauf suboptimale Ergebnisse liefert und dass die besten Methoden, um Verlinkungen zu erwerben, auf branchenspezifischen Variablen basieren. Ein legitimes Service, den ich empfehlen kann, ist HARO (Help a Reporter Out). Die Möglichkeit bei HARO besteht darin, Verlinkungen zu erwerben, indem man Medienanfragen erfüllt.
Etablierte Marken mussten sich nie um die Beschaffung von Verlinkungen kümmern, da sie den Vorteil der Zeit auf ihrer Seite hatten. Je älter eine Webseite, desto mehr Zeit hatte sie, um hochwertige Verlinkungen zu sammeln. Mit anderen Worten war ein Suchmaschinen-Ranking stark von dem Alter einer Webseite abhängig, wenn man die Metrik Zeit = Verlinkungen berechnet.
Zum Beispiel würde CNN aufgrund seiner Marke, seines Vertrauens und weil es bereits hoch gelistet war, automatisch Verlinkungen für einen Nachrichtenartikel erhalten – also erhielt es natürlich mehr Verlinkungen von Menschen, die einen Artikel recherchierten und auf den ersten Suchergebnis verlinkten, das sie fanden.
Dies bedeutete, dass höher rangierte Webseiten organisch mehr Verlinkungen erhielten. Leider bedeutete dies, dass neue Webseiten oft gezwungen waren, den Verlinkungs-Algorithmus durch den Kauf von Verlinkungen auszunutzen.
In den frühen 2000er Jahren funktionierte der Kauf von Verlinkungen erstaunlich gut und es war ein einfacher Prozess. Linkkäufer kauften Links von Webseiten mit hoher Autorität, oft sitewide Footer-Links oder vielleicht pro Artikel (oft als Gastbeitrag verkleidet), und die Verkäufer, die verzweifelt ihre Webseiten monetarisieren wollten, waren glücklich, zu entsprechen – leider oft auf Kosten der Qualität.
Schließlich verstand der Google-Talentpool von Maschinelles-Lernen-Ingenieuren, dass die Kodierung von Suchmaschinenergebnissen von Hand zwecklos war und dass ein großer Teil von PageRank handschriftlich kodiert war. Stattdessen verstanden sie, dass die KI letztendlich für die vollständige Berechnung der Rankings mit minimaler menschlicher Einmischung verantwortlich sein würde.
Um wettbewerbsfähig zu bleiben, verwendet Google jedes Werkzeug in seinem Arsenal, einschließlich Deep Reinforcement Learning – dem fortschrittlichsten Typ von Maschinellem-Lernen-Algorithmus der Welt.
Dieses System, das auf Googles Erwerb von MetaWeb aufsetzt, war ein Spielveränderer. Der Grund, warum der Erwerb von MetaWeb 2010 so wichtig war, liegt darin, dass er das Gewicht, das Google auf Schlüsselwörter legte, reduzierte. Der Kontext war plötzlich wichtig, und dies wurde durch eine Kategorisierungsmethode namens “Entitäten” erreicht. Wie Fast Company beschrieb:
Sobald Metaweb herausgefunden hat, auf welche Entität Sie sich beziehen, kann es einen Satz von Ergebnissen liefern. Es kann sogar Entitäten für komplexere Suchanfragen kombinieren – “Schauspielerinnen über 40” könnte eine Entität sein, “Schauspielerinnen, die in New York City leben”, könnte eine andere Entität sein und “Schauspielerinnen mit einem derzeit laufenden Film” könnte eine weitere Entität sein.
Diese Technologie wurde in ein wichtiges Algorithmus-Update namens RankBrain eingebaut, das im Frühjahr 2015 gestartet wurde. RankBrain konzentrierte sich auf das Verständnis des Kontexts anstelle von reinen Schlüsselwörtern und würde auch Umgebungskontexte (z. B. Standort des Suchenden) berücksichtigen und Bedeutung ableiten, wo es zuvor keine gab.
Jetzt, da wir verstehen, wie Google diese Technologien verwendet, lassen Sie uns mit Hilfe von komputationellem Denken spekulieren, wie es gemacht wird.
Was ist Deep Learning?
Deep Learning ist der am häufigsten verwendete Typ von Maschinellem Lernen – es wäre unmöglich für Google, diesen Algorithmus nicht zu verwenden.
Deep Learning wird erheblich von der Funktionsweise des menschlichen Gehirns beeinflusst und versucht, das Verhalten des Gehirns bei der Verwendung von Mustererkennung zur Identifizierung und Kategorisierung von Objekten nachzuahmen.
Zum Beispiel erkennt Ihr Gehirn automatisch die Linien und Formen, um den Buchstaben a zu identifizieren. Das gleiche gilt für die Buchstaben ap, Ihr Gehirn versucht automatisch, die Zukunft vorherzusagen, indem es mögliche Wörter wie app oder apple ableitet. Andere Muster können Zahlen, Verkehrsschilder oder die Identifizierung einer geliebten Person in einem überfüllten Flughafen umfassen.
Sie können die Verbindungen in einem Deep-Learning-System als ähnlich betrachten wie die Funktionsweise des menschlichen Gehirns mit der Verbindung von Neuronen und Synapsen.
Deep Learning ist letztendlich der Begriff, der Maschinelles-Lernen-Architekturen bezeichnet, die viele multilayer-Perzeptrone verbinden, so dass es nicht nur eine versteckte Schicht gibt, sondern viele versteckte Schichten. Je “tiefer” das Deep-Neuronale-Netzwerk ist, desto komplexere Muster kann das Netzwerk lernen.
Vollständig verbundene Netze können mit anderen Maschinelles-Lernen-Funktionen kombiniert werden, um verschiedene Deep-Learning-Architekturen zu erstellen.
Wie Google Deep Learning verwendet
Google durchforstet die Webseiten der Welt, indem es Hyperlinks (denke an Neuronen) verfolgt, die Webseiten miteinander verbinden. Dies war die ursprüngliche Methode, die Google von Anfang an verwendete und noch immer verwendet. Sobald Webseiten indiziert sind, werden verschiedene Arten von KI verwendet, um diese Schatzkiste an Daten zu analysieren.
Googles System kennzeichnet die Webseiten nach verschiedenen internen Metriken, mit nur minimaler menschlicher Eingabe oder Intervention. Ein Beispiel für eine Intervention wäre die manuelle Entfernung einer bestimmten URL aufgrund einer DMCA-Entfernungsanfrage.
Die Ingenieure von Google sind berühmt dafür, Teilnehmer auf SEO-Konferenzen zu frustrieren, und das liegt daran, dass Google-Exekutiven nie richtig erklären können, wie Google funktioniert. Wenn Fragen gestellt werden, warum bestimmte Webseiten nicht rangieren, ist es fast immer die gleiche schlecht artikulierte Antwort. Die Antwort ist so häufig, dass Teilnehmer oft vorher sagen, dass sie sich dazu verpflichtet haben, in monaten- oder jahrelanger Arbeit gute Inhalte zu erstellen, ohne positive Ergebnisse.
Vorhersehbar werden Webseitenbesitzer angewiesen, sich auf den Aufbau wertvoller Inhalte zu konzentrieren – ein wichtiger Bestandteil, aber weit entfernt von umfassend.
Dieses Fehlen einer Antwort liegt daran, dass die Exekutiven nicht in der Lage sind, die Frage richtig zu beantworten. Googles Algorithmus funktioniert in einer Black-Box. Es gibt Eingabe und Ausgabe – und so funktioniert Deep Learning.
Lassen Sie uns nun zu einer Rangliste zurückkehren, die Millionen von Webseiten negativ beeinflusst, oft ohne das Wissen des Webseitenbesitzers.
PageSpeed Insights
Google ist normalerweise nicht transparent, PageSpeed Insights ist die Ausnahme. Webseiten, die diesen Speed-Test nicht bestehen, werden in eine Penalty-Box geschickt, weil sie langsam laden – insbesondere wenn mobile Benutzer betroffen sind.
Was vermutet wird, ist, dass es irgendwann im Prozess einen Entscheidungsbaum gibt, der schnelle Webseiten von langsamen Webseiten (PageSpeed Insights nicht bestanden) trennt. Ein Entscheidungsbaum ist im Wesentlichen ein algorithmischer Ansatz, der das Datenset in einzelne Datenpunkte aufteilt, basierend auf verschiedenen Kriterien. Das Kriterium kann sein, mobile Benutzer negativ zu beeinflussen.
Hypothetisch kann eine Strafe auf die natürliche Rangliste angewendet werden. Zum Beispiel könnte eine Webseite, die ohne Strafe auf Platz 5 rangieren würde, eine -20-, -50- oder eine andere unbekannte Variable haben, die die Rangliste auf Platz 25, 55 oder eine andere Zahl, die von der KI ausgewählt wird, reduziert.
In der Zukunft können wir das Ende von PageSpeed Insights sehen, wenn Google mehr Vertrauen in seine KI hat. Diese aktuelle Intervention auf Geschwindigkeit durch Google ist gefährlich, da sie potenziell Ergebnisse eliminieren könnte, die optimal gewesen wären, und sie diskriminiert gegenüber weniger technisch versierten Benutzern.
Es ist eine große Anforderung, von jedem, der ein kleines Unternehmen leitet, zu verlangen, dass er die Expertise hat, um erfolgreich Speed-Test-Probleme zu diagnostizieren und zu beheben. Eine einfache Lösung wäre, wenn Google einfach ein Speed-Optimierungs-Plug-in für WordPress-Benutzer veröffentlichen würde, da WordPress 43% des Internets antreibt.
Leider sind alle SEO-Bemühungen vergebens, wenn eine Webseite den PageSpeed Insights-Test von Google nicht besteht. Das Risiko ist nichts weniger als das Verschwinden einer Webseite aus Google.
Wie man diesen Test besteht, ist ein Thema für einen anderen Artikel, aber als Minimum sollten Sie überprüfen, ob Ihre Webseite den Test besteht.
Ein weiteres wichtiges technisches Metrik, das man sich kümmern muss, ist ein Sicherheitsprotokoll namens SSL (Secure Sockets Layer). Dies ändert die URL einer Domäne von http zu https und stellt die sichere Übertragung von Daten sicher. Jede Webseite, die SSL nicht aktiviert hat, wird bestraft. Es gibt einige Ausnahmen von dieser Regel, aber E-Commerce- und Finanzwebseiten werden am stärksten betroffen sein.
Billige Webhoster verlangen eine jährliche Gebühr für die Implementierung von SSL, während gute Webhoster wie Siteground SSL-Zertifikate kostenlos ausstellen und automatisch integrieren.
Meta-Daten
Ein weiteres wichtiges Element auf der Webseite sind die Meta-Titel und Meta-Beschreibungen. Diese Inhaltsfelder haben eine überproportionale Bedeutung, die möglicherweise so viel zum Erfolg oder Misserfolg einer Seite beitragen kann wie der gesamte Inhalt der Seite.
Dies liegt daran, dass Google eine hohe Wahrscheinlichkeit hat, den Meta-Titel und die Meta-Beschreibung auszuwählen, um sie in den Suchergebnissen anzuzeigen. Und deshalb ist es wichtig, die Meta-Titel- und Meta-Beschreibungs-Felder so sorgfältig wie möglich auszufüllen.
Die Alternative ist, dass Google den Meta-Titel und die Meta-Beschreibung ignoriert und stattdessen automatisch generierte Daten auswählt, die es für mehr Klicks hält. Wenn Google schlecht vorhersagt, welchen Titel es automatisch generieren soll, trägt dies zu weniger Klicks durch Suchende bei und führt folglich zu verlorenen Suchmaschinen-Rankings.
Wenn Google glaubt, dass die enthaltene Meta-Beschreibung optimiert ist, um Klicks zu erhalten, wird es in den Suchergebnissen angezeigt. Wenn nicht, greift Google auf einen zufälligen Textabschnitt von der Webseite zurück. Oft wählt Google den besten Text auf der Seite, das Problem ist, dass dies ein Glücksspiel ist und Google konstant schlecht darin ist, welche Beschreibung es auswählen soll.
Natürlich kann es sinnvoll sein, Google zu erlauben, die optimierte Meta-Beschreibung auszuwählen, die am besten zur Benutzerabfrage passt, wenn man der Meinung ist, dass der Inhalt auf der Seite wirklich gut ist. Wir werden für diesen Artikel keine Meta-Beschreibung verwenden, da er inhaltsreich ist und Google wahrscheinlich eine gute Beschreibung auswählen wird.
Inzwischen klicken Milliarden von Menschen auf die besten Suchergebnisse – dies ist der Mensch-im-Schleifensystem, Googles letztes Feedback-Mechanismus – und hier kommt das Reinforcement-Learning ins Spiel.
Was ist Reinforcement-Learning?
Reinforcement-Learning ist eine Maschinelles-Lernen-Technik, die das Training eines KI-Agents durch die Wiederholung von Aktionen und assoziierten Belohnungen beinhaltet. Ein Reinforcement-Learning-Agent experimentiert in einer Umgebung, indem er Aktionen ausführt und belohnt wird, wenn die richtigen Aktionen ausgeführt werden. Im Laufe der Zeit lernt der Agent, die Aktionen auszuführen, die seine Belohnung maximieren.
Die Belohnung könnte auf einer einfachen Berechnung basieren, die die Zeit misst, die auf einer empfohlenen Seite verbracht wird.
Wenn man diese Methode mit einem Mensch-im-Schleifensystem-Subroutine kombiniert, würde dies ziemlich ähnlich klingen wie bestehende Empfehlungssysteme, die alle Aspekte unseres digitalen Lebens kontrollieren, wie YouTube, Netflix, Amazon Prime – und wenn es sich anhört, wie eine Suchmaschine funktionieren sollte, sind Sie richtig.
Wie Google Reinforcement-Learning verwendet
Der Google-Flywheel verbessert sich mit jeder Suche, Menschen trainieren die KI, indem sie das beste Ergebnis auswählen, das ihre Anfrage am besten beantwortet, und die ähnliche Anfrage von Millionen anderer Benutzer.
Der Reinforcement-Learning-Agent arbeitet kontinuierlich daran, sich selbst zu verbessern, indem er nur die positivsten Interaktionen zwischen Suche und geliefertem Suchergebnis bestärkt.
Google misst die Zeit, die es dauert, bis ein Benutzer die Ergebnisseite scannt, die URL, auf die er klickt, und die Zeit, die er auf der besuchten Webseite verbringt, und er registriert den Rückklick. Diese Daten werden dann kompiliert und mit jedem anderen Webseite verglichen, die ähnliche Daten oder Benutzererfahrungen bietet.
Eine Webseite mit einer niedrigen Aufenthaltsdauer (Zeit, die auf der Seite verbracht wird), wird dann vom Reinforcement-Learning-System mit einem negativen Wert gefüttert, und andere konkurrierende Webseiten werden getestet, um die angebotenen Rankings zu verbessern. Google ist unvoreingenommen, unter der Annahme, dass es keine manuelle Intervention gibt, Google liefert letztendlich die gewünschten Suchergebnisse.
Benutzer sind der Mensch-im-Schleifensystem, der Google kostenlose Daten liefert und zum finalen Bestandteil des Deep-Reinforcement-Learning-Systems wird. Als Gegenleistung bietet Google dem Endbenutzer die Möglichkeit, auf eine Anzeige zu klicken.
Die Anzeigen außerhalb der Generierung von Einnahmen dienen als sekundärer Rangfaktor, der mehr Daten darüber liefert, was einen Benutzer dazu bringt, zu klicken.
Google lernt im Wesentlichen, was ein Benutzer will. Dies kann lose mit einem Empfehlungssystem eines Video-Streaming-Dienstes verglichen werden. In diesem Fall würde ein Empfehlungssystem einem Benutzer Inhalte anbieten, die auf seine Interessen abgestimmt sind. Zum Beispiel könnte ein Benutzer, der regelmäßig romantische Komödien streamt, auch Parodien genießen, wenn sie dieselben Komiker haben.
Wie hilft dies SEO?
Wenn wir mit komputationellem Denken fortfahren, können wir annehmen, dass Google sich selbst trainiert hat, die besten Ergebnisse zu liefern, und dies oft durch die Befriedigung von menschlichen Vorurteilen erreicht. Es wäre tatsächlich unmöglich für Googles KI, Ergebnisse zu optimieren, die diesen Vorurteilen nicht gerecht werden, wenn sie es täte, wären die Ergebnisse suboptimal.
Mit anderen Worten gibt es kein magisches Rezept, aber es gibt einige Best-Practices.
Es ist die Verantwortung des SEO-Praktikers, die Vorurteile zu erkennen, die Google in seiner Branche sucht – und diese Vorurteile zu bedienen. Zum Beispiel suchen Personen, die nach Wahlergebnissen suchen, ohne ein Datum anzugeben, wahrscheinlich nach den neuesten Ergebnissen – dies ist ein Vorurteil der Aktualität. Jemand, der nach einem Rezept sucht, benötigt wahrscheinlich nicht die neueste Seite und kann möglicherweise ein Rezept bevorzugen, das den Test der Zeit bestanden hat.
Es ist die Verantwortung des SEO-Praktikers, Besuchern die Ergebnisse zu bieten, die sie suchen. Dies ist die nachhaltigste Möglichkeit, in Google zu rangieren.
Webseitenbesitzer müssen aufhören, ein bestimmtes Schlüsselwort anzustreben, mit der Erwartung, dass sie dem Endbenutzer alles anbieten können, was sie wollen. Das Suchergebnis muss genau den Bedarf des Benutzers erfüllen.
Was ist ein Vorurteil? Es könnte ein Domainname sein, der wie eine hohe Autorität aussieht, d. h. passt der Domainname zum Markt, den Sie bedienen? Ein Domainname mit dem Wort Indien darin kann USA-Benutzer davon abhalten, auf die URL zu klicken, aufgrund eines Nationalismus-Vorurteils, vertrauenswürdige Ergebnisse aus ihrem Wohnsitzland zu bevorzugen. Ein Einwort-Domainname kann auch den Anschein von Autorität erwecken.
Das wichtigste Vorurteil ist, was will ein Benutzer, um seine Suchanfrage zu erfüllen? Ist es eine FAQ, eine Top-10-Liste, ein Blog-Beitrag? Dies muss beantwortet werden, und die Antwort ist leicht zu finden. Sie müssen einfach die Konkurrenz analysieren, indem Sie eine Google-Suche in Ihrem Zielmarkt durchführen.
Black-Hat-SEO ist tot
Vergleichen Sie dies mit Black-Hat-SEO, einer aggressiven Methode, Webseiten zu rangieren, die schädliche SPAM-Techniken ausnutzt, einschließlich des Kaufs von Verlinkungen, der Fälschung von Verlinkungen, des Hackens von Webseiten, der automatischen Generierung von sozialen Lesezeichen im großen Maßstab und anderen dunklen Methoden, die über ein Netzwerk von Black-Hat-Tools angewendet werden.
Tools, die oft wiederverwendet und auf verschiedenen Suchmaschinen-Marketing-Foren weiterverkauft werden, Produkte mit nahezu keinem Wert und geringen Chancen auf Erfolg. Derzeit ermöglichen diese Tools es den Verkäufern, reich zu werden, während sie dem Endbenutzer minimalen Wert bieten.
Dies ist der Grund, warum ich empfehle, Black-Hat aufzugeben. Konzentrieren Sie sich auf die Optimierung einer Webseite, um Google genau das zu bieten, was es sucht.
Wie bereits beschrieben, beinhaltet dies die Aktivierung von SSL, die Optimierung der Ladezeit einer Seite und die Optimierung des Meta-Titels und der Meta-Beschreibung. Um diese Felder zu optimieren, müssen der Meta-Titel und die Meta-Beschreibung mit konkurrierenden Webseiten verglichen werden – Identifizieren Sie die gewinnenden Elemente, die zu einer hohen Klickrate führen.
Wenn Sie optimiert haben, um geklickt zu werden, ist das nächste Ziel, die beste Landingpage zu erstellen. Das Ziel ist eine Landingpage, die den Benutzerwert so sehr optimiert, dass die durchschnittliche Zeit, die auf der Seite verbracht wird, die von ähnlichen Konkurrenten, die um die Top-Suchmaschinen-Rankings kämpfen, übertrifft.
Nur indem Sie das beste Benutzererlebnis bieten, kann eine Webseite in der Rangliste aufsteigen.
Bisher haben wir diese Metriken als wichtigste identifiziert:
- Ladezeit
- SSL aktiviert
- Meta-Titel und Meta-Beschreibung
- Landingpage
Die Landingpage ist das schwierigste Element, da Sie gegen die Welt konkurrieren. Die Landingpage muss schnell laden und alles bieten, was erwartet wird, und dann den Benutzer mit mehr überraschen.
Letzte Gedanken
Es wäre leicht, weitere 2000 Wörter zu füllen, um andere KI-Technologien zu beschreiben, die Google verwendet, sowie tiefer in das Kaninchenloch von SEO zu steigen. Die Absicht hier ist es, die Aufmerksamkeit auf die wichtigsten Metriken zu lenken.
SEO-Praktiker sind so sehr darauf fokussiert, das System auszunutzen, dass sie vergessen, dass am Ende des Tages das Wichtigste bei SEO darin besteht, den Benutzern so viel Wert wie möglich zu bieten.
Eine Möglichkeit, dies zu erreichen, besteht darin, wichtige Inhalte niemals alt werden zu lassen. Wenn ich in einem Monat an eine wichtige Beiträge denke, wird es diesem Artikel hinzugefügt. Google kann dann erkennen, wie frisch der Inhalt ist, abgestimmt mit der Geschichte der Seite, die Wert liefert.
Wenn Sie sich immer noch Sorgen machen, Verlinkungen zu erwerben, ist die Lösung einfach. Respektieren Sie die Zeit Ihrer Besucher und bieten Sie ihnen Wert. Die Verlinkungen werden natürlich kommen, da Benutzer Wert in der Weitergabe Ihres Inhalts finden.
Die Frage verschiebt sich dann zum Webseitenbesitzer, wie man das beste Benutzererlebnis und den besten Benutzerwert bietet.












