Wie funktioniert die Google-Suche?

Google Suche

Um zu verstehen, wie die Google-Suche funktioniert, ist es hilfreich, sich zunächst mit Googles Mission vertraut zu machen. Denn daraus leitet sich die Funktionsweise der Google-Suche gewissermaßen ab.

Die Mission von Google ist heute noch dieselbe wie vor 20 Jahren: 

“Organize the world’s information and make it universally accessible and useful.”

Der Satz ist kurz und bündig. Doch ist damit eine Viezahl an Aspekten verbunden, die ich auf dieser Seite aufdrösele. In diesem Beitrag habe ich aufgeschrieben:

  • wie Google das Internet durchsucht
  • wie der Google-Algorithmus funktioniert (was davon bekannt ist)
  • wie die Suchergebnisse von Google entstehen
  • was Ranking ist und wofür man es braucht
  • was bei einer Google-Suche passiert
  • warum die Google-Suche so schnell ist
  • welche SEO-Maßnahmen daraus resultieren

Eine Begriffsdefinition vorab: Ich halte es hier wie Google und nutze den Begriff „Website“ für die Gesamtheit eines Webauftritts inklusiver aller Unterseiten. Mit „Webseite“ ist eine einzelne URL innerhalb einer Website gemeint.

Das sind die Themen dieser Seite

Googles eigener Anspruch an die Web-Suche

Die Anforderungen, die Google an seine Suchergebnisse stellt, lassen sich in drei Kategorien ordnen:

  1. Schnelligkeit
  2. Hohe Qualität
  3. Kostenlos und frei zugänglich

Schnelligkeit

Wer einen Suchbegriff in die Google-Suche eingibt, erhält im Bruchteil von Sekunden seine Suchergebnisse. Ein Beispiel: Der Suchbegriff „Energieversorgung in Deutschland“ wirft innerhalb von 0,86 Sekunden über 300 Millionen Suchergebnisse aus.

Google Suchfeld

Eine Antwortzeit von unter einer Sekunde ist schon eine erstaunliche Leistung. Vor allem wenn man bedenkt, dass laut Google 15 Prozent aller täglichen Suchanfragen völlig neu sind!

Qualität: Relevante, zuverlässige und neutrale Suchergebnisse

Eine zweite Anforderung an die Suchergebnisse ist eine sehr hohe Qualität. Diese wiederum umfasst drei Faktoren:

  • Relevanz, 
  • Zuverlässigkeit und 
  • Neutralität.

Diese Maßstäbe werden vor allem durch eines gefährdet: Spam und Falschinformationen. Google selbst bezeichnet Spam als eine seiner größten Herausforderungen. 

Als Spam bezeichnet Google Webseiten mit schlechter Qualität, die durch Manipulation in die Suchergebnisse gelangen. Laut Google waren 40 Prozent der in Europa gefundenen Webseiten im Jahr 2019 Spam!

Die Bedrohung durch Spam ist so groß, dass Google seinen Suchalgorithmus wie ein großes Geheimnis hütet. Mehr noch: Der Suchalgorithmus wird durchschnittlich 6 Mal täglich verändert! Nur so kann verhindert werden, dass Spammer den Algorithmus manipulieren und dadurch die Qualität der Suchergebnisse negativ beeinflussen.

Kostenlos und für alle Menschen frei zugänglich

Die Google-Suche ist seit jeher für alle Menschen kostenlos und frei zugänglich nutzbar. Das soll auch so bleiben. Weltweit sollen alle Menschen den gleichen Zugang zu den besten Informationen erhalten.

“Organize the world’s information and make it universally accessible and useful.”

Die größte Bibliothek der Welt: der Google-Index

Bevor es an die eigentliche Websuche geht, stellt sich die Frage, woher Google die Suchergebnisse eigentlich nimmt. 

Organize the world’s information and make it universally accessible and useful.”

Im Grunde genommen ist Google die größte Bibliothek der Welt. In dieser Bibliothek speichert Google alle Informationen zu Webseiten. Diese Informationen sind Texte, Bilder, Videos, Bücher, Landkarten und vieles mehr.

Die Google-Bibliothek heißt Index oder Such-Index.

Säulendiagramm Anzahl Websites weltweit

Insgesamt gab es bis Januar 2021 rund 1,8 Milliarden Websites weltweit. Die Google-Bibliothek – der Index – ist also gewaltig groß und wächst zudem immer weiter. Schon heute ist die Liste der im Index gespeicherten URL so lang, dass sie mehrere Male von der Erde bis zum Mond reicht. Konkret heißt es in einem Youtube-Video von Google, dass der Index über 100 Millionen Gigabyte groß ist!

Crawling: So findet Google Webseiten

Um die Milliarden Webseiten zu finden, benutzt Google einen sogenannten Webcrawler (auch Spider oder Googlebot genannt). Der Googlebot durchsucht das Internet ständig nach neuen und aktualisierten Webseiten (URL). Dabei folgt er Links auf bekannten Seiten und entdeckt so immer neue Webadressen. Websitebetreiber können Google auch eine Liste von URL in einer Sitemap zur Verfügung stellen. 

Jede Website bekommt ein Crawlbudget zugewiesen. D. h. der Googlebot bestimmt, wann und wie oft eine Website gecrawlt wird und wie viele Seiten dieser Website aufgerufen werden.

Mit dem Auffinden einer neuen URL durch den Webcrawler ist es aber noch nicht getan. Der Googlebot durchsucht (crawlt) und analysiert die Texte, Bilder und Videos etc. auf der gesamten Seite, damit Google den Inhalt der Seite feststellen kann. Vor allem die Wörter bzw. Texte, dazu gehören auch die Überschriften und Zwischenüberschriften, helfen Google dabei, zu verstehen, worum es auf der Seite geht. Erst dann kann Google entscheiden, für wen diese Seite hilfreich sein könnte.

Mobiles Crawling und Computer Crawling

Google verwendet beim Crawling zwei verschiedene Varianten des Webcrawlers: Mit dem mobilen Webcrawler simuliert Google den Aufruf einer URL mit einem mobilen Endgerät. Mit dem Computer-Crawler wird der Aufruf auf einem Desktop-PC simuliert.

Einer der beiden Crawler wird primär genutzt. Seit die mobilen Endgeräte einen Großteil der Internetnutzung ausmachen, kommt standardmäßig der mobile Crawler zum Einsatz.

Mit welchem Webcrawler deine Website primär gecrawlt wird, kannst du in der Google Search Console nachschauen.

Wann werden Webseiten nicht gecrawlt?

Manchmal gibt es Gründe, dass Webseiten nicht gecrawlt werden sollen. Diese können in der robots.txt ausgeschlossen werden. Sind diese Seiten von anderen URL aus verlinkt, können sie aber trotzdem indexiert werden. Umgekehrt kann man in der robots.txt aber auch festlegen, welche Seiten zuerst gecrawlt werden sollen. 

Webseiten, die durch Logins, Paywalls und andere Zugangsbeschränkungen nicht für anonyme Nutzer zugänglich sind, kann Google nicht crawlen.

Doppelte Inhalte und kanonische Seiten

Zwischen dem Crawlen und der Indexierung überprüft Google, ob die gefundene Seite ein Unikat oder ein Duplikat ist.

Für Google ist einzigartiger Content eines der wichtigsten Rankingkriterien. Kopien bzw. sogenannter duplicate content sind deshalb wann immer möglich zu vermeiden. Es kann jedoch Gründe geben, warum sich die Inhalte mancher Seiten sehr ähneln oder der gleiche Inhalt über verschiedene URL erreichbar ist. In diesen Fällen kommen die kanonischen Seiten bzw. der canonical tag ins Spiel.

Was ist eine kanonische Seite?

Wenn der Crawler auf zwei oder mehrere Webseiten trifft, die scheinbar identischen oder sehr ähnlichen Inhalt haben, wählt Google die aus seiner Sicht umfangreichste und nützlichste Seite als Hauptseite aus. Diese Hauptseite ist die kanonische Seite. Sie wird häufiger gecrawlt als die Duplikate, indexiert und in den Suchergebnissen angezeigt.

Websitebetreiber können Google mitteilen, welches aus ihrer Sicht die kanonische Seite sein soll. In WordPress geht das z. B. ganz einfach mithilfe des Plugins Yoast Seo. 

Es ist nicht garantiert, dass Google dieser Anweisung folgt, aber wahrscheinlich. In manchen Fällen trifft Google aus verschiedenen Gründen trotzdem eine andere Wahl. Wenn der Googlebot kein entsprechendes Signal vorfindet, entscheidet Google auf jeden Fall selbst, was die kanonische Seite sein soll. 

In der Google Search Console kann man das URL-Prüftool nutzen, um herauszufinden, welche Webseite von Google als kanonisch bestimmt wurde. 

Und was heißt das jetzt für SEO? Maßnahmen, um das Crawling zu verbessern

Das Crawling ist der erste Schritt der Google-Suche. Deshalb solltest du sicherstellen, dass deine Website überhaupt gecrawlt werden kann. Der Googlebot crawlt Webseiten als anonymer Nutzer. Passwörter, Bezahlschranken und Anmeldedaten verhindern das Crawling. 

Achte darauf, dass die robots.txt nicht aus Versehen Regeln enthält, die das Crawling wichtiger Webseiten durch den Googlebot blockieren. Lies hierzu die Google-Anleitung zum Erstellen einer robots.txt-Datei.

Wenn du eine neue Website erstellst, die noch keine Backlinks hat, kannst du Google über die Google Search Console auf diese neue Website aufmerksam machen und das Crawlen anfordern. Auch neue oder aktualisierte URL einer vorhandenen Website kannst du hier einreichen. Wenn du sehr viele neue oder aktualisierte URL auf einmal hast, ist es sinnvoll, eine Sitemap in der Google-Search Console einzureichen.

Die wichtigste Seite für Google ist immer die Startseite. Alle wichtigen Unterseiten und Bereiche einer Website sollten durch Links von der Startseite (Navigation) aus erreichbar sein. Wenn Deine Website einen klaren Pfad aus Links hat, über den sowohl Deine Websitebesucher als auch Google auf alle Seiten zugreifen können, ist das die beste Voraussetzung dafür, dass Deine Website vollständig gecrawlt werden kann.

Die kanonische Seite und alternative Seiten sollten deutlich erkennbar gemacht werden. Ich nutze in WordPress dafür das Plugin Yoast SEO. Dort kann man die kanonische URL für jeden Beitrag ganz einfach unter „erweitert“ bestimmen.

Verlinkungen von anderen Websites sind aus verschiedenen Gründen sehr gut. Einer davon ist, dass das Crawling durch sie gefördert wird.

In der Google Search Console kannst du überprüfen, ob Google deine wichtigen URL crawlen kann. Wenn es Fehler oder Probleme gibt, wirst du es hier angezeigt bekommen. Außerdem kannst du das URL-Prüftool nutzen, um sicherzugehen, dass Google deine Seite korrekt aufrufen und rendern kann.

Neben der Google Search Console nutze ich den Screaming Frog SEO Spider. Das ist ein SEO Crawler Tool, das unglaublich viel kann. Wie der Googlebot folgt der Screaming Frog beim Crawlen allen Links deiner Website. Dabei sammelt der Frog unendlich viele wertvolle Informationen, z. B. kaputte Links, duplicate content, Weiterleitungen, Seiten mit noindex und, und, und.

Indexierung

Die gefundenen URL werden im Suchindex gespeichert. Diesen Vorgang nennt man Indexierung. Jede Webadresse, also jede URL, die indexiert wird, kann in den Google-Suchergebnissen angezeigt werden. Umgekehrt heißt das aber auch:

Die Existenz einer Webseite im Google-Index ist Grundvoraussetzung dafür, dass sie ein Suchergebnis werden kann. 

SEO-Maßnahmen, um das Indexieren zu verbessern

Eine klare Navigationsstruktur hilft Besuchern einer Website, sich gut zu orientieren. Das gilt für Google genauso. Wenn der Googlebot sich gut zurechtfindet, können URL schneller indexiert werden. Die Entwicklung einer logischen Seitenhierarchie bzw. Website-Architektur gehört zu den Kernaufgaben eines SEOs.

Der Seitentitel verrät nicht nur Google, sondern auch den Nutzern, um welches Thema es auf einer Webseite geht. Die Kunst ist es, den Titel möglichst kurz und prägnant, aber klar und eindeutig zu formulieren. Lies hierzu auch die Anleitung von Google für das Erstellen beschreibender <title>-Elemente.

Nicht nur der Titel der Seite, sondern auch die Überschrift sollte das Thema der Seite klar erkennbar machen. Nach dem jüngsten Google-Titel-Update ist die Hauptüberschrift – die H1 – einer Seite nochmal wichtiger geworden. Google zeigt seitdem immer häufiger die H 1-Überschrift anstelle des Title-Tag in den Suchergebnissen an.

Nach wie vor versteht Google Text besser als Bilder oder Videos. Wichtige Inhalte und Informationen sollten daher in Textform auf der Website abgebildet werden. So erleichtert man Google zu verstehen, worum es auf der Seite geht. Bilder und Videos sollten mit alternativem Text (Alt-Tag) und Bidunterschriften versehen und erklärt werden.

Bestimmte Seiteninhalte kann Google besser als solche erkennen und verstehen, wenn sie durch strukturierte Daten kenntlich gemacht werden. Dazu gehören z. B. Stellenanzeigen oder Rezepte.

Links haben im Internet den Stellenwert einer Referenz und sind daher sehr wertvoll. Bezahlte Werbelinks sind von Google jedoch nicht gerne gesehen. Achte deshalb darauf, dass Werbelinks mit „nofollow“ verlinkt werden, damit der Googlebot diesem Link nicht folgt.

Wenn bestimmte Seiten nicht indexiert werden sollen, kannst du diese mit dem noindex-tag aus dem Suchindex ausschließen. Voraussetzung ist, dass diese Seite nicht in der robots.txt blockiert wird.

In der Google Search Console kannst du prüfen, welche Seiten deiner Website Google gefunden und indexiert hat und welche nicht.

Wie aus einer Webseite ein Suchergebnis wird

Organize the world’s information and make it universally accessible and useful.

Wenn jemand einen Suchbegriff in die Google-Suche eingibt, beginnt eine Software damit, alle im Google-Index abgespeicherten URL nach diesem Begriff zu durchsuchen. Dann wird eine Liste aller Webseiten erstellt, die den Suchbegriff enthalten.

Doch einfach nur diese Liste in den Suchergebnissen auszuspielen, wäre nicht hilfreich. Es würde lediglich irgendeine willkürlich zusammengestellte Liste von mehreren Millionen URL ergeben. Deshalb nimmt Google in Abhängigkeit von verschiedenen Faktoren eine Bewertung der Suchergebnisse vor. 

Dadurch werden die Suchergebnisse in eine Reihenfolge gebracht, von der Google hofft, dass die hilfreichen Ergebnisse für diese spezielle Suche ganz oben und die weniger hilfreichen ganz unten stehen. Diese Bewertung der Suchergebnisse nennt man Ranking.

Ranking der Suchergebnisse

Erst das Ranking führt dazu, dass Punkt 2 der Google-Anforderungen an seine Suchergebnisse – Qualität und Relevanz – zum Tragen kommen. Und erst durch die Vorsortierung der Suchergebnisse können aus den Millionen von URL diejenigen herausgefiltert werden, die für die jeweilige Suchanfrage die hilfreichste Antwort bieten. Dem Ranking kommt deshalb eine zentrale Bedeutung in der Google-Suche zu.

Welche Ranking-Faktoren gibt es?

Laut Google gibt es insgesamt über 200 Ranking-Faktoren. Diese kommen aber nicht immer gleichbedeutend zum Einsatz. Je nach Art der Suchanfrage, Branche, Standort und Sprache der suchenden Person werden die Ranking-Faktoren unterschiedlich gewichtet. Wer z. B. nach Nachrichten sucht, soll möglichst aktuelle Newsbeiträge angezeigt bekommen. Wer eine Pizzeria in München sucht, bekommt andere Ergebnisse als jemand, der eine Pizzeria in Hamburg finden möchte. Zudem verändern sich die Ranking-Faktoren und auch deren Gewichtung immer wieder. 

Niemand kennt alle Ranking-Faktoren und deren jeweilige Gewichtung genau. Um die Suchergebnisse zu schützen und vielleicht auch um der Konkurrenz nichts zu verraten, legt Google seinen Algorithmus nicht in Gänze offen. Aber einige Ranking-Faktoren hat Google dann doch bekannt gemacht. Wahrscheinlich nicht uneigennützig. Denn nur wer die Kriterien für eine gute Webseite kennt, kann diese berücksichtigen und so zur hohen Qualität der Suchergebnisse beitragen.

Zu den konkret von Google genannten Ranking-Faktoren zählen:

  1. Keywords: relevante Suchbegriffe, die Google helfen, den Inhalt der Seite zu verstehen
  2. Links: Für Google sind Links wie Referenzen. Links von qualitativ guten und relevanten Websites auf eine andere Website nutzt Google, um die verlinkte Seite zu bewerten.
  3. Content: Google schätzt umfassende Informationen und nützliche Inhalte, die einzigartig sind.
  4. Nutzerfreundlichkeit: Die Geschwindigkeit, in der eine Webseite lädt, die visuelle Stabilität und wie schnell Nutzer mit einer Webseite interagieren können, gehören zu den Signalen im Bereich der Nutzerfreundlichkeit.

Zusammengefasst: Eine Website erfüllt dann die wesentlichen Ranking-Faktoren, wenn sie qualitativ hochwertigen Content mit hoher Relevanz auf einer technisch einwandfreien Webseite mit schneller Ladegeschwindigkeit und einer ausgezeichneten Nutzerfreundlichkeit bietet.

SEO-Maßnahmen, um das Ranking zu verbessern

Dieses Thema ist bei Weitem zu groß, um es in ein paar Bulletpoints abzufrühstücken. Deshalb nenne ich hier nur ein paar übergeordnete Beispiele, die in der Folgezeit Startpunkt für weitere Beiträge sein können.

Die große Klammer ist meiner Ansicht nach der Aspekt der Nutzerfreundlichkeit.

Eine Website, die rasch lädt und schnell zu nutzen ist, fördert die Nutzerzufriedenheit. Eine schnelle Ladezeit zahlt außerdem auf das Ziel „allgemeine gute Qualität des Internets“ ein. Beides findet Google gut und belohnt rasch ladende Webseiten mit Rankingvorteilen. Wie deine Website in Sachen Ladezeit abschneidet, kannst du mit dem Tool PageSpeed Insights prüfen.

Eine Website sollte nicht nur auf dem Desktop-PC und Tablets, sondern insbesondere auf Mobilgeräten gut funktionieren. Viele Websites werden mittlerweile zu großen Teilen von mobilen Endgeräten aus genutzt (Stichwort mobiles Crawling). Google stellt auch hier ein Tool zur Verfügung, mit dem du prüfen kannst, ob deine Website für Mobilgeräte optimiert ist.

Content ist King. Klingt abgedroschen, ist aber so. Für gute Rankings ist guter Content einer der größten Hebel. Was aber ist „guter“ Content? Für Google zählt in erster Linie, ob der Content hilfreich ist und die Suchanfrage eines Nutzers bestmöglich zufriedenstellt.

Eine Website sollte nicht nur, sie muss allein aus Datenschutzgründen mit einem SSL-Zertifikat geschützt sein. Erkennbar ist ein solches Zertifikat daran, dass in einer Webadresse https steht anstelle von http. Durch https werden Interaktionen zwischen Nutzern und einer Website verschlüsselt.

Wie künstliche Intelligenz Google dabei hilft, Suchanfragen immer besser zu verstehen

Von Beginn an war es das Bestreben von Google, für jede Suchanfrage das beste Ergebnis zu liefern. Und was ist das beste Ergebnis? Wenn es genau dem entspricht, was der User gesucht hat.

Viele Suchanfragen sind jedoch sehr komplex. Manche sind mehrdeutig, manche sind als Frage formuliert und manche werden via Voice Search in natürlicher Sprache eingegeben. Solche Suchanfragen stellen den Suchalgorithmus vor große Herausforderungen, denen sich Google mit Hilfe von künstlicher Intelligenz stellt. Zwei Beispiele sind RankBrain und BERT.

RankBrain: die Suchintention als drittwichtigster Rankingfaktor

Anfang 2015 verkündete Google den Rollout eines neuen Algorithmus mit dem Namen “RankBrain”. Der Algorithmus basiert auf maschinellem Lernen und künstlicher Intelligenz. Mit Hilfe von RankBrain kann Google bisher unbekannte Suchanfragen und die Absicht hinter einer Suchanfrage besser verstehen. 

Durch RankBrain ist der Kontext einer Suchanfrage viel wichtiger geworden. Im Kern geht es Google darum, zu verstehen, was der User mit seiner Suchanfrage gemeint hat. Konkret kann der Algorithmus z. B. mehrdeutige Suchanfragen, umgangssprachliche Suchanfragen und solche Suchanfragen besser verstehen, in denen das eigentliche Keyword gar nicht vorkommt. Und durch RankBrain kann Google Fragen beantworten.

Ein Beispiel:

Die Suchanfrage “Wie heißt die Frau von Barack Obama?” wird direkt korrekt beantwortet, obwohl das Keyword “Michelle Obama” darin gar nicht vorkommt. Vor Rankbrain wären in den Suchergebnissen wahrscheinlich Webseiten aufgelistet worden, in denen es um Barack Obama geht.

suchergebnis michelle obama

Das System ist selbstlernend: Es lernt aus den Suchergebnissen und dem darauf folgenden Verhalten des Users. D. h. Google merkt, ob mir das angezeigte Suchergebnis geholfen hat oder ob ich eine zweite präzisere Suchanfrage gestellt habe, weil die erste Antwort nicht zufriedenstellend war. Beim nächsten Mal wird Google seine Suchergebnisse entsprechend anpassen. Je häufiger solche Suchanfragen verarbeitet werden, umso besser bzw. passender werden die Suchergebnisse. 

RankBrain hat also Einfluss auf das Ranking. Mehr noch: RankBrain steht bei den Ranking-Faktoren an dritter Stelle! Das hat Google selbst gesagt. Es ist also ziemlich wichtig. Und es erklärt, warum die Suchintention ein so wesentlicher Faktor geworden ist.

BERT: Google lernt, natürliche Sprache zu verstehen

Im Jahr 2019 gab Google eine weitere Entwicklung seines Suchalgorithmus bekannt. Mit BERT gelingt es Google, die Beziehung zwischen den einzelnen Wörtern einer Suchanfrage besser zu verstehen. Dabei spielen Präpositionen und kleine Verbindungswörter oft eine wichtige Rolle, z. B. bei, für, von, nach.

Ein Beispiel:

Bei der Suchanfrage “Flüge von Frankfurt nach Vancouver” versteht Google dank BERT heute, dass ich von Frankfurt nach Vancouver fliegen möchte und nicht von Vancouver nach Frankfurt.

BERT entstammt aus dem Bereich des Natural Language Processing und basiert wie RankBrain auf künstlicher Intelligenz und Deep-Learning-Methoden.

Im Gegensatz zu RankBrain hat BERT jedoch keinen so großen Einfluss auf das Ranking. Hier geht es in erster Linie darum, den Kontext der einzelnen Wörter einer Suchanfrage besser zu verstehen.

Warum ist die Google-Suche so schnell?

Nachdem man eine ungefähre Vorstellung davon hat, was bei einer Google-Suche berücksichtigt wird, drängt sich die Frage auf, wie das so schnell funktionieren kann. Zur Erinnerung: Nach Eingabe einer Suchanfrage wird das Suchergebnis in Bruchteilen einer Sekunde angezeigt.

Das ist nur möglich, weil Google die Suchanfragen in riesigen Rechenzentren mit sehr vielen Servern verarbeitet. Diese Rechenzentren gibt es auf der ganzen Welt. In Europa gibt es ein solches Rechenzentrum in Dublin.

Eine Suchanfrage wird immer an das nächstgelegene Rechenzentrum geleitet. Wenn du in Deutschland eine Google-Suche startest, wird diese im Rechenzentrum in Dublin ankommen. Wenn du in Südafrika eine Suchanfrage startest, wird diese auf dem afrikanischen Kontinent verarbeitet usw.

Jedes dieser Rechenzentren verfügt über eine Kopie des gesamten Internets und des Google-Index. Und jeder Server in einem solchen Rechenzentrum bekommt einen Teil des Index zugewiesen. Kommt eine Suchanfrage an, arbeiten alle Server zusammen und jeder sucht in seinem Teil des Index nach den passenden URL.

Warum ist Google die Nr. 1 der Suchmaschinen?

Der Begriff googlen ist mittlerweile so fest in unserem Sprachgebrauch verankert, das er sogar im Duden zu finden ist. Mit über 90 Prozent Marktanteil in Deutschland ist Google auch im Jahr 2021 nach wie vor die unangefochtene Nummer 1 der Suchmaschinen – und bleibt damit die wichtigste Suchmaschine auch für SEOs.

Marktanteile der Suchmaschinen in Deutschland

Die Google-Suche entwickelt sich stetig weiter. Der Such-Algorithmus wird immer „schlauer“ und liefert immer bessere Ergebnisse für eine Suchanfrage. Das lobte sogar die Stiftung Warentest , die 2019 zehn Suchmaschinen unter die Lupe nahm: Ob Qualität der Suchergebnisse oder Nutzungskomfort – keine der anderen neun getesteten Suchmaschinen schnitt besser ab als Google.

Googles großes Manko bleibt der Datenschutz. Auch das war ein Ergebnis der Stiftung Warentest. Algorithmen wie RankBrain werten z. B. dein bisheriges Suchverhalten aus, um bessere Ergebnisse liefern zu können.

Suchverlauf löschen und Inkognito-Modus nutzen

Wenn du in deinem Google-Konto eingeloggt bist, speichert Google alle Suchanfragen und Webseiten, die du jemals besuchst hast. Unter https://myactivity.google.com/ kannst du sehen, welche Informationen Google von dir gespeichert hat. Hier kannst du auch deinen kompletten Suchverlauf löschen.

Wenn erst gar keine Informationen von dir gespeichert werden sollen, kannst du den Inkognito-Modus (Chrome) bzw. den Privat-Modus (Firefox) nutzen. Als SEO macht es Sinn, den privaten Suchmodus zu verwenden, wenn man neutrale und unpersonalisierte Suchergebnisse erhalten möchte.

Fazit

Die Google-Suche ist eine hochkomplexe Angelegenheit. Die hier umrissenen drei Teilprozesse Crawling, Indexierung und Ranking umfassen jeweils eine Fülle an Unterthemen.

Wichtig finde ich an der Stelle, dass es bei vielen der genannten SEO-Maßnahmen zur Verbesserung des Crawlings und der Indexierung erst einmal „nur“ um die Suchmaschinentauglichkeit geht. Wenn die Voraussetzungen erfüllt sind, dass eine URL überhaupt in den Suchergebnissen erscheinen kann, geht Suchmaschinenoptimierung erst richtig los.

In meinem Umfeld erlebe ich es häufig, dass unter Suchmaschinenoptimierung in erster Linie die Maßnahmen verstanden werden, die mit Suchmaschinentauglichkeit zu tun haben. Deshalb werde ich in meinem nächsten Beitrag ausarbeiten, was Suchmaschinenoptimierung eigentlich genau ist.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht.

Scroll to Top