Google Everflux


Der Begriff Google Everflux bezeichnet den ständigen Positionswechsel von Websites in den Suchergebnisseiten von Google. Everflux ist ein Kofferwort, das sich aus den englischen Begriffen “ever” wie Dauer- und "flux" wie Fluktuation (Schwankung) zusammensetzt. Dies bedeutet soviel wie “andauernde Fluktuation” und beschreibt das Phänomen, dass sich die Positionen in den SERPs innerhalb kurzer Zeit oftmals um einige Plätze verschieben. Mitunter gelangen neue Websites schnell in die oberen Positionen des Index, werden aber nach kurzer Zeit wieder weiter unten gelistet. Diese Schwankungen liegen in der Art und Weise begründet, wie Google seine Suchergebnisse bildete. Nach aktuellen Informationen wird das Vorgehen in dieser Form nicht mehr angewandt.

Kurzfristige Positionierung mit Fresh Crawl

Der Google Everflux basiert auf der speziellen Art, wie Google seinen Index aktualisiert. Hierfür wird zwischen dem „Fresh Crawl“ und dem „Deep Crawl“ unterschieden. Der Fresh Crawl wird im Prinzip ständig durchgeführt – Google durchforstet das Netz fortwährend nach neuen Inhalten und nimmt diese so schnell wie möglich in einen gesonderten Index auf. Teilweise erscheinen Websites sogar innerhalb weniger Minuten in den SERPs und werden aufgrund ihrer Aktualität sogar häufig relativ weit oben in den Suchergebnislisten angezeigt.

Diese Positionierung ist allerdings nicht von Dauer. Über das schlussendliche Ranking einer Seite entscheidet schließlich der Deep Crawl. Der Fresh Crawl konzentriert sich bevorzugt auf Websites, deren Inhalte sich sehr regelmäßig ändern, beispielsweise von Nachrichtenmagazinen und aktuellen Blogs. Die Tatsache, dass aktuelle Inhalte sehr schnell in den Index gelangen und hohe Positionen einnehmen, ist Teil des Google Everflux. Dies gilt jedoch auch für die Tiefe des Crawlings: Der Fresh Crawl sammelt nur relativ oberflächlich Informationen für den Index von Google. Tiefer liegende Unterseiten werden unter Umständen erst vom Deep Crawl erfasst.

Langfristige Positionierung mit Deep Crawl

Der Deep Crawl wird jeweils in einem monatlichen Rhythmus durchgeführt und beinhaltet eine Aktualisierung des gesamten Datenbestands – dies wird auch als Data Update oder Data Refresh bezeichnet. In diesem Rahmen werden sowohl die im Hauptindex bestehenden Daten als auch die neu erfassten Websites bewertet. Es erfolgt ein Index Update, das in der SEO-Branche oft als Google Dance beschrieben wird.[1] Viele neue und aktuelle Inhalte, die nach wenigen Wochen bereits stark an Relevanz verloren haben (z. B. Neuigkeiten zum Tod bekannter Persönlichkeiten, zu den Ergebnissen von Fußballspielen oder zu den neuesten Kinofilmstarts), schaffen es im Rahmen des Deep Crawls entweder gar nicht mehr in den Index oder werden weit unten gelistet. Sie bewirken daher keine dauerhafte Änderung in den bisherigen Rankings.

Der Google Everflux hat hier seine volle Kraft entfaltet, denn die entsprechenden Unterseiten haben es schnell in den Index geschafft, sind aber ebenso schnell wieder von der Bildfläche verschwunden. Nur ein verhältnismäßig kleiner Bruchteil der neu indexierten Websites schafft es, sich dauerhaft ein gutes Ranking zu erkämpfen, indem Google eine Relevanz feststellt und die Seite daher mit einer hohen Positionierung belohnt. Bestehende Rankings können sich in diesem Fall durch den Google Everflux verschieben.

Häufig haben aber auch hochwertige Websites Probleme damit, ihr Ranking im Rahmen des Deep Crawls direkt zu behalten. Schuld daran ist, dass der Fresh Crawl die Websites nur partiell indexiert. So werden sie dann später auch in den Google Index aufgenommen – eine vollständige Bewertung kann jedoch aufgrund des unvollständigen Datenbestands nicht durchgeführt werden. Besucht der Googlebot die Website jedoch später erneut und indexiert sie vollständig, können plötzlich erneute Sprünge in den SERPs bemerkt werden. Für die Positionen in den SERPs sind natürlich auch noch andere Faktoren wie On- und OffPage-Optimierung, Backlinks und das Besucherverhalten entscheidend. Google Everflux bezieht sich lediglich auf die leichten Schwankungen in den Suchergebnissen und nicht auf das langfristige Ranking durch guten Content und eine vernünftige Optimierung.

Aktuelle Positionierung mit Caffeine und Hadoop

Google ändert seine Kernalgorithmen relativ regelmäßig und integriert sie in das System. Sobald ein Algorithmus-Update erfolgt, wirkt sich dies auf einen Teil der Suchanfragen aus. Zum Beispiel auf 1 bis 3% aller getätigten Anfragen. Nach einem solchen Update ändert sich natürlich der Datenbestand bei Crawling, Indexierung und dem Ranking. Das Google Caffeine Update war eine grundlegende Veränderung, die dazu führte, dass der Index laut Google um bis zu 50% aktueller wurde. Caffeine bezog sich auf die Infrastruktur, die Google bei der Bildung der Suchergebnisse verwendet. Nach der Einführung wird der Index ständig aktualisiert – auch global (Continous Update). Teil von Caffeine ist das inkrementelle Suchen: Der Caffeine-Algorithmus durchsucht das Web mithilfe verschiedener Crawler ständig nach neuen Inhalten, während der Index aktualisiert wird.[2] Zwischen Fresh und Deep Crawl wird bereits auf der Ebene der Infrastruktur unterschieden.

Auf diese Weise kann Google das vorhandene Crawl Budget effizient einsetzen und das stetig wachsende Internet sozusagen vermessen.[3] Dank Big Data Anwendungen wie Hadoop und insbesondere MapReduce können die enormen Datenmengen verarbeitet werden. Mittels Content Delivery Networks werden die Inhalte aus dem Index dann als SERPs den Nutzern angezeigt. Caffeine war also mehr als nur eine Änderung des Algorithmus: Google setzte seine Infrastruktur neu auf, um dem Zuwachs an Websites und Content im World Wide Web auch in Zukunft gewachsen zu sein. In diesem Zusammenhang spielt auch der RankBrain-Algorithmus eine wichtige Rolle: Durch ihn ist es Google möglich, auch bisher ungetätigte Suchanfragen akkurat zu bearbeiten und passende Ergebnisse auszuliefern.

Bedeutung für die Suchmaschinenoptimierung

Für die Suchmaschinenoptimierung hatte der Google Everflux zunächst den Vorteil, dass neue Seiten schnell in den Index aufgenommen wurden und lange Wartezeiten entfielen. Allerdings galt es für den Suchmaschinenoptimierer, den in vielen Fällen unweigerlich folgenden, erneuten Absturz in den SERPs zu verhindern. Wenn sich die Rankings von im Index bestehenden Websites zugunsten neuer, aktueller Inhalte verschlechtern, gibt es in der Regel keinen Grund zur Sorge. Ohnehin hat die Art und Weise, wie Google Websites crawlt und seinen Index bildet, nur bedingt Auswirkungen auf verschiedene SEO-Aspekte. Diese müssen nach wie vor eine wichtige Rolle spielen und sie ändern sich eher durch Algorithmus-Updates als durch Crawling- oder Index-Updates.

Suchmaschinenoptimierer sollten dennoch ihre Rankings mithilfe geeigneter Tools überwachen und stets dafür sorgen, dass die Webinhalte hochwertig und aktuell sind. Bleibt das Ranking über Wochen hinweg unverändert schlecht, sollte dringend Ursachenforschung betrieben werden – Insbesondere mit Blick auf die Suchmaschinenoptimierung und die technischen Voraussetzungen. Mögliche Ursachen können neben Verletzungen der Webmaster und Quality Guidelines beispielsweise auch ein Google Penalty oder eine schlechte Performance der Website sein. Wenn eine Abstrafung vorliegt kann ein Reconsideration Request gestellt werden.

Einzelnachweise

  1. Explaining algorithm updates and data refreshes mattcutts.com. Abgerufen am 25.01.2016
  2. Our new search index: Caffeine googleblog.blogspot.de. Abgerufen am 25.01.2016
  3. Google’s New Indexing Infrastructure “Caffeine” Now Live searchengineland.com. Abgerufen am 25.01.2016

Weblinks