Braucht es für den ersten Blick auf eine Domain wirklich schon diverse SEO Tools? Erfahre welche Aspekte Du auch ohne Crawler, Ranking-Daten & Co. analysieren kannst und wann Tool-Unterstützung wirklich nötig ist.
Einer der bekannten und nach wie vor wichtigen Ranking-Faktoren ist der Title eines Dokuments. Ein „Startseite“ im Title oder die automatische Nutzung des Seitennamens im Title, sind sichere Zeichen dafür, dass SEO bisher kein Thema war und Du auf weitere Quickwins hoffen kannst.
Abbildung 1: "Startseite" im Title - ein Zeichen für nicht vorhandenes SEO.
Ein ebenfalls einfaches Thema, das gerne von SEOs bemängelt wird, ist die Überschriftenstruktur. Mit genau einer H1 beginnend, sieht HTML Überschriften bis zu H6 vor. Diese sollten jedoch nur im Main-Content eines Dokuments genutzt und in der richtigen Abfolge verwendet werden.
Beim Paritätischen beginnen Artikel unter dem Verzeichnis „Fachinfos“ standardmäßig mit einer H3 Überschrift, eine Headline erster Ordnung (H1) existiert nicht.
Abbildung 2: Falsche HTML Überschriftenstruktur - beginnen mit H3 statt H1.
Weitere, leicht zu beeinflussende OnPage-Grundlagen, die Du schnell über den Quelltext ermitteln kannst sind z.B.:
Sprechende Bildnamen
Alt-Texte
Bildunterschriften / Captions
Meta-Description
Canonical-Tag
Google kommt mit Duplicate Content (DC) gut zurecht und dieser ist, entgegen landläufig verbreiteter SEO-Mythen, per se nicht schädlich. Dem Ranking kann DC aber trotzdem schaden, wenn sich Ranking-Signale auf verschiedene URL-Varianten verteilen können. Jeder Inhalt sollte deshalb nur unter genau einer URL aufrufbar sein.
Prüfe dazu, ob eine korrekte 301 Weiterleitung erfolgt, wenn Du die URL in mindestens folgenden Varianten aufrufst:
mit www und ohne www
mit https und mit http
mit abschließendem Slash (Trailing-Slash) und ohne
mit ein paar beliebigen zusätzlichen Zeichen innerhalb der URL
Wie Abbildung 3 zeigt, ist der Aufruf einer URL beim Paritätischen Wohlfahrtsverband sowohl über die gesicherte Variante (https) möglich, wie auch über http.
Abbildung 3: Die selbe URL ist über eine gesicherte Verbindung (HTTPS) und ungesichert über http aufrufbar.
Einige URLs sind auch tatsächlich mit HTTPS indexiert, während der Großteil über die http-Variante in Google’s Index vertreten ist.
Abbildung 5: der-paritaetische.de ist bei Google mit verschiedenen Protokollen indexiert.
In der Browser-Adresszeile ist zu den verschiedenen URL-Varianten natürlich nur die halbe Wahrheit zu sehen. Deshalb F12 im Browser drücken, dort auf den Tab „Netzwerk“ wechseln (Google Chrome) und danach die Seite neu laden. Wie dort zu erkennen, erzeugt die aus Abbildung 4 abgeänderte URL dabei einen 404 Fehler und die Version ohne / wird per 301 weitergeleitet, so sollte das sein (Abbildung 6).
Abbildung 6: Status Code 404 in der Webdeveloper Console von Google Chrome.
Es lohnt sich aber verschiedene Seitenbereiche zu testen. Im Verzeichnis Fachinfos z.B. lassen sich URLs praktisch beliebig verändern und liefern trotzdem den Statuscode 200 (Abbildung 7). Eine Situation, in der dann auch häufig verschiedene URL Varianten indexiert und gerankt werden und folglich die SEO Performance beeinträchtigt wird.
Abbildung 7: URLs im Info-Verzeichnis lassen sich nahezu beliebig abändern und liefern Status OK.
Genau an diesem Punkt liegt dann auch eine Schwäche des manuellen Testens: es können nur Stichproben gemacht werden, für den Test aller Seiten einer Domain auf eine bestimmte Fehlersituation hin, sind Tools abseits der Bordmittel des Browsers nötig.
Ist die Webdeveloper Console bereits geöffnet, lohnt sich ein Blick auf den Tab „Performance“. Sofern nicht schon vorausgewählt, solltest Du einen Haken bei „Screenshots“ setzen. Danach startest Du über das zweite Icon von links oder über STRG+Shift+E einen Reload, für den nun die Ladezeit gemessen wird.
Im folgenden Chart erscheinen dann 3 vertikale Linien:
Grün: das erste, für den User sichtbare Lebenszeichen der Seite (First Paint)
Blau: der Parser hat den kompletten HTML-Code verarbeitet und das Dokumentobjektmodell steht bereit (DOMContentLoaded). Erst jetzt ist auch der Zugriff auf alle Elemente durch JavaSript möglich. Stylesheets und Bilder können in diesem Zustand noch fehlen.
Rot: das Dokument ist vollständig geladen, inklusive aller Stylesheets und Bilder (Load)
Abbildung 8: Performance Messung beim Paritätischen in Google Chrome.
Sicher gibt es bei der hier untersuchten Seite Optimierungspotenzial in Bezug auf deren Performance. In einem kritischen Bereich liegt die Seite aber nicht, schließlich wird sie innerhalb von 1-2 Sekunden vollständig geladen, so dass wir zunächst nach weiteren, größeren Problemen Ausschau halten.
Einige Inhalte sollte jedes Dokument enthalten und kannst Du einfach über die Quellcode-Ansicht (STRG+U) prüfen. Wichtig ist dabei die Stichproben so zu wählen, dass Du zu jeder Template-Variante / jedem Seitentyp mindestens eine Seite geprüft hast. Strukturelle Fehler, die sich auf jedem Dokument einer gewissen Seitenart durchziehen, kannst Du so sehr einfach ermitteln.
Die Seitentypen beim Paritätischen Wohlfahrtsverband wären z.B.:
Startseite: http://www.der-paritaetische.de/
Level 1 Kategorien der Hauptnavigation: http://www.der-paritaetische.de/schwerpunkte/
Level 2: Unterkategorien: http://www.der-paritaetische.de/schwerpunkte/armutsbericht/
Paginierungsseiten: http://www.der-paritaetische.de/fachinfos/detail/News/alter/page/3/
Welche Dokumente Google für die Suche indexiert hat, lässt sich sehr schnell über eine Site-Abfrage ermitteln. Über site:der-paritaetische.de erfährst Du, dass Google zu dieser Domain über 8.000 Seiten im Index hat und bekommst ausschließlich Ergebnisse zur angegebenen Domain angezeigt, inklusiver aller Subdomains.
Abbildung 9: der-paritaetische.de hat über 8.000 Seiten bei Google im Index.
Wenn Du Dich etwas auf der betreffenden Website bewegt hast, dann frage Dich jetzt, ob die von Dir wahrgenommene „Größe“ der Seite mit der Anzahl an von Google indexierten Seiten übereinstimmt. Wenn Du spontan über die hohe Seitenanzahl erstaunt bist, ist das ein sicheres Zeichen für:
Technische Probleme, die zur Indexierung von URLs führen, die keinen Mehrwert für die Suche haben.
Probleme bei der Seitenarchitektur / internen Verlinkung, weil Du die Masse an Seiten offensichtlich beim Surfen auf der Seite übersehen hast.
Der eigentliche Wert der Site-Abfrage liegt aber in der Ergebnisliste.
Bei der Frage, ob die Ergebnisse der Site-Abfrage in einer bestimmten Reihenfolge ausgegeben werden, ist sich Google nicht ganz einig. Während Matt Cutts meinte, dass die Sortierung grob dem Page-Rank der einzelnen Seiten folgt und die URL-Länge ein weiterer Faktor ist, spricht John Müller von einer künstlichen Abfrage und geht nicht von einer Sortierung nach bestimmten Kriterien aus.
Du kannst jedoch davon ausgehen, dass Google keinen Zufallsgenerator einsetzt, um die Reihenfolge festzulegen, warum würde sonst so häufig die Startseite an erster Stelle auftauchen? Folglich muss es Kriterien geben, nach denen die Liste sortiert ist. Auch ohne das Wissen über die exakten Sortierkriterien, solltest Du deshalb darauf achten, dass bei der Site-Abfrage keine völlig unwichtigen Seiten weit oben stehen.
Definitiv etwas mit Relevanz hat dann außerdem die Site-Abfrage in Verbindung mit der Suche nach einem Keyword zu tun.
Auffällig beim Paritätischen ist hier bei der Site-Abfrage mit Keyword „Armutsbericht“, wie in Abbildung 10 zu sehen, das PDF Dokument auf Position 3, das von 2016 stammt. Warum es hier keine Version von 2017 gibt, obwohl diese existiert, werden wir noch herausfinden.
Abbildung 10: Site-Abfrage kombiniert mit Keyword liefert die relevantesten Ergebnisse einer Domain zum Keyword.
Vermutlich fallen Dir auf Abbildung 11 die URLs mit der Subdomain „Relaunch“ auf. Eine Site-Abfrage auf die Subdomain (site:relaunch.der-paritaetische.de) bringt weitere Ergebnisse. Scheinbar wurde der letzte Relaunch unter einer für Google crawlbaren Subdomain vorbereitet.
Abbildung 11: Site-Abfrage zeigt Ergebnisse, die man sich wohl nicht in der Suche wünscht.
Sieht auf der ersten Seite alles normal aus, solltest Du einige Seiten überspringen und Dir die Ergebnisse auf den hinteren Seiten genauer anschauen. Auf Seite 18 findet sich beim Paritätischen z.B. die URL http://www.der-paritaetische.de/fachinfos/detailseite/?tx_news_pi1%5Bnews%5D=10704&cHash=5d8e8a28b561da92ec0a986ea8ba21fa die Dir als Suchmaschinenoptimierer alleine optisch gewisse Schmerzen bereiten wird.
Abbildung 12: Weiter hinten finden sich mit einer Site-Abfrage problematische URLs.
Der Seiteninhalt sieht zunächst nach einem gewöhnlichen Artikel aus. Es liegt nahe, dass eine Funktion des CMS die seltsame URL produziert und wo anders noch eine saubere Variante davon existiert.
Im übergeordneten Verzeichnis „Fachinfos“ findet sich auf Seite 4 der Teaser zum entsprechenden Artikel, der zur sprechenden URL Variante http://www.der-paritaetische.de/fachinfos/barrieren-niederreissen-kundgebung-anlaesslich-des-kongresses-armut-und-gesundheit/ führt.
Abbildung 13: Über den Teaser wird die korrekte, sprechende, URL Variante verlinkt.
Kann das Problem technisch nicht gelöst werden, könnte diese Situation über ein Canonical-Tag, das auf letztere Variante zeigt, aufgelöst werden. Denn die Inhalte sind exakt identisch.
Auf den Seiten des Paritätischen ist aber grundsätzlich kein Canonical-Tag gesetzt. Auch wenn es keinen Fall von Duplicate Content gibt, der über ein Canonical-Tag aufzulösen wäre, sollte zumindest ein selbstreferenzierendes Canonical-Tag vorhanden sein.
Inzwischen führen die URLs wie http://relaunch.der-paritaetische.de/contact aus Abbildung 11 zu einem 404 Fehler. Generell siehst Du, indem Du einige Ergebnisse der Site-Abfrage durchklickst schnell, ob es unter den wichtigsten Seiten der Domain 404 Fehler gibt.
Abbildung 14: Einige Ergebnisse aus der Site-Abfrage liefern 404 Fehler.
Die offizielle Empfehlung von Google für Blätternavigationen, auch als Paginierungen bezeichnet, ist das Konstrukt rel=next/prev. So wird dem Bot im Header einer Seite klar gemacht, ob diese Teil einer Paginierung ist. Eine weitere Option wäre die Seiten 2 bis n mit Noindex zu versehen, auch zusätzlich zu rel=“next/prev“ kann das sinnvoll sein. Beides ist innerhalb der Paginierung des Paritätischen Wohlfahrtsverbandes aber nicht zu finden.
Eine Site-Abfrage auf http://www.der-paritaetische.de/fachinfos/detail/News/uebergreifend/page/ liefert entsprechend viele Ergebnisse von Paginierungsseiten, die Google indexiert hat.
Abbildung 15: Eine Site-Abfrage auf die Paginierung zeigt eine hohe Anzahl an indexierten Seiten der Blätternavigation.
Dass das ein Problem für die Suche sein kann, zeigt die beispielhafte Suche nach dem Title eines Artikels: „Thesen zur Weiterentwicklung solitärer Kurzzeitpflege“. Auf Platz 3 findet sich dazu die Seite 3 der Paginierung http://www.der-paritaetische.de/fachinfos/detail/News/uebergreifend/page/3/. Dort wiederum, ruft man diese Seite zu jetzigen Zeitpunkt auf, ist der entsprechende Artikel gerade an die letzte Stelle gerutscht, so dass dieser (je nach Bildschirm) gar nicht mehr im sichtbaren Bereich auftaucht. Zumindest ist dieser überhaupt noch über diese Seite zu finden. Rutscht der Artikel weiter auf Seite 4 und besucht der Google-Crawler in der Zwischenzeit die Seite nicht erneut, findet der User den über das Ergebnis ursprünglich angeteaserten Content gar nicht mehr, was in der Masse zu schlechten User-Signalen führen wird.
Abbildung 16: Statt des eigentlichen Artikels rankt bei Google eine Seite der Paginierung, auf der dieser Artikel angeteasert wird.
Da die Übersichtsseiten häufig mehr Linkpower abbekommen, als ein einzelner Artikel, ist das ein verbreitetes Problem, nicht nur bei der hier analysierten Domain.
Eine der wichtigsten Fragen ist natürlich, ob eine Domain für deren Themen gefunden wird oder nicht und ob das Ergebnis gerechtfertigt ist. Die wichtigsten Themen einer Domain lassen sich sehr schnell auch ohne Tool-Unterstützung ermitteln. Wenn nicht direkt die Navigationspunkte entsprechend der Hauptthemen benannt sind, finden sich Punkte wie „Leistungen“ oder „Über uns“, die auf die Top-Themen der Domain schließen lassen. Beim untersuchten Wohlfahrtsverband heißt der entscheidende Punkt der Hauptnavigation „Schwerpunkte“. Für die dort genannten Schlagwörter und die dazugehörigen Begriffswolken möchte der Websitebetreiber vermutlich gefunden werden.
Sofort aufgefallen ist in diesem Fall der „Armutsbericht“. Selbst jemand, der noch nichts vom Paritätischen Wohlfahrtsverband gehört hat, wird schon über den viel zitierten Armutsbericht des Verbandes gestolpert sein. Auch Google weiß das und ergänzt als Suggest u.a. direkt „paritätischer wohlfahrtsverband“.
Abbildung 17: Die Vorschläge von Google für "Armutsbericht" zeigen das Standing des Wohlfahrtsverbandes zu diesem Thema.
Dennoch liegt die Seite des Berliner Verbands dazu zum Abfragezeitpunkt nur auf Platz 7.
Abbildung 18: Top 10 Rankings zum Keyword Armutsbericht 2017.
Schaust Du Dir die rankende Seite http://www.der-paritaetische.de/schwerpunkte/armutsbericht/ an, ist das sogar noch erstaunlich und zeigt deutlich wie stark die OffPage-Signale dazu sein müssen. Denn in Sachen Content, geht es auf dieser Seite wirklich arm zu und hat diese definitiv keine Top 10 Platzierung verdient.
Abbildung 19: Kaum relevante Textinhalte zum Armutsbericht auf der Landingpage.
Über eine Cache-Abfrage wird deutlich, dass Google bei der Interpretation des clientseitig ausgeführten JavaScripts, über das die interaktive Karte dargestellt wird, Probleme hat.
Abbildung 20: Aus Sicht von Google gestaltet sich die Landingpage wegen Java-Script Einsatz noch ärmer.
Versteckt wird der eigentliche Armutsbericht dann über eine weitere Zwischenseite, die in Abbildung 21 zu erkennen, in der Subnavigation verlinkt wird (Download Armutsbericht). Erst von dieser Seite aus wird dann der Bericht als PDF verlinkt. Leider wird dieses aber über die eigene Cloud zur Verfügung gestellt, noch dazu für Google nicht crawlbar und hat somit auch in den Suchergebnissen keine Chance.
Abbildung 21: Das über die Cloud zur Verfügung gestellte PDF hat keine Chance auf ein Ranking.
Dass der Bericht bewusst vor Google versteckt wird, kann bezweifelt werden und würde auch sowieso nichts nützen, wie die Suche eines Textteils in Anführungszeichen bei Google zeigt (eine einfache Möglichkeit, nebenbei bemerkt, um Duplikate ausfindig zu machen).
Abbildung 22: Duplikate im Google Index per Suche mit Anführungszeichen ausfindig machen.
Eine Zusammenfassung der wichtigsten Erkenntnisse auf http://www.der-paritaetische.de/schwerpunkte/armutsbericht/ könnte bereits genügen, um das Ranking zu steigern. Vermutlich wäre sogar Platz 1 möglich, da die einzige echte Konkurrenz der Armutsbericht der Bundesregierung ist (aktuell Platz 1), die diesen etwas euphemistischer „Armuts- und Reichtumsbericht“ nennt.
Wie das Beispiel des Paritätischen Wohlfahrtsverbandes zeigt, lassen sich auch gänzlich ohne SEO Software bereits wertvolle Erkenntnisse für den Seitenbetreiber gewinnen. Das heißt selbstverständlich nicht, dass Tools überflüssig wären, im Gegenteil zeigt die Analyse auch die Grenzen eines solchen Ansatzes:
Für welche Keywords erhält die Domain aktuell Impressionen und Klicks?
Wie viel Traffic erhalten welche Seiten über die Google-Suche?
Liegen Indexierungsprobleme vor?
Enthält die Sitemap Fehler?
In welcher Größenordnung liegen 404 Fehler vor?
Woher erhält die Domain Links und funktionieren diese alle noch?
Welche Länge haben die Klickpfade?
Welche Seiten könnten mehr interne Links gebrauchen oder abgeben?
Diese und viele weitere Fragen, die für eine professionelle SEO Analyse gestellt werden müssen, können nur mithilfe von Daten der Google Search Console, Onpage-Crawlern wie Ryte und weiteren Tools beantwortet werden. Wer sich aber nur auf Tools verlässt, bekommt kein „Gefühl“ für die analysierte Seite und kann viel übersehen, was einem nur bei der Benutzung einer Website und beim Stochern im Google-Index klar wird.
Veröffentlicht am Apr 9, 2018 von Leonard Metzner