SEO Audit


Ein SEO Audit ist ein komplexes Verfahren, um den Grad der Suchmaschinenoptimierung einer Webseite einschätzen zu können. Die technische Infrastruktur, verschiedene On-Page- und Off-Page-Faktoren, die Performance im Bereich Social Media und die SERP-Positionen der Mitbewerber werden überprüft. Das Ziel eines SEO Audits besteht darin, die Sichtbarkeit einer Website gezielt optimieren zu können.

Allgemeine Informationen zum Thema[Bearbeiten]

Üblicherweise werden Websites bei einem SEO Audit anhand von Checklisten geprüft, um auf der Basis dieser Listenpunkte Empfehlungen für Verbesserungen zu formulieren. SEO Audits können als Maßnahmen im Bereich Qualitätsmanagement beschrieben werden: Der IST-Zustand der Website wird bewertet und mit den Standards von Suchmaschinen verglichen. Der SOLL-Zustand eines SEO-Audits ist abhängig von der Website (Größe und Ziel) und den Standards der verschiedenen Suchmaschinenanbieter (Google, Bing oder Yahoo).

In der Regel werden SEO Audits von externen Agenturen, Beratern oder aber von internen SEO-Mitarbeitern realisiert. Die meisten Audits beginnen mit einem Gespräch zwischen dem Auditor und dem Website-Betreiber. Hier werden Fragen geklärt wie:[1]

  • Welches Ziel oder Geschäftsmodell verfolgt die Website?
  • Welche Schlüsselbereiche der Website sind dem Kunden besonders wichtig?
  • Welche bisherigen SEO-Maßnahmen wurden (oder werden noch) umgesetzt?
  • Wie können Änderungen am Server, der Dateiverwaltung, dem CMS und am Quellcode vorgenommen werden?
  • Welche Zugänge für die Google Search Console und Ähnliches gibt es?
  • Welche Ergebnisse können erfahrungsgemäß erwartet werden?

Aspekte eines SEO Audits[Bearbeiten]

Die Grundlagen von Audits sind zunächst Daten in Form von Arbeitsblättern oder Excel-Spreadsheets sowie ein Dokument, das dem Kunden als Handlungsempfehlung dient. Auf der Basis der gewonnenen Daten werden Empfehlungen ausgesprochen, die mit verschiedenen Symbolen gekennzeichnet werden (Zum Beispiel rote Symbole für unbedingt notwendige Änderungen). Diese Dateien sind zugleich eine Dokumentation, die dem Kunden die Arbeitsschritte transparent macht.

Server und Infrastruktur[Bearbeiten]

Um herauszufinden, wie es um die technische Infrastruktur steht, wird die Webseite entweder mithilfe eines Crawlers ausgelesen oder indirekt mit den Webmaster-Tools der Suchmaschinenanbieter überprüft (zum Beispiel Google Search Console und Bing Webmaster Tools). Der Crawler erkennt beispielsweise, ob für bestimmte URLs Fehlermeldungen vorliegen. Weitere wichtige technische Faktoren sind:[2]

  • Robots.txt und Robots Meta Tags: Ist es dem Crawler gestattet, die Webseite auszulesen? Sind einzelne Seiten durch Robots Meta Tags blockiert?
  • HTTP Status Code: Geben bestimmte URLs einen Fehlercode (4xx, 5xx und auch Soft 404) aus, wenn sie aufgerufen werden? Wie werden Weiterleitungen gehandhabt?
  • XML Sitemaps: Gibt es eine Sitemap, die der Suchmaschine zur Verfügung steht? Ist sie ein valides XML Dokument? Passen die URLs, die in der Sitemap gelistet sind, zu den Ergebnissen des Crawlers?
  • Page Speed und Time to First Byte: Wie schnell lädt die Webseite beim Aufruf eines Nutzers? Wie viel Zeit vergeht, bis das erste Byte Daten vom Server geladen wird?
  • Frames, Flash und JavaScript: Werden iFrames, Flash oder JavaScript verwendet, um Inhalte und Menüs umzusetzen?
  • Dynamische, kanonische URLs und paginierte Seiten: Werden dynamisch erzeugte URLs umgeschrieben mit mod-rewrite? Gibt es eine kanonische URL, die als Hauptdomain dient? Werden Seiten korrekt mit rel="next" und rel="prev" paginiert?


600x400-SeoAudit-01.png

Indizierung und Findbarkeit[Bearbeiten]

Wie viele URLs einer Domain sind in dem Index der jeweiligen Suchmaschine notiert? Gibt oder gab es Penalties oder manuelle Maßnahmen von Google für einzelne URLs? Diese Fragen können mit einem Vergleich des Indexes und der Ergebnisse des Crawlings beantwortet werden. Mit Kommandos wie „site:www.beispiel.de“ kann zum Beispiel der Index von Google abgefragt werden. Idealerweise passen die Daten zusammen.

Ist dies nicht der Fall, deutet es entweder auf Fehler beim Crawling hin (URLs werden nicht ausgelesen, also auch nicht indexiert) oder auf Duplicate Content (es gibt inhaltsgleiche Websites im Index).[3] Die Eingabe von relevanten Keywords (Marke, Firmenbezeichnung, Dienstleistungen, Produkte) in die Suchmaske ergibt einen zusätzlichen Blick auf die Sichtbarkeit im Hinblick auf bestimmte Schlüsselbegriffe. Auch einzelne URLs mit kompletter Adresse können so auf ihr Vorhandensein im Index geprüft werden.

Informationsarchitektur[Bearbeiten]

Die Informationsarchitektur ist die vertikale und horizontale Struktur einer Webseite, die als umgekehrter Baum dargestellt werden kann. Wie viele Klicks benötigt ein Nutzer, um innerhalb der Webseite an gesuchte Informationen zu gelangen? Wie viele Ebenen in die Tiefe hat die Webseite? Wie viele horizontale Webseiten-Elemente sind vorhanden? Die wichtigsten Unterseiten sollten mit circa drei Klicks erreichbar sein. Ebenfalls wichtig ist eine relativ flache Gesamtstruktur, da hierdurch die Customer Journey bereichert wird.

Die Webseiten-Architektur hat zudem Auswirkungen auf die Verlinkungsmöglichkeiten innerhalb der Hierarchie. Der Linkjuice sollte gleichmäßig auf die Strukturen verteilt werden, um sogenannte Silos zu vermeiden – das sind Strukturen, die den Linkjuice lediglich horizontal verteilen.[4]

On Page[Bearbeiten]

  • URLs: URLs sollten kurz, sprechend und dadurch Benutzerfreundlich sein. Zudem sollten sie die relevanten Keywords für einzelne Seiten beinhalten – und möglichst keine Sonderzeichen. Bei dynamisch erzeugten URLs werden oft Parameter verwendet. Falls dies der Fall ist, sollten diese URLs umgeschrieben oder mit der Search Console registriert werden.
  • Duplicate Content: Manche URLs erzeugen doppelte Inhalte. Dies ist unbedingt zu vermieden.
  • Content: Mithilfe eines textbasierten Browsers wie SEO Browser oder Browseo kann der Content inspiziert werden. Jede Seite sollte substantielle Informationen für die Nutzer bieten, gut lesbar sein und die wichtigsten Keywords für die einzelne Seite beinhalten. Eine übersichtliche Struktur mit der Nutzung von H1-H6 Überschriften und weiteren Textauszeichnungen ist zu empfehlen. Keyword Stuffing und grammatikalische Fehler sind zu vermeiden.
  • Meta Title: Einer der wichtigsten Rankingfaktoren. Das Title Tag beinhaltet idealerweise relevante Keywords und beschreibt den Seiteninhalt.
  • Meta Description: Gute Meta Descriptions können Nutzer auf die Webseite locken und die Click-Through-Rate erhöhen. Auch hier sollten ein oder zwei Keywords den Inhalt der Webseite beschreiben.
  • Bilder: Bilder, Logos und Grafiken sollten prägnant bezeichnet werden. Das ALT-Tag gibt eine alternative Beschreibung des Bildes an, falls Vorleseprogramme oder Ähnliches zum Einsatz kommen. Auch hier können Keywords maßvoll verwendet werden.
  • Ausgehende und interne Links: Hyperlinks fungieren als Empfehlungen für die Qualität einer Webseite. Jeder ausgehende Link sollte auf die Vertrauenswürdigkeit der Webseite, auf die Relevanz für den eigenen Content und den Ankertext überprüft werden. Fehlermeldungen und unnötige Weiterleitungen gilt es zu vermeiden. Idealerweise sind die meisten Links auf „dofollow“ eingestellt, damit sich der Linkjuice verteilen kann.[5]

Off Page[Bearbeiten]

  • Popularität: Wie sieht die Popularität im Vergleich zu den Mitbewerben aus? Wird die Webseite von anderen populären Webseiten verlinkt?
  • Vertrauenswürdigkeit: Wurde auf der Webseite Keyword Stuffing betrieben? Gibt es versteckten Text, der für Crawler unsichtbar ist? Wird Cloaking verwendet?
  • Backlinks: Ein organisches Linkprofil gehört zu den wichtigsten Kriterien bei einem SEO Audit. Wie viele Domains verlinken auf die eigene Webseite? Wie viele verschiedene Domains sind darunter? Enthält das Linkprofil nofollow-Links (gar keine nofollow-Links würden unnatürlich wirken)? Sind die Backlinks thematisch relevant und von hoher Qualität? Gibt es Webseiten, die Earned Media beinhalten?
  • Autorität: Sowohl die Autorität einzelner Unterseiten als auch die der ganzen Domain können Auswirkungen auf das Ranking haben.
  • Public Relations: Wird das Unternehmen, die Marke oder die Webseite in verschiedenen Medien erwähnt?
  • Social Media: Es gibt verschiedene Social Signals für jedes soziale Netzwerk. Meist stehen Interaktionen zwischen Nutzern und einem Profil im Fokus. Werden Inhalte verteilt? Wird die Webseite in den sozialen Medien von Nutzern erwähnt? Gibt es Influencer, die Inhalte viral verteilen? Ist das soziale Profil seo-opimiert?
  • Wettbewerb: Informationen über Mitbewerber können Kunden dabei helfen, die Stärken und Schwächen von Konkurrenten zu verstehen und das eigene Portfolio zu verbessern. Um an solche Daten zu gelangen, kann ein SEO Audit für Mitbewerber durchgeführt werden – natürlich mit bestimmten Veränderungen, da bestimmte Daten nicht verfügbar sind. Mit WDF*IDF-Analysen von Texten können darüber hinaus erfolgreiche Mitbewerber im Hinblick auf Keywords identifiziert werden.[6]

Bedeutung für die Suchmaschinenoptimierung[Bearbeiten]

Ein SEO Audit offenbart die Stärken und Schwächen einer Webseite und zeigt Verbesserungspotenziale auf. Neben den grundlegenden Aspekten wie Crawlbarkeit, Indizierung sowie On- und Off-Page-Faktoren zählt die Benutzerfreundlichkeit einer Webseite als wichtiges Signal. Zwar ändert sich das Nutzerverhalten über längere Zeiträume nur geringfügig, aber die Rankingfaktoren und Standards von Suchmaschinen verändern sich ständig. Das ist einer der Hauptgründe, warum ein SEO Audit regelmäßig stattfinden sollte.[7]

Der SEO Audit zielt nicht bloß darauf ab, eine Webseite für Suchmaschinen zu optimieren, sondern auch darauf, den Nutzern hochwertige Inhalte und eine gute Customer Journey zu bieten. Der SEO Audit ist dadurch jedoch sehr umfangreich. Einige Agenturen spalten deshalb die Bereiche auf und bieten Content Audits, On-Page Audits, Off-Page Audits und technical SEO Audits an.

Für Unternehmen mit begrenzten Budgets sind kostenlose Tools und Audit-Software unter Umständen empfehlenswert. Beispiele sind MySiteAuditor, ScreamingFrog, ZadroWeb, Found, SEO Report Card, WooRank oder Marketing Grabber.[8] Daneben gibt es noch zahlreiche Tools, die sich für bestimmte Aufgaben als sinnvoll erweisen – wie Xenu als Crawler, Google Page Speed und Pingdom als Ladezeiten-Test, SEMRush als Traffic-Test oder Opensiteexplorer als Linkprüfer. Bei der Verwendung von kostenlosen Tools sind jedoch oft fundierte Vorkenntnisse notwendig, um die Daten richtig zu interpretieren.

Einzelnachweise[Bearbeiten]

  1. SEO Site Audits: Getting Started moz.com. Abgerufen am 02.06.2015
  2. How To Perform an SEO Audit – FREE $5000 Template Included quicksprout.com. Abgerufen am 02.06.2015
  3. How to Perform the World's Greatest SEO Audit moz.com. Abgerufen am 02.06.2015
  4. Successful Site Architecture for SEO moz.com. Abgerufen am 02.06.2015
  5. SEO Audit: What is it and do I Need One? linkedin.com. Abgerufen am 02.06.2015
  6. How to perform A SEO audit of your web site (checklist included) reliablesoft.net. Abgerufen am 02.06.2015
  7. The Perennial SEO Audit – Creating an Effective Framework for Keeping Your Campaign Running at Peak Performance searchenginewatch.com. Abgerufen am 02.06.2015
  8. Top 5 Free Website Audit Tools For Agencies business2community.com. Abgerufen am 02.06.2015

Weblinks[Bearbeiten]