Keine Panik – wenn Dir technische SEO-Fragen rund um Deinen Onlineshop Kopfzerbrechen bereiten, bist Du hier genau richtig. Unsere Website-Flüsterin und SEO-Expertin Izzi Smith hilft.
Bei der technischen SEO geht es darum, technische Faktoren Deiner Website für Suchmaschinen zu optimieren, sodass Google und Co Deine Inhalte problemlos crawlen, indexieren und in den Suchmaschinenergebnisseiten (SERPs) abbilden können.
Für eCommerce Websites und Onlineshops ist eine starke organische Performance besonders wichtig, denn sie hilft dabei, neue Kunden für den eigenen Shop und die angebotenen Produkte zu gewinnen.
Schauen wir uns gemeinsam die Grundlagen der technischen SEO für Deinen Onlineshop an:
Das Grundlegende zuerst: Deine Website mit SSL-Verschlüsselung – auch bekannt als HTTPS-Protokoll – bereitgestellt werden. Wenn das nicht der Fall ist, solltest Du das sofort in Angriff nehmen! Jetzt sofort! Kein SSL bedeutet, dass die Daten Deiner Besucher deines Shops nicht vor bösartigen Aktivitäten geschützt sind. Für einen Onlineshop, in dem Dir persönliche Daten (wie Kreditkartendaten) anvertraut werden, ist dies besonders wichtig.
Sollten Deine Seiten nicht verschlüsselt sein, wird der Benutzer zu Recht mit einem „Not Secure“-Label in seinem Browser gewarnt – und das ist ein riesiger Conversion-Killer! In einem separaten Artikel erklären wir Schritt-für-Schritt, wie man die SSL-Verschlüsselung für Websites einrichtet.
Abbildung 1: HTTP-Seiten werden im Browser als „Nicht Sicher“ angezeigt
Auch wenn Deine Website bereits HTTPS verwendet, solltest Du den Rest dieses Beitrags unbedingt lesen! Denn Du musst nicht nur das Zertifikat aktuell halten, sondern auch sicherstellen, dass Besucher nicht versehentlich auf unsichere Seiten gelangen. Das kann passieren, wenn keine permanente Weiterleitung (301) von HTTP -> HTTPS eingerichtet ist.
Ein Beispiel: Meine komplett erfundene Website myshop.com war vor einigen Jahren noch nicht SSL-verschlüsselt. Damals habe ich einen fantastischen Artikel darüber veröffentlicht, wie man vegane Gummibärchen herstellt. In diesem Artikel habe ich innerhalb des Textes auf die zugehörige Produktseite verlinkt, wobei die nicht sichere URL verwendet wurde.
Als ich dann auf HTTPS migriert habe, wurde der Artikel automatisch entsprechend aktualisiert, aber die Links, die ich manuell hinzugefügt habe, leider nicht. Das bedeutet, dass jedes Mal, wenn jemand den Artikel besucht, auf den Link klickt und zum Produktkauf möchte, er auf die unsichere Nur-HTTP-Version der Website gelangt.
Durch das Hinzufügen einer permanenten Weiterleitungsregel kannst Du das vermeiden!
Abbildung 2: Weiterleitung von HTTP-Seiten zu ihrer HTTPS-Version
Besuche eine der Seiten Deiner Website und ändere in der URL-Leiste HTTPS in HTTP.
Leitet dich der Browser nun automatisch wieder auf die HTTPS-Version um? Wenn ja, ist alles in Ordnung. Wenn Du dagegen auf der HTTP-Seite bleibst, bedeutet das, dass die Weiterleitungsregel nicht vorhanden ist und Du sie dringend einrichten solltest.
Führe einen Crawl durch, um zu erkennen, ob HTTP-Seiten entdeckt werden. Dies ist die zuverlässigste Methode, um sicherzustellen, dass die Einrichtung für alle Seiten der Website funktioniert.
Erstelle eine Weiterleitungsregel, die prüft, ob eine Seite mit http:// beginnt, und sie in diesem Fall auf dieselbe URL umleitet, aber mit https://. Dies kann über die .htaccess-Datei, ein WordPress-Plugin oder in Deinen CDN-Einstellungen erfolgen.
Vermeide Verlinkungen zu alten http://-URLs
Achte darauf, dass alle Assets (z. B. Bilder) korrekt über HTTPS bereitgestellt werden, da sonst die Gefahr besteht, dass eine Warnung für gemischte Inhalte angezeigt wird.
Suchmaschinen-Bots durchkämmen Websites wie eine Spinne, die von Seite zu Seite hüpft und dabei Links als Wege benutzt. Sie laden die Informationen herunter, analysieren sie und speichern sie in ihrem Index, so dass sie für relevante Suchanfragen gerankt werden können. Das ist zwar eine starke Vereinfachung des Prozesses, aber für das grundlegende Verständnis reicht uns das erstmal.
Wenn Suchmaschinen-Bots den Inhalt einer Seite analysieren, rufen sie zunächst einige grundlegende Informationen der Website ab.
Diese Informationen finden sich zum Teil in der robots.txt, einem reines Textdokument, das dem Crawler vorschreibt, wie er sich auf der Website verhalten soll:
Welche Seiten und Verzeichnisse nicht gecrawlt werden sollen (mit disallow:)
Welche Seiten der gesperrten Seiten und Verzeichnisse sie crawlen sollen (mit allow:)
Und alle Sitemaps oder Sitemap-Indexierungen, die berücksichtigt werden sollen (dazu kommen wir gleich)
Das sieht dann so aus:
Abbildung 3: Beispiel einer robots.txt-Datei
Die robots.txt sollte sorgfältig behandelt werden. Falls Du verhinderst, dass wichtige Seiten deines Onlineshops gecrawlt und analysiert werden, werden sie in den Suchergebnissen nicht richtig auftauchen. Du solltest nur Seiten blockieren, die für organische Besucher keinen Sinn ergeben (wie Seiten, auf denen man eingeloggt sein muss, Warenkorb-URLs, usw.).
Richtlinien für Robots hingegen sind Informationen, die in jeder Seite zu finden sind und Google mitteilen, ob die Seite „indexiert“ werden soll oder nicht und/oder ob den Links auf dieser Seite „gefolgt“ werden soll.
Durch „noindex“, also nicht-indexieren, teilst Du Google mit, dass diese Seite nicht in den Suchergebnissen auftauchen soll und somit schwieriger zu finden sein wird.
Durch „nofollow“, also nicht-verfolgen von Links auf einer Seite, teilst Du Google mit, dass die verlinkten Seiten auf dieser URL keine Link Power weitergeben sollen. Jedes Mal, wenn Du auf eine Seite verlinkst, gibst Du ihr normalerweise ein bisschen Unterstützung. „nofollow“ verhindert diese Unterstützung.
Crawling- und Indexierungsregeln sind Grundlagen, die man in der SEO unbedingt verstehen muss. Suchmaschinen daran zu hindern, Deinen Onlineshop zu crawlen, ist im Grunde genommen so, als würde man die Schaufenster eines Geschäfts abdecken und das Schild abnehmen. Sicher, einige Leute mögen zufällig darauf stoßen, aber man versteckt sich vor vielen potenziellen Kunden.
Ich weiß, das Herumbasteln an der robots.txt und an Richtlinien für Robots klingt kompliziert und ein bisschen furchteinflößend, aber das sollte Dich nicht abhalten.
Du solltest das Crawlen der Suchmaschinen nur bei URLs blockieren, bei denen es keinen Sinn hat, dass organische Besucher sie sehen. Ein Beispiel dafür sind die Kontoseiten Deiner Kunden. Betrachte diese als das Backoffice Deines Shops. Sie sind wichtig aber. nicht SEO relevant, denn Suchmaschinen und ihre Besucher müssen sie nicht finden.
Ein gutes Beispiel für eine Situation, in der es sinnvoll ist, das Crawlen durch Suchmaschinen zu blockieren, kommt vom beliebten Online-Marktplatz Zalando. Er weist den Googlebot an, Seiten nicht zu crawlen, die URLs mit Pfaden zu Warenkorb- und Kontoseiten enthalten.
Abbildung 4: robots.txt-Datei vom Onlineshop Zalando
SEO Tipp: Hindere Crawler nicht daran, „noindex“-Tags zu sehen!
Suchbots müssen in der Lage sein, Deine Inhalte zu besuchen und zu crawlen, um zu registrieren, ob Du sie auf „noindex“ gesetzt hast oder nicht. Wenn Du eine Seite auf „noindex“ gesetzt hast, sie aber auch in der robots.txt verbietest, dürfen sie die Seite und damit den „noindex“ nicht mehr lesen – und das solltest Du immer vermeiden.
Tom Tailor hat bis vor kurzem Suchmaschinen davon abgehalten, URLs zu crawlen, die ?sort=new enthielten, hat dann aber ein „noindex“ auf der Seite hinzugefügt, um zu verhindern, dass sie in der Suche auftauchen. Der Googlebot konnte die URLs zwar finden, aber die darin enthaltenen Informationen nicht crawlen. Das führt dann dazu, dass ein ziemlich hässliches Such-Snippet angezeigt wird!
Um lesen zu können, ob eine Seite auf „noindex“ gesetzt ist, sollte sie von Suchmaschinen gecrawlt werden können. Daher solltest Du diese Seiten nicht für Google über robots.txt blockieren, vor allem nicht, wenn sie verlinkt werden. Wenn ein „noindex“-Tag von Google nicht gecrawlt werden kann, erhältst Du solche Ergebnisse. Google hat die Seite aufgrund der eingehenden Verweise oder Links auf sie indexiert, aber es gibt keine weiteren Informationen dazu!
Abbildung 5: Suchergebnis-Snippets nicht-crawlbarer Seiten
Eine Sitemap ist ein Katalog all Deiner indexierbaren Seiten und hilft Suchmaschinen dabei, alle SEO relevanten Seiten zu finden. Es gibt sie in erster Linie als XML-Datei (XML ist ein Datenformat, das zum Austausch von Informationen zwischen Browsern und Servern verwendet wird). Die meisten Content Management Systeme (mit denen Du Deine Website erstellst) erstellen diese standardmäßig, was wirklich praktisch ist.
Deine Sitemap sollte nur Seiten enthalten, die für Suchmaschinen indexierbar sind. Es hat also keinen Sinn, Zeit damit zu verbringen, URLs für gesperrte oder nicht indexierbare Seiten einzutragen!
Du kannst Sitemaps für verschiedene Bereiche Deiner Website erstellen, wenn Du eine große Menge an Inhalten hast. Wenn Du WordPress verwendest, empfehlen wir die Verwendung eines Tools wie Yoast, da es Sitemaps ganz automatisch für Dich erstellt.
Abbildung 6: Beispiel einer XML-Sitemap
Eine Website-Crawling-Software (wie die von Ryte) kann Deine Website und Deine Sitemap analysieren und alle Fälle anzeigen, in denen Du entweder eine nicht indexierbare URL in die Sitemap aufgenommen hast, oder eine wichtige URL in Deiner Sitemap ausgelassen hast.
Bereit für Deinen ersten Crawl? Deine Website kannst Du ganz einfach mit der Ryte Plattform analysieren – mit dem 360° Ryte Trial sogar 10 Tage lang vollkommen kostenlos.
Die Auflistung aller Sitemaps innerhalb der robots.txt ist eine bewährte Praxis und sieht etwa so aus:
Abbildung 7: Verlinkung der Sitemap in der robots.txt-Datei
Jede Website und jeder Onlineshop ist anders und hat eigene technische Herausforderungen. Ich habe inzwischen Hunderte von Websites analysiert und Empfehlungen gegeben, und trotzdem stoße ich immer wieder auf neue SEO-Hindernisse.
Dennoch gibt es bei eCommerce-Websites eine handvoll besonders häufiger Probleme, die da wären:
👯 Duplicate Content oder schwacher Content
🧭 Facettierte Navigation
🔎 Probleme mit internen Suchergebnissen
📭 Seiten mit nicht mehr verfügbaren Artikeln
🤷♀️ Leere Kategorieseiten
💔 Defekte Inhalte (Broken Content)
Lass uns ein wenig tiefer in diese Probleme eintauchen!
Seiten mit dupliziertem Inhalt können dem organischen Erfolg Deiner Website schaden, da Google diese als Spam betrachtet – Websites mit größeren Problemen werden sogar algorithmisch abgestraft. Ein Hauptziel von Google ist es, einzigartige, hilfreiche Seiten für die Suchenden bereitzustellen, und doppelter Inhalt widerspricht diesem Ziel! Das sollte somit auch Dein Ziel bei der Suchmaschinenoptimierung sein, weshalb Du dieses Problem im Keim ersticken solltest.
Ganz einfach geht das (natürlich) mit der Ryte Plattform. Unter Quality Assurance findest Du den “Similar Pages”-Report, der Dir hilft Probleme mit ähnlichem oder doppeltem Inhalt zu finden und zu beheben:
Abbildung 8: Duplicate Content entdecken mit dem Ryte „Similar Pages“-Report
In diesem Unterabschnitt werde ich die drei Hauptursachen für doppelten oder schwachen Inhalt im Onlineshop-SEO durchgehen, nämlich die facettierte Navigation, interne Suchergebnisse und Seiten mit nicht mehr verfügbaren Artikeln.
Ein großer Problemverursacher in Sachen duplicate Content ist für Onlineshops und eCommerce Websites die facettierte Navigation (auch Facettierte Suche oder Faceted Search).
Kategorieseiten verfügen in der Regel über Filter- und Sortierfunktionen, mit denen der Benutzer die Ergebnisse nach Preis, Farbe, Größe usw. eingrenzen kann. Bei der Anwendung dieser Filter wird der URL in der Regel eine neue Zeichenkette wie ?color=red oder ?size=12 angehängt, wodurch dann meist eine eigenständige URL entsteht.
Sieh es Dir am besten selbst an! Geh auf Deine Lieblingskategorie Deines Shops und klicke auf ein paar Filter. Prüfe, ob sich die URL geändert hat.
Stell Dir alle Filter- und Sortierkombinationen Deines Onlineshops vor, und alle URLs, die dadurch generiert werden können! In vielen Fällen gibt es keine Priorität, in welcher Reihenfolge der Filter angewendet wurde (siehe Beispiel unten). Es könnte Tausende oder Millionen dieser facettierten Navigationsseiten mit unterschiedlichen URLs geben, die alle keinen wirklich einzigartigen Inhalt haben. Gruselig!
Abbildung 9: Durch Filterkombinationen können viele unterschiedliche Parameter-URLs mit (fast) gleichem Inhalt entstehen
Um mit diesem Problem entsprechend umzugehen, solltest Du eine Regel anwenden, um sicherzustellen, dass alle facettierten Navigationsseiten einen ordnungsgemäßen Verweis zurück auf die primäre Kategorieseite haben und als „noindex“ gesetzt sind, sodass diese nicht in der Google Suche gelistet werden.
Abbildung 10: Vermeidung von duplicate Content durch Canonicals (Credit: Sam Underwood)
Hinweis: In manchen Fällen kann es sinnvoll sein, diese Facettenseiten indexierbar zu machen. Das gilt aber nur, wenn es signifikante Mengen an Suchvolumen und Ergebnissen für die jeweilige Filterkombination gibt. Analysiere deshalb unbedingt, welche Filterkombinationen eine eigene Seite verdienen. Den Rest brauchst Du nicht!
Was ebenfalls zu einem aufgeblähten Index und duplicate Content führen kann, ist Deine interne Suchmaschine. Jedes Mal, wenn ein Benutzer eine Suche durchführt, um ein bestimmtes Produkt zu finden, wird eine URL wie shop.com/search?a-nice-product generiert.
Diese Pages zu indexieren hat natürlich überhaupt keinen Sinn, und wenn Du viele Suchanfragen auf Deiner Domain erhältst, könntest Du so Hunderte oder Tausende von schwachen oder irrelevanten Seiten generieren, mit denen Google natürlich nicht seine kostbare Zeit verschwenden möchte.
Zum Glück gibt es eine schnelle und einfache Lösung, um dies zu vermeiden. Sie ist der Lösung, die Du gerade für die Probleme bei der Facettensuche gefunden hast, sehr ähnlich – Du kannst das Problem in nur einem Schritt beheben.
Richte eine Regel ein, sodass alle internen Suchergebnisseiten automatisch als „noindex“ definiert sind
Zusätzlich kannst Du Suchende mittels 301-Weiterleitung auf eine Kategorieseite umleiten, wenn es eine direkte Übereinstimmung gibt. So erreichst Du ein besseres Nutzererlebnis
Sobald Google weiß, dass diese Pages nicht indexiert werden sollen (sie werden mit der Zeit langsam verschwinden), blockierst Du das Crawlen der Seiten durch Suchmaschinen, indem Du eine disallow-Regel in Deiner robots.txt einrichtest.
Abbildung 11: Disallow-Regel in der robots.txt-Datei
Ein ganz spezielles SEO-Problem von Onlineshops: Seiten mit nicht mehr verfügbaren Artikeln. Diese entstehen, wenn Deine Produkte, nun ja, nicht mehr auf Lager sind! Das ist eine ganz normale Situation, aber der richtige Umgang damit kann über die SEO-Performance Deines Onlineshops entscheiden – vor allem, wenn Du viele davon hast.
Die ideale Weise, Pages mit nicht mehr verfügbaren Artikeln zu handhaben, hängt davon ab, ob der Artikel wieder verfügbar sein wird oder nicht. Sollte der Artikel bald wieder auf Lager sein, kannst Du die Seite einfach online und indexierbar halten. Für die Konversions-Optimierung ist es dann sinnvoll, ein Benachrichtigungsfeld hinzuzufügen, in dem Besucher ihr Interesse bekunden können, benachrichtigt werden zu wollen, wenn ein Artikel wieder verfügbar ist.
Wenn ein Produkt nicht mehr verfügbar sein wird, solltest Du dies den Suchmaschinen und Besuchern klar machen. Definiere die Seite als „noindex“ und entferne alle eingehenden internen Links oder Verweise (wie Erwähnungen innerhalb Deiner Sitemap) auf die Seite. Mit der Zeit wird Google diese Pages aus dem Index entfernen, so dass organische Besucher sie nicht mehr finden können.
Hinweis: Mit Product Schema kannst Du die Seite mit Details zum Produktstatus kennzeichnen und zum Beispiel angeben, ob das Produkt vorrätig, nicht vorrätig oder saisonal verfügbar ist. Dadurch werden explizite Informationen an Suchmaschinen weitergeben und in der Google Suche als Rich Result angezeigt.
Abbildung 12: Anzeige der Produktverfügbarkeit in den Google Suchergebnissen
🤷♀️ Leere Kategorieseiten
Manchmal legen unsere CMS- oder (übereifrigen) Content-Team-Kollegen Kategorien an, ohne die volle Tragweite ihres Tuns zu bedenken. Es kann hilfreich sein, echte Nischen-Kategorieseiten zu haben, um Long-Tail-Suchanfragen (d. h. geringeres Suchvolumen, aber spezifischere Keywords) gezielt abzufangen. Was aber, wenn in dieser Kategorie gar keine Produkte verfügbar sind? Dann hast Du eine leere Seite, die ankommende Besucher und Suchmaschinen-Crawler verwirren wird.
Abbildung 13: Beispiel einer „leeren“ Kategorieseite ohne Produkte
Dieses Problem lässt sich am besten durch Behebung der Grundursache lösen. In Zusammenarbeit mit Deinen CMS- und eCommerce-Teams bist Du die Autorität, die strikt vorgibt, was als Kategorie gilt. Jede Kategorie sollte einzigartig sein und mindestens 3-5 verschiedene Produkte enthalten.
Das Entfernen bestehender Kategorieseiten aus dem Index kann mit einem noindex-Tag und dem Entfernen aller internen Links auf die Seite erfolgen. Dann sollten die Suchmaschinen sie irgendwann nicht mehr besuchen.
Defekte Seiten haben frustrierte Besucher zur Folge, besonders wenn die Seite auffällig verlinkt wurde. Nehmen wir als Beispiel den folgenden Fall. Lush hat auf der Seite eines eingestellten Produkts einen Text hinzugefügt, der dazu auffordert, nach einer ähnlichen Alternative zu suchen.
Abbildung 14: Der Link auf eine nicht-verfügbare Seite führt zu einer schlechten Nutzererfahrung
Wenn der Benutzer jedoch auf diesen Link klickt, wird er stattdessen auf eine fehlerhafte 404-Seite (nicht gefunden) geleitet. Seien wir mal ehrlich. Das ist ziemlich ärgerlich!
Wenn diese Ziele nicht erreicht werden, führt das zu einem ärgerlichen Besuch, der einen negativen Eindruck von Deiner Marke und Deiner Website hinterlassen kann. Google reduziert auch das Crawl-Budget für eine Website, die eine große Zahl fehlerhafter Seiten hat, daher ist es generell eine gute Idee, diese zu bereinigen und zu vermeiden.
Die Behebung einer defekten Seite hängt davon ab, was das Problem verursacht. Wenn die Seite nicht mehr existiert, solltest Du einfach nicht mehr intern auf sie verlinken. Wenn die Seite versehentlich gelöscht wurde, erweckst Du sie einfach wieder zum Leben, indem Du das Backup der Seite verwendest. Sollte der Link fehlerhaft eingegeben worden sein, musst Du dies auf der verlinkenden Seite beheben. Ich habe versucht, alle Fehlerbehebungen in einem Diagramm zu veranschaulichen:
Abbildung 15: Möglichkeiten zur Fehlerbehebung defekter Seiten
Tipp: In seinem Webinar hat mein Kollege Alex kürzlich über die häufigsten technischen Probleme von Onlineshops und deren Lösung gesprochen. Schau Dir die Aufzeichnung an, wenn Du mehr dazu wissen möchtest.
Wie Du hoffentlich inzwischen erkannt hast, haben eCommerce-Plattformen ihre ganz eigenen Herausforderungen und erfordern spezielle SEO Maßnahmen.
Die gute Nachricht: Du bist mit diesen Herausforderungen definitiv nicht alleine und es bewährte Methoden, um sie zu bewältigen. Denke zuallererst an die Sicherheit Deines Onlineshops, stelle sicher, dass Crawling und Indexierung korrekt eingerichtet sind, und überprüfe regelmäßig, dass keines der typischen eCommerce SEO Probleme auftritt. Übrigens – bei all dem kann Dir Ryte helfen.
Ich hoffe, dieser technical SEO-Leitfaden war hilfreich für Dich und unterstützt Dich bei der Optimierung Deines Onlineshops. Schau Dir unbedingt auch die anderen Guides meiner eCommerce SEO-Reihe an – drin behandle ich die Keyword-Recherche für eCommerce, Content-Strategie für eCommerce, die Internationalisierung von Onlineshops und Rich Results und Featured Snippets für Onlineshops.
Veröffentlicht am Feb 18, 2022 von Izzi Smith