Bühne frei für unser neuestes Feature “A/B-Test”. Ab jetzt kannst Du datenbasiert vielfältige Tests durchführen, um Transparenz darüber zu erhalten, welche SEO-Maßnahmen wirklich positive Auswirkungen auf Deine Search Performance haben!
Wir alle wissen: A/B-Tests sind ein etablierter Weg, um die Performance von Websites oder Landing-Pages zu verbessern - insbesondere dann, wenn Du verschiedene Optimierungsansätze siehst, deren jeweilige Auswirkungen Du jedoch nicht zweifelsfrei abschätzen kannst. Für mehr Klarheit können hier entsprechende Test-Tools sorgen, die darauf abzielen, die Conversion Rate getesteter Seiten zu verbessern. Was machst Du jedoch, wenn Du die SEO-Auswirkungen von Website-Überarbeitungen hinsichtlich CTR, Klicks, Impressions oder Ranking-Positionen evaluieren willst? Genau hier kommt unser Feature "A/B-Test" ins Spiel!
Abbildung 1: Ryte “A/B-Test”
Im Rahmen der Durchführung von A/B-Tests (auch "Split-Test" genannt) werden zwei Versionen einer Website gegeneinander getestet, um herauszufinden, inwiefern Änderungen auf einer Seite zu positiven Auswirkungen hinsichtlich der Performance führen. Im Kontext SEO stehen dabei die Metriken Klicks, Impressions, CTR oder Position im Fokus der Betrachtung.
Eine vergleichende Analyse, welche Änderungen auf einer Seite zu welchen Auswirkungen auf die Search-Performance geführt haben, ist nicht unbedingt einfach. Auch, wenn nicht genau bekannt ist, wie der Google-Algorithmus genau arbeitet, gehen erfahrene SEOs davon aus, dass ein Ranking von mehr als 200 unterschiedliche Faktoren beeinflusst wird. Der beste Weg, um herauszufinden, was genau Deine Rankings beeinflusst, ist der Klassiker "Versuch & Irrtum" (trial & error). A/B-Tests basierend auf diesem Ansatz, sind die Regel im Rahmen der CTR-Optimierung in klassischen "Paid Advertising"-Kanälen (Display Ads, Retargeting), für den SEO-Bereich gibt es hier jedoch deutlichen Nachholbedarf.
Mit unserem neuen "A/B-Test"-Feature sorgen wir endlich für Abhilfe - sprich Du kannst ab sofort kontrollierte Tests anlegen und die Auswirkungen auf Deine Search-Performance in unserem Report einfach und genau ablesen!
Du findest unser neues Feature "A/B-Test" in der Search Engine Optimisation-Navigation. Mit diesem Feature kannst Du zwei Segmente gegenüberstellen - eine Testgruppe, für deren URLs Du von Dir vorgesehene Überarbeitungen vorgenommen hast, und eine unverändert gelassene Kontrollgruppe. Falls du keinen Zugang zum Feature hast, aber Interesse an der Nutzung hast, nimm bitte Kontakt mit uns auf.
Ein Blick auf die Ergebnisse der Testgruppe im Vergleich zur Kontrollgruppe zeigt Dir dann im Zeitverlauf auf, welche Auswirkungen Deine SEO-Maßnahmen auf die Seiten der Testgruppe bzgl. deren Search-Performance haben.
Unser neuer "A/B-Test" bietet Dir drei Vorteile:
Einfaches und schnelles Aufsetzen eines Tests inklusive einer nachvollziehbaren Erklärung der Ergebnisse für ein verständliches Reporting.
Die Ausführung des Tests auf Basis echter Google-Daten, um die realen Auswirkungen in der Google-Umgebung abbilden zu können.
Ein smarter Algorithmus, der natürliche Veränderungen außerhalb des Testszenarios (z.B. Marketing-Kampagnen, Google Updates) entsprechend im Testergebnis berücksichtigt.
Folgende Schritte ermöglichen Dir das schnelle und einfache Erstellen eines "A/B-Tests":
1. Klicke auf "Neuer Test" in der rechten, oberen Ecke
Abbildung 2: Erstellung eines neuen “A/B-Tests”
2. Erstelle eine Hypothese, die beschreibt, was Du verändert hast und mit welchen Auswirkungen Du rechnest. Ein Beispiel wäre hier "Die Integration des kostenfreien Versands im Seitentitel für x Seiten" steigert die "Klicks, Impressions, Position oder die CTR". Vergebe zusätzlich noch einen Namen für den Test.
Abbildung 3: Vier Schritte zur Testerstellung
3. Definiere die "Testgruppe" (Seiten mit Veränderung) und die "Kontrollgruppe". Du kannst Dabei beide Gruppen als ein Segment anlegen: entweder, indem Du ein neues Segment erstellst oder ein bereits bestehendes Segment nutzt.
Tipps für das Erstellen von Test- und Kontrollgruppen:
Die “Kontrollgruppe” sollte im Vergleich zur “Testgruppe” eine ähnliche Anzahl an Seiten aufweisen, um eine vergleichbare Basis zu gewährleisten.
Die Seiten beider Gruppen sollten in Sachen Inhalt und Intention ebenfalls selbstähnlich sein. Betrachten wir in diesem Kontext zum Beispiel einen Webshop, der Kategorieseiten, wie “Smartphone” oder “Tablet” bzw. Produktseiten, wie iPhone 12 oder Galaxy S21” beinhaltet. In diesem Fall solltest Du getrennte Tests für die Kategorie- und Produktseiten durchführen, um Inhalt und Intention nicht zu vermischen bzw. eindeutiger widerspiegeln zu können.
4. Ergänze das Start-Datum, zu dem Du Veränderungen auf den Seiten der "Testgruppe" vorgenommen hast.
5. Wir geben Dir Empfehlungen für die Anpassung Deines Tests, damit Du aussagekräftige Ergebnisse erhältst. Wenn wir zum Beispiel die gleichen URLs in der Test- wie auch in der Kontrollgruppe finden , informieren wir Dich darüber. Du solltest dann die Testeinrichtung auf Basis der Empfehlungen anpassen - und erst dann mit dem Test beginnen.
Nach dem Einrichten des “A/B-Tests” werden Dir in der Folge die entsprechenden Ergebnisse detailliert in unserem Report aufgelistet. Du erhältst sowohl für die “Testgruppe”, wie auch für die “Kontrollgruppe” Einblicke in Veränderungen zu Klicks, Impressionen, CTR oder der Ranking-Position.
Der Bericht zeigt auch den erwarteten Durchschnittswert der Testgruppe nach dem Start des Tests - also den Wert, der sich ergeben hätte, wenn keine Änderungen vorgenommen worden wären. Sie sehen dies an der grauen gepunkteten Linie (zum Beispiel in Abbildung 4).
Unser Report zeigt Dir zusätzlich an, mit welchen Auswirkungen auf eine Metrik innerhalb der "Testgruppe" zu rechnen gewesen wäre (gestrichelte Linie in der folgenden Abbildung), wenn Du keine Veränderungen auf den Seiten vorgenommen hättest. Dieser erwartete Durchschnittswert ergibt sich aus den Werten der "Kontrollgruppe" (Seiten, die unverändert im Rahmen des Tests laufen).
Ein Beispiel zur Verdeutlichung: Wenn sich der Durchschnittswert der Kontrollgruppe nach dem Start des Tests um 10 % erhöht, gehen wir davon aus, dass die gleiche Entwicklung in der Testgruppe stattgefunden hätte, wenn Du die Änderungen nie angewendet hättest. Diesen erwarteten Durchschnittswert der Testgruppe vergleichen wir dann mit dem tatsächlich gemessenen Durchschnittswert und leiten daraus ab, ob und inwieweit sich Deine Änderungen auf die Metrik, die Du verbessern wolltest, ausgewirkt haben.
Wenn der Test lange genug gelaufen ist, um aussagekräftige Ergebnisse zu liefern, wird der Test automatisch gestoppt.
Abbildung 4: Übersicht “A/B-Test”-Entwicklung im Zeitverlauf
Natürlich versorgt Dich unser Report auch mit einer Zusammenfassung der Ergebnisse, so dass Du einfach nachvollziehen kannst, welche Auswirkungen Deine Überarbeitungen auf den Seiten der "Testgruppe" hatten:
Abbildung 5: Test-Zusammenfassung
Wir haben eine Vorhersage implementiert, die kalkuliert, wie lange ein einzelner Test ausgeführt werden muss, um valide Testergebnisse zu erhalten. Du musst Dich also nicht fragen, wie lange Du einen Test laufen lassen solltest.
Sobald genügend Daten gesammelt wurden, berechnen wir, ob die Testergebnisse statistisch signifikant sind oder nicht. Wir zeigen Deine Test-Signifikanz auf leicht verständliche Weise in der Test-Zusammenfassung.
Auf diese Weise kannst Du feststellen, ob der Test tatsächlich zu positiven Ergebnissen geführt hat und wie wahrscheinlich es ist, dass diese Ergebnisse tatsächlich auf die Änderungen zurückzuführen sind, die Du an den Seiten der Testgruppe vorgenommen hast.
Optimiere "Meta Titles" und "Meta Descriptions"
Hast Du schon Ideen dazu, wie Du "Meta Titles" bzw. "Meta Descriptions" optimieren willst? Vielleicht hilft schon das Hinzufügen eines Datums, um zu zeigen, dass Dein Inhalt up-to-date ist. Oder ergänze "kostenfreie Lieferung", um mehr Aufmerksamkeit zu generieren.
Erhalte Inspirationen für Google Ads
Wenn Du unterschiedliche "Meta Titles" bzw. "Meta Descriptions" testest, kann Du damit auch gleichzeitig Insights für Deine Google Ads generieren. So weißt Du vor dem Invest in Ads bereits, was inhaltlich gut und was weniger gut funktioniert.
Start Tests zu Maßnahmen, die Du intern verantworten musst
Bist Du es auch leid, Dich ohne solide Datengrundlage für eingeleitete SEO-Maßnahmen rechtfertigen zu müssen? Ab sofort kannst Du mit unserem A/B-Test entsprechende Maßnahmen auf eine Datengrundlage stellen, die das interne Reporting oder Budgetforderungen vereinfachen.
Nutze die Tests, um mehr Insights zu den Google-Rankingfaktoren zu erhalten
Wenn Du ein besseres Verständnis für potentielle Rankingfaktoren bekommen möchtest, helfen Dir A/B-Tests, denn mit jedem Test kannst Du die Auswirkungen auf Deine Search Performance besser verstehen und aussteuern.
Mit unserem neuen "A/B-Test" kannst Du Deine Vermutungen einfach und schnell in datenbasiertes Wissen überführen - egal, ob Anfänger oder Profi. Du erhältst endlich genaue Antworten darauf, welche Überarbeitungen auf einzelnen Seiten zu welchen Konsequenzen in Sachen Search Performance führen. So versetzen wir Dich in die Lage, gezielt Produktbeschreibungen zu überarbeiten, unterschiedliche "Meta Title / Descriptions" zu testen oder besser einschätzen zu können, ob ein hinzugefügtes Video auch wirklich eine Wirkung entfaltet.
Klingt nach einem Problem weniger, oder?
Veröffentlicht am Mar 17, 2021 von Christian Rohr