Onlinehändler können ein Lied davon singen: Schwachstellen auf der Website können den Betreiber buchstäblich teuer zu stehen kommen. Doch Optimierungsmaßnahmen sollten nie ohne vorheriges Testing durchgeführt werden. Eine bewährte Methode ist das A/B-Testing. Dabei werden mehrere Webseiten-Varianten an Besucher ausgespielt und gegeneinander getestet. Was einfach klingt, birgt aber einige Fallstricke, die der Web-Controlling- und Targeting-Anbieter etracker aufgelistet hat.
Inhalt des Artikel
1. Wildes Testen ohne Strategie
Dass A/B-Tests im Handumdrehen erstellt werden können, verführt dazu, ohne Strategie zu handeln. Marketingverantwortliche sollten zunächst das Problem identifizieren und dann eine Hypothese formulieren: „Wenn ein Problem durch Optimierungsvorschlag verändert wird, erreichen wir eine Verbesserung durch das erwartete Ergebnis.”
2. Achtung Fehlerteufel
Wenn es an den Launch eines A/B-Tests geht, ist ebenfalls Bedacht angesagt. Einmal nicht aufgepasst und der Fehlerteufel hat sich eingeschlichen. Vor dem Release des Tests müssen Marketingverantwortliche noch einmal explizit die Funktionalität sowie die Anzeige der Varianten in unterschiedlichen Browsern und auf diversen Endgeräten prüfen.
3. Zu hohe Ziele
Mehr Bestellungen oder Umsatz als Ziel eines A/B-Tests anzugeben, kann den Test verfälschen, weil zu viele Faktoren auf den Verkauf einwirken. Es gilt, auf kürzere Conversion-Ziele zu setzen, so genannte Mikro-Conversions. Wird im A/B-Test ein neuer Call-to-Action-Button ausprobiert, kann das Ziel der Klick darauf sein.
4. Duplicate Content würgt SEO-Ranking
Ein gutes Suchmaschinenranking kann durch A/B-Tests schnell zunichte gemacht werden. Damit die Seitenvarianten von Google nicht als Duplicate Content behandelt werden, muss man den Content der Seite dynamisch ändern, so dass der Google-Crawler immer nur die Originalseite durchsucht.
5. Zu schnell Ende im Gelände
Auch wenn sich nach 100 Testbesuchern schon ein Gewinner des A/B-Tests herauskristallisiert: Die Datenmenge muss groß genug sein, um die Gewinner-Variante mit statistischer Signifikanz zu bestimmen. Typischerweise braucht es einige 100 bis 1000 Besucher pro Test, abhängig davon, wie stark sich die Conversion-Rate der Seitenvarianten vom Original unterscheidet.
6. Aus den Augen aus dem Sinn
Ein A/B-Test kann manchmal schneller ein eindeutiges Ergebnis erzielen, als man vermutet. Mit jedem Tag, an dem der A/B-Test noch läuft, büßt der Websitebetreiber Umsatz oder zumindest die definierten Conversion-Ziele ein. Ein Autopilot kann helfen. Er erkennt, wenn es eine eindeutige Gewinnervariante gibt, und spielt diese mehrheitlich aus.
7. Testing ohne Segmentierung
In der Regel werden A/B-Tests über alle Kundengruppen gefahren. Allerdings sollte der Marketingverantwortliche die Ergebnisse immer segmentieren, nach Wiederkehrern, Stammkunden etc. Das ermöglicht auch einen ersten Einblick in mögliche Personalisierungsstrategien. Je nach Besuchergruppe und Verhalten können dann personalisierte Websiteinhalte automatisch ausgespielt werden.
Olaf Brandt, Director Product Management der etracker GmbH, gibt zu bedenken:
„Die Optimierung der Website ist keine Aufgabe, die man sich einmal im Jahr vornehmen sollte, sondern eine kontinuierliche. Durch Analyse und Testing stellen Websitebetreiber sicher, dass nur Erfolg versprechende Maßnahmen umgesetzt werden.“