Skip to main content

12 Fehler, die zum Scheitern von A/B-Tests führen

A/B-Tests sollten klaren Regeln folgen, damit das Ergebnis nicht verwässert oder verfälscht wird. Doch trotz ihres einfachen Charakters passieren vielen Anwendern Fehler beim A/B-Testen.

Mann vor Tablet mit Charts

 
 
A/B-Tests sind effiziente und simple Probeläufe, mit deren Hilfe sich die Performance von Webseiten und anderen Web-Auftritten deutlich verbessern lässt. Doch trotz ihres einfachen Charakters passieren vielen Anwendern Fehler beim A/B-Testen. Erstaunlicherweise kann man auch beim geradlinigen Konzept des Split-Tests – ein Projekt wird in zwei Varianten gespaltet – einiges falsch machen. Ein solcher A/B-Test sollte klaren Regeln folgen, damit das Ergebnis nicht verwässert oder verfälscht wird. Die größte potenzielle Fehlerquelle ist der Faktor Mensch. Konzeptlosigkeit, Flüchtigkeit oder Ungeduld können dieses hervorragende Tool zur praxisnahen Analyse nutzlos machen.

Heute wollen wir Ihnen einige der häufigsten Fehler bei A/B-Tests vorstellen und darüber sprechen, wie Sie diese vermeiden können. Außerdem stellen wir Ihnen einige Tools vor, die zur technischen Durchführung der Split-Tests geeignet sind.
 

Was können Sie per A/B-Test prüfen?

 
Nehmen wir an, Sie wollen die Homepage Ihrer Firma A/B-testen. Für den Test wird genau ein Element Ihrer Internetseite geprüft. Eine Produktbeschreibung könnte beispielsweise so geändert werden, dass in einer Version die Eigenschaften des Artikels und in einer anderen Version die niedrigen Kosten im Vordergrund stehen. Weiterhin ließen sich die Seitennavigation oder optische Elemente wie Buttons oder Headlines testweise verändern. Klicken Ihre User eher auf runde oder eckige Buttons? Gehen Ihre Kunden eher „zur Kasse“, wenn der Call-to-action oben oder unten auf der Shopseite angezeigt wird? Finden Sie es heraus.

 

Alphabet
 

Die häufigsten Fehler bei A/B-Tests

 

1. Nicht lange genug getestet

Brechen Sie Ihre A/B-Tests nicht zu früh ab, auch wenn diese bereits nach wenigen Tagen scheinbar deutliche Ergebnisse zeigen. Um wirklich aussagekräftige Testergebnisse über das Nutzerverhalten zu gewinnen, sollte mindestens eine Woche und unter Umständen sogar mehrere Wochen lang getestet werden. Nur so stellen Sie sicher, dass möglichst viele verschiedene Nutzer mit unterschiedlichen Vorlieben den Test durchlaufen haben.

2. Zu lange getestet

Streben Sie eine Zuverlässigkeitsrate von möglichst 95 Prozent bei Ihren A/B-Tests an. Ist diese Zahl erreicht, macht es keinen Sinn, den Test weiterlaufen zu lassen. Die Zeit ist besser investiert, um andere Bereiche neuen Prüfungen zu unterziehen.

3. Nicht parallel getestet

Ein A/B-Test ist nur dann zuverlässig, wenn Sie beide Varianten zu exakt gleicher Zeit testen. Läuft Version eins zu anderen Zeiten als Version zwei werden diese von jeweils unterschiedlichen Nutzergruppen wahrgenommen. Ihre Nutzer haben schließlich variierende Arbeitszeiten und Tagesabläufe und gehen zu verschiedenen Uhrzeiten online.

4. Zu viele Tests auf einmal

Wenn Sie in einem Projekt mehrere A/B-Tests zur gleichen Zeit durchführen, verwässern Sie Ihre Testergebnisse. Es ist dann nicht mehr einwandfrei festzustellen, ob beispielsweise Farbänderungen oder der Austausch von Bildern für eine bessere Konversionsrate gesorgt haben.

5. Zuviel verändert

Der Teufel liegt im Detail – Sie dürfen nur eine einzige Änderung machen. Verändern Sie beispielsweise eine Anleitung und das dazugehörige Bild, werden Sie nie genau wissen, welches Detail den Test mehr beeinflusst hat. Außerdem könnten zu viele zeitgleiche Änderungen Bestandskunden abschrecken, die sich bereits an die bisherigen Verhältnisse gewöhnt haben.

6. In den laufenden A/B-Test eingegriffen

Wer mitten in einem laufenden Split-Test eine oder beide Variablen verändert, setzt das ganze Projekt praktisch auf null zurück. Die bereits verstrichene Testzeit wird durch den Eingriff entwertet. Warten Sie in jedem Fall erst das Ende des A/B-Tests ab, um danach andere Varianten zu prüfen, die Ihnen in der Zwischenzeit eingefallen sind.

7. Zur falschen Zeit getestet

Suchen Sie sich für Ihren A/B-Test eine der eher unauffälligen Phasen des Jahres aus. Testen Sie zum Beispiel kurz vor Feiertagen wie Weihnachten das Kaufverhalten Ihrer Nutzer, könnten Sie ein verfälschtes Ergebnis erhalten, da in dieser Zeit ohnehin ein gesteigertes Konsumverhalten herrscht.

8. Ohne Plan getestet

Testen Sie niemals planlos drauflos. Stellen Sie zunächst eine Hypothese über das zu testende Element auf. Eine mögliche Hypothese wäre zum Beispiel die Annahme, dass ein als Mouseover-Effekt aufleuchtender Button häufiger geklickt wird als ein sich verdunkelnder Button. Überlegen Sie im Vorfeld, welche Elemente Ihrer Website aus Nutzersicht noch weiter optimiert werden können. Definieren Sie das Problem sowie den Lösungsvorschlag und weichen Sie nicht von dieser Hypothese ab, bis sie bewiesen oder widerlegt wurde.

9. Ergebnisse des A/B-Tests ignoriert oder verfälscht

Wenn Sie A/B-Tests durchführen, sollten Sie deren Ergebnisse auch ehrlich akzeptieren. Persönliche Vorlieben müssen im Zweifel zurückstehen, selbst wenn Ihr bevorzugter Entwurf den Split-Test „verloren“ hat.

10. Unnötige A/B-Tests durchgeführt

Testen Sie keine Bereiche, die nachweislich optimal funktionieren. Auch sollten Sie davon absehen, bereits erfolgreiche A/B-Testergebnisse noch weiter optimieren zu wollen. Wenn Sie beispielsweise bereits getestet haben, ob ein runder oder ein eckiger Button erfolgreicher ist, brauchen Sie nicht noch dreieckige oder sternförmige Buttons testen.

11. Überhaupt nicht getestet

Sie sind einfach davon ausgegangen, dass alles wie geplant laufen würde und es nicht nötig wäre, zu testen. Nun, womöglich geht das sogar gut und Ihr Konzept läuft wie geschmiert. In vielen Fällen verschenken Sie jedoch gute Chancen, sich zu verbessern und müssten sich im Falle des Scheiterns immer fragen, ob Sie etwas hätten besser machen können.

12. Das falsche Tool benutzt

Auch die Software, mit der Sie den A/B-Test durchgeführt haben, kann zu Fehlern führen. So können manche Tools Ihre Internetseite verlangsamen, was sowohl Ihr SEO als auch die Nutzererfahrung negativ beeinflusst. Im Folgenden stellen wir Ihnen daher einige nützliche Tools für A/B-Tests vor.

 

Werkzeug
 

Tools für A/B-Tests


 
Beim Bestreben, die häufigsten Fehler bei A/B-Tests zu vermeiden, stehen Sie nicht alleine da. Sie können auf verschiedene Tools zurückgreifen, die das Planen und Durchführen von A/B-Tests erleichtern. Hier eine kleine Auswahl der Anbieter:

 

  • AB Tasty: Alle denkbaren Arten von A/B-Tests können mithilfe von drei verschiedenen Modulen durchgeführt werden. Die Module „Testen“, „Personalisieren“ und „Engagement“ lassen sich sowohl auf Websites als auch auf mobile Seiten und native Apps anwenden. Die Grundvariante von AB Tasty kostet 199 Euro pro Monat. Dazu gibt es noch eine Premium-Edition für 299 Euro im Monat sowie eine Enterprise-Version, deren Preis Sie beim Anbieter erfragen können.
  • Optimizely: Optimizely kann A/B-Tests für Webseiten und mobile Apps durchführen. Die kostenpflichtigen Modelle werden preislich und inhaltlich individuell auf die Ansprüche des jeweiligen Kunden zugeschnitten.
  • Unbounce: Eigentlich ein Tool für den Bau von Landingpages, verfügt Unbounce auch über Funktionen für A/B-Tests. Schon mit der Einsteigervariante für 199 US-Dollar pro Monat lassen sich Split-Tests durchführen. Wenn Sie vor allem Landingpages testen wollen, könnte dieses Tool Ihnen in doppelter Hinsicht nützlich sein.
  • Sitespect: Dieses Testing-Tool ist vorwiegend auf die Bedürfnisse größerer Kunden spezialisiert. Technische Vorkenntnisse sind nicht nötig. Außerdem verwendet Sitespect eine Reverse-Proxy-Architektur, welche komplett ohne JavaScript-Tags auskommt. Sowohl statische als auch dynamische Elemente von Webseiten oder Apps können getestet werden. Dazu gehören auch Videos oder Musikdateien. Allerdings müssen Sie auch bereit sein, etwas mehr für diese Möglichkeiten zu investieren. Der Grundpreis für das monatliche Angebot von Sitespect liegt bei 2.000 Euro.

 

Fazit


 
A/B-Tests sind hervorragende Maßnahmen, um die Performance von Internetseiten, Newslettern oder Landingpages zu überprüfen und zu verbessern. Wenn Sie einige Fallstricke und unsere Hinweise beachten, können Sie Ihre Conversions maximieren und Nutzern eine bessere Kundenerfahrung verschaffen. Machen Sie sich einen guten Plan und weichen Sie nicht davon ab.
 
 
 
 

Treten Sie über 53.000 Kunden weltweit bei und nutzen Sie Textbroker für Ihr Content-Marketing.

Jetzt kostenlos anmelden

 
 


Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

Managed-Service

Sie wollen komplette Textprojekte auslagern und hochwertige Qualitätstexte erhalten? Sie interessieren sich für weitere Content-Services wie etwa Suchmaschinenoptimierung nach WDF*IDF oder die Verwaltung Ihres Blogs? Dann lernen Sie unseren Managed-Service kennen und profitieren Sie von unserem Rundum-Sorglos-Paket.

Unverbindliches Angebot anfordern!

Self-Service

Sie benötigen aktuellen Text-Content? Im Self-Service können Sie Ihren Wunschtext schnell und einfach selbst beauftragen – und das zu Top-Konditionen.

Jetzt kostenlos registrieren!

Autoren

Tausende Autoren weltweit verdienen beim Pionier unter den Textbörsen Geld mit ihren Texten. Sie entscheiden selbst, wann und wie viel sie schreiben und können sich ein flexibles Einkommen sichern. Erfahren Sie hier, wie Sie Ihre Texte zu Geld machen.

Jetzt kostenlos registrieren!