A/B-Tests: Ein Leitfaden für Einsteiger
So führen Sie A/B-Tests richtig durch, berechnen die statistische Signifikanz und vermeiden häufige Fehler. Mit Beispielen aus dem E-Commerce.
Was ist ein A/B-Test?
A/B-Test ist ein Experiment, bei dem Sie zwei identischen Benutzergruppen unterschiedliche Versionen der Seite zeigen (A – Kontrolle, B – experimentell) und messen, welche das beste Ergebnis liefert.
Wie funktioniert statistische Signifikanz?
A/B-Tests verwenden den Z-Test (oder Chi-Quadrat). Wir möchten sicherstellen, dass der Unterschied in der Konvertierung kein Zufall ist.
Regel: Das Konfidenzintervall muss ≥ 95 % sein, um eine Entscheidung treffen zu können.
„
CR(A) = Conversions_A / Besucher_A
CR(B) = Conversions_B / Besucher_B
Uplift = (CR(B) - CR(A)) / CR(A) × 100 %
„
Berechnungsbeispiel
- Option A: 1000 Besucher, 80 Conversions → CR = 8 %
- Option B: 1000 Besucher, 104 Conversions → CR = 10,4 %
- Steigerung: +30 %
- Vertrauen: 97 % ✅ Akzeptiere B
Häufige Fehler
1. Beenden Sie den Test zu früh – warten Sie auf statistische Signifikanz
2. Test an Feiertagen – ungewöhnlicher Verkehr verfälscht die Ergebnisse
3. Zu viele Elemente auf einmal ändern
Wie lange muss ich warten?
Verwenden Sie den Stichprobengrößenrechner, um die Anzahl der benötigten Benutzer zu berechnen, BEVOR Sie den Test ausführen.
Testen Sie Ihren A/B-Test kostenlos mit unserem Statistikrechner.