A/B-TestcroKonvertierungStatistiken

A/B-Tests: Ein Leitfaden für Einsteiger

So führen Sie A/B-Tests richtig durch, berechnen die statistische Signifikanz und vermeiden häufige Fehler. Mit Beispielen aus dem E-Commerce.

Veröffentlicht 23. Februar 2026·Zeit zum Lesen: 8 min

Was ist ein A/B-Test?

A/B-Test ist ein Experiment, bei dem Sie zwei identischen Benutzergruppen unterschiedliche Versionen der Seite zeigen (A – Kontrolle, B – experimentell) und messen, welche das beste Ergebnis liefert.

Wie funktioniert statistische Signifikanz?

A/B-Tests verwenden den Z-Test (oder Chi-Quadrat). Wir möchten sicherstellen, dass der Unterschied in der Konvertierung kein Zufall ist.

Regel: Das Konfidenzintervall muss ≥ 95 % sein, um eine Entscheidung treffen zu können.

CR(A) = Conversions_A / Besucher_A

CR(B) = Conversions_B / Besucher_B

Uplift = (CR(B) - CR(A)) / CR(A) × 100 %

Berechnungsbeispiel

- Option A: 1000 Besucher, 80 Conversions → CR = 8 %

- Option B: 1000 Besucher, 104 Conversions → CR = 10,4 %

- Steigerung: +30 %

- Vertrauen: 97 % ✅ Akzeptiere B

Häufige Fehler

1. Beenden Sie den Test zu früh – warten Sie auf statistische Signifikanz

2. Test an Feiertagen – ungewöhnlicher Verkehr verfälscht die Ergebnisse

3. Zu viele Elemente auf einmal ändern

Wie lange muss ich warten?

Verwenden Sie den Stichprobengrößenrechner, um die Anzahl der benötigten Benutzer zu berechnen, BEVOR Sie den Test ausführen.

Testen Sie Ihren A/B-Test kostenlos mit unserem Statistikrechner.

Wir verwenden Cookies für Analysen. Datenschutzerklärung Du kannst nicht notwendiges Tracking akzeptieren oder ablehnen.