Préférences de cookies
Nous utilisons des cookies pour l'analyse. Politique de confidentialité Vous pouvez accepter ou refuser le suivi non essentiel.
Guide pratique sur « Inadéquation du rapport d'échantillonnage: détection et causes profondes »: étapes clés, erreurs fréquentes et mise en œuvre avec Calculatrice A/B.
Aller à l'outil
Signification statistique (test Z) et intervalles de confiance.
Le décalage du rapport d'échantillonnage (SRM) signifie que la répartition réelle entre les groupes de test ne correspond pas à la répartition prévue. Vous avez configuré 50/50 mais obtenu 51,2 % de contrôle et 48,8 % de traitement. Cet écart de 1,2 point de pourcentage peut sembler faible, mais pour 100 000 utilisateurs, il est statistiquement impossible par hasard.
Le SRM invalide votre test. Si les groupes sont inégaux en taille pour une raison *systématique*, ils diffèrent probablement également dans leur composition. Toute différence de conversion observée peut provenir du biais, et non de votre modification.
Utilisez un test du chi-squared de goodness-of-fit :
chi2 = somme((observed_i - expected_i)^2 / expected_i)
Exemple : 100 000 utilisateurs, répartition attendue 50/50. Observé : 51 200 contrôle, 48 800 traitement.
chi2 = (51200 - 50000)^2 / 50000 + (48800 - 50000)^2 / 50000
chi2 = 1440000/50000 + 1440000/50000 = 28,8 + 28,8 = 57,6
Avec 1 degré de liberté, la valeur critique à p = 0,001 est de 10,83. Notre 57,6 dépasse largement cette valeur — le SRM est confirmé. Dans A/B Test Calculator, vous pouvez saisir les tailles d'échantillon pour vérifier le rapport.
Scénario : votre test montre 52 100 vs 47 900 sur une répartition 50/50 pour 100 000 utilisateurs.
chi2 = (2100^2 + 2100^2) / 50000 = 176,4 — SRM confirmé.Ouvrez A/B Test Calculator et comparez les tailles d'échantillon de votre contrôle et de votre traitement. Si le rapport est décalé de plus de 1 %, investigatez avant de faire confiance aux résultats.
Cet article est relu par l’équipe éditoriale de Tools Hub pour garantir l’exactitude, la valeur pratique et la cohérence avec les workflows produit actuels.
Dernière vérification:
Guide pratique sur « Quand arrêter un test A/B en cas de faible trafic »: étapes clés, erreurs fréquentes et mise en œuvre avec Calculatrice A/B.
Guide pratique sur « Tests A/B bayésiens et fréquentistes pour les équipes produit »: étapes clés, erreurs fréquentes et mise en œuvre avec Calculatrice A/B.
Guide pratique sur « Tests séquentiels et piège furtif »: étapes clés, erreurs fréquentes et mise en œuvre avec Calculatrice A/B.
Guide pratique sur « Tests multivariés vs tests A/B: un cadre décisionnel »: étapes clés, erreurs fréquentes et mise en œuvre avec Calculatrice A/B.