Les éléments suivants sont neuf erreurs qui ruinent le succès des tests A/B. Il est plus facile de faire ce qui est juste quand on sait ce qu'il ne faut pas faire. Lisez le blog maintenant!

Pourquoi testez-vous tout changement avant de le mettre en œuvre sur votre site ? Vous savez que c'est important si vous voulez améliorer l'expérience utilisateur. De plus, vous ne voulez pas perdre d'argent. Les tests A/B sont une norme d'or dans la maintenance de sites Web - vous pouvez même l'appliquer à afficher des publicités pour augmenter vos revenus publicitaires.

Le seul problème est qu'ils ne vous donnent pas toujours des résultats précis. Cela ne signifie pas que nous devrions tous simplement abandonner les tests A/B et nous en tenir aux méthodes démodées consistant à être guidés par l'intuition ou à faire ce que tout le monde fait. Les tests A/B sont utiles et importants ; vous avez juste besoin d'éviter les erreurs de cette pratique.

Passons en revue 9 erreurs courantes qui ruinent le succès des tests A/B. Quand tu sais ce que tu le feu du rasoir faire, il est plus facile de faire la bonne chose.

1. Couper les tests A/B trop tôt dans le processus

C'est la recette parfaite pour obtenir des résultats statistiquement insignifiants. On est tous passés par là : faire le test A/B pendant trois jours et se rendre compte qu'une des versions est absolument supérieure à l'autre. Oui, il est possible de voir une différence énorme entre les deux versions et de penser que continuer les tests n'a aucun sens.

A ce stade, il y a une chose importante à retenir : N'arrêtez PAS le test !

À plus long terme, la variante qui semble inférieure au premier abord pourrait s'avérer meilleure. Si vous quittez le test trop tôt dans le processus, vous perdrez des conversions et vous frustrerez la majeure partie de votre public.

Comment savez-vous quelle est la bonne durée des tests, de toute façon ? Vous pouvez utiliser L'outil de VWO pour te donner la réponse : Calculateur de durée de test fractionné et multivarié A/B. Il vous donnera une estimation de la durée appropriée des tests A/B en fonction de plusieurs facteurs : l'amélioration minimale des conversions que vous souhaitez détecter, le taux de conversion existant estimé, le nombre moyen de visiteurs quotidiens, le nombre de variantes à exécuter et le pourcentage de visiteurs inclus dans le test. test.

2. Exécuter des tests A/B sans hypothèse

Posez-vous cette question : pourquoi exécutez-vous le test A/B ? Est-ce parce que tous les autres spécialistes du marketing le font ? L'approche « Je vais juste tester les choses jusqu'à ce que quelque chose fonctionne » est fausse. Vous avez besoin d'une hypothèse. Vous devez être presque sûr que quelque chose fonctionnera, puis vous le testerez juste pour obtenir l'approbation finale avant de mettre en œuvre la mise à jour.

Établissez une hypothèse : Le public préférera la version A à la version B. Ensuite, testez pour prouver que cette hypothèse est bonne ou mauvaise. Le but est d'en savoir plus sur le public. Les informations que vous obtenez grâce aux tests A/B vous aideront à améliorer votre théorie client globale et à proposer de meilleures hypothèses à tester à l'avenir.

3. Ignorer un test échoué

Il y a un un exemple cela nous apprend une leçon. Pour l'amélioration du site TruckersReport, l'équipe a effectué 6 séries de tests et ils ont fini par utiliser une version qui était 79.3 % meilleure que la précédente.

Bien que la variante de l'ancien site Web soit bien meilleure en termes de conception, le contrôle l'a battu au premier test de 13.56 %. Ce test A/B montre que vous avez échoué dans vos tentatives de booster le design du site. L'équipe s'est-elle arrêtée là ? Non. Ils ont décidé que d'autres tests étaient nécessaires pour comprendre pourquoi cela s'était produit. Ils ont défini une hypothèse pour le problème potentiel et ajouté d'autres changements dans la variation.

Lors du deuxième test, l'original a battu la variation avec une différence de 21.7 % dans le bas des conversions de l'entonnoir. Ils ont continué les tests et ont fini par utiliser la variante 3, qui a obtenu des performances 79.3 % supérieures à celles de la page de destination d'origine.

Voici la leçon à apprendre : Un seul test qui montre que vous avez échoué ne signifie pas que vous devez arrêter le processus et vous en tenir au bon vieux design. Vous continuez à tester et à comprendre pourquoi les variantes ne fonctionnent pas jusqu'à ce que vous en trouviez une qui fonctionne.

4. Exécution de tests avec un trafic qui se chevauche

Il est intéressant de voir comment les gens pensent qu'ils peuvent gagner du temps en exécutant plusieurs tests A/B en même temps. Ils le font sur la page d'accueil, la page des fonctionnalités, le formulaire d'abonnement… partout. Vous couvrez une énorme charge de travail en peu de temps.

Le plus gros problème dans les tests A/B avec un trafic qui se chevauche est la distribution uniforme. Le trafic doit toujours être réparti équitablement entre les versions que vous testez. Sinon, cette charge de travail extrême conduira à des résultats irréalistes.

La solution? Vous Vous pouvez faites plusieurs tests A/B en même temps, mais vous devez faire très attention à ne pas vous faire avoir par un trafic qui se chevauche. Le mieux serait de s'en tenir à la simplicité et, si possible, de faire un test à la fois.

5. Ne pas exécuter de tests en permanence

Rappelons-nous la raison pour laquelle nous testons : prendre des décisions éclairées, améliorer le taux de conversion, en savoir plus sur les visiteurs, améliorer leur expérience utilisateur et tirer plus d'argent de ce site Web. Ce n'est pas quelque chose que nous cessons de faire. Jamais!

Ne pas exécuter des tests tout le temps est une grosse erreur. Le monde en ligne est en constante évolution. Si vous ne suivez pas les tendances et que vous arrêtez d'introduire de nouvelles tendances, vous finirez par perdre votre public au profit de la concurrence. Vous ne voulez pas que cela se produise ? N'arrêtez jamais de tester et d'optimiser !

6. Faire des tests A/B sans trafic approprié ni conversions à tester

Si vous ne disposez pas des paramètres nécessaires pour un test A/B correct, vous n'obtiendrez pas de résultats précis. Même si la version B est meilleure que la version de contrôle, le test A/B ne le montrera pas. Il faudrait plusieurs mois de tests pour obtenir des résultats statistiquement significatifs. Des mois à faire le même test signifient des ressources dépensées, ou mieux dit - gaspillées.

Lorsque la taille de l'échantillon est suffisamment grande pour atteindre une signification statistique, vous pouvez commencer à faire des tests A/B. Jusque-là, économisez votre temps et votre argent pour améliorer la campagne promotionnelle et attirer plus de visites.

7. Modification des paramètres au milieu des tests

Lorsque vous êtes sur le point de lancer un test, vous devez vous y engager. Les paramètres de l'expérience, la conception du contrôle et de la variation, ainsi que les objectifs du test restent les mêmes. Vous ne devez modifier aucun paramètre, y compris les allocations de trafic aux variantes.

As-tu entendu parler de Paradoxe de Simpson? Une tendance que nous observons dans différents groupes de données peut disparaître lorsque nous combinons ces groupes. Cela peut arriver si vous modifiez la répartition du trafic entre les variantes au milieu des tests. Ces modifications n'affecteront que les nouveaux utilisateurs et perturberont l'échantillonnage des visiteurs qui reviennent.

Avant de commencer les tests A/B, ayez un plan. Ne modifiez pas les paramètres, car cette pratique conduira à des résultats confus et irréalistes.

8. Exécuter des tests avec trop de variations

Vous pourriez avoir l'impression que plus vous avez de variations à tester, plus vous obtenez d'informations. Cependant, trop de variations ralentiront les choses. De plus, ils augmentent vos chances d'obtenir un faux positif et finissent par utiliser une variante qui n'est pas la vraie gagnante.

Optimizely, VWO et d'autres outils de test A/B problème de comparaison multiple en considération et ajustez le taux de faux positifs pour vous assurer d'obtenir des résultats réalistes. Cependant, cela ne signifie toujours pas que tester autant de variantes que possible est la bonne chose à faire. Cette pratique se traduit généralement par une différence qui n'a pas de signification statistique.

9. Ne pas tenir compte des menaces de validité

Donc, vous faites le test et vous obtenez les données dont vous avez besoin. Maintenant, tout ce que vous avez à faire est de choisir la version qui a obtenu les meilleurs résultats, n'est-ce pas ? Faux! Même si la taille de l'échantillon était décente, que vous avez donné au test une bonne période de temps et que vous n'aviez pas trop de variations à tester, il y a toujours une possibilité d'obtenir des résultats invalides.

Vous devez vous assurer que chaque métrique et objectif que vous devez suivre est suivi. Si vous remarquez que vous n'obtenez pas de données de certaines mesures, vous devrez trouver ce qui ne va pas, résoudre le problème et recommencer le test.

Résultat ? testez, testez et testez encore ! Cependant, ces tests doivent être efficaces et adéquats. Il existe de nombreux outils qui vous facilitent la tâche, mais cela ne signifie pas qu'ils ne peuvent pas vous conduire à de mauvaises décisions. Commencez à prêter attention aux erreurs courantes décrites ci-dessus. En faites-vous quelques-uns ? Vous améliorerez la façon dont vous testez dès que vous éliminerez les défauts notables.


Brenda Savoie est une spécialiste du marketing de contenu et une romancière en herbe qui travaille pour Essaysontime Royaume-Uni. La trouver sur Twitter.

Questions fréquentes

1. Pourquoi faisons-nous des tests A/B ?

Les tests A/B sont effectués pour diverses raisons. Parmi eux, la résolution des problèmes des visiteurs, l'augmentation des conversions de sites Web et la diminution des taux de rebond.

2. Comment réalisez-vous une annonce de test AB ?

Dans le Gestionnaire de publicités, vous pouvez créer un test A/B en procédant comme suit :
je. Cliquez sur Gestionnaire de publicités. La page de campagne de votre compte publicitaire répertorie toutes vos annonces disponibles.
ii. Sélectionnez une campagne, un ensemble de publicités ou une publicité existants, puis cliquez sur Test A/B.
iii. Choisissez soit Créer une copie de cette annonce, soit Choisir une autre annonce existante.

3. Quel outil est utilisé pour les tests AB ?

Optimizely et VWO étaient les deux outils de test AB les plus populaires. Presque tous les experts à qui nous avons parlé utilisent régulièrement ces deux outils pour les tests AB, et ce sont les outils les plus couramment utilisés par les clients de Conversion Sciences.