时间: 2021-07-30 11:01:33 人气: 8 评论: 0
增长黑客成长之路上,想比大家对A/B测试已经很熟悉了,但听过、实践过A/A测试的同学举个手我看看,喏,还没多少人。这篇文章我们就来讲讲A/A测试。
A/A测试可以理解成对两个相同版本进行的A/B测试。通常,这样做的目的是为了验证正在使用的工具运行试验在统计上是公平的。在A/A测试中,如果测试正确进行,控制组和实验组应该没有任何区别。
在没做A/A测试之前,你可能什么都不知道,这里的逻辑是这样的:如果样本的A/A测试结果达到统计显著,那么A/B测试工具或测试方案就是不可信的。
如果说A/B测试用来测试比较几个方案的优劣,那么A/A测试就是验证A/B测试及工具置信度的有效方式。
既然A/A测试的两个版本变量没有任何变化,为什么还要花时间精力来做?
商业活动中,通常我们使用一切数据工具的目的,无外乎:用测量推动决策优化,同时用正确的决策获取比竞争对手更大的市场。可能通过数据能获取的决策信息点有很多,那么通过A/A测试来确保你得到的数据能用来自信地作出决定,减小决策失误。
通常情况下我们做A/A测试的目的有下面几个:
A/A测试能被用来理解假阳性结果的频率。简单讲,如果你在测试中采用95%置信水平,那么20次结果可能**出现1次假阳性结果。这时候通过A/A测试,就能验证转化率的显著差异,比如,你运行20次A/A测试,其中有2次结果明显不同,这意味着假阳性的比例可能高于5%。
A/A测试能帮助确定转化率中的方差“泡沫”,最小化对未来测试的影响。除了技术上的有效性,A/A测试能让“泡沫”在可接受范围内。
比如,如果A/A测试中的泡沫是0.1%,测试转化率是3%,那么你可以接受的范围就是2.9%-3.1%。如果你看到0.1%的提升,那么你就知道这样的结果是没有意义的。
A/A测试的时候,你不知道什么时候新变量和默认变量的转化率差别结果能达到统计显著。因此,A/A测试中的任何错误或置信度不应被用来作为未来测试的基准,因为A/A测试中本不应有转化率的明显差异。
需要注意的是,有可能只是因为随机性,导致A/A测试的两个试验结果有所不同,而不是工具或测试方案本身的问题。当然,随着样本量的增大,这种差别**逐渐降低。这是因为,小样本下的结果是不可信的,小样本从总体上意味着可能存在分配不均的数据段。要消除这点,就需要A/A测试运行足够长的时间,以及有足够的样本规模。
测试持续时间是两个因素的函数:
如果一个变量引起了50%的变化,测试就不必运行很长时间。这种情况,即使是在小样本下,也可以忽略统计误差。
A/A测试好在不必做任何创造性的或研发上的工作。当设置A/B测试时,你需要在A/B测试软件上编程来改变、隐藏或删除页面的某些部分,对A/A测试来说这些都是不需要的。
A/A测试面临的挑战是正确的选择运行测试的页面,通常做A/A测试的页面都应该有两个特点:
出于这些原因,通常我们**在网站主页上运行A/A测试。
运行A/A测试的唯一成本:机**成本。有的人宁愿把A/A测试上投入的时间和流量用来多做几次A/B测试也不是没有道理的。
应该考虑运行A/A测试的唯一种情况:
1.你刚安装了一个新的测试工具或更改了测试工具设置。
2.你发现了A/B测试与数据分析工具结果之间存在差异。
本文由 Zoran @吆喝科技(微信:appadhoc)授权发布于人人都是产品经理,未经作者许可,禁止转载。