本文主要是介绍11.21假设检验,第一第二类错误,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
两类错误
做假设的时候,首选假设都是已知的参数。
备选假设是不确定的。
要验证的是已知的可能的参数,也就是说是在这样一组数据下的分布,的概率,是不是落在拒绝域里,如果落在拒绝域里就说明当下的假设不成立,选取备用假设。
即验证的时候,用的分布的参数都是当下的参数
第一类错误就是检验假设是正确的,然后落在检验假设拒绝域里的概率;
算这个概率,就是要依据假设的分布参数。这个概率就是显著性水平
显著性水平越大,拒绝域越大,那么第一类错误的概率越大,越容易放弃原假设。
第二类错误是检验假设是错误的,但是点却落在其接受域内的概率
注意,这个接受域拒绝域都是依据其假设的参数进行计算得到的,是样本信息分布的一个域
但实际要算概率,是要依据正确的分布来算
也就是说算第一类错误概率的话,正确的分布就是原假设;
算第二类错误概率的话,正确的分布不是原假设,所以实际不能按原假设的分不算
原假设的分布只是可以算出来其接受域是多少,那么就可以知道在真正正确的分布下,样本信息落在这个接受域里的概率
也就是说,算第二类错误概率的一个关键步骤就是,依据其错误假设的分布参数计算出接收其的接受域,然后再放到正确的分布下,去计算点落在这个接受域里的概率
如果原假设错误,点落在接受域,接受原假设就是错误的;原假设正确,点落在拒绝域,放弃原假设就是错误的
第一类错误是假阳性,即好像是错的,但实际上没错,如果认为是错的,那就错了
第二类错误是假阴性,即好像是对的,但实际上不对,如果认为是对的,那就错了
在统计学中,显著差异指的是在两个或多个组之间观察到的统计上显著的差异。它表示在样本数据中观察到的差异可能不仅仅是由随机因素引起的,而是可能反映了总体之间真实存在的差异。
也就是说,显著性水平表明的就是我们何时认为有明显差异的水平。如果显著性水平越大,那么拒绝域也就越大,越容易放弃原假设,任何这个误差是系统误差,从而接受新系统
也就是说对同一份数据,显著性水平越大,就意味着越容易认为是系统差异导致的,而不是随机因素导致的,对随机因素的包容性较小;否则,显著性水平越小,那么对随机因素的包容性也就越大,对于偏离均值的波动也就越容易认为是随机因素导致而不是系统因素导致,而只有波动过大,使点落到拒绝域里时,才会认为是系统性差异导致的
从这一角度,第一类错误就是实际上是随机因素导致的误差,却误认为是系统因素导致的误差,所以放弃了原来正确的系统
第二类错误就是,实际上是系统因素导致的误差,却误认为是随机因素,从而不对系统进行调整
α与β就是描述这两类错误的概率
在显著性水平是0.05时接受了原假设,就说明数据的情况在对系统差异较敏感时都没有选择放弃,那么对于显著性水平是0.01时,对随机因素包容更大时,就更不会放弃原假设了
独立与相关
如果独立一定有均值乘积可以拆开,但均值乘积可以拆开并不一定有独立;均值可以拆开可以说明两个变量是不相关的,但不能说为独立。
独立的充要为概率乘积可以拆开、、、
这篇关于11.21假设检验,第一第二类错误的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!