本文主要是介绍机器学习的一些问题自我总结、留出法交叉验证(holdout cross-validation)和k-fold交叉验证的优缺点,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
自己先理解记录一下,有误后期再修改咯
留出法交叉验证
优点:
这个方法操作简单,只需随机把原始数据分为三组即可。
缺点:
如果只做一次分割,它对训练集、验证集和测试集的样本数比例,还有分割后数据的分布是否和原始数据集的分布相同等因素比较敏感,不同的划分会得到不同的最优模型,而且分成三个集合后,用于训练的数据更少了。
k-fold交叉验证
优点:在一个限度内 k 的值越大越好。因为 k 越大我们验证的次数就越多,最后取出来的平均数越能代表训练模型的准确度
缺点:
1. 容易给机器造成过重负担,花费大量时间。
2. 每一次验证的测试集(或验证集)中数据太少,很难得到准确的误报率。
这篇关于机器学习的一些问题自我总结、留出法交叉验证(holdout cross-validation)和k-fold交叉验证的优缺点的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!