本文主要是介绍需要留出10% 的数据进行预daiding,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
折交叉验证可以估计预测错误:在多份样本上估计错误来估计错误边界。通过为训练集分配更多样本,生成的模型会产生更低的泛化错误,具备更好的预测性能。
例如,如果选择10 折交叉验证,每次训练只需要留出10% 的数据进行预测。n 折交叉验证是以更多的训练时间作为代价。保留一个固定的集合作为测试集可以有更快的训练速度,因为它只需要扫描一遍训练数据。
CrVa的优点
1、优于L-oCrVa:平均k次
这篇关于需要留出10% 的数据进行预daiding的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!