AIC 和 BIC

2024-01-17 07:30
文章标签 bic aic

本文主要是介绍AIC 和 BIC,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

此处模型选择我们只考虑模型参数数量,不涉及模型结构的选择。

很多参数估计问题均采用似然函数作为目标函数,当训练数据足够多时,可以不断提高模型精度,但是以提高模型复杂度为代价的,同时带来一个机器学习中非常普遍的问题——过拟合。所以,模型选择问题在模型复杂度与模型对数据集描述能力(即似然函数)之间寻求最佳平衡。

人们提出许多信息准则,通过加入模型复杂度的惩罚项来避免过拟合问题,此处我们介绍一下常用的两个模型选择方法——赤池信息准则(Akaike Information Criterion,AIC)和贝叶斯信息准则(Bayesian Information Criterion,BIC)。

AIC是衡量统计模型拟合优良性的一种标准,由日本统计学家赤池弘次在1974年提出,它建立在熵的概念上,提供了权衡估计模型复杂度和拟合数据优良性的标准。

通常情况下,AIC定义为:

这里写图片描述

其中k是模型参数个数,L是似然函数。从一组可供选择的模型中选择最佳模型时,通常选择AIC最小的模型。

当两个模型之间存在较大差异时,差异主要体现在似然函数项,当似然函数差异不显著时,上式第一项,即模型复杂度则起作用,从而参数个数少的模型是较好的选择。

一般而言,当模型复杂度提高(k增大)时,似然函数L也会增大,从而使AIC变小,但是k过大时,似然函数增速减缓,导致AIC增大,模型过于复杂容易造成过拟合现象。目标是选取AIC最小的模型,AIC不仅要提高模型拟合度(极大似然),而且引入了惩罚项,使模型参数尽可能少,有助于降低过拟合的可能性。

BIC(Bayesian InformationCriterion)贝叶斯信息准则与AIC相似,用于模型选择,1978年由Schwarz提出。训练模型时,增加参数数量,也就是增加模型复杂度,会增大似然函数,但是也会导致过拟合现象,针对该问题,AIC和BIC均引入了与模型参数个数相关的惩罚项,BIC的惩罚项比AIC的大,考虑了样本数量,样本数量过多时,可有效防止模型精度过高造成的模型复杂度过高。

这里写图片描述

其中,k为模型参数个数,n为样本数量,L为似然函数。kln(n)惩罚项在维数过大且训练样本数据相对较少的情况下,可以有效避免出现维度灾难现象。

 

感谢:https://blog.csdn.net/lfdanding/article/details/50732762

这篇关于AIC 和 BIC的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/615289

相关文章

压缩感知与Nquist抽样定理——模拟信息转换(AIC)学习总结

原文链接:http://blog.csdn.net/jbb0523/article/details/41595535 一、引言 压缩感知(CompressiveSensing, or Compressed Sensing)或译为压缩传感,或者称为压缩采样(Compressive sampling),以下统称压缩感知,简称CS。 在压缩感知的有关文献中几乎都在说“压缩感知突破了传统的Nq

COMSOL光学模型:等离激元BIC非偏振结构

COMSOL光学模型:等离激元BIC非偏振结构 在光学领域中,研究等离子激元(plasmon)的激发和调控一直备受关注。等离子激元是电磁波与金属纳米结构相互作用的一种现象,具有局域电磁场增强和局域化光学特性。在等离子激元领域,科学家们一直致力于寻找一种有效控制等离子激元耦合和调控的方法,其中,等离子激元的束缚态共振(bound states in the continuum, BIC)是一种

AIC, BIC v.s. Crossvalidation

模型选择的方法有许多,例如 AIC, BIC, Crossvalidation, GCV等等。这 些准则的适用条件有哪些?该如何选择不同的准则? AIC, BIC准则 ref:https://methodology.psu.edu/node/504 ref:https://en.wikipedia.org/wiki/Bayesian_information_criterion r

压缩感知与Nquist抽样定理——模拟信息转换(AIC)学习总结

原文链接:http://blog.csdn.net/jbb0523/article/details/41595535 一、引言 压缩感知(CompressiveSensing, or Compressed Sensing)或译为压缩传感,或者称为压缩采样(Compressive sampling),以下统称压缩感知,简称CS。 在压缩感知的有关文献中几乎都在说“压缩感知突破了传统的Nq

论文阅读 - BIC: Twitter Bot Detection with Text-Graph Interaction and Semantic Consistency

论文链接:https://arxiv.org/abs/2208.08320   目录 1 摘要 2 绪论 3 相关工作 3.1 Twitter-bot Detection 3.2 Text-Graph Interaction 4 问题定义 5 方法 5.1 模态交互 5.2 语义一致性检测 5.3 训练和推理 6 实验 6.1 实验设置 6.2 实验结果 6.3

bic谈话_让谈话强化学习基础知识第二部分

bic谈话 This is a continuation of the article Let’s talk Reinforcement Learning — The Fundamentals — Part 1. You can continue reading this article even if you have not read Part 1 if you can recogn

aic值检验 p值_参数估计和假设检验

前言:所谓统计推断,就是利用样本所提供的信息对总体的某些统计特征进行估计或者判断,进而认识总体。统计推断分为两大类:参数估计,假设检验。 1 .参数估计 参数估计和假设检验是统计推断的基本内容,几乎所有统计建模的PROC步都会设计参数估计以及相对应的假设检验。假设总体 的分布函数的类型已知,但其中一个或者多个参数未知,那么就需要对这些未知的参数做出合理的估计,并且对估计做出评价,这

R语言 逐步回归分析 AIC

关注微信公共号:小程在线   关注CSDN博客:程志伟的博客 逐步回归分析是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的。 R语言中用于逐步回归分析的函数 step()    drop1()     add1() #1.载入数据 首先对数据进行多元线性回归分析 tdata<-data.frame(x1=c( 7, 1,11,11,

#PCIE# PCIe的接口形态之Add-in-Card(AIC)

PCIe AIC 是最常见的PCIe接口形态,组装过电脑的同学可能比较清楚,电脑上的主板上都会有下面的几排插槽,这就是典型的PCIe AIC的插槽,比较常见的插槽位宽为x16和x1 链接自https://www.muycomputerpro.com/2019/06/01/pci-express-5-0 插在上面的卡就是PCIe AIC。PCIe AIC常见的有显卡,无线网卡,存储设备等等

R语言-评分卡模型验证(ROC,KS,AIC,BIC)

本文主要记录几种常用的模型检验方法,重点在R语言的使用上,暂时不包括检验方法的原理。博主刚开始使用R语言不久,因此也借此机会整理记录自己的学习过程。如有不当,欢迎指正。 1. ROC与AUC,基尼系数 混淆矩阵Confusion Matirx 计算ROC之前先介绍如何计算混淆矩阵Confusion Matrix 1.可以用table(pre, test$label) 2.c