本文主要是介绍损失函数 (loss function),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
损失函数
损失函数(loss function)或代价函数(cost function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。例如在统计学和机器学习中被用于模型的参数估计(parametric estimation),在宏观经济学中被用于风险管理(risk management)和决策,在控制理论中被应用于最优控制理论(optimal control theory)。
基本信息
中文名
损失函数
外文名
loss function
类 型
函数
应用学科
统计学
应用领域
机器学习,经济学,控制理论
目录
1基础定义
2应用举例
3函数分类
折叠编辑本段基础定义
在样本空间内有可测状态和随机变量根据法则所做的决策,此时若在乘积空间上有函数满足:,即对任意的,是非负可测函数,则被称为损失函数,表示状态下采取决策所对应的损失或风险。
机器学习中,给定独立同分布(independent and identically distributed,iid)的学习样本,和模型,损失函数是模型输出和观测结果间概率分布差异的量化:
损失函数式中表示模型参数,上式右侧具体的量化方法视问题和模型而定,但要求满足损失函数的一般定义,即样本空间的非负可测函数。
折叠编辑本段应用举例
折叠案例一
某个工厂人员的产出,以每小时多少元来计算,而损失函数所显示的,是产出以室内通风条件而改变的情形。厂内工作的每个人,都有自己的损失函数。为了简化说明,假设每个人的损失函数均为一条抛物线,其底部一点代表产出值最大时的通风条件,把所有人员的损失函数进行叠加,公司整体的损失函数也必然是一条抛物线。如果通风条件偏离这个最佳水准,就会有额外损失发生。该抛物线与横轴相切时,切点的左右各有一小段与横轴几近重合。也就是说,有最适点偏离一小短距离,损失小到可以忽略不计。因此,当室内通风条件稍稍偏离均衡点,发生的损失可以忽略不计。但是远离均衡点时,总是有人必须支付这损失。如果我们能够导出有具体数字的损失函数,我们就可以计算出最优均衡点,在均衡点中最适合的通风条件如何,以及达到要求的费用支出是多少。
折叠案例二
以赶火车作为符合规格的例子。假设我们的时间价值为每分钟n元,下图左边的斜线是损失线的斜率;早一分钟到达月台,将让我们损失n元,早两分钟到达损失2n元。另一方面,如果没有赶上火车,我们的损失是M元。迟到半分钟或迟到5分钟损失一样,损失函数直接由零跳到M。
当然问题也可复杂化,例如火车每天离站的时间也有变化,所以也可以画出一个分配图。火车到站时间三个标准差的界限可能是8秒。把问题这样复杂化,对于我们了解和应用损失函数并没有特别大的帮助,因此我们就说到这里。 另一个例子,是参加星期日早上11点15分的礼拜时所碰到的停车问题。教堂的停车场最大负荷是停放50辆车子,但这些车位在10点50分左右仍然客满,因为作完上一场礼拜的车主仍在喝咖啡。等他们一离开,这些空位马上就会被排成长龙等待的车队填满。如果你想占到一个车位,不得不早早去排队。那些晚到的人在这里找不到车位,只能到街上去找,但实际上往往无功而返。所以,上策还是提早一点去等,承受等待的损失而能占到位置。
这项理论也可以应用到任何计划的截止时间上。某人要求必须在截止日期前完成工作,万一未能赶上这个时间,势将使计划延误或出错。为了能准时完成,可以拟定工作内容与步骤的纲要。把个步骤的截止日期 设 定一段期间要比设定为固定的从容,而且有时间作最后的修订,可能把计划做得更好。
折叠编辑本段函数分类
折叠回归问题
回归问题所对应的损失函数为L2损失函数和L1损失函数,二者度量了模型估计值与观测值之间的差异:
损失函数式中为真实值的权重。各类回归模型,例如线性回归、广义线性模型(Generalized Linear Model, GLM)和人工神经网络(Artificial Neural Network, ANN)通过最小化L2或L1损失对其参数进行估计。L2损失和L1损失的不同在于,L2损失通过平方计算放大了估计值和真实值的距离,因此对偏离观测值的输出给予很大的惩罚。此外,L2损失是平滑函数,在求解其优化问题时有利于误差梯度的计算;L1损失对估计值和真实值之差取绝对值,对偏离真实值的输出不敏感,因此在观测中存在异常值时有利于保持模型稳定。
折叠分类问题
分类问题所对应的损失函数为0-1损失,其是分类准确度的度量,对分类正确的估计值取0,反之取1:
损失函数0-1损失函数在本质上是一个不连续的分段函数,不利于求解其优化问题,因此在应用可构造其代理损失(surrogate loss)。代理损失是与原损失函数具有相合性(consistency)的损失函数,最小化代理损失所得的模型参数也是最小化原损失函数的解。研究表明,当一个函数是连续凸函数,并在任意取值下是0-1损失函数的上界时,该函数可作为0-1损失函数的代理函数。
这里给出二元分类(binary classification)中0-1损失函数的代理损失,其中表示观测值的类别:
铰链损失函数(hinge loss function)
交叉熵损失函数(cross-entropy loss function)
指数损失函数(exponential loss function)
铰链损失(实线)、交叉熵损失(点)、指数损失(虚线)表中铰链损失函数是一个分段连续函数,其在分类器分类完全正确时取0。使用铰链损失对应的分类器是支持向量机(Support Vector Machine, SVM),铰链损失的性质决定了SVM具有稀疏性,即分类正确但概率不足1和分类错误的样本被识别为支持向量(support vector)参与模型求解,其余分类完全正确的样本被模型排除。
交叉熵损失函数是一个平滑函数,其本质是信息理论(information theory)中的交叉熵(cross entropy)在分类问题中的应用。由交叉熵的定义可知,最小化交叉熵等价于最小化观测值和估计值的相对熵(relative entropy),即两者概率分布的Kullback-Leibler散度:,因此其是一个提供无偏估计的代理损失。交叉熵损失函数是表中使用最广泛的代理损失,对应的分类器例子包括logistic回归、人工神经网络和概率输出的支持向量机。
指数损失函数是表中对错误分类施加最大惩罚的损失函数,因此其优势是误差梯度大,对应的极小值问题在使用梯度算法时求解速度快。使用指数损失的分类器通常为自适应提升算法(Adaptive Boosting, AdaBoost),AdaBoot利用指数损失易于计算的特点,构建多个可快速求解的“弱”分类器成员并按成员表现进行赋权和迭代得到可靠结果。
这篇关于损失函数 (loss function)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!