回归和分类损失函数(MSE、MAE、Huber、Exponential、Deviance、Hinge)

2023-10-18 22:59

本文主要是介绍回归和分类损失函数(MSE、MAE、Huber、Exponential、Deviance、Hinge),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • Regression loss
    • Mean Square Error, Quadratic loss, L2 Loss
    • Mean Absolute Error, L1 Loss
    • MSE and MAE
    • Huber Loss, Smooth Mean Absolute Error
    • Log-Cosh Loss and Quantile Loss
  • Classification loss
    • Binomial Deviance (Logistic)
    • Multinomial Deviance (Softmax)
    • Exponential Loss and Binomial Deviance Loss
    • Hinge Loss (SVM)
  • Reference

机器学习任务通过最小化 “目标函数” 求解,这种目标函数也称为损失函数,损失函数用于衡量模型预测期望输出的能力,损失越小,模型的预测能力越强。

损失函数大致可分为两类:分类损失回归损失


Regression loss

常见的回归损失:

Mean Square Error, Quadratic loss, L2 Loss

Mean Square Error (MSE) 是回归任务中最通用的损失函数,MSE是目标值与预测值之间差值平方和的均值:
ℓ mse ( f ) = 1 m [ Y − f ( X ) ] 2 \ell_{\text{mse}}(f)=\frac{1}{m}[Y-f(X)]^2 mse(f)=m1[Yf(X)]2
MSE在均值处取极小值:
c = arg ⁡ min ⁡ c ∑ i 1 m ( y i − c ) 2 = mean ( y ) c=\arg\min_c\sum_i\frac{1}{m}(y_i-c)^2=\text{mean}(y) c=argcminim1(yic)2=mean(y)


Mean Absolute Error, L1 Loss

Mean Absolute Error (MAE) 是目标值与预测值绝对差之和的均值,MAE不考虑误差方向,。
ℓ abs = ∣ y − f ( x ) ∣ \ell_{\text{abs}}=|y-f(\boldsymbol x)| abs=yf(x)
MAE在中位数处取极小值:
c = arg ⁡ min ⁡ c ∑ y ≥ c ( y − c ) + ∑ y < c ( c − y ) = median ( y ) c=\arg\min_c\sum_{y\geq c}(y-c)+\sum_{y<c}(c-y)=\text{median}(y) c=argcminyc(yc)+y<c(cy)=median(y)
考虑方向的损失叫做 Mean Bias Error (MBE),是所有目标值与预测值残差之和的均值,显然小于MAE。


MSE and MAE

简而言之,使用MSE更容易拟合数据,但使用MAE模型对异常值的鲁棒性更强,让我们看看为什么?

MSE损失在错分样本的损失随目标函数值以平方级变化,而MAE损失以线性级变化,对异常值敏感度低。另一个角度是,MSE最优解位于均值处,MAE最优解位于中位数处,显然中位数解比均值解对异常值的鲁棒性更强。


MSE和MAE的选择

如果异常值对业务很重要,应该使用MSE尽可能的拟合异常值,如果异常值只是噪声数据,则应该用MAE损失。


MSE和MAE均无法拟合的情况

考虑这种情景的数据:90%数据的目标值是150,10%数据的目标值位于0-30之间。MAE可能会把全部目标值预测为150(倾向于中位数),MSE可能预测较多的值位于0-30之间(倾向于异常值),这两种情况我们都不希望看到。

那如何解决这种问题呢?一种简单的方法是转换目标变量(???),另一种方法是使用其它损失函数,如Huber Loss。


Huber Loss, Smooth Mean Absolute Error

Huber损失对异常值没有MSE损失敏感,通过超参数 δ \delta δ控制多小的误差使用平方损失、多大的误差使用绝对损失,即真值附近 δ \delta δ区间使用MAE损失,否则使用MSE损失:
ℓ hub = { ∣ y − f ( x ) ∣ 2 , ∣ y − f ( x ) ∣ ≤ δ 2 δ ∣ y − f ( x ) ∣ − δ 2 , otherwise \ell_{\text{hub}}= \begin{cases} |y-f(\boldsymbol x)|^2,&|y-f(\boldsymbol x)|\leq\delta\\[1ex] 2\delta|y-f(\boldsymbol x)|-\delta^2, &\text{otherwise} \end{cases} hub={yf(x)2,2δyf(x)δ2,yf(x)δotherwise

为什么使用Huber损失?

MAE损失在极值点附近梯度非常大,在极值点处非常不稳定,但对异常点不敏感;MSE对异常点敏感,但在接近极值点时梯度逐渐减小至0,可以得到精确极值。

Huber Loss对于包含异常点的数据集一般表现由于以上两者,异常值以MAE方式处理,极值点以MSE方式处理。


Log-Cosh Loss and Quantile Loss


Classification loss

常见的分类损失:


Binomial Deviance (Logistic)

p ( x ) p(x) p(x)表示样本 x \boldsymbol x x的类1概率,logistic的对数似然损失为
L ( y ′ , p ) = − [ y ′ ln ⁡ p ( x ) + ( 1 − y ′ ) ln ⁡ ( 1 − p ( x ) ) ] , p ( x ) = 1 1 + exp ⁡ ( − f ( x ) ) L(y', p)=-[y'\ln p(\boldsymbol x)+(1-y')\ln(1-p(\boldsymbol x))],\quad p(\boldsymbol x) =\frac{1}{1+\exp(-f(\boldsymbol x))} L(y,p)=[ylnp(x)+(1y)ln(1p(x))],p(x)=1+exp(f(x))1
则损失函数的负梯度为(sklearn-binomial deviance)
L ( y ′ , f ) = − y ′ f ( x ) + ln ⁡ ( 1 + exp ⁡ ( f ( x ) ) ) , − ∇ f L = y ′ − 1 1 + exp ⁡ ( − f ( x ) ) L(y', f)=-y'f(\boldsymbol x)+\ln(1+\exp(f(\boldsymbol x))),\quad -\nabla_fL=y'-\frac{1}{1+\exp(-f(\boldsymbol x))} L(y,f)=yf(x)+ln(1+exp(f(x))),fL=y1+exp(f(x))1
(GBDT二分类使用Deviance损失,参数初值)模型初始值满足 c = arg ⁡ min ⁡ c ∑ i w i L ( y i , c ) c=\arg\min_c\sum_iw_iL(y_i,c) c=argminciwiL(yi,c),得
∑ i w i ( y i − 1 1 + e − c ) = 0 ⟹ c = ln ⁡ ∑ i w i y i ∑ i w i ( 1 − y i ) \sum_iw_i(y_i-\frac{1}{1+e^{-c}})=0\implies c=\ln\frac{\sum_iw_iy_i}{\sum_iw_i(1-y_i)} iwi(yi1+ec1)=0c=lniwi(1yi)iwiyi


Multinomial Deviance (Softmax)

softmax的对数似然损失
L ( y , f 1 , ⋯ , f K ) = − ∑ k = 1 K y k ln ⁡ p k ( x ) , p k ( x ) = exp ⁡ f k ( x ) ∑ i exp ⁡ f i ( x ) L(y,f_1,\cdots,f_K)=-\sum_{k=1}^Ky_k\ln p_k(\boldsymbol x),\quad p_k(\boldsymbol x)=\frac{\exp f_k(\boldsymbol x)}{\sum_i\exp f_i(\boldsymbol x)} L(y,f1,,fK)=k=1Kyklnpk(x),pk(x)=iexpfi(x)expfk(x)

y k y_k yk表示样本 x \boldsymbol x x的真实类k概率. 可令上式一个冗余目标函数为0,如 f K ( x ) = 0 f_K(\boldsymbol x)=0 fK(x)=0.

第k个目标函数的负梯度
g k = − ∂ L ( y , f 1 , ⋯ , f K ) ∂ f k = y k − exp ⁡ f k ( x ) ∑ i exp ⁡ f i ( x ) g_k=-\frac{\partial L(y,f_1,\cdots,f_K)}{\partial f_k}=y_k-\frac{\exp f_k(\boldsymbol x)}{\sum_i\exp f_i(\boldsymbol x)} gk=fkL(y,f1,,fK)=ykiexpfi(x)expfk(x)


Exponential Loss and Binomial Deviance Loss

给定样本 x \boldsymbol x x,类别 y ∈ { − 1 , + 1 } y\in\{-1,+1\} y{1,+1},类别另一种表示 y ′ = ( y + 1 ) / 2 ∈ { 0 , 1 } y'=(y+1)/2\in\{0,1\} y=(y+1)/2{0,1}.

二项偏差(Binomial Deviance)的类1概率为
p ( x ) = P ( y = 1 ∣ x ) = exp ⁡ ( f ( x ) ) exp ⁡ ( − f ( x ) ) + exp ⁡ ( f ( x ) ) = 1 1 + exp ⁡ ( − 2 f ( x ) ) p(\boldsymbol x)=P(y=1|\boldsymbol x) =\frac{\exp(f(\boldsymbol x))}{\exp(-f(\boldsymbol x))+\exp(f(\boldsymbol x))} =\frac{1}{1+\exp(-2f(\boldsymbol x))} p(x)=P(y=1x)=exp(f(x))+exp(f(x))exp(f(x))=1+exp(2f(x))1
二项偏差的对数似然损失(极大化似然概率等于极小化交叉熵)
− [ y ′ ln ⁡ p ( x ) + ( 1 − y ′ ) ln ⁡ ( 1 − p ( x ) ) ] = − ln ⁡ ( 1 + exp ⁡ ( − 2 y f ( x ) ) ) -[y'\ln p(\boldsymbol x)+(1-y')\ln(1-p(\boldsymbol x))]=-\ln(1+\exp(-2yf(\boldsymbol x))) [ylnp(x)+(1y)ln(1p(x))]=ln(1+exp(2yf(x)))
基于经验风险最小化求解模型,则指数损失和二项偏差损失的解具有一致性,以下公式给出
f ( x ) = arg ⁡ min ⁡ f E y ∣ x [ exp ⁡ ( − y f ( x ) ) ] = arg ⁡ min ⁡ f P ( y = 1 ∣ x ) ⋅ exp ⁡ ( − f ( x ) ) + P ( y = − 1 ∣ x ) ⋅ exp ⁡ ( f ( x ) ) = 1 2 ln ⁡ P ( y = 1 ∣ x ) P ( y = − 1 ∣ x ) = arg ⁡ min ⁡ f E y ∣ x [ − ln ⁡ ( 1 + exp ⁡ ( − 2 y f ( x ) ) ) ] \begin{aligned} f(\boldsymbol x) &=\arg\min_f\Bbb E_{y|\boldsymbol x}[\exp(-yf(\boldsymbol x))]\\[2ex] &=\arg\min_fP(y=1|\boldsymbol x)\cdot\exp(-f(\boldsymbol x))+P(y=-1|\boldsymbol x)\cdot\exp(f(\boldsymbol x))\\[2ex] &=\frac{1}{2}\ln\frac{P(y=1|x)}{P(y=-1|x)}\\[2ex] &=\arg\min_f\Bbb E_{y|\boldsymbol x}[-\ln(1+\exp(-2yf(\boldsymbol x)))] \end{aligned} f(x)=argfminEyx[exp(yf(x))]=argfminP(y=1x)exp(f(x))+P(y=1x)exp(f(x))=21lnP(y=1x)P(y=1x)=argfminEyx[ln(1+exp(2yf(x)))]

但两者在错分样本上损失程度不同,指数损失在错分样本的损失随目标函数取值以指数级变化(对异常值敏感如类标错误数据),而二项偏差损失以线性级变化.


Hinge Loss (SVM)

合页损失是SVM的损失函数,对于 y f ( x ) > 1 yf(x)>1 yf(x)>1的点,合页损失都是0,由此带来了稀疏解,使得SVM仅通过少量的支持向量就能确定最终分类超平面。

SVM的损失函数是合页损失 + L2正则化。


Reference

1. Regression Loss Functions All Machine Learners Should Know
2. 常见回归和分类损失函数比较

这篇关于回归和分类损失函数(MSE、MAE、Huber、Exponential、Deviance、Hinge)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/235660

相关文章

Oracle的to_date()函数详解

《Oracle的to_date()函数详解》Oracle的to_date()函数用于日期格式转换,需要注意Oracle中不区分大小写的MM和mm格式代码,应使用mi代替分钟,此外,Oracle还支持毫... 目录oracle的to_date()函数一.在使用Oracle的to_date函数来做日期转换二.日

C++11的函数包装器std::function使用示例

《C++11的函数包装器std::function使用示例》C++11引入的std::function是最常用的函数包装器,它可以存储任何可调用对象并提供统一的调用接口,以下是关于函数包装器的详细讲解... 目录一、std::function 的基本用法1. 基本语法二、如何使用 std::function

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

hdu1171(母函数或多重背包)

题意:把物品分成两份,使得价值最接近 可以用背包,或者是母函数来解,母函数(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v) 其中指数为价值,每一项的数目为(该物品数+1)个 代码如下: #include<iostream>#include<algorithm>

C++操作符重载实例(独立函数)

C++操作符重载实例,我们把坐标值CVector的加法进行重载,计算c3=c1+c2时,也就是计算x3=x1+x2,y3=y1+y2,今天我们以独立函数的方式重载操作符+(加号),以下是C++代码: c1802.cpp源代码: D:\YcjWork\CppTour>vim c1802.cpp #include <iostream>using namespace std;/*** 以独立函数

函数式编程思想

我们经常会用到各种各样的编程思想,例如面向过程、面向对象。不过笔者在该博客简单介绍一下函数式编程思想. 如果对函数式编程思想进行概括,就是f(x) = na(x) , y=uf(x)…至于其他的编程思想,可能是y=a(x)+b(x)+c(x)…,也有可能是y=f(x)=f(x)/a + f(x)/b+f(x)/c… 面向过程的指令式编程 面向过程,简单理解就是y=a(x)+b(x)+c(x)

利用matlab bar函数绘制较为复杂的柱状图,并在图中进行适当标注

示例代码和结果如下:小疑问:如何自动选择合适的坐标位置对柱状图的数值大小进行标注?😂 clear; close all;x = 1:3;aa=[28.6321521955954 26.2453660695847 21.69102348512086.93747104431360 6.25442246899816 3.342835958564245.51365061796319 4.87

OpenCV结构分析与形状描述符(11)椭圆拟合函数fitEllipse()的使用

操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C++11 算法描述 围绕一组2D点拟合一个椭圆。 该函数计算出一个椭圆,该椭圆在最小二乘意义上最好地拟合一组2D点。它返回一个内切椭圆的旋转矩形。使用了由[90]描述的第一个算法。开发者应该注意,由于数据点靠近包含的 Mat 元素的边界,返回的椭圆/旋转矩形数据

Unity3D 运动之Move函数和translate

CharacterController.Move 移动 function Move (motion : Vector3) : CollisionFlags Description描述 A more complex move function taking absolute movement deltas. 一个更加复杂的运动函数,每次都绝对运动。 Attempts to