逻辑斯蒂回归中损失函数和代价函数的推导

2024-03-31 19:38

本文主要是介绍逻辑斯蒂回归中损失函数和代价函数的推导,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参见 Stanford CS230学习笔记(二):Lecture 2 Basics, Logistic Regression and Vectorizing

逻辑斯蒂回归

公式

Y ^ = σ ( w T X + b ) \hat{Y}=\sigma (w^TX+b) Y^=σ(wTX+b)

其公式中的各项数据含义如下:

  • 输入X:假设输入为一张64*64的图片,那么依次取出R、G、B矩阵中的所有像素值,我们可以得到一个64*64*3的向量,将其记作x,即为一个输入;将样本集中每个样本的x(i)按列排成(64*64*3)*m的矩阵,记作X
  • 输出YhatYhat是一个1*m的矩阵,每个值代表相应的x的输出,其中的hat代表预测值
  • 参数w b:需要利用梯度下降等方法寻找的参数,以使后续的代价函数最小化
  • σsigmoid函数,用以归一化,将括号中的值限定在(0,1)范围内, σ ( z ) = 1 1 + e − z \sigma(z)=\frac{1}{1+e^{-z}} σ(z)=1+ez1

损失函数与代价函数

在逻辑斯蒂回归中,损失函数(Lost function)为
L ( y ^ , y ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) L(\hat{y},y)=-(y\log{(\hat{y})+(1-y)\log(1-\hat y)}) L(y^,y)=(ylog(y^)+(1y)log(1y^))

代价函数(Cost function)为
J ( w , b ) = 1 m ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) J(w,b)=\frac{1}{m}\sum_{i=1}^m L(\hat y^{(i)},y^{(i)}) J(w,b)=m1i=1mL(y^(i),y(i))

推导

损失函数

逻辑斯蒂回归概率的基本公式为(csdn的latex不支持align…)

合并起来

p ( y ∣ x ) = y ^ y ⋅ ( 1 − y ^ ) ( 1 − y ^ ) p(y|x)=\hat{y}^y\cdot (1-\hat y)^{(1-\hat y)} p(yx)=y^y(1y^)(1y^)

取对数,以保证函数单增

log ⁡ p ( y ∣ x ) = y log ⁡ y ^ + ( 1 − y ^ ) log ⁡ ( 1 − y ^ ) \log p(y|x)=y\log \hat{y} + {(1-\hat y)} \log (1-\hat y) logp(yx)=ylogy^+(1y^)log(1y^)
为了最大化概率(的对数),我们需要最小化损失函数,因此两者增减性相反,添加负号即可
L ( y ^ , y ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) L(\hat{y},y)=-(y\log{(\hat{y})+(1-y)\log(1-\hat y)}) L(y^,y)=(ylog(y^)+(1y)log(1y^))

代价函数

代价函数的公式是根据极大似然估计来的,就是数理统计里面那一套,样本先相乘再求对数,对数求导使导数等于0,得到极大似然估计值

至于为什么最后相乘变成了相加,是因为对数的存在,将连乘的对数变成了各项对数的连加

对于m个样本的整个训练集,服从独立同分布的样本的联合概率就是每个样本的概率的乘积

log ⁡ ∏ i = 1 m p ( y ( i ) ∣ x ( i ) ) = ∑ i = 1 m log ⁡ p ( y ( i ) ∣ x ( i ) ) = − ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) \log \prod_{i=1}^{m}{p(y^{(i)}|x^{(i)})}=\sum_{i=1}^m \log {p(y^{(i)}|x^{(i)})}=-\sum_{i=1}^m L(\hat y^{(i)},y^{(i)}) logi=1mp(y(i)x(i))=i=1mlogp(y(i)x(i))=i=1mL(y^(i),y(i))

极大化似然概率就是极小化代价函数,因此增减性相反加负号,此处还要除上m

J ( w , b ) = 1 m ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) J(w,b)=\frac{1}{m}\sum_{i=1}^m L(\hat y^{(i)},y^{(i)}) J(w,b)=m1i=1mL(y^(i),y(i))

这篇关于逻辑斯蒂回归中损失函数和代价函数的推导的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/865161

相关文章

C++11的函数包装器std::function使用示例

《C++11的函数包装器std::function使用示例》C++11引入的std::function是最常用的函数包装器,它可以存储任何可调用对象并提供统一的调用接口,以下是关于函数包装器的详细讲解... 目录一、std::function 的基本用法1. 基本语法二、如何使用 std::function

hdu1171(母函数或多重背包)

题意:把物品分成两份,使得价值最接近 可以用背包,或者是母函数来解,母函数(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v) 其中指数为价值,每一项的数目为(该物品数+1)个 代码如下: #include<iostream>#include<algorithm>

uva 10014 Simple calculations(数学推导)

直接按照题意来推导最后的结果就行了。 开始的时候只做到了第一个推导,第二次没有继续下去。 代码: #include<stdio.h>int main(){int T, n, i;double a, aa, sum, temp, ans;scanf("%d", &T);while(T--){scanf("%d", &n);scanf("%lf", &first);scanf

C++操作符重载实例(独立函数)

C++操作符重载实例,我们把坐标值CVector的加法进行重载,计算c3=c1+c2时,也就是计算x3=x1+x2,y3=y1+y2,今天我们以独立函数的方式重载操作符+(加号),以下是C++代码: c1802.cpp源代码: D:\YcjWork\CppTour>vim c1802.cpp #include <iostream>using namespace std;/*** 以独立函数

函数式编程思想

我们经常会用到各种各样的编程思想,例如面向过程、面向对象。不过笔者在该博客简单介绍一下函数式编程思想. 如果对函数式编程思想进行概括,就是f(x) = na(x) , y=uf(x)…至于其他的编程思想,可能是y=a(x)+b(x)+c(x)…,也有可能是y=f(x)=f(x)/a + f(x)/b+f(x)/c… 面向过程的指令式编程 面向过程,简单理解就是y=a(x)+b(x)+c(x)

利用matlab bar函数绘制较为复杂的柱状图,并在图中进行适当标注

示例代码和结果如下:小疑问:如何自动选择合适的坐标位置对柱状图的数值大小进行标注?😂 clear; close all;x = 1:3;aa=[28.6321521955954 26.2453660695847 21.69102348512086.93747104431360 6.25442246899816 3.342835958564245.51365061796319 4.87

OpenCV结构分析与形状描述符(11)椭圆拟合函数fitEllipse()的使用

操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C++11 算法描述 围绕一组2D点拟合一个椭圆。 该函数计算出一个椭圆,该椭圆在最小二乘意义上最好地拟合一组2D点。它返回一个内切椭圆的旋转矩形。使用了由[90]描述的第一个算法。开发者应该注意,由于数据点靠近包含的 Mat 元素的边界,返回的椭圆/旋转矩形数据

Unity3D 运动之Move函数和translate

CharacterController.Move 移动 function Move (motion : Vector3) : CollisionFlags Description描述 A more complex move function taking absolute movement deltas. 一个更加复杂的运动函数,每次都绝对运动。 Attempts to

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

✨机器学习笔记(二)—— 线性回归、代价函数、梯度下降

1️⃣线性回归(linear regression) f w , b ( x ) = w x + b f_{w,b}(x) = wx + b fw,b​(x)=wx+b 🎈A linear regression model predicting house prices: 如图是机器学习通过监督学习运用线性回归模型来预测房价的例子,当房屋大小为1250 f e e t 2 feet^