损失函数、成本函数cost 、最大似然估计

2024-08-30 21:04

本文主要是介绍损失函数、成本函数cost 、最大似然估计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、损失函数

什么是损失函数?

【深度学习】一文读懂机器学习常用损失函数(Loss Function)-腾讯云开发者社区-腾讯云

损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子:

LogLoss对数损失函数

Sigmoid 和softmax 函数以及交叉熵损失logloss_关于sigmoid函数是连续的-CSDN博客

平方损失函数MSE

最小二乘法是线性回归的一种。最小二乘法(OLS)将问题转化成了一个凸优化问题。

案例:

假设我们有一组数据点进行回归预测:

  • 实际值(真实值)y: 10, 20, 30
  • 预测值 y^​: 12, 18, 29

  残差 {10-12=-2,20-18=2,30-29=1}

MES=1/3(-2*-2  +2 *2 +1*1 )=9/3=3 

这个值越小表示拟合的越好

>> % 实际值
y = [10, 20, 30];% 预测值
y_hat = [12, 18, 29];% 计算平方损失
square_loss = (y - y_hat).^2;% 显示每个数据点的平方损失
disp('每个数据点的平方损失:');
disp(square_loss);% 计算均方误差(MSE)
mse = mean(square_loss);% 显示均方误差
disp('均方误差(MSE):');
disp(mse);
每个数据点的平方损失:4     4     1均方误差(MSE):3>> 

指数损失函数

特点

  1. 对错误预测的惩罚:如果预测值 y^\hat{y}y^​ 与实际标签 yyy 不符,损失函数的值会显著增加。
  2. 指数增长:损失函数的值随着预测错误的程度(即 y⋅y^y \cdot \hat{y}y⋅y^​ 负值)指数级增长,强调了模型对错分类样本的关注。

案例:

假设你正在使用 AdaBoost 算法进行分类任务。你有一个实际标签 yyy 和一个预测值 y^\hat{y}y^​,需要计算对应的指数损失。

示例数据

% 定义实际标签和预测值
y = 1;       % 实际标签
y_hat = -0.8; % 预测值% 计算指数损失
exponential_loss = exp(-y * y_hat);% 显示结果
disp('指数损失函数的值:');
disp(exponential_loss);

 案例2:

% MATLAB 计算指数损失函数示例% 实际标签和预测值
y = [1, -1, 1, -1];     % 实际标签(示例)
y_hat = [-0.8, 0.5, -1, 0.2]; % 预测值(示例)% 计算每个样本的指数损失
exponential_loss = exp(-y .* y_hat);% 显示每个样本的指数损失
disp('每个样本的指数损失函数值:');
disp(exponential_loss);% 计算平均指数损失(如果需要)
mean_exponential_loss = mean(exponential_loss);
disp('平均指数损失函数值:');
disp(mean_exponential_loss);

 

Hinge损失函数(SVM) 

Hinge 损失函数(Hinge Loss Function)主要用于支持向量机(SVM)等分类任务,特别是在二分类问题中。它用于衡量分类器的预测结果与实际标签之间的差距,特别是在数据点被正确分类时,如何进一步推动模型在边界上的决策能力

定义

Hinge 损失函数的公式为:

 案例一

% 定义实际标签和预测值
y = 1;       % 实际标签
y_hat = 0.5; % 预测值% 计算 Hinge 损失
hinge_loss = max(0, 1 - y * y_hat);% 显示结果
disp('Hinge 损失函数的值:');
disp(hinge_loss);

 案例二

% 定义实际标签和预测值
y = [1, -1, 1, -1];     % 实际标签
y_hat = [0.5, -0.3, 1.2, -0.8]; % 预测值% 计算每个样本的 Hinge 损失
hinge_loss = max(0, 1 - y .* y_hat);% 显示每个样本的 Hinge 损失
disp('每个样本的 Hinge 损失函数值:');
disp(hinge_loss);% 计算平均 Hinge 损失(如果需要)
mean_hinge_loss = mean(hinge_loss);
disp('平均 Hinge 损失函数值:');
disp(mean_hinge_loss);

二、成本函数 

代价函数是用来衡量整个训练集上预测输出与实际输出之间的误差的函数。代价函数通常是由损失函数对整个训练集上的样本进行求和或平均得到的

三、最大似然估计

四、有无监督学习

有监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)是机器学习中的两个基本类别,它们主要通过以下方式区分:

有监督学习(Supervised Learning)

定义:有监督学习是指在训练模型时,使用的训练数据包括输入数据和对应的目标输出(标签)。模型通过学习这些输入输出对来进行预测或分类。

特点

  • 标签数据训练数据集中每个样本都有一个对应的标签或目标值
  • 目标:从输入数据和标签中学习到一个映射函数,能够对新的、未见过的数据进行准确预测或分类。
  • 应用场景:分类(如垃圾邮件检测、人脸识别)和回归(如房价预测、温度预测)任务。

常见算法

  • 分类算法:逻辑回归、支持向量机(SVM)、决策树、随机森林、k近邻(k-NN)、神经网络等。
  • 回归算法:线性回归、岭回归、LASSO回归等。

示例

  • 分类:通过大量标记为“猫”或“狗”的图片来训练一个模型,以便能对新的图片进行分类。
  • 回归:利用历史房价数据来训练一个模型,预测未来某个地区的房价。

无监督学习(Unsupervised Learning)

定义:无监督学习是指在训练模型时,使用的训练数据只有输入数据,没有对应的目标输出(标签)。模型通过分析数据中的结构、模式或特征来进行学习。

特点

  • 无标签数据:训练数据集中没有任何标签或目标值
  • 目标:发现数据中的潜在结构、模式、群体或特征,无需事先了解目标输出。
  • 应用场景:聚类(如客户细分)、降维(如特征选择)、异常检测(如欺诈检测)等任务。

常见算法

  • 聚类算法:k均值(k-means)、层次聚类(Hierarchical Clustering)、DBSCAN等。
  • 降维算法:主成分分析(PCA)、t-SNE(t-Distributed Stochastic Neighbor Embedding)、线性判别分析(LDA)等。
  • 异常检测:孤立森林(Isolation Forest)、一类支持向量机(One-Class SVM)等。

示例

  • 聚类:对顾客进行分群,以便理解不同顾客群体的行为特征。
  • 降维:将高维数据(如图像数据)降到低维度,以便进行可视化或进一步分析。

总结

  • 有监督学习:利用带标签的数据来训练模型,目标是预测或分类。
  • 无监督学习:利用无标签的数据来发现数据中的模式或结构,目标是探索数据的内在特征。

理解这些区别可以帮助你选择合适的机器学习方法,根据任务的需求和数据的特性来应用相应的算法。

这篇关于损失函数、成本函数cost 、最大似然估计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1121926

相关文章

hdu1171(母函数或多重背包)

题意:把物品分成两份,使得价值最接近 可以用背包,或者是母函数来解,母函数(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v) 其中指数为价值,每一项的数目为(该物品数+1)个 代码如下: #include<iostream>#include<algorithm>

poj 3723 kruscal,反边取最大生成树。

题意: 需要征募女兵N人,男兵M人。 每征募一个人需要花费10000美元,但是如果已经招募的人中有一些关系亲密的人,那么可以少花一些钱。 给出若干的男女之间的1~9999之间的亲密关系度,征募某个人的费用是10000 - (已经征募的人中和自己的亲密度的最大值)。 要求通过适当的招募顺序使得征募所有人的费用最小。 解析: 先设想无向图,在征募某个人a时,如果使用了a和b之间的关系

poj 3258 二分最小值最大

题意: 有一些石头排成一条线,第一个和最后一个不能去掉。 其余的共可以去掉m块,要使去掉后石头间距的最小值最大。 解析: 二分石头,最小值最大。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <c

poj 2175 最小费用最大流TLE

题意: 一条街上有n个大楼,坐标为xi,yi,bi个人在里面工作。 然后防空洞的坐标为pj,qj,可以容纳cj个人。 从大楼i中的人到防空洞j去避难所需的时间为 abs(xi - pi) + (yi - qi) + 1。 现在设计了一个避难计划,指定从大楼i到防空洞j避难的人数 eij。 判断如果按照原计划进行,所有人避难所用的时间总和是不是最小的。 若是,输出“OPETIMAL",若

poj 2135 有流量限制的最小费用最大流

题意: 农场里有n块地,其中约翰的家在1号地,二n号地有个很大的仓库。 农场有M条道路(双向),道路i连接着ai号地和bi号地,长度为ci。 约翰希望按照从家里出发,经过若干块地后到达仓库,然后再返回家中的顺序带朋友参观。 如果要求往返不能经过同一条路两次,求参观路线总长度的最小值。 解析: 如果只考虑去或者回的情况,问题只不过是无向图中两点之间的最短路问题。 但是现在要去要回

poj 2594 二分图最大独立集

题意: 求一张图的最大独立集,这题不同的地方在于,间接相邻的点也可以有一条边,所以用floyd来把间接相邻的边也连起来。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#include <sta

poj 3422 有流量限制的最小费用流 反用求最大 + 拆点

题意: 给一个n*n(50 * 50) 的数字迷宫,从左上点开始走,走到右下点。 每次只能往右移一格,或者往下移一格。 每个格子,第一次到达时可以获得格子对应的数字作为奖励,再次到达则没有奖励。 问走k次这个迷宫,最大能获得多少奖励。 解析: 拆点,拿样例来说明: 3 2 1 2 3 0 2 1 1 4 2 3*3的数字迷宫,走两次最大能获得多少奖励。 将每个点拆成两个

poj 3692 二分图最大独立集

题意: 幼儿园里,有G个女生和B个男生。 他们中间有女生和女生认识,男生男生认识,也有男生和女生认识的。 现在要选出一些人,使得这里面的人都认识,问最多能选多少人。 解析: 反过来建边,将不认识的男生和女生相连,然后求一个二分图的最大独立集就行了。 下图很直观: 点击打开链接 原图: 现图: 、 代码: #pragma comment(

最大流、 最小费用最大流终极版模板

最大流  const int inf = 1000000000 ;const int maxn = 20000 , maxm = 500000 ;struct Edge{int v , f ,next ;Edge(){}Edge(int _v , int _f , int _next):v(_v) ,f(_f),next(_next){}};int sourse , mee

二分最大匹配总结

HDU 2444  黑白染色 ,二分图判定 const int maxn = 208 ;vector<int> g[maxn] ;int n ;bool vis[maxn] ;int match[maxn] ;;int color[maxn] ;int setcolor(int u , int c){color[u] = c ;for(vector<int>::iter