机器学习第八次课

2024-04-25 05:28
文章标签 学习 机器 第八次

本文主要是介绍机器学习第八次课,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

开课了,今天会讲点什么呢,先看看

首先是机器学习的三步走,第一步是确定函数,第二步是损失函数,第三步就是训练,对应到线性回归,就是确定函数,然后就是MSE,第三步是梯度下降法,先问了个问题.

然后问了一个梯度下降的问题,梯度下降是一个用于优化目标函数的算法,常用于机器学习和人工智能中的模型训练。梯度在这里可被理解为导数或者偏导数,它指向了函数值下降最快的方向。在机器学习中,我们经常需要最小化损失函数,而梯度下降就是一种有效的方法。 梯度下降的基本步骤是: 1. 首先,选取一个随机的点(也就是参数),作为开始。 2. 然后,计算此点的梯度,也就是目标函数的导数。 3. 接着,沿着梯度的负方向,也就是函数值下降最快的方向,移动一小步,得到新的点。 4. 重复步骤2和3,直到梯度为0(也就是找到了局部最小值),或者满足其他结束条件(例如,达到预设的迭代次数、梯度变化很小等)。 这是最基本的批量梯度下降法。此外,还有一些变种,例如随机梯度下降(SGD)和小批量梯度下降,它们在更新参数时,不是使用全部的数据,而是采样一部分数据或者一条数据来计算梯度,可以提高计算效率。 需要注意的是,梯度下降法并不能确保找到全局最优解,只能找到局部最优解,因为梯度下降法是一种基于局部信息进行优化的方法,它并不能看到全局的情况。所以初始点的选取或者学习率的设定都可能影响到最后找到的结果。

正文

逻辑斯蒂回归做的是分类任务为什么名字里却有回归

虽然名字中包含“回归”,逻辑斯蒂回归实际上被用于分类任务,这在初次接触时确实可能会引起混淆。这是因为逻辑斯蒂回归的历史和其方法的数学性质。 首先,了解下"回归"这个统计术语的由来有助于理解。"回归"一词最早由英国统计学家Francis Galton在19世纪末提出,他在研究父母身高与孩子身高之间的关系时,发现孩子的平均身高总是“倾向于回归”向平均身高,因此他提出了这个术语。 而在底层的数学模型上,逻辑斯蒂回归是基于线性回归的。逻辑斯蒂回归使用的是对数几率函数(logit function),也就是一种线性回归模型,只是这个函数能将预测值限制在0和1之间,适用于二元或多元分类任务。因此,尽管在应用上,我们用逻辑斯蒂回归做分类,但在模型设定上,它实际上是一种回归模型。 所以,尽管在实际操作中,我们把逻辑斯蒂回归用于分类任务,但是从历史和数学角度看,将其称为"回归"是有一定道理的。

在逻辑回归的时候不能用均方误差,而是要用极大似然估计,那么什么是极大似然估计?

极大似然估计

极大似然估计(Maximum Likelihood Estimation,MLE)是一种用于估计统计模型参数的常用方法。 这种方法的基本思想是:在所有可能的参数值中,选取能使得已知样本数据出现的可能性(即,似然)最大的参数值作为模型参数的估计值。 简单地说,就是找到一组参数,让我们观察到的数据在这个模型下发生的概率尽可能大。 极大似然估计的基本步骤如下: 1. 建立似然函数:这就是数据的概率分布函数,但是参数是未知的。对于给定的样本观测结果,把这个概率函数看作是参数的函数,我们就称之为似然函数。 2. 对似然函数求导,并令其为0:这样可以得到极值。在实际计算中,我们通常对似然函数取对数,并求解对数似然函数的最大值,这样可以简化计算。 3. 解出参数值:这就是MLE的参数估计值。 在逻辑回归中,采用极大似然估计法来找出最优的模型参数。这是因为分类任务的预测值是离散的(如0或1),这种离散值和连续值之间的差异会使均方误差损失函数在某些地方不可导,因此,不能使用梯度下降等优化方法。而似然函数则没有这个问题。

极大似然估计和交叉熵都是判断模型预测准确性的度量方式,二者在很多情境下存在密切的关系。 在深度学习中,逻辑回归模型常常使用交叉熵损失函数。其实,当我们使用交叉熵损失函数进行优化的时候,就相当于在进行极大似然估计。下面我来解释一下这两者的关系。 在二元分类问题中,我们可以将标签设置为0和1。对于单个样本的预测结果,如果使用极大似然估计,其似然函数可以表示为: L = y * log(p) + (1 - y) * log(1 - p) 其中,y是真实标签,p是模型预测为正样本(y=1)的概率。我们的目标是找到最大化似然函数的参数。在实际应用中,通常对似然函数取负对数并求最小值,这样更容易计算。因此,目标函数变为: -log(L) = -y * log(p) - (1 - y) * log(1 - p) 这就是我们常说的二元交叉熵损失函数。 因此,我们可以看到,极大似然估计和交叉熵损失其实在数学上是一致的,只不过是优化的角度不同:一个是最大化似然函数,一个是最小化损失函数。所以,在逻辑回归模型中,优化交叉熵损失函数其实就是在进行参数的极大似然估计。

单独一个逻辑回归做不了太多,但是多个连载一起就形成一个很大的网络了

KNN

k-近邻算法(K-Nearest Neighbors,简称KNN)。 KNN是一种监督学习算法,用于分类和回归问题。其工作原理非常简单:基于训练数据集对新数据进行预测。预测的方式就是找出新数据在训练数据集中的最近邻居,然后根据这些邻居的标签来预测新数据的标签。 举个例子,假设你有一个数据集,其中每个数据都标注了是否喜欢看电影。现在,你有一个新的数据(一个人),你想预测这个人是否喜欢看电影。在KNN中,你会寻找数据集中最接近这个新数据的k(最好是奇数)个数据,然后查看这些数据中有多少个数据喜欢看电影。如果大多数都喜欢,那么你就预测这个人也喜欢看电影;否则,你就预测他不喜欢。 KNN算法的主要优点是简单易懂,容易实现。但此算法也有一些缺点,比如计算成本高(需要计算新数据与所有训练数据的距离),且对于特征数量多或者训练样本数量大的数据不太适用,也可能受到未标记样本的噪声干扰。 总的来说,KNN算法在处理一些简单问题上是一个非常好用的工具。

这篇关于机器学习第八次课的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/933800

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件