机器学习笔记4:Logistic 回归模型

2024-06-01 04:18

本文主要是介绍机器学习笔记4:Logistic 回归模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  1. Logistic回归的基本原理
  2. logistic回归的优化算法

前言:
在分类任务中,我们是通过从输入 x x x到输出 y y y的映射 f f f的模型得出来的:
            y ^ = f ( x ) = a r g m a x p ( y = c ∣ x , D ) \hat{y}=f(x)=arg maxp(y=c|\mathbf{x},D) y^=f(x)=argmaxp(y=cx,D)
其中,我们定义 y y y为离散值,其取值范围称之为标签空间: y = { 1 , 2 , . . , C } y=\left \{ 1,2,..,C \right \} y={1,2,..,C}; 当 C = 2 C=2 C=2为二分类问题,这时候的分布为bernoulli分布,该分布的概率表示:
             p ( y ∣ x ) = B e r ( y ∣ μ ( x ) ) p(y|\mathbf{x})=Ber(y|\mu (\textbf{x})) p(yx)=Ber(yμ(x))
其中 μ ( x ) = E ( y ∣ x ) = p ( y = 1 ∣ x ) \mu(\mathbf{x})=E(y|\mathbf{x})=p(y=1|\mathbf{x}) μ(x)=E(yx)=p(y=1x)
我们复习下Bernoulli分布的概念:
  Bernoulli分布又称两点分布或0-1分布。若是Bernoulli试验成功,则Bernoulli随机变量 X X X取值为1,否则为0。记试验成功的概率为 θ \theta θ,我们称 X X X服从参数为 θ \theta θ的Bernoulli分布,记为 X B e r ( θ ) X~Ber(\theta) X Ber(θ),概率函数(pmf)为:
            p ( x ) = θ x ( 1 − θ ) ( 1 − x ) = { θ i f x = 1 1 − θ i f x = 0 } p(x)=\theta^{x}(1-\theta)^{(1-x)}=\begin{Bmatrix} \theta & if x=1 \\ 1-\theta& ifx=0 \end{Bmatrix} p(x)=θx(1θ)(1x)={θ1θifx=1ifx=0}
其中 Bernoulli分布的均值: μ = θ \mu=\theta μ=θ,方差: σ 2 = θ ∗ ( 1 − θ ) \sigma ^{2}=\theta \ast (1-\theta) σ2=θ(1θ)

1、logistic的基本原理
Logistic回归模型跟线性回归模型一样,也是线性模型,只是其条件概率 p ( y ∣ x ) p(y|\mathbf{x}) p(yx)的形式不同:
            p ( y ∣ x ) = B e r ( y ∣ μ ( x ) ) p(y|\textbf{x})=Ber(y|\mu (\textbf{x})) p(yx)=Ber(yμ(x))
            μ ( x ) = σ ( w T x ) \mu (\textbf{x})=\sigma (\textbf{w}^{T}\textbf{x}) μ(x)=σ(wTx)
其中sigmoid函数(S函数,图如下)定义为
            σ ( a ) = 1 1 + e x p ( − a ) \sigma (a)=\frac{1}{1+exp(-a)} σ(a)=1+exp(a)1
          在这里插入图片描述
上述函数我们亦可以称为logistic函数或者logit函数,将实数 a a a变切换到[0,1]区间。而且有因为该函数取值在[0,1]区间,所以logistic回归又被称为logit回归。
  为什么使用logistic函数呢,因为在神经科学中,神经元的对其输入进行加权和: f ( x ) = w T x f(x)=\textbf{w}^{T}\textbf{x} f(x)=wTx,如果该和大于某个阈值(即: f ( x ) > τ f(x)>\tau f(x)>τ)的话,则神经元发放脉冲。而且,在logistic回归中,我们定义Log Odds Radio:
      L O R ( x ) = log ⁡ p ( 1 ∣ x , w ) p ( 0 ∣ x , w ) = log ⁡ [ 1 1 + e x p ( − w T x ) 1 + e x p ( − w T x ) e x p ( − w T x ) ] LOR(\textbf{x})=\log\frac{p(1|\textbf{x},\textbf{w})}{p(0|\textbf{x},\textbf{w})}=\log[\frac{1}{1+exp(-\textbf{w}^{T}\textbf{x})}\frac{1+exp(-\textbf{w}^{T}\textbf{x})}{exp(-\textbf{w}^{T}\textbf{x})}] LOR(x)=logp(0x,w)p(1x,w)=log[1+exp(wTx)1exp(wTx)1+exp(wTx)]
           = log ⁡ ( e x p ( w T x ) = w T x =\log(exp(\textbf{w}^{T}\textbf{x})=\textbf{w}^{T}\textbf{x} =log(exp(wTx)=wTx
因此,如果 L O R ( x ) = w T x > 0 LOR(\textbf{x})=\textbf{w}^{T}\textbf{x}>0 LOR(x)=wTx>0,则神经元发放脉冲,即 p ( 1 ∣ x , w ) > p ( 0 ∣ x , w ) p(1|\textbf{x},\textbf{w})>p(0|\textbf{x},\textbf{w}) p(1x,w)>p(0x,w)
那么在logistic回归中,当:
          L O R ( x ) = w T x > 0 LOR(\textbf{x})=\textbf{w}^{T}\textbf{x}>0 LOR(x)=wTx>0 时, y ^ = 1 \hat{y}=1 y^=1
          L O R ( x ) = w T x &lt; 0 LOR(\textbf{x})=\textbf{w}^{T}\textbf{x}&lt;0 LOR(x)=wTx<0 时, y ^ = 0 \hat{y}=0 y^=0
w T x = 0 \textbf{w}^{T}\textbf{x}=0 wTx=0时为决策面。因此 a ( x ) = w T x a(\textbf{x})=\textbf{w}^{T}\textbf{x} a(x)=wTx为分类决策面,故logistic回归是一个线性分类器。

2、logistic回归的优化算法
我们知道logistic回归的概率函数为: p ( y ∣ x ) = B e r ( y ∣ μ ( x ) ) p(y|\textbf{x})=Ber(y|\mu (\textbf{x})) p(yx)=Ber(yμ(x)),则令 μ i = μ ( x i ) \mu_{i}=\mu(\textbf{x}_{i}) μi=μ(xi),则负log似然为:
       
       J ( w ) = N L L ( w ) = − ∑ i = 1 N log ⁡ [ ( μ i ) y i ∗ ( 1 − μ i ) ( 1 − y i ) ] J(\textbf{w})=NLL(\textbf{w})=-\sum_{i=1}^{N}\log[(\mu_{i})^{y_{i}}\ast(1-\mu_{i})^{(1-y_{i})} ] J(w)=NLL(w)=i=1Nlog[(μi)yi(1μi)(1yi)]
                = ∑ i = 1 N − [ y i log ⁡ ( μ i ) + ( 1 − y i ) log ⁡ ( 1 − μ i ) ] =\sum_{i=1}^{N}-[y_{i}\log(\mu_{i})+(1-y_{i})\log(1-\mu_{i})] =i=1N[yilog(μi)+(1yi)log(1μi)]

极大似然估计 等价于 最小logistic损失。那么 J ( w ) J(\textbf{w}) J(w)的优化求解可以使用梯度下降法或者牛顿法。
(1)梯度下降法
在这里插入图片描述
  求解在这里插入图片描述
  其中:在这里插入图片描述
算法与线性回归 g ( w ) = ∑ i = 1 N ( f ( x i ) − y i ) x i g(\textbf{w})=\sum_{i=1}^{N}(f(\textbf{x}_{i})-y_{i})\textbf{x}_{i} g(w)=i=1N(f(xi)yi)xi看起来一样,只是 f ( x ) f(x) f(x)不一样,事实上所有的线性回归模型的梯度都是如此。
在这里插入图片描述
  (2)牛顿法
  牛顿法,其原则是使用函数 f ( x ) f(x) f(x)的泰勒级数的前几项来寻找方程 f ( x ) = 0 f(x)=0 f(x)=0的根。
  我们知道一阶泰勒展开式: f ( x ) = f ( x t ) + f ′ ( x t ) ( x − x t ) f(x)=f(x^{t})+{f}&#x27;(x^{t})(x-x^{t}) f(x)=f(xt)+f(xt)(xxt)
  所以,我们将导数 g ( w ) g(\textbf{w}) g(w) w t \textbf{w}^{t} wt处进行泰勒展开:   
       在这里插入图片描述
去掉高阶无穷小 O p ( w ^ − w t ) Op(\hat{\textbf{w}}-\textbf{w}^{t}) Op(w^wt),得到:
  在这里插入图片描述
  因此得到的迭代机制:
         在这里插入图片描述
 所以牛顿法又可以称为二阶梯度下降法,移动方向为: d = − ( H ( w t ) ) − 1 g ( w t ) d=-(H(\textbf{w}^{t}))^{-1}g(\textbf{w}^{t}) d=(H(wt))1g(wt);对比我们一阶梯度下降法,移动方向: d = − g ( w t ) d=-g(\textbf{w}^{t}) d=g(wt)
 损失函数的求解过程,我们还需要了解迭代在加权最小二乘(iterative reweighted least squares,IRLS)原则,何谓IRLS,上述我们以得出:
在这里插入图片描述
 根据牛顿法的结果:     在这里插入图片描述
 所以IRLS:权重矩阵 S \textbf{S} S不是常数,而且依赖参数向量 w \textbf{w} w,我们必须使用标准方程来迭代计算,每次使用新的权重向量 w \textbf{w} w来修正权重矩阵 S \textbf{S} S。因此该算法称之为迭代再加权最小二乘,IRLS。
如下便是具体的公式迭代过程:
在这里插入图片描述
当然,上述是logistic回归没有正则化的过程,正则化logistic就是在 J ( w ) J(\textbf{w}) J(w)加上 λ ∣ ∣ w ∣ ∣ 2 \lambda ||\textbf{w}||^{2} λw2(l2正则)或者 λ ∣ w ∣ \lambda |\textbf{w}| λw(l1正则),同理求解过程结合线性回归模型的求解和上述不带正则的logistic回归的求解即可。

这篇关于机器学习笔记4:Logistic 回归模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1019959

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验