简单的PRML阅读笔记

2024-05-09 07:48
文章标签 简单 笔记 阅读 prml

本文主要是介绍简单的PRML阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

chapter1 绪论

chapter1.1 多项式拟合

  1. 离散标签叫做分类,连续标签叫做回归
  2. 在多项式拟合的问题中,随着阶数的变大,参数 M 通常会变得非常大,造成过拟合现象,因此,通过正则化(regulation)可以降低 M 的参数大小,这样的技术在统计学中叫收缩(shrinkage),在神经网络中称之为权重衰减(weight decay)

chapter1.2.5 重新考虑曲线拟合问题

  1. 对于点集 x=(x1,x2,x3,...xN)T 和它的对应目标 t=(t1,...tN)T ,在给定 xi 的情况下,将预测值 ti 看成均值为真实值 yi 的高斯分布, 可以得到似然函数:
    p(t|x,w,β)=n=1NN(tn|y(xn.w,β1))
    ,然后取对数的似然函数可以得到之前进行曲线拟合的时候使用的最小二乘法的公式,这也为最小二乘法提供了从最大似然函数的角度上的依据
  2. 如果将上面的结论朝着贝叶斯的方法前进一步,其实就是根据贝叶斯公式在似然函数上加入了参数的先验分布 p(w|α) ,如果该先验分布服从均值为0的高斯分布,那么可以得出
    p(w|α)=(α2π)M+12exp{α2wTw}
    ,其中 M 为参数个数, 这种技术称之为最大后验,最大后验概率就是最小化下式
    β2n=1N{y(xn,w)tn}2+α2wTw
    , 我常见的最后一项并不带进加和公式里面,但是如果从最开始就加入 p(w|α) 我觉得最后一项应该加进加和公式里,这也是我的疑惑,值得注意的是,这仍然不是纯正的贝叶斯观点,因为目前仍然使用的是对 w 的点估计,在纯粹的贝叶斯方法中,需要对所有的w进行积分,始终应用概率的加法和乘法原则。

chapter1.5 决策论

  1. 三种常见决策方法: 最小化错误分类率;最小化期望损失;拒绝选项
  2. 生成模型:确定条件密度 P(x|Ck) 判别模型:确定后验概率密度 P(Ck|x)
  3. 判别函数分类和概率无关,可对应到支持向量机分类
  4. 回归问题的估计函数:
    y(x)=Et[t|x]
    , 这一点可以对应到逻辑斯蒂回归的目标函数为 P(y=1|φ)

chapter4 分类的线性模型

chapter4.2 概率生成模型

概率生成模型是对类条件概率密度 p(x|Ck) 和类先验概率密度 p(Ck) 建模,然后使用这两个概率密度通过贝叶斯定力计算后验概率密度 p(Ck|x)
考虑二分类的情形,类别 C1 的后验概率可以写成:

p(C1|x)=p(x|C1)p(C1)p(x|C1)p(C1)+p(x|C2)p(C2)

=11+exp(α)=σ(α)
其中
α=ln(p(x|C1)p(C1)p(x|C2)p(C2))
σ 定义为:
σ(α)=11+exp(α)

对于多类,我们有:
p(Ck|x)=p(x|Ck)p(Ck)jexp(αj)=exp(αk)jexp(αj)
其中
αk=ln(p(x|Ck)p(Ck))

4.2.1 连续输入

假设类条件概率密度是高斯分布,且假设所有的类别的协方差矩阵相同,这样类别 Ck 的类条件概率是:

p(x|Ck)=1(2π)D21||12exp{12(xμk)T1(xμk)}
考虑两类情形,则有:
p(x|Ck)=σ(wTx+w0)
其中
w=1(μ1μ2)
w0=12μT11μ1+12μT21μ2+ln(p(C1)p(C2))
对于多类情况,则有
αk(x)=wTkx+wk0
其中
wk=1μk
wk0=12μTkkμ1

这些说明了,对于连续的输入,其概率公式 P(CK|x) 可以表示为线性模型

4.2.2最大似然解

4.3概率判别式模型

根据上一节的内容,

p(C1|φ)=y(φ=σ(wTφ))
对于数据集 φn,tn ,其中 tn{0,1} 有似然函数
p(t|w)=n=1Nytnn{1yn}1tn
似然函数的负对数即为交叉熵误差函数

这篇关于简单的PRML阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/972809

相关文章

基于Qt开发一个简单的OFD阅读器

《基于Qt开发一个简单的OFD阅读器》这篇文章主要为大家详细介绍了如何使用Qt框架开发一个功能强大且性能优异的OFD阅读器,文中的示例代码讲解详细,有需要的小伙伴可以参考一下... 目录摘要引言一、OFD文件格式解析二、文档结构解析三、页面渲染四、用户交互五、性能优化六、示例代码七、未来发展方向八、结论摘要

MyBatis框架实现一个简单的数据查询操作

《MyBatis框架实现一个简单的数据查询操作》本文介绍了MyBatis框架下进行数据查询操作的详细步骤,括创建实体类、编写SQL标签、配置Mapper、开启驼峰命名映射以及执行SQL语句等,感兴趣的... 基于在前面几章我们已经学习了对MyBATis进行环境配置,并利用SqlSessionFactory核

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu2289(简单二分)

虽说是简单二分,但是我还是wa死了  题意:已知圆台的体积,求高度 首先要知道圆台体积怎么求:设上下底的半径分别为r1,r2,高为h,V = PI*(r1*r1+r1*r2+r2*r2)*h/3 然后以h进行二分 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#includ

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

usaco 1.3 Prime Cryptarithm(简单哈希表暴搜剪枝)

思路: 1. 用一个 hash[ ] 数组存放输入的数字,令 hash[ tmp ]=1 。 2. 一个自定义函数 check( ) ,检查各位是否为输入的数字。 3. 暴搜。第一行数从 100到999,第二行数从 10到99。 4. 剪枝。 代码: /*ID: who jayLANG: C++TASK: crypt1*/#include<stdio.h>bool h

uva 10387 Billiard(简单几何)

题意是一个球从矩形的中点出发,告诉你小球与矩形两条边的碰撞次数与小球回到原点的时间,求小球出发时的角度和小球的速度。 简单的几何问题,小球每与竖边碰撞一次,向右扩展一个相同的矩形;每与横边碰撞一次,向上扩展一个相同的矩形。 可以发现,扩展矩形的路径和在当前矩形中的每一段路径相同,当小球回到出发点时,一条直线的路径刚好经过最后一个扩展矩形的中心点。 最后扩展的路径和横边竖边恰好组成一个直

poj 1113 凸包+简单几何计算

题意: 给N个平面上的点,现在要在离点外L米处建城墙,使得城墙把所有点都包含进去且城墙的长度最短。 解析: 韬哥出的某次训练赛上A出的第一道计算几何,算是大水题吧。 用convexhull算法把凸包求出来,然后加加减减就A了。 计算见下图: 好久没玩画图了啊好开心。 代码: #include <iostream>#include <cstdio>#inclu

uva 10130 简单背包

题意: 背包和 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#include <stack>#include <vector>#include <queue>#include <map>

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学