Stanford CS230学习笔记(二):Lecture 2 Basics, Logistic Regression and Vectorization

本文主要是介绍Stanford CS230学习笔记(二):Lecture 2 Basics, Logistic Regression and Vectorization,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

事先声明:本文是写给自己看的,发在这里是因为掘金图床真的好方便orz(是的之前在掘金上,但是后来掘金的文中代码块标红,好难看!),本系列将按照我自己的逻辑整理,知识点并没有全写上,还可能会出现随心所欲中英文混杂的情况,公式也打算截图,如果你碰巧看到我的想要照着看也不是不行,但网上总结得比我好的太多了,甚至可以去找找看Stanford自己整理的笔记,内容很全,不过是全英文的,而且排版有点反人类

深度学习介绍

常用模型

  • 标准神经网络:构成神经网络的主要部分
  • 卷积神经网络:常用于图像应用
  • 循环神经网络:常用于一维可序列化的模型,如语音识别(语音输入为随时间变化的序列),自然语言处理(输入为可序列化分析的单词或句子)

监督学习

从给定的训练数据集中学习出一个函数(模型参数),当新的数据到来时,可以根据这个函数预测结果,数据都是带标签的,与无监督学习(Unsepervised Learning),半监督式/强化学习(Reinforcement Learning)相区分

一般根据预测结果分类分作两类

  • 回归(Regression):预测结果为连续型的值或无限可列个
  • 分类(Classification):预测结果为有限可列个值

ReLU函数(线性整流函数)

ReLU函数是深度学习中的常用函数,其全称为线性整流函数(Rectified Linear Unite),取值方式为y=max(0,x),图像如下

y=max(0,x)

标准符号


逻辑斯蒂回归

以逻辑斯蒂回归为例,介绍了一些深度学习的基础,如梯度下降的方法,求损失函数代价函数的方式,以及它们的意义

用途

逻辑斯蒂回归(Logistic Regression)一般用于二元分类问题(Binary Classification)

公式

Y ^ = σ ( w T X + b ) \hat{Y}=\sigma (w^TX+b) Y^=σ(wTX+b)

其公式中的各项数据含义如下:

  • 输入X:假设输入为一张64*64的图片,那么依次取出R、G、B矩阵中的所有像素值,我们可以得到一个64*64*3的向量,将其记作x,即为一个输入;将样本集中每个样本的x(i)按列排成(64*64*3)*m的矩阵,记作X
  • 输出YhatYhat是一个1*m的矩阵,每个值代表相应的x的输出,其中的hat代表预测值
  • 参数w b:需要利用梯度下降等方法寻找的参数,以使后续的代价函数最小化
  • σsigmoid函数,用以归一化,将括号中的值限定在(0,1)范围内, σ ( z ) = 1 1 + e − z \sigma(z)=\frac{1}{1+e^{-z}} σ(z)=1+ez1

损失函数与代价函数

  • 损失函数:对单个样本的偏差估计值
  • 代价函数:总体的样本的偏差量

在逻辑斯蒂回归中,损失函数(Lost function)为
L ( y ^ , y ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) L(\hat{y},y)=-(y\log{(\hat{y})+(1-y)\log(1-\hat y)}) L(y^,y)=(ylog(y^)+(1y)log(1y^))

代价函数(Cost function)为
J ( w , b ) = 1 m ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) J(w,b)=\frac{1}{m}\sum_{i=1}^m L(\hat y^{(i)},y^{(i)}) J(w,b)=m1i=1mL(y^(i),y(i))

推导会单独写一篇文章,见逻辑斯蒂回归中损失函数和代价函数的推导

梯度下降

在上一部分,我们得到了关于wb的代价函数,因此接下来将使用梯度下降(Gradient Descent)尝试找到该凸函数上的整体最优解,分为以下两步:

  1. 初始化wb,一般将其置为0
  2. 沿梯度绝对值减小方向更新wb
    公式为

w : = w − α ∂ J ( w , b ) ∂ w w := w-\alpha \frac{\partial J(w,b)}{\partial w} w:=wαwJ(w,b)
b : = b − α ∂ J ( w , b ) ∂ b b := b-\alpha \frac{\partial J(w,b)}{\partial b} b:=bαbJ(w,b)

在这里应注意两点

  1. 对于有m个样本的样本集,整体的wb其实都是一样的(这里还不太懂)
  2. 式子中的α为学习率,代表了我们更新梯度的速率(learning rate),可以粗略理解为步长

正向传播与反向传播

  • 正向传播:在计算图上自左向右计算
  • 反向传播:在计算图上自右向左计算

向量化计算

向量化(Vectorizing)的目的是通过内置的函数或是numpy函数来提高模型处理大量数据集的速度,进而提高整个模型的效率,避免使用for循环

方式

利用numpy所自带的函数来减少for循环的使用次数

逻辑斯蒂回归中的向量化

Z = np.dot(w.T,X) + b
在式子当中,X是一个n_x * m维的矩阵,w.T代表w的转置,dot即为点乘

Python中的广播机制与NumPy

例程

  • cal = A.sum(axis = 0)
    • axissum()的参数,其中01分别代表将每列从上到下相加将每行从左至右相加,不共用内存
  • percentage = 100*A/(cal.reshape(1,4))
    • reshape()cal矩阵重塑为1*4的矩阵,其中重塑后的矩阵与原矩阵元素个数相同,仅改变形状,且与原矩阵共用内存
    • 在进行/运算时,广播机制将自动将cal扩展(可以简单理解成向上复制了几行),在此例中每一列除的除数都是一样的

注意

  • (×) 不要使用形如a.shape = (5,)的秩(rank)为1的向量,因为其在计算和转置过程中会出现奇怪的bug
  • (√) 在产生向量时,完整写出想要的尺寸
  • (√) 加入断言或是采用reshape()保证矩阵的尺寸

易混点

数组维度的含义

数组的维度指的是数组的深度(需要几个量来确定某个元素的位置),与秩(rank)区分开

损失函数与代价函数

Q: What is the difference between the cost function and the loss function for logistic regression?

A: The loss function computes the error for a single training example; the cost function is the average of the loss functions of the entire training set.

这篇关于Stanford CS230学习笔记(二):Lecture 2 Basics, Logistic Regression and Vectorization的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/865160

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件