本文主要是介绍《深度学习Ng》课程学习笔记01week2——神经网络基础,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
http://write.blog.csdn.net/mdeditor#!postId=77852727
2.1 二分分类
二分类例子:
判断图片中是否有猫:
将图片RGB矩阵拉伸为向量:
使用上面的特征向量来判断图片中是否有猫。
2.2 logistic 回归
2.3 logistic 回归损失函数
这里给出的是交叉熵损失函数:
2.4 梯度下降法
为了最小化代价函数,找到 w,b 的最优解
对 代价函数对 w,b 求导,再根据学习率,更新 w 和 b :
2.5 到 2.8 是非常基础的导数讲解,这里就不做笔记了。
2.9 logistic 回归中的梯度下降法
2.10 m 个样本的梯度下降
计算步骤为:
2.11 向量化
我们讲上述的计算步骤向量化:
向量化 和 循环的代码对比:
我们可以看到向量化比循环的代码快了300倍左右。
2.12 向量化的更多例子
回到我们梯度下降的步骤,将其改为向量化:
2.13 向量化 logistic 回归
2.14 向量化 logistic 回归的梯度输出
进一步向量化 logistic 回归:
进一步向量化 梯度下降:
2.15 Python 中的广播
例子:
计算事物的能量成分比例:
python 代码如下:
axis = 0,列相加;axis = 1,行相加。
其他例子:
总结:
2.16 关于 python / numpy 向量的说明
这篇关于《深度学习Ng》课程学习笔记01week2——神经网络基础的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!