deeplearning专题

这是一份优美的信息图,吴恩达点赞的deeplearning.ai课程总结

吴恩达在推特上展示了一份由 TessFerrandez 完成的深度学习专项课程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。因此它不仅仅适合初学者了解深度学习,还适合机器学习从业者和研究者复习基本概念。机器之心认为这不仅仅是一份课程笔记,同时还是一套信息图与备忘录。下面,我们将从深度学习基础、卷积网络和循环网络三个方面介绍该笔记,并提供信息图下载地址。 信息图下载地址: https:

[deeplearning-008] convertional neural networks卷积神经网络

1.卷积神经网络的主要参考文献  1.1  https://mp.weixin.qq.com/s?__biz=MzI0ODcxODk5OA==&mid=2247486731&idx=1&sn=f91e2361e62b0c73e34385143ad35e6a&scene=21#wechat_redirect 1.2 nature上的cnn描述 LeCun,

[deeplearning-007]深度学习的核心bp算法的原创论文1986nature

bp算法在nature上的论文,1986年的,篇幅不长,公式也简单,一阶偏导和逐层反向求解 更多细节需要自己下来搞定。

[deeplearning-006] tensorflow安装和测试

1. 官网 www.tensorflow.org,需要翻墙。 2.tensorflow的概念抽象 节点:表示数据运算。 边:在节点之间传递多维数据(张量) 3.安装 3.1 文档 https://www.tensorflow.org/install/ 3.2 操作系统需要ubuntu 14.04以上

[deeplearning-005] 一般形式的反向传导算法BP最简推导-3

前述两篇推导还是太繁琐了,有一种更简单的方式。因为排版的问题,直接贴图。 根据上述公式,可以实现一个简单的验证性python代码 #!/usr/bin/env python#!-*- coding:utf-8 -*-#bp alogrithmimport mathimport numpy as np#active functiondef f(x):

[deeplearning-004] 一般形式的反向传导算法BP最简推导-2

3.2 梯度下降 训练神经网络,就是让 J(W,b) J(\mathbf W, \mathbf b)的值最小。解法就是梯度下降,或者随机梯度下降。 梯度下降法的迭代公式是: (Wlj,i)s+1=(Wlj,i)s−η∂J(W,b)∂Wlj,i∣Wlj,i=(Wlj,i)s (\mathbf W^l_{j,i})_{s+1}=(\mathbf W^l_{j,i})_s-\eta

[deeplearning-003] 一般形式的反向传导算法BP最简推导-1

1.神经网络结构 设神经网络的层数是 p p,p≥3p\ge 3。 神经网络有三种层:一个输入层,若干个隐层,一个输出层,分别简称 L1 L^1, L2 L^2,…, Lp L^p。 设每层神经元数量分别是 d1 d^1, d2 d^2,…, dp d^p。每个神经元的应激函数是 f(x) f(x)。 2.分析第一层和第二层并推导全局变量 设一个样本是 x∈Rd1×1 \mathbf x

[deeplearning-002] 单节点神经网络推导

这个例子是最基础的例子,深度学习是它的各种形式的扩展。几个关键点:神经网络结构,激活函数,向量化,随机梯度下降算法,是深度学习的基石。 1.训练集 设训练集合是 {x(i),y(i)}i=1...n \{\mathbf x^{(i)}, y^{(i)}\} i=1...n,其中 x∈R1×d \mathbf x\in R^{1\times d}。 x \mathbf x是个向量,数据集有 n

[deeplearning-001] stotisticks gradient descent随机梯度下降算法的最简单例子解释

1.gradient descent梯度下降优化 1.1假设要优化一个函数 f(x)=(x−1)2 f(x)=(x-1)^2求它的最小值。这个函数在 x=1 x=1 时有最小值,这是解析解。如果用梯度下降法,是这样的: f′(x)=2(x−1) f^{'}(x)=2(x-1) 每一步的迭代公式是: xi+1=xi−ηf′(xi) x_{i+1}=x_{i} - \eta f^{'}(x

[deeplearning]常用概念

1.cross entropy https://blog.csdn.net/rtygbwwwerr/article/details/50778098

[deeplearning-016] dl最佳学习路线

1. BP算法。只需要参考 Hinton在natrure上的论文,1986年。https://www.nature.com/articles/323533a0   把算法手动推导十遍,然后用任意一种语言实现,完整跑出一个例子得到合理的预期的结果。这一步最重要,BP是深度学习的核心。BP算法不要找其他论文了,这个就是最好的。 2. CNN网络。LeNet-5论文《Gradient-Based Le

[deeplearning-015]一文理解rnn

1.参考文档 https://iamtrask.github.io/2015/11/15/anyone-can-code-lstm/   前提,熟悉bp算法推导,熟悉bptt算法推导 2.py源码 #!/usr/bin/env python3#参考文献 https://iamtrask.github.io/2015/11/15/anyone-can-code-lstm/import copy

[deeplearning-014] 深度学习的模型结构历史

[0] 参考文献 http://www.cnblogs.com/skyfsm/p/8451834.html https://www.cnblogs.com/52machinelearning/p/5821591.html [1]Q:什么是深度学习?  A:隐层数量多的神经网络,隐层从5~1000不等。 [2]Q:深度学习的网络模型有哪些种类? A:图像处理的卷积神经网络CNN; 自然语言处理的

[deeplearning-013] 机器学习awesome系列

https://www.cnblogs.com/52machinelearning/articles/5821559.html 这个系列太好了。因此转发出来。 IndexAwesome备注1Awesome Machine Learning机器学习资源大全中文版2Awesome Artificial Intelligence人工智能3Awesome AwesomenessAwesomeAweso

[deeplearning-009]mxnet深度学习框架安装和试用

1. 官网   http://mxnet.incubator.apache.org/   https://github.com/apache/incubator-mxnet 2. tutoria   http://mxnet.incubator.apache.org/tutorials/index.html 3. python tutorial   3.1 mxnet有两种接口:Gluon A

deeplearning 发展历程

1.ILSVRC榜单便是Deep Learning视觉发展的里程碑式代表 图1. ILSVRC历年的Top-5错误率 2.AlexNet、VGG、GoogLeNet、ResNet对比 LeNet主要是用于识别10个手写数字的,当然,只要稍加改造也能用在ImageNet数据集上,但效果较差。而本文要介绍的后续模型都是ILSVRC竞赛历年的佼佼者,这里具体比较AlexNet、VGG、Goo

去噪自编码器_DeepLearning 0.1 documentation中文翻译

DeepLearning 0.1 documentation中文翻译: Denoising Autoencoders (DA)_去噪自编码器 原文网址: http://deeplearning.net/tutorial/dA.html DeepLearning 01 documentation中文翻译 Denoising Autoencoders DA_去噪自编码器 自编码器Autoe

深度学习教程_DeepLearning 0.1 documentation中文翻译

DeepLearning 0.1 documentation中文翻译:Deep Learning Tutorials_深度学习教程 原文网址:http://deeplearning.net/tutorial/index.html DeepLearning 01 documentation中文翻译Deep Learning Tutorials_深度学习教程DeepLearning 01 d

【强推|双语】吴恩达机器学习Deeplearning.ai课程链接

【【强推|双语】吴恩达机器学习Deeplearning.ai课程(人工智能|深度学习|监督学习|强化学习|神经网络)】 https://www.bilibili.com/video/BV1cm421T7xL/?p=72&share_source=copy_web&vd_source=8bad2ea690ede82d8c212a7b6ad544af 机器学习专业是 DeepLearning.AI 和

deeplearning.ai 吴恩达网上课程学习(八)——深层神经网络分类代码实战

本文将学习如何利用Python的来实现多个隐藏层的图片分类问题:用两层和多层神经网络实现是否是猫图片的分类。 本文的实践平台是Linux,Python3.4,基础库anaconda和spyder, 参考文章的实现平台是jupyter notebook:多层神经网络代码实战 理论知识学习请参看上篇:deeplearning.ai 吴恩达网上课程学习(七)——深层神经网络理论学习 1. 流程概

deeplearning.ai 吴恩达网上课程学习(七)——深层神经网络理论学习

本文主要来对浅层神经网络进行扩展,来了解深层神经网络的基本原理。 本文参考链接:https://www.missshi.cn/api/view/blog/59a6ad67e519f50d040000e6 1.概念初识: Logistic回归: 一个隐藏层的神经网络: 五个隐藏层的神经网络: 深层神经网络主要是指的包含的隐藏层的深度。神经网络的层数越多,可以拟合的场景越复

deeplearning.ai 吴恩达网上课程学习(六)——浅层神经网络分类代码实战

本文将学习如何利用Python的来实现具有一个隐藏层的平面数据分类问题。 本文的实践平台是Linux,Python3.4,基础库anaconda和spyder, 参考文章的实现平台是jupyter notebook:具有一个隐藏层的平面数据分类代码实战 理论知识学习请参看上篇deeplearning.ai 吴恩达网上课程学习(五)——浅层神经网络理论学习 目的:将创建的“花状”数据集分类

deeplearning.ai 吴恩达网上课程学习(四)——Logistic代码实战,基于Linux,Python 3.4

此文章偏向于实践和自己的理解,本文讲述了Python代码的一些基本操作,由浅入深最后实现logistic的代码。(原文中代码实现基于jupyter notebook,文中代码实现基于之前搭建的Linux的Python平台,二者代码会有细小的区别。 搭建平台的链接深度学习(一):搭建TensorFlow) 原创内容来自: https://www.missshi.cn/api/view/blog

deeplearning.ai 吴恩达网上课程学习(三)——Python矢量化实现神经网络

本文主要讲述了矢量化和广播,在Python编程过程中提高了运行速度,中间讲述了Logistic回归中的矢量化表示。 (原文中代码实现基于jupyter notebook,文中代码实现基于之前搭建的Linux的TensorFlow平台,二者代码会有细小的区别,如果使用的是TensorFlow平台可使用本文的代码) 矢量化:在大数据情况下能有效提高运行速度。 example 1:向量*向

deeplearning.ai 吴恩达网上课程学习(二)——神经网络基础

举一个逻辑回归的例子讲解神经网络的训练过程中为什么会用到前向传播和反向传播,以及前向传播与反向传播表示的含义。 问题: 给你一副图片,你需要判断这副图片中的内容是不是猫。如果是猫的话,输出为1,否则输出为0。 我们用x表示输入图像,用y表示输出的标签。 表示输入图像:输入图像是个RGB猫图像。 数学符号: 回顾一下逻辑回归:前边也讲过:机器学习(六):CS229ML课程笔记

deeplearning.ai 吴恩达网上课程学习

CS229比较注重理论的研究:参看CS229吴恩达斯坦福机器学习课程总结 而网易云的吴恩达deeplearning.ai更加注重编程的学习,让我们带着之前的理论知识和搭建好的平台一起进行下一步的学习吧~ 课程概要: 在第一课中,你将会了解神经网络的基础:什么是神经网络和深度学习。也就是我们课程的第一部分第一周的内容。整套课程包含五个部分,每个部分通常需要两到四周。在第一部分中,我们将学习如何