深度学习笔记1:RNN神经网络及实现

2024-06-01 04:18

本文主要是介绍深度学习笔记1:RNN神经网络及实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

首先贴出一张一般的神经网络应该有的结构图:
在这里插入图片描述
输入层是数据输入层,隐层是模型训练的权重,输出层是经过激活函数后得出的特征。
在深度学习这个领域之中,既然我们已经有了比较完善的人工神经网络和卷积神经网络,那为什么还要用循环神经网络呢?我们知道,一张图片中,各个像素点之间是没有逻辑关系的,我们输入一张图片,无论是在左上角开始输入还是在右下角输入,最终得到的结果分类都是一样的,这也就说明图像之间没有存在必然的逻辑关系。
而且输入输出也是独立的,比如输入两张图片,一张是猫,一张是狗。

但是在我们的现实世界中,有些方面各个元素之间还是有练习的,比如股票的变化,是随着时间的变化而变化的;再比如说自然语言处理当中:“我爱自然语言处理,所以我要学习 ______”;这里填空,我们自然而言的是填写“自然语言处理”了;

这是我们人根据上下文的内容推测出来的;但是这个对于机器而言,要做到这点还是有相当难度的;所以这就要求我们人设计一个网络,使得机器也想人一样能够根据上下文的内容推测下一个输出内容,所以循环神经网络(Recurrent Neural Network,简称RNN)就这样被设计出来,他的本质上就是:像人一样拥有记忆的能力。因此,他的输出依赖当时的输入和记忆。

下图是循环神经网络的经典结构图

在这里插入图片描述

原则上,我们看左边这个结构就可以了,它也非常形象的说明了循环的含义,右边是展开形式,帮我们理解各个时间点输入时候,该网络是如何工作的。例如这句话“我爱自然语言处理”分为四段‘我’、‘爱’、‘自然语言’、‘处理’, x t − 1 x_{t-1} xt1=‘我’、 x t x_{t} xt=‘爱’、 x t + 1 x_{t+1} xt+1=‘自然语言’;那么 o t − 1 o_{t-1} ot1=‘爱’、 o t o_{t} ot=‘自然语言’,那么如果要预测下一个输出 o t + 1 o_{t+1} ot+1是多次呢?通过我们的RNN模型,最大的可能是 o t + 1 o_{t+1} ot+1=‘处理’。当然,具体训练的时候,最终会将文本转换为词向量的。那么根据上述的的映射关系 o = f ( x ) o=f(x) o=f(x)就是根据上图所示。
根据上图: o t = g ( V s t ) o_{t}=g(\mathbf{V}s_{t}) ot=g(Vst)
s t = f ( U x t + W s t − 1 ) s_{t}=f(\mathbf{U}x_{t}+\mathbf{W}s_{t-1}) st=f(Uxt+Wst1)
所以: o t = g ( V f ( U x t + W s t − 1 ) ) o_{t}=g(\mathbf{V}f(\mathbf{U}x_{t}+\mathbf{W}s_{t-1})) ot=g(Vf(Uxt+Wst1))
将s的状态不断迭代就可以得到最终的o和x的映射函数
当加上偏置时,一样的,将带入其中:

o t = g ( V s t + b o ) o_{t}=g(\mathbf{V}s_{t}+b_{o}) ot=g(Vst+bo)
s t = f ( U x t + W s t − 1 + b s ) s_{t}=f(\mathbf{U}x_{t}+\mathbf{W}s_{t-1}+b_{s}) st=f(Uxt+Wst1+bs)

一般我们将f函数记为 f ( z ) = t a n h ( z ) f(z)=tanh(z) f(z)=tanh(z),g函数记为 g ( z ) = s o f t m a x ( z ) g(z)=softmax(z) g(z)=softmax(z) 整个循环神经网络的过程就是在不同时刻输入
图中,U、W、V 都可以看作是权重矩阵,而且在整个到RNN训练过程中都是共享的,也就是说,我们的RNN就是训练这三个权重矩阵而已,相对CNN而言,其训练参数少了非常多了。输入值 x t x_{t} xt在乘于U之后得到 U x t Ux_{t} Uxt,在加上上一时刻的W得到我们的状态 S t S_{t} St,而 V S t VS_{t} VSt在经过激活函数之后得到我们在t时刻的输出 O t O_{t} Ot,下面展示了一个循环神经网络前向传播的过程。
在这里插入图片描述
在上图中,假设状态的维度为2,输入、输出的维度都为1,而且全连接层中的权重为:
W r n n = [ 0.1 0.2 0.3 0.4 0.5 0.6 ] W_{rnn}=\begin{bmatrix}0.1 & 0.2\\ 0.3& 0.4\\ 0.5&0.6\end{bmatrix} Wrnn=0.10.30.50.20.40.6
其偏置量的大小为 b r n n = [ 0.1 , − 0.1 ] b_{rnn}=[0.1,-0.1] brnn=[0.1,0.1]
用于输出的全连接层的权重:
W o u t p u t = [ 1.0 2.0 ] W_{output}=\begin{bmatrix} 1.0 \\ 2.0 \end{bmatrix} Woutput=[1.02.0]
其偏置量的大小为 b o u t p u t = 0.1 b_{output}=0.1 boutput=0.1
那么当在时刻 t 0 t_{0} t0时,作为第一次输入,所以状态state的初始化为 h i n i t = [ 0 , 0 ] h_{init}=[0,0] hinit=[0,0],且当前的输入为1,所以通过拼接向量为 [ 0 , 0 , 1 ] [0,0,1] [0,0,1],通过循环体中全连接的神经网络得到:
t a n h ( [ 0 , 0 , 1 ] ∗ [ 0.1 0.2 0.3 0.4 0.5 0.6 ] + [ 0.1 , − 0.1 ] ) = t a n h ( [ 0.6 , 0.5 ] ) = [ 0.537 , 0.462 ] tanh([0,0,1]*\begin{bmatrix} 0.1 & 0.2\\ 0.3 & 0.4\\ 0.5& 0.6 \end{bmatrix}+[0.1,-0.1])=tanh([0.6,0.5])=[0.537,0.462] tanh([0,0,1]0.10.30.50.20.40.6+[0.1,0.1])=tanh([0.6,0.5])=[0.537,0.462]
这个结果将作为下一刻的输入状态,同时循环神经网络也会使用该状态生成输出:
[ 0.537 , 0.462 ] ∗ [ 1.0 2.0 ] + 0.1 = 1.56 [0.537,0.462]*\begin{bmatrix} 1.0\\ 2.0 \end{bmatrix}+0.1=1.56 [0.537,0.462][1.02.0]+0.1=1.56
依次,可以在下一刻根据上一刻得到的状态继续计算。以下代码为实现过程

#encoding:utf-8
import numpy as npX=[1,2]
state=[0,0]
#分开定义不同输入部分的权重以方便操作
w_cell_state=np.asarray([[0.1,0.2],[0.3,0.4]])
w_cell_input=np.asarray([0.5,0.6])
b_well=np.asarray([0.1,-0.1])#定义用于输出的全连接层参数w_output=np.asarray([[1.0],[2.0]])
b_output=0.1for i in range(len(X)):before_activation=np.dot(state,w_cell_state)+X[i]*w_cell_input+b_wellstate=np.tanh(before_activation)final_output=np.dot(state,w_output)+b_outputprint "before_activation=",before_activationprint "state=",stateprint "final_output=",final_output

这篇关于深度学习笔记1:RNN神经网络及实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1019958

相关文章

C++对象布局及多态实现探索之内存布局(整理的很多链接)

本文通过观察对象的内存布局,跟踪函数调用的汇编代码。分析了C++对象内存的布局情况,虚函数的执行方式,以及虚继承,等等 文章链接:http://dev.yesky.com/254/2191254.shtml      论C/C++函数间动态内存的传递 (2005-07-30)   当你涉及到C/C++的核心编程的时候,你会无止境地与内存管理打交道。 文章链接:http://dev.yesky

51单片机学习记录———定时器

文章目录 前言一、定时器介绍二、STC89C52定时器资源三、定时器框图四、定时器模式五、定时器相关寄存器六、定时器练习 前言 一个学习嵌入式的小白~ 有问题评论区或私信指出~ 提示:以下是本篇文章正文内容,下面案例可供参考 一、定时器介绍 定时器介绍:51单片机的定时器属于单片机的内部资源,其电路的连接和运转均在单片机内部完成。 定时器作用: 1.用于计数系统,可

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

Tolua使用笔记(上)

目录   1.准备工作 2.运行例子 01.HelloWorld:在C#中,创建和销毁Lua虚拟机 和 简单调用。 02.ScriptsFromFile:在C#中,对一个lua文件的执行调用 03.CallLuaFunction:在C#中,对lua函数的操作 04.AccessingLuaVariables:在C#中,对lua变量的操作 05.LuaCoroutine:在Lua中,

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

Javascript高级程序设计(第四版)--学习记录之变量、内存

原始值与引用值 原始值:简单的数据即基础数据类型,按值访问。 引用值:由多个值构成的对象即复杂数据类型,按引用访问。 动态属性 对于引用值而言,可以随时添加、修改和删除其属性和方法。 let person = new Object();person.name = 'Jason';person.age = 42;console.log(person.name,person.age);//'J

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue:

通过SSH隧道实现通过远程服务器上外网

搭建隧道 autossh -M 0 -f -D 1080 -C -N user1@remotehost##验证隧道是否生效,查看1080端口是否启动netstat -tuln | grep 1080## 测试ssh 隧道是否生效curl -x socks5h://127.0.0.1:1080 -I http://www.github.com 将autossh 设置为服务,隧道开机启动