NLP入门——复杂函数建模与链式求导

2024-06-20 08:28

本文主要是介绍NLP入门——复杂函数建模与链式求导,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

复杂函数建模

前面我们研究的梯度下降法分类,是简单的对每类中每个子词的分数进行求和,统计分数最大的类别并不断调整分数来提高准确率。
我们可以修改函数模型,用更加复杂的函数代替sum(),来达到更好的学习效果。

def compute_instance(model, lin):rs = {}_max_score, _max_class = -inf, Nonefor _class, v in model.items(): #对模型中的每一类和类型的词典 v:{word: freq}rs[_class] = _s = sum(v.get(_word, 0.0) for _word in lin) #这个类的分数即为该类中所有子词分数之和if _s > _max_score:_max_score = _s_max_class = _class#获取分数最高的类别return rs, _max_class, _max_score

采用梯度下降法计算机进行预测时,我们的corpus中每一行数据对应15类都有一个分数,取分数最大的_max_class作为预测类别,返回的rs存放着每个类别的分数,相当于一个向量。由分析得出,在计算机中是通过函数来判断的。

表示层

之前我们每个词在每个类上初始化一个分数,也就是说用15个分数来表示一个词。
现在我们要更丰富的表示一个词,用一个向量k表示。k可以是很大的数 eg. k>100. 维度64

例如假设我们一共有8000个词,我们可以建立一个8000*64的矩阵,为每个单元初始化一个初值。则拼接成则个矩阵的每个行向量就代表这个子词。

特征生成:函数计算 (神经网络层)

根据已有的特征合并学习新的特征。例如一个人的特征:1.爱吃肉或菜;2.爱吃甜口或辣口。我们将特征1和2合并可以得到新的特征,能推断出更丰富信息例如他爱吃哪道菜。(爱吃菜and辣口----麻婆豆腐)

pytorch向量计算

用向量初始化权重与特征,做内积可以得到新的权重:

>>> import torch
>>> a = torch.randn(4)
>>> a
tensor([ 0.9045,  0.2413, -0.2746, -0.9162])
>>> b = torch.randn(4)
>>> (a*b).sum()		#a*b的和,做数乘
tensor(-2.1851)
>>> a*b
tensor([-1.3204, -0.3658, -0.2360, -0.2630])
>>> b.unsqueeze(1)	#将b转化为列向量
tensor([[-1.4598],[-1.5161],[ 0.8592],[ 0.2870]])
>>> a.unsqueeze(0)	#将a转化为行向量
tensor([[ 0.9045,  0.2413, -0.2746, -0.9162]])
>>> a.unsqueeze(0).mm(b.unsqueeze(1))	#求a和b的内积
tensor([[-2.1851]])	#结果为一个一维向量
>>> c=torch.randn(4)
>>> torch.cat([b.unsqueeze(1),c.unsqueeze(1)],dim=1)	#将b和c转化为列向量后拼接起来
tensor([[-1.4598,  0.3766],[-1.5161, -0.1238],[ 0.8592, -0.7182],[ 0.2870, -1.8328]])
>>> c.unsqueeze(1)
tensor([[ 0.3766],[-0.1238],[-0.7182],[-1.8328]])
>>> a.unsqueeze(0).mm(torch.cat([b.unsqueeze(1),c.unsqueeze(1)],dim=1))	#将行向量a分别与列向量b,c拼接起来的矩阵做乘法
tensor([[-2.1851,  2.1872]])
>>> (a*b).sum()
tensor(-2.1851)
>>> (a*c).sum()			#做数乘的值即为结果矩阵中每一项的值
tensor(2.1872)
>>> w = torch.randn(4,5)	#初始化4行5列的权重矩阵
>>> w
tensor([[ 0.6165,  0.8714,  1.8304, -2.2638,  0.8837],[-0.3679, -0.9885, -2.0797, -0.9804, -0.6806],[-1.4536,  1.0211, -0.4079, -0.4373, -0.9353],[-1.0958, -1.1655,  1.1883, -1.8312, -0.2542]])
>>> a.unsqueeze(0).mm(w)	#将a变成行向量与权重矩阵w做乘法就会得到五个特征
tensor([[ 1.8721,  1.3370,  0.1771, -0.4864,  1.1249]])

激活函数

如果我们输入的向量是v,构建出的矩阵L,为了提取多种特征,我们对其进行矩阵乘法运算,乘以不同的权重矩阵W_i:
L ∗ W 1 ∗ W 2 ∗ W 3 ∗ . . . ∗ W n L*W_1*W_2*W_3*...*W_n LW1W2W3...Wn
但由于乘法的结合律,上面的式子等价于
L ∗ W x , W x = W 1 ∗ W 2 ∗ W 3 ∗ . . . ∗ W n L*W_x,W_x=W_1*W_2*W_3*...*W_n LWx,Wx=W1W2W3...Wn
我们原本的n个变化W_1~W_n变为一个权重矩阵W_x,仅相当于做了一次变换,我们为了提取多重复杂特征而乘不同的权重矩阵的目的并没有实现。
为了解决由乘法的结合律带来的影响,我们使用非线性函数做激活函数,上面的式子变为:
a c t ( . . . a c t ( a c t ( a c t ( L ∗ W 1 ) ∗ W 2 ) ∗ W 3 ) ∗ . . . ∗ W n ) act(...act(act(act(L*W_1)*W_2)*W_3)*...*W_n) act(...act(act(act(LW1)W2)W3)...Wn)
常见的激活函数有 R e L U ReLU ReLU激活函数。 R e L U ReLU ReLU 函数的特点是,当输入小或等于0,则返回0,当输入大于0时,则返回输入值,公式如下所示。
r e l u ( x ) = { 0 , x ≤ 0 x , x > 0 relu(x) = \begin{cases} 0, & \text{} x \leq 0 \\ x, & \text{} x \ >0 \end{cases} relu(x)={0,x,x0x >0在这里插入图片描述
r e l u ( x ) = m a x ( x , 0 ) relu(x) = max(x,0) relu(x)=max(x,0),则此函数中阈值为0发生变化。但如果我们想让函数发生偏移,使其阈值发生变化,则我们需要设置偏移量b_i:
a c t ( . . . a c t ( a c t ( a c t ( L ∗ W 1 + b 1 ) ∗ W 2 + b 2 ) ∗ W 3 + b 3 ) ∗ . . . ∗ W n + b n ) act(...act(act(act(L*W_1+b_1)*W_2+b_2)*W_3+b_3)*...*W_n+b_n) act(...act(act(act(LW1+b1)W2+b2)W3+b3)...Wn+bn)

>>> bias = torch.randn(5) #初始化偏差
>>> bias
tensor([ 1.1344, -0.1908, -1.1020,  0.2254, -1.5253])
>>> a.unsqueeze(0).mm(w)+bias #L*W_1+b_1
tensor([[ 1.0301,  0.5540, -1.7541, -0.0260, -2.1016]])
>>> (a.unsqueeze(0).mm(w)+bias).relu()
tensor([[1.0301, 0.5540, 0.0000, 0.0000, 0.0000]])

在调用relu()函数后,小于0的部分都被置为0,大于0则保留。

解析分类:分类器

假设有k个(k>10)向量,每个向量是64维的,在神经网络层可能会分为 n * 128 的向量,分类器作用是将128维的向量变换为15维(我们预测的文本共有15个类)。

>>> w2 = torch.randn(5,8)
>>> (a.unsqueeze(0).mm(w)+bias).relu().mm(w2)+torch.randn(8)
tensor([[-1.6464, -0.0626, -0.9157, -0.1282, -3.2316, -0.4933, -0.6772,  0.7208]])

我们若分为8类,则建立一个5x8的矩阵,并设置一个偏移量,长度应该与分类数一致。如上,得到的向量最大的一项是-0.0626,因此判定为第二类。

链式求导与反向传播

多元函数求导链式法则:
d f ( g ( x ) ) d x = d f ( g ( x ) ) g ( x ) ∗ d g ( x ) d x \frac{d f(g(x))}{dx} = \frac{df(g(x))}{g(x)}*\frac{dg(x)}{dx} dxdf(g(x))=g(x)df(g(x))dxdg(x)
则对于: a c t ( a c t ( a c t ( L ∗ W 1 + b 1 ) ∗ W 2 + b 2 ) ∗ W 3 + b 3 ) act(act(act(L*W_1+b_1)*W_2+b_2)*W_3+b_3) act(act(act(LW1+b1)W2+b2)W3+b3)
f ( g ( x ) ) = a c t ( L ∗ W 1 + b 1 ) f(g(x)) = act(L*W_1+b_1) f(g(x))=act(LW1+b1), h = g ( x ) = L ∗ W 1 + b 1 h=g(x)=L*W_1+b_1 h=g(x)=LW1+b1
d f ( h ) d x = d f ( h ) h ∗ d g ( x ) d x \frac{d f(h)}{dx} = \frac{df(h)}{h}*\frac{dg(x)}{dx} dxdf(h)=hdf(h)dxdg(x)

>>> a.unsqueeze(0).mm(w)+bias
tensor([[ 1.0301,  0.5540, -1.7541, -0.0260, -2.1016]])
>>> (a.unsqueeze(0).mm(w)+bias).relu()
tensor([[1.0301, 0.5540, 0.0000, 0.0000, 0.0000]])
>>> torch.tensor([1,1,0,0,0])
tensor([1, 1, 0, 0, 0])

最终tensor([1, 1, 0, 0, 0])即为 f ( h ) / h f(h)/h f(h)/h的导数值。

运算速度对比

我们对比Python单线程程序和pytorch运算向量数乘的时间差别:

#encoding: utf-8from random import uniform
import torch
from time import timevsize = 16384   #设置一维向量的长度
nrun = 1280     #设置算多少轮a = [uniform(-1.0,1.0) for _ in range(vsize)] #初始化向量
b = [uniform(-1.0,1.0) for _ in range(vsize)]c = torch.tensor(a) #初始化tensor张量
d = torch.tensor(b)def dot(a, b):  #求a与b的内积,python实现_s = 0.0for au, bu in zip(a,b):_s += au * bureturn _s_st = time()
for _ in range(nrun):rs = dot(a,b)
_et = time()
print("Python运算时间:%f"%(_et - _st))_st = time()
for _ in range(nrun):rs = c.dot(d)
_et = time()
print("pytorch运算时间:%f"%(_et - _st))
:~/nlp/tnews$ python test_torch.py 
Python运算时间:0.434339
pytorch运算时间:0.007864

我们可以看到,时间相差50倍左右,因此用pytorch进行向量运算速度明显更快。

向量a乘m* n矩阵速度优于乘n个m*1列向量

#encoding: utf-8from random import uniform
import torch
from time import timebsize = 1
vsize = 512     
osize = 768
nrun = 1280a = torch.randn(bsize,vsize)    #a为1*512向量
w = torch.randn(vsize,osize)    #w为512*768向量
w1 = w.narrow(1, 0, osize // 2) #w1为w的前半部分矩阵
w2 = w.narrow(1, osize // 2, osize // 2) #w2为后半部分
#narrow(dim,start,length) 传参均为整数,分别代表(维度,起始索引,区间长度)
#a*w结果为bsize * osize 的矩阵_st = time()
for _ in range(nrun): _rs = a.mm(w)               #a乘以矩阵(一起乘)
_et = time()
print(_et - _st)_st = time()
for _ in range(nrun):           #a分别乘以前半个、后半个矩阵_rs = a.mm(w1) _rs = a.mm(w2)
_et = time()
print(_et - _st)
:~/nlp/tnews$ python test_batch.py 
合并算时间:0.023270
分开算时间:0.060520

我们可以看到合并计算速度明显优于分开计算。

这篇关于NLP入门——复杂函数建模与链式求导的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1077609

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

hdu1171(母函数或多重背包)

题意:把物品分成两份,使得价值最接近 可以用背包,或者是母函数来解,母函数(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v) 其中指数为价值,每一项的数目为(该物品数+1)个 代码如下: #include<iostream>#include<algorithm>

数论入门整理(updating)

一、gcd lcm 基础中的基础,一般用来处理计算第一步什么的,分数化简之类。 LL gcd(LL a, LL b) { return b ? gcd(b, a % b) : a; } <pre name="code" class="cpp">LL lcm(LL a, LL b){LL c = gcd(a, b);return a / c * b;} 例题:

Java 创建图形用户界面(GUI)入门指南(Swing库 JFrame 类)概述

概述 基本概念 Java Swing 的架构 Java Swing 是一个为 Java 设计的 GUI 工具包,是 JAVA 基础类的一部分,基于 Java AWT 构建,提供了一系列轻量级、可定制的图形用户界面(GUI)组件。 与 AWT 相比,Swing 提供了许多比 AWT 更好的屏幕显示元素,更加灵活和可定制,具有更好的跨平台性能。 组件和容器 Java Swing 提供了许多

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

poj 2104 and hdu 2665 划分树模板入门题

题意: 给一个数组n(1e5)个数,给一个范围(fr, to, k),求这个范围中第k大的数。 解析: 划分树入门。 bing神的模板。 坑爹的地方是把-l 看成了-1........ 一直re。 代码: poj 2104: #include <iostream>#include <cstdio>#include <cstdlib>#include <al

MySQL-CRUD入门1

文章目录 认识配置文件client节点mysql节点mysqld节点 数据的添加(Create)添加一行数据添加多行数据两种添加数据的效率对比 数据的查询(Retrieve)全列查询指定列查询查询中带有表达式关于字面量关于as重命名 临时表引入distinct去重order by 排序关于NULL 认识配置文件 在我们的MySQL服务安装好了之后, 会有一个配置文件, 也就

基于UE5和ROS2的激光雷达+深度RGBD相机小车的仿真指南(五):Blender锥桶建模

前言 本系列教程旨在使用UE5配置一个具备激光雷达+深度摄像机的仿真小车,并使用通过跨平台的方式进行ROS2和UE5仿真的通讯,达到小车自主导航的目的。本教程默认有ROS2导航及其gazebo仿真相关方面基础,Nav2相关的学习教程可以参考本人的其他博客Nav2代价地图实现和原理–Nav2源码解读之CostMap2D(上)-CSDN博客往期教程: 第一期:基于UE5和ROS2的激光雷达+深度RG

C++操作符重载实例(独立函数)

C++操作符重载实例,我们把坐标值CVector的加法进行重载,计算c3=c1+c2时,也就是计算x3=x1+x2,y3=y1+y2,今天我们以独立函数的方式重载操作符+(加号),以下是C++代码: c1802.cpp源代码: D:\YcjWork\CppTour>vim c1802.cpp #include <iostream>using namespace std;/*** 以独立函数

函数式编程思想

我们经常会用到各种各样的编程思想,例如面向过程、面向对象。不过笔者在该博客简单介绍一下函数式编程思想. 如果对函数式编程思想进行概括,就是f(x) = na(x) , y=uf(x)…至于其他的编程思想,可能是y=a(x)+b(x)+c(x)…,也有可能是y=f(x)=f(x)/a + f(x)/b+f(x)/c… 面向过程的指令式编程 面向过程,简单理解就是y=a(x)+b(x)+c(x)