NLP----神经网络语言模型(NNLM),词向量生成,词嵌入,python实现

2023-10-11 18:10

本文主要是介绍NLP----神经网络语言模型(NNLM),词向量生成,词嵌入,python实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

理论主要来自论文A Neural Probabilistic Language Model,可以百度到的

这篇博文对理论方面的介绍挺不错的    链接地址

一下是其中的一些截图,主要是算法步骤部分

算法步骤

前向计算

反向更新

 

个人实现的代码

import glob
import random
import math
import pickle
import numpy as np# 激活函数
def tanh(o, d):x = []for i in o:x.append(math.tanh(i))return xdef get_stopword_list(path):"""载入停用词"""stopword_list = [sw.replace('\n', '')for sw in open(path, 'r', encoding='utf8')]return stopword_listdef data_pre(path):"""数据载入,以及完成分词,统计总词数"""import jiebacontent = []with open(path, 'r', encoding='gbk', errors='ignore') as f:# sw_list = get_stopword_list('./data/stop_words.utf8')for l in f:l = l.strip()if(len(l) == 0):continuel = [x for x in jieba.cut(l) if x not in get_stopword_list('./data/stop_words.utf8')]content.append(l)return content# 随机生成词向量并分配词id
def creat_wv(wd, m):wd = {i: [random.random() for x in range(m)] for i in wd}idd = 0wid = {}for i in wd:wid[i]=wid.get(i,0)+iddidd+=1# wd['space__']=[random.random() for x in range(m)]# wid['space__']=wid.get(i,0)+iddreturn wd,widf = glob.glob(r'./data/news/*.txt')
data = []
wd = {}
c = 0
sf = len(f)
for text in f:c += 1temp = data_pre(text)data.extend(temp)for t in temp:for w in t:wd[w] = wd.get(w, 0)+1print(text+' complete ', end='')print(c/sf)
# print(data)
savedata = np.array(data)
swd = np.array(wd)
np.save('./data/sogo_news.npy',savedata)
np.save('./data/myw2vwd.npy',swd)
# data = np.load('./data/sogo_news.npy').tolist()
# 初始化神经网络
h = 100
v = len(wd)
m = 100
n = 4
win = 2
theta = 0.1 #学习率
# 输入层到隐藏权值,shape=n*m  *  h    n为window的大小,h为隐层神经元个数
H = [[random.random() for j in range(n*m)] for i in range(h)]
H = np.array(H)
d = [random.random() for j in range(h)]  # 隐层偏置 shape=1*h
U = [[random.random() for j in range(h)]for i in range(v)]  # 隐层到输出层权值 shape=h*V V为词的总数目
b = [random.random() for j in range(v)]  # 输出层偏置 shape = 1* V
maxtime = 5
sapce = [0 for i in range(m)]  # 空词向量
wvd,wid = creat_wv(wd, m)  # 随机生成词向量和id
sums = len(data)
while(maxtime>0):maxtime-=1# 训练神经网络sm = 0for s in data:  # s 是一句话aa = (sm+0.0)/sumssm+=1print('less',end='')print(maxtime,end='------------')print(aa)for w in range(len(s)):  # w是目标词下标# 构建输入向量xx = []inputword = []w_id = wid[s[w]]#目标词id# w_id2 = []#输入词for i in range(w-win, w+win+1):# w_id2.append(s[i])if i < 0:x.extend(sapce)elif i == w:continueelif i >= len(s):x.extend(sapce)else:x.extend(wvd[s[i]])inputword.append(s[i])#---前向计算------------------------# 计算隐层输入o = np.dot(x, H.T)+d# 计算隐层输出a = tanh(o, 1)a = np.array(a)# 计算输出层输入U = np.array(U)# H = np.array(H)y = np.dot(a, U.T)+by = y.tolist()# 计算输出p = [math.exp(i) for i in y]S = sum(p)p = [i/S for i in p]#----前向计算结束------------------------#计算目标函数Lif p[w_id] !=0:L = math.log(p[w_id])else:L=2.2250738585072014e-200#----反向传播------------------------la = 0lx = 0ly = [-i for i in p]ly[w_id]+=1b  =np.array(b)ly = np.array(ly)lb = b + theta*lyla= ly[0]*U[0]for j in range(1,v):la+=theta*ly[j]*U[j]for j in range(1,v):U[j]+=theta*lalo = [0 for q in range(len(la))]lo=np.array(lo)for k in range(h):lo[k]=(1-a[k]*a[k])*la[k] lx = np.dot(H.T,lo)d +=theta*lox = np.matrix(x)lo = np.matrix(lo)H += theta*np.dot(lo.T,x)x += theta*lxx = x.tolist()[0]for q in range(len(inputword)):a=x[0+i*m:m+i*m]for j in range(len(a)):wvd[inputword[q]][j]+=a[j]#---反向更新结束
#保存数据
output = open('./data/myw2v.pkl','wb')
pickle.dump(wvd,output)

测试代码

import math
def dis(a,b):s = 0for i in range(len(a)):t=a[i]-b[i]t=t*ts+=treturn math.sqrt(s)import pickle
inputt = open('./data/myw2v.pkl', 'rb') 
wd = pickle.load(inputt)
a = wd['记者']
b = wd['公司']
c = wd['企业']
d = wd['交易']
e = wd['支付']
print(dis(a,b))
print(dis(b,c))
print(dis(e,d))
print(dis(a,e))

 

这篇关于NLP----神经网络语言模型(NNLM),词向量生成,词嵌入,python实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/189886

相关文章

Python将博客内容html导出为Markdown格式

《Python将博客内容html导出为Markdown格式》Python将博客内容html导出为Markdown格式,通过博客url地址抓取文章,分析并提取出文章标题和内容,将内容构建成html,再转... 目录一、为什么要搞?二、准备如何搞?三、说搞咱就搞!抓取文章提取内容构建html转存markdown

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

SpringBoot3实现Gzip压缩优化的技术指南

《SpringBoot3实现Gzip压缩优化的技术指南》随着Web应用的用户量和数据量增加,网络带宽和页面加载速度逐渐成为瓶颈,为了减少数据传输量,提高用户体验,我们可以使用Gzip压缩HTTP响应,... 目录1、简述2、配置2.1 添加依赖2.2 配置 Gzip 压缩3、服务端应用4、前端应用4.1 N

Java编译生成多个.class文件的原理和作用

《Java编译生成多个.class文件的原理和作用》作为一名经验丰富的开发者,在Java项目中执行编译后,可能会发现一个.java源文件有时会产生多个.class文件,从技术实现层面详细剖析这一现象... 目录一、内部类机制与.class文件生成成员内部类(常规内部类)局部内部类(方法内部类)匿名内部类二、

SpringBoot实现数据库读写分离的3种方法小结

《SpringBoot实现数据库读写分离的3种方法小结》为了提高系统的读写性能和可用性,读写分离是一种经典的数据库架构模式,在SpringBoot应用中,有多种方式可以实现数据库读写分离,本文将介绍三... 目录一、数据库读写分离概述二、方案一:基于AbstractRoutingDataSource实现动态

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

使用Jackson进行JSON生成与解析的新手指南

《使用Jackson进行JSON生成与解析的新手指南》这篇文章主要为大家详细介绍了如何使用Jackson进行JSON生成与解析处理,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 核心依赖2. 基础用法2.1 对象转 jsON(序列化)2.2 JSON 转对象(反序列化)3.

Python Websockets库的使用指南

《PythonWebsockets库的使用指南》pythonwebsockets库是一个用于创建WebSocket服务器和客户端的Python库,它提供了一种简单的方式来实现实时通信,支持异步和同步... 目录一、WebSocket 简介二、python 的 websockets 库安装三、完整代码示例1.

揭秘Python Socket网络编程的7种硬核用法

《揭秘PythonSocket网络编程的7种硬核用法》Socket不仅能做聊天室,还能干一大堆硬核操作,这篇文章就带大家看看Python网络编程的7种超实用玩法,感兴趣的小伙伴可以跟随小编一起... 目录1.端口扫描器:探测开放端口2.简易 HTTP 服务器:10 秒搭个网页3.局域网游戏:多人联机对战4.

Java枚举类实现Key-Value映射的多种实现方式

《Java枚举类实现Key-Value映射的多种实现方式》在Java开发中,枚举(Enum)是一种特殊的类,本文将详细介绍Java枚举类实现key-value映射的多种方式,有需要的小伙伴可以根据需要... 目录前言一、基础实现方式1.1 为枚举添加属性和构造方法二、http://www.cppcns.co