rnn-人名案例实现

2024-06-21 08:04
文章标签 实现 案例 rnn 人名

本文主要是介绍rnn-人名案例实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

模型训练实现:

coding: utf-8

导入torch工具

import json

import torch

导入nn准备构建模型

import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

导入torch的数据源 数据迭代器工具包

from torch.utils.data import Dataset, DataLoader

用于获得常见字母及字符规范化

import string

导入时间工具包

import time

引入制图工具包

import matplotlib.pyplot as plt

从io中导入文件打开方法

from io import open

from tqdm import tqdm

1.获取常用的字符和标点

all_letters = string.ascii_letters + " .,;'"

print(f’all_letters–>{all_letters}')

n_letter = len(all_letters)
print(f’all_letters长度–>{len(all_letters)}‘)
print(’*'*80)

2.获取国家类别总数

国家名 种类数

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)
print(‘*’*80)

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)
print(‘*’*80)

def read_data(filename):
# 1. 初始化两个空列表
my_list_x, my_list_y = [], []
# 2. 读取文件内容
with open(filename,‘r’, encoding=‘utf-8’) as fr:
for line in fr.readlines():
if len(line) <= 5:
continue
# strip()方法默认将字符串首尾两端的空白去掉
x, y = line.strip().split(‘\t’)
my_list_x.append(x)
my_list_y.append(y)

return my_list_x, my_list_y

todo 构建数据源

class NameClassDataset(Dataset):
def init(self, mylist_x, mylist_y):
self.mylist_x = mylist_x
self.mylist_y = mylist_y
self.sample_len = len(mylist_x)

def __len__(self):return self.sample_lendef __getitem__(self, index):# todo 异常值处理  max(x,y) 取x,y较大的值,若小于0则取0# todo  min(x,y) 取最小的值 保证索引不超出界限index = min(max(index, 0), self.sample_len - 1)x = self.mylist_x[index]y = self.mylist_y[index]# todo one-hot处理 0,1  创建全0张量 特征置为一 就实现了one-hot编码tensor_x=torch.zeros(len(x),n_letter)# li 索引  letter 值for li,letter in enumerate(x):# todo 将得到第li行数第find列置为1tensor_x[li][all_letters.find(letter)]=1# 返回值的索引 置为张量tensor_y=torch.tensor(categorys.index(y),dtype=torch.long)return tensor_x,tensor_y

def get_dataloader():
# todo 核心思想: 处理脏数据 封装数据处理方法 将数据打乱分批次
filename = ‘…/data/name_classfication.txt’
my_list_x, my_list_y = read_data(filename)
mydataset = NameClassDataset(mylist_x=my_list_x, mylist_y=my_list_y)
my_dataloader = DataLoader(dataset=mydataset, batch_size=1, shuffle=True)
return my_dataloader

class MyRNN(nn.Module):
def init(self, input_size, hidden_size, ouput_size, num_layers=1):
# 调用nn方法
super().init()
# todo 输入 长度不一致的数据:文本 时间序列数据 长度一致:语音 图像
# todo 再这里输入前需要对数据处理保证长度一致 方法:填充 截断
self.input_size = input_size
# todo 长度固定 8 62 128 256
self.hidden_size = hidden_size
# todo 长度等于要预测的种类数量
self.ouput_size = ouput_size
self.num_layers = num_layers

    # rnn网络层 todo 昨天区别参数顺序不一致 因为batch_first=trueself.rnn = nn.RNN(self.input_size, self.hidden_size,num_layers=self.num_layers, batch_first=True)# 输出层self.linear = nn.Linear(self.hidden_size, self.ouput_size)# softmax层# todo Softmax 函数会将输入转换为概率分布,然后再通过 CrossEntropyLoss 计算交叉熵损失。# todo LogSoftmax 先将输入转换为对数概率分布,然后与 NLLLoss 结合计算损失。# todo 选型 回归:mse mae  分类  Softmax LogSoftmax# todo 选型: LogSoftmax + NLLLoss  计算快多分类# todo 选型: Softmax + CrossEntropyLoss  默认多分类 不稳定# todo dim=-1 最后一个维度self.softmax = nn.LogSoftmax(dim=-1)def forward(self,input,hidden):rnn_output, rnn_hn = self.rnn(input, hidden)# todo 保持维度一致  如果这里维度不统一后续计算会出错tmep = rnn_output[0][-1].unsqueeze(0)output = self.linear(tmep)return self.softmax(output), rnn_hn# 初始化隐藏值 第一个时间步需要
def inithidden(self):return torch.zeros(self.num_layers, 1, self.hidden_size)

todo 测试 方法: 模型置为评估 单个数据输送 全部数据输送 指标评估

def test_RNN():
# todo 核心思想加载数据 置为需要的张量形状 调用模型 查看模型输出结果
# 1.得到数据
my_dataloader = get_dataloader()
# 2.实例化模型
input_size = n_letter # 57
hidden_size = 128 # 自定设定RNN模型输出结果维度
output_size = len(categorys) # 18
my_rnn = MyRNN(input_size, hidden_size, output_size)
h0 = my_rnn.inithidden()
for i, (x, y) in enumerate(my_dataloader):
print(f’x—>{x.shape}‘)
output, hn = my_rnn(input=x, hidden=h0)
print(f’output模型输出结果–>{output.shape}’)
print(f’hn–>{hn.shape}')
break

epochs = 1
my_lr = 1e-3

todo 模型训练

def train_RNN():
# todo 核心思想: 加载数据集 置换维度形状 调用模型
my_list_x, my_list_y = read_data(filename=‘…/data/name_classfication.txt’)
# 实例化自己定义的Dataset
myDataset = NameClassDataset(mylist_x=my_list_x, mylist_y=my_list_y)
# 实例化自己的Dataloader
my_dataloader = DataLoader(dataset=myDataset, batch_size=1, shuffle=True)

input_size = 57
hidden_size = 128
ouput_size = 18
my_rnn = MyRNN(input_size, hidden_size, ouput_size)
# todo forward定义了损失函数的话这里为什么还需要定义? 因为这是整个训练过程 函数内是单个的不是全局
#todo  --------- 损失函数和优化器可以互换置
my_crossentropy=nn.NLLLoss()
my_optimizer=optim.Adam(my_rnn.parameters(),lr=my_lr)
#todo  ---------
start_time = time.time() # 开始的时间
total_iter_num = 0 # 已经训练好的样本数
total_loss = 0 # 已经训练的总损失
total_loss_list = [] # 每隔100步存储一下平均损失
total_acc_num = 0 # 已经训练的样本数预测正确的样本
total_acc_list = [] # 每隔100步存储一下平均准确率#训练#批次
for epoch_idx in range(epochs):# 批次样本数量for i, (x, y) in enumerate(tqdm(my_dataloader)):# todo 这里为什么要再次初始化???模型内部已经实现了# todo 答: 在 PyTorch 中,每个批次数据的计算图(Computational Graph)会被动态构建。#  在每次向后传播(backward)之前,计算图会被清空以释放显存,并且隐藏状态等变量也会被重置h0=my_rnn.inithidden()output,hn=my_rnn(input=x,hidden=h0)# todo 注意: 以下顺序不能变 否则精度不准确# 预测值和真实值做计算my_loss = my_crossentropy(output, y)# 优化器梯度清零my_optimizer.zero_grad()# 损失函数反向传播my_loss.backward()# 优化器更新参数my_optimizer.step()total_iter_num += 1 # 计数total_loss += my_loss.item() # 累计损失值# todo 模型预测的类别与真实值对比 对为1item1 = 1 if torch.argmax(output, dim=-1).item() == y.item() else 0total_acc_num += item1 # 累计正确样本的个数# 每隔100步存储一下平均损失和准确率if total_iter_num % 100 == 0:# 保存平均损失loss_avg = total_loss / total_iter_numtotal_loss_list.append(loss_avg)# 保存平均准确率acc_avg = total_acc_num / total_iter_numtotal_acc_list.append(acc_avg)if total_iter_num % 2000 == 0:loss_avg = total_loss / total_iter_numacc_avg = total_acc_num / total_iter_numend_time = time.time()use_time = end_time-start_timeprint("当前训练的批次: %d,平均损失: %.5f, 训练时间: %.3f, 准确率: %.2f"%(epoch_idx+1,loss_avg,use_time,acc_avg))# todo 模型保存作用: 复用和部署#todo 模型结构: 输入层 隐藏层 输出层# todo 模型参数: 权重偏执#todo my_rnn.state_dict() 只保存模型参数 不保存模型结构# 加载方法:# model = MyRNN(input_size=10, hidden_size=128, output_size=5)# model.load_state_dict(torch.load('./my_rnn_state_dict.pth'))#todo torch.save() 保存结构和参数# todo model = torch.load('../model/my_rnn_model.pth')torch.save(my_rnn.state_dict(),'../model/my_rnn.bin')all_time = time.time() - start_time
return total_loss_list, all_time, total_acc_list

def save_rnn_results():
# 1. 训练模型得到需要的结果
total_loss_list, all_time, total_acc_list = train_RNN() # 假设train_my_rnn是另一个函数,用于训练RNN模型并返回损失列表、总时间消耗和准确率列表

# 2. 定义一个字典
dict1 = {"loss": total_loss_list,  # 字典中包含损失列表"time": all_time,         # 字典中包含总时间消耗"acc": total_acc_list}    # 字典中包含准确率列表# 3. 保存到一个json格式的文件
with open("../rnn_result.json", "w") as fw:  # 打开一个名为"rnn_result.json"的文件,用于写入fw.write(json.dumps(dict1))  # 使用json.dumps将字典dict1转换为JSON格式的字符串,并写入文件

读取json文件内容

def read_json():
with open(“…/rnn_result.json”, “r”) as fr: # 打开一个名为"rnn_result.json"的文件,用于读取
results = json.load(fr) # 使用json.load将JSON格式的字符串转换回字典
return results # 返回读取到的字典

if name == ‘main’:
test_RNN()
train_RNN()
save_rnn_results()
read_json()

模型预测:

coding: utf-8

导入torch工具

import json

import torch

导入nn准备构建模型

import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

导入torch的数据源 数据迭代器工具包

from torch.utils.data import Dataset, DataLoader

用于获得常见字母及字符规范化

import string

导入时间工具包

import time

引入制图工具包

import matplotlib.pyplot as plt

从io中导入文件打开方法

from io import open

from tqdm import tqdm

from nlp_self.day03.rnn.example_rnn_train import read_json, MyRNN
import os
os.environ[‘KMP_DUPLICATE_LIB_OK’]=‘True’

all_letters = string.ascii_letters + " .,;'"

print(f’all_letters–>{all_letters}')

n_letter = len(all_letters)
print(f’all_letters长度–>{len(all_letters)}‘)
print(’*'*80)

2.获取国家类别总数

国家名 种类数

categorys = [‘Italian’, ‘English’, ‘Arabic’, ‘Spanish’, ‘Scottish’, ‘Irish’, ‘Chinese’, ‘Vietnamese’, ‘Japanese’,
‘French’, ‘Greek’, ‘Dutch’, ‘Korean’, ‘Polish’, ‘Portuguese’, ‘Russian’, ‘Czech’, ‘German’]

国家名 个数

categorynum = len(categorys)
print(‘categorys—>’, categorys)

画图

def plt_RNN():
#加载模型参数
rnn_results=read_json()
# todo 根据key获取
total_loss_list_rnn, all_time_rnn, total_acc_list_rnn =rnn_results[‘loss’],rnn_results[‘time’],rnn_results[‘acc’]
# 损失对比
plt.figure(0)
plt.plot(total_loss_list_rnn,label=‘RNN’)
plt.legend(loc=“upper left”)
# todo 保存图片
plt.savefig(‘…/pictures/loss.png’)
plt.show()

构建模型入参

def line2tensor(x):
#todo 核心思想: 模型不能识别文字需要转码 常用词嵌入 onehot
# todo 选型: 字符就用one-hot 单词就用词嵌入

tensor_x=torch.zeros(len(x),n_letter)
for li,letter in enumerate(x):# todo  找到的张量置为1 实现one-hot编码tensor_x[li][all_letters.find(letter)]=1
return tensor_x

todo 模型预测

def rnn_predict(x):
# todo 模型预测和训练区别: 数据不一致:训练要标签数据 预测不需要 训练要反向传播 预测不需要
# todo 方法: 单步 多步 递归预测(模型使用已有的预测结果作为下一个时间步的输入,依次递归预测整个序列)
# todo : 核心思想: 传数据 调用模型
# todo 调用模型属于推理过程 要使用上下文管理器 (它可以临时地关闭 PyTorch 中的梯度计算。在这个上下文中的所有操作,都不会被记录在计算图中,也不会影响梯度的计算)
# todo 开始预测过程: 1.上下文管理器 2参数初始化(因为每次调用pytorch会清空隐藏状态) 3. 取出预测结果
tensor_x=line2tensor(x)
my_rnn = MyRNN(input_size=57, hidden_size=128, ouput_size=18)
my_rnn.load_state_dict(torch.load(‘…/model/my_rnn.bin’))
# # todo 上下文管理器 关闭梯度计算 推理过程关闭
with torch.no_grad():
# todo 升维 保持现状一致
input0=tensor_x.unsqueeze(0)
h0=my_rnn.inithidden()
output, hn = my_rnn(input0, h0)

    # todo 取出预测最大值topv,topi=output.topk(3,1,True)for i in range(3):value = topv[0][i]index = topi[0][i]category = categorys[index]print('RNN模型预测的结果:%.2f, 国家类别是%s'% (value, category))

if name == ‘main’:
#plt_RNN()
rnn_predict(‘Wang’)

这篇关于rnn-人名案例实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080655

相关文章

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、