bert+seq2seq 周公解梦,看AI如何解析你的梦境?【转】

2023-10-21 05:40

本文主要是介绍bert+seq2seq 周公解梦,看AI如何解析你的梦境?【转】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

介绍

在参与的项目和产品中,涉及到模型和算法的需求,主要以自然语言处理(NLP)和知识图谱(KG)为主。NLP涉及面太广,而聚焦在具体场景下,想要生产落地的还需要花很多功夫。
作为NLP的主要方向,情感分析,文本多分类,实体识别等已经在项目中得到应用。例如
通过实体识别,抽取文本中提及到的公司、个人以及金融产品等。
通过情感分析,判别新闻资讯,对其提到的公司和个人是否利好?
通过文本多分类,判断资讯是否是高质量?判断资讯的行业和主题?
具体详情再找时间分享。而文本生成、序列到序列(Sequence to Sequence)在机器翻译、问答系统、聊天机器人中有较广的应用,在参与的项目中暂无涉及,本文主要通过tensorflow+bert+seq2seq实现一个简单的问答模型,旨在对seq2seq的了解和熟悉。

数据

关于seq2seq的demo数据有很多,例如小黄鸡聊天语料库,影视语料库,翻译语料库等等。由于最近总是做些奇怪的梦,便想着,做一个AI解梦的应用玩玩,just for fun。
通过采集从网上采集周公解梦数据,通过清洗,形成
dream:梦境;
decode:梦境解析结果。
这样的序列对,总计33000+ 条记录。数据集下载地址:后台回复“解梦”
{
"dream": "梦见商人或富翁",
"decode": "是个幸运的预兆,未来自己的事业很有机会成功,不过如果梦中的富翁是自己,则是一个凶兆。。"
}

模型准备

#下载 bert
$ git clone https://github.com/google-research/bert.git
#下载中文预训练模型
$ wget -c https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
$ unzip chinese_L-12_H-768_A-12.zip 

bert 的input:

self.input_ids = tf.placeholder(dtype=tf.int32,shape=[None, None],name="input_ids"
)
self.input_mask = tf.placeholder(dtype=tf.int32,shape=[None, None],name="input_mask"
)
self.segment_ids = tf.placeholder(dtype=tf.int32,shape=[None, None],name="segment_ids"
)
self.dropout = tf.placeholder(dtype=tf.float32,shape=None,name="dropout"
)

bert 的model :

self.bert_config = modeling.BertConfig.from_json_file(bert_config)model = modeling.BertModel(config=self.bert_config,is_training=self.is_training,input_ids=self.input_ids,input_mask=self.input_mask,token_type_ids=self.segment_ids,use_one_hot_embeddings=False)

seq2seq 的encoder_embedding 替换:

# 默认seq2seq model_inputs
# self.encoder_embedding = tf.Variable(tf.random_uniform([from_dict_size, embedded_size], -1, 1),name ="encoder_embedding")
# self.model_inputs = tf.nn.embedding_lookup(self.encoder_embedding, self.X),
#  替换成bert
self.embedded = model.get_sequence_output()
self.model_inputs = tf.nn.dropout(self.embedded, self.dropout)

seq2seq 的decoder_embedding 替换:

# 默认seq2seq decoder_embedding
# self.decoder_embedding = tf.Variable(tf.random_uniform([to_dict_size, embedded_size], -1, 1),name="decoder_embedding")
#  替换成bert
self.decoder_embedding = model.get_embedding_table()
self.decoder_input = tf.nn.embedding_lookup(self.decoder_embedding, decoder_input),

数据预处理

for i in range(len(inputs)):tokens = inputs[i]inputs_ids = model.tokenizer.convert_tokens_to_ids(inputs[i])segment_ids = [0] * len(inputs_ids)input_mask = [1] * len(inputs_ids)tag_ids = model.tokenizer.convert_tokens_to_ids(outputs[i])data.append([tokens, tag_ids, inputs_ids, segment_ids, input_mask])def pad_data(data):c_data = copy.deepcopy(data)max_x_length = max([len(i[0]) for i in c_data])max_y_length = max([len(i[1]) for i in c_data]) # 这里生成的序列的tag-id 和 input-id 长度要分开# print("max_x_length : {} ,max_y_length : {}".format( max_x_length,max_y_length))padded_data = []for i in c_data:tokens, tag_ids, inputs_ids, segment_ids, input_mask = itag_ids = tag_ids + (max_y_length - len(tag_ids)) * [0]# 注意tag-ids 的长度补充,和预测的序列长度一致。inputs_ids = inputs_ids + (max_x_length - len(inputs_ids)) * [0]segment_ids = segment_ids + (max_x_length - len(segment_ids)) * [0]input_mask = input_mask + (max_x_length - len(input_mask)) * [0]assert len(inputs_ids) == len(segment_ids) == len(input_mask)padded_data.append([tokens, tag_ids, inputs_ids, segment_ids, input_mask])return padded_data

训练

$ python3 model.py --task=train \--is_training=True \--epoch=100 \--size_layer=256 \--bert_config=chinese_L-12_H-768_A-12/bert_config.json \--vocab_file=chinese_L-12_H-768_A-12/vocab.txt \--num_layers=2 \--learning_rate=0.001 \--batch_size=16 \--checkpoint_dir=result

image

预测

$ python3 model.py --task=predict \--is_training=False \--epoch=100 \--size_layer=256 \--bert_config=chinese_L-12_H-768_A-12/bert_config.json \--vocab_file=chinese_L-12_H-768_A-12/vocab.txt \--num_layers=2 \--learning_rate=0.001 \--batch_size=16 \--checkpoint_dir=result

image

Just For Fun ^_^

本文代码: https://github.com/saiwaiyanyu/tensorflow-bert-seq2seq-dream-decoder

作者:saiwaiyanyu
链接:https://juejin.im/post/5dd9e07b51882572f00c4523
来源:掘金

8

本文由博客一文多发平台 OpenWrite 发布!

这篇关于bert+seq2seq 周公解梦,看AI如何解析你的梦境?【转】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/252320

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

AI行业应用(不定期更新)

ChatPDF 可以让你上传一个 PDF 文件,然后针对这个 PDF 进行小结和提问。你可以把各种各样你要研究的分析报告交给它,快速获取到想要知道的信息。https://www.chatpdf.com/

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti