【部分源码分析】PLATO——开放域对话的SOTA之作

2023-11-23 20:00

本文主要是介绍【部分源码分析】PLATO——开放域对话的SOTA之作,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【部分源码分析】PLATO——开放域对话的SOTA之作

Github链接:https://github.com/PaddlePaddle/Knover/tree/master
论文链接:https://arxiv.org/abs/2006.16779

PLATO目录

  • 【部分源码分析】PLATO——开放域对话的SOTA之作
  • 数据准备
    • 部分数据集展示
    • 数据预处理代码
  • 训练与预测


数据准备

注:此处的数据预处理部分仅针对千言数据集(中文,三大任务场景,六个分数据集)
千言多技能对话数据集及比赛地址:
https://aistudio.baidu.com/aistudio/competition/detail/55
在这里插入图片描述
对于PLATO(Knover)模型而言,文本数据的词嵌入处理方式如上图所示
Plato-2模型的输入采用了token,role,turn,position相融合的表示方式。在Knover的源码中,对输入的处理是通过了sentencepiece工具(BERT也使用的这个)。sentencepiece提供了一种方便快捷的分词操作,我们可以直接将整个数据集放进去,设定分词的单元数量,然后等待训练出一个好用的分词模型(会输出一个预训练模型,之后对每个语句都会用这个模型进行编码和解码,即分词,转换成数字编码,输出再转换回句子)

上图给出了Plato模型需要的输入,当然这些是以Embedding的形式给出的,而Embedding是在模型中转化的,它在转化之前是以数字编码存在的。Embedding现在已经是语言处理技术的标配了,它把每一个标记映射到空间中,增加其表征能力。我们暂时忽略最前边的latent,它是表示不同回答方式的隐变量,用于Plato在众多可能回答中选择正确的回答,我们这里不关心这个是怎么实现的,所以不展开讨论。在latent之后,有contex和response两个内容,其中context包含了众多信息:历史对话,背景知识,以及对话与对话之间分隔的符号[EOU], [BOU]等等,如果有背景知识的话,也会列到context中response则是训练中需要的部分,在测试中这一部分是空的。
TokenEmbeddings表示各语言单元的Embedding(词向量);RoleEmbeddings是各个语言单元在其中扮演的角色,这个主要是用来区分内容是context(EA)还是response(EB)(亦或是背景知识,背景知识可以作为response的角色,也可以单独成为一类,即EC);TurnEmbeddings表示每一部分在当前回合中的相对回合数;PositionEmbeddings则是每个语言单元的位置,一般是range(0, len(context))。
知道了这些,我们回到Record上来看这个输入应该怎么得到。由定义可知,Record是带名称的元组,这样我们立马可以知道,这个元组是通过名称来调用其中的内容的。fields的内容是什么呢?从官方的源码中可以总结出:fields = [“token_ids”, “type_ids”, “pos_ids”, “tgt_start_idx”, “data_id”]。也就是说,输入需要给出5个部分,token_ids就是处理过的语言单位的编码;type_ids就是个语言单位扮演的角色,是context还是response;pos_ids是各个语言单位的位置;tgt_start_idx是回复生成的开始位置,也即context的最后一个词的位置;data_id就是这个训练样本的标记。

部分数据集展示

三个任务场景:闲聊、知识、推荐
六大数据集:
1.闲聊对话:华为的微博数据 [1] ,北航和微软的豆瓣多轮对话 [2],清华的LCCC数据集[3]
2.知识对话:百度的DuConv [4],清华的KdConv [5],腾讯的检索辅助生成对话数据集 [6]
3.推荐对话:百度的DuRecDial [7]在这里插入图片描述在这里插入图片描述

数据预处理代码

数据预处理代码在./luge-dialogue/tools/convert_data_to_numerical.py

对于六大数据集的不同组成部分都转换成了四个元素
type: 三大任务类型:闲聊+知识+推荐
knowledge: 对话段背后的知识背景(如知识图谱)
context: 对话上文
response:对话下文(训练时已知,测试预测时未知)

type_dict = {"chitchat": 30001, "knowledge": 30002, "recommend": 30003}

在这里插入图片描述
line75
在六个数据集均被转换成四个组成元素后,均被def convert_sample_to_numerical()进行id化
在该函数中均用sentencepiece.SentencePieceProcessor()进行分词编码处理

response_ids = sp.EncodeAsIds(response) + [2]
knowledge_ids = sp.EncodeAsIds(knowledge) + [2]
utterance_ids = sp.EncodeAsIds(utterance) + [2]
# context同样处理,不过先进行split分句
if context != "":for utterance in context.split('\t'):utterance_ids = sp.EncodeAsIds(utterance) + [2]context_ids_list.append(utterance_ids)# 对话上文通过append将均在context_ids_list中,并通过截断或填充等长得到
truncate_type, new_context_ids_list = truncate_ids_list(context_ids_list, max_seq_len - max_response_len - 2, truncate_first_turn=truncate_first_turn)
truncate_type_stat[truncate_type] += 1
# 对话下文同样进行截断或填充# 最后,将对话上文+对话下文的id均放在token_ids中
# token_ids的初始
token_ids = [1, type_id]# sent_ids存对话上文还是对话下文,上文用0,下文用1表示
# sent_ids的初始
sent_ids = [0, 0]# position_ids存整个对话的位置信息,即文本的位置编码
position_ids = range(len(token_ids))

具体处理过程可阅读上述精简代码和注释,最终将对话文本编码成三个id序列:
token_ids:任务类型(闲聊、知识、推荐) + 知识 + 对话上文 + 【对话下文】(测试集无下文)
sent_ids: 对话上文、下文的01编码,上文用0,下文用1(注意:token_ids中的知识算作对话上文)
position_ids:位置编码,连续自然数代表,从0、1、2、…到len(token_ids)

至此,文本编码过程完成

训练与预测

在这里插入图片描述
训练的方式如上图,传入conf参数文件进行训练

首先在./scripts/local/train.sh中,可以通过export修改可使用GPU数量,如下图使用单卡
在这里插入图片描述
conf参数文件,以12L_train.conf为例,传给train.py文件的所需参数
在这里插入图片描述
好了,在Plato模型的训练阶段都将通过train.py,它通过调用其余文件进行模型的训练过程,其中多为传参代码。
在这里插入图片描述
在train.py中的训练方式是调用tasks/task_base.py进行训练

而task_base.py又是调用models/model_base.py进行具体的训练操作
在这里插入图片描述

  • generator.py:定义了模型的预测输出,其中包含了beam-search、temperature、topk、num_samples等参数的设定与解码的实现
  • model_base.py:实现了模型的训练与预测
  • nsp_model.py:取出模型的不同层,进行lm_loss、nsp_loss 、nsp_acc的计算(MLM语言模型loss、)
  • optimizer.py:自定义的AdamW
  • unified_transformer.py:seq2seq,一对一映射的传统模型
    在Plato模型中,最基本的组成单位就是transformer_block
    因此,让我们来看models/transformer_block.py,最基本也是最重要的文件

对于Multi-head self attention和Fnn不再阐述,没有特别的

值得注意的是pre_post_process_layer通过函数接收到的cmd字符串来实现
如BERT使用的post-normalization或GPT-2使用的pre-normalization,因Plato的参数量和数据量在本文件代码中使用cmd=n实现pre-normalization,当然可以修改cmd=da实现post-normalization
在这里插入图片描述

除此之外,还值得注意的是plato.py文件
通过gumbel_softmax实现离散隐空间的“采样”操作
在这里插入图片描述

参考与引用:
https://zhuanlan.zhihu.com/p/292013818
https://www.datafountain.cn/competitions/470/datasets

这篇关于【部分源码分析】PLATO——开放域对话的SOTA之作的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/420387

相关文章

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

如何在Visual Studio中调试.NET源码

今天偶然在看别人代码时,发现在他的代码里使用了Any判断List<T>是否为空。 我一般的做法是先判断是否为null,再判断Count。 看了一下Count的源码如下: 1 [__DynamicallyInvokable]2 public int Count3 {4 [__DynamicallyInvokable]5 get

poj 2976 分数规划二分贪心(部分对总体的贡献度) poj 3111

poj 2976: 题意: 在n场考试中,每场考试共有b题,答对的题目有a题。 允许去掉k场考试,求能达到的最高正确率是多少。 解析: 假设已知准确率为x,则每场考试对于准确率的贡献值为: a - b * x,将贡献值大的排序排在前面舍弃掉后k个。 然后二分x就行了。 代码: #include <iostream>#include <cstdio>#incl

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

MOLE 2.5 分析分子通道和孔隙

软件介绍 生物大分子通道和孔隙在生物学中发挥着重要作用,例如在分子识别和酶底物特异性方面。 我们介绍了一种名为 MOLE 2.5 的高级软件工具,该工具旨在分析分子通道和孔隙。 与其他可用软件工具的基准测试表明,MOLE 2.5 相比更快、更强大、功能更丰富。作为一项新功能,MOLE 2.5 可以估算已识别通道的物理化学性质。 软件下载 https://pan.quark.cn/s/57

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、

衡石分析平台使用手册-单机安装及启动

单机安装及启动​ 本文讲述如何在单机环境下进行 HENGSHI SENSE 安装的操作过程。 在安装前请确认网络环境,如果是隔离环境,无法连接互联网时,请先按照 离线环境安装依赖的指导进行依赖包的安装,然后按照本文的指导继续操作。如果网络环境可以连接互联网,请直接按照本文的指导进行安装。 准备工作​ 请参考安装环境文档准备安装环境。 配置用户与安装目录。 在操作前请检查您是否有 sud

线性因子模型 - 独立分量分析(ICA)篇

序言 线性因子模型是数据分析与机器学习中的一类重要模型,它们通过引入潜变量( latent variables \text{latent variables} latent variables)来更好地表征数据。其中,独立分量分析( ICA \text{ICA} ICA)作为线性因子模型的一种,以其独特的视角和广泛的应用领域而备受关注。 ICA \text{ICA} ICA旨在将观察到的复杂信号