【自然语言处理】seq2seq模型—机器翻译

2024-02-16 14:04

本文主要是介绍【自然语言处理】seq2seq模型—机器翻译,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

清华大学驭风计划课程链接 

学堂在线 - 精品在线课程学习平台 (xuetangx.com)

代码和报告均为本人自己实现(实验满分),只展示主要任务实验结果,如果需要详细的实验报告或者代码可以私聊博主

有任何疑问或者问题,也欢迎私信博主,大家可以相互讨论交流哟~~

案例简介

seq2seq是神经机器翻译的主流框架,如今的商用机器翻译系统大多都基于其构建,在本案例中,我们将使用由NIST提供的中英文本数据训练一个简单的中英翻译系统,在实践中学习seq2seq的具体细节,以及了解机器翻译的基本技术。

seq2seq模型

从根本上讲,机器翻译需要将输入序列(源语言中的单词)映射到输出序列(目标语言中的单词)。正如我们在课堂上讨论的那样,递归神经网络(RNN)可有效处理此类顺序数据。机器翻译中的一个重要难题是输入和输出序列之间没有一对一的对应关系。即,序列通常具有不同的长度,并且单词对应可以是不平凡的(例如,彼此直接翻译的单词可能不会以相同的顺序出现)。

为了解决这个问题,我们将使用一种更灵活的架构,称为seq2seq模型。该模型由编码器和解码器两部分组成,它们都是RNN。编码器将源语言中的单词序列作为输入,并输出RNN层的最终隐藏状态。解码器与之类似,除了它还具有一个附加的全连接层(带有softmax激活),用于定义翻译中下一个单词的概率分布。以此方式,解码器本质上用作目标语言的神经语言模型。关键区别在于,解码器将编码器的输出用作其初始隐藏状态,而不是零向量。

数据和代码

本案例使用了一个小规模的中英平行语料数据,并提供了一个简单的seq2seq模型实现,包括数据的预处理、模型的训练、以及简单的评测。

评分要求

分数由两部分组成,各占50%。第一部分得分为对于简单seq2seq模型的改进,并撰写实验报告,改进方式多样,下一小节会给出一些可能的改进方向。第二分部得分为测试数据的评测结果,我们将给出一个中文测试数据集(test.txt),其中每一行为一句中文文本,需要同学提交模型做出的对应翻译结果,助教将对于大家的提交结果统一机器评测,并给出分数。请以附件形式提交实验报告

改进方向

初级改进:

  • 将RNN模型替换成GRU或者LSTM

  • 使用双向的encoder获得更好的源语言表示

  • 对于现有超参数进行调优,这里建议划分出一个开发集,在开发集上进行grid search,并且在报告中汇报开发集结果

  • 引入更多的训练语料(如果尝试复杂模型,更多的训练数据将非常关键)

进阶改进:

  • 使用注意力机制(注意力机制是一个很重要的NMT技术,建议大家优先进行这方面的尝试,具体有许多种变体,可以参考这个综述)

  • 在Encoder部分,使用了字级别的中文输入,可以考虑加入分词的结果,并且将Encoder的词向量替换为预训练过的词向量,获得更好的性能

复杂改进:

  • 使用beam search的技术来帮助更好的解码,对于beam-width进行调优

  • 将RNN替换为Transformer模型,以及最新的改进变体

实验结果

1,首先运行原代码,得出结果

loss 图来看最低达到 3.9 ,通过翻译的结果对比,原始代码的翻译效果几乎没有,我认为 RNN 在这次文本翻译中表现较差主要因其难以捕捉长期依赖性、容易出现梯度问题、记忆容量有限、缺乏并行性而造成的。

2,将 RNN 模型替换成 GRU LSTM

在模型替换为 GRU 的时候明显 loss 下降了更多而且翻译效果也相对于原来 RNN模型有一定提升。比如句子‘为什么我一直学习不好英语 GRU 模型的翻译为why is i speak english english ?而 RNN 模型的翻译为 why do you want to go ? ,可以看出虽然两者都不完全对,但是 GRU 模型的翻译很接近正确答案了,而 RNN 的翻译基本不沾边,所以在这次 RNN 模型替换为 GRU 的实验中效果明显提升。
改进为 LSTM

loss 图来看比起原始的 RNN 有明显更多的下降,从翻译效果来看也是如此。比如句子‘今天天气怎么样’在 LSTM 模型的翻译是 what s the weather today ? 而在 RNN 模型的翻译是 what is you ? to ? 。明显 LSTM 完全翻译正确,而 RNN 的翻译压根不搭边,所以这次 RNN 模型替换成 LSTM 的效果有明显提升。
RNN 模型替换成 GRU LSTM 的总结 GRU LSTM 相对于 RNN 在这次文本翻译任务中翻译效果更好的原因我认为主要包括以下几点:
处理长距离依赖关系 RNN 在处理长句子或序列时,由于梯度消失 / 爆炸的问题,往往难以捕捉长距离的依赖关系。GRU LSTM 引入了门控机制,可以更有效地处理长距离依赖,因此在翻译中能够更好地捕捉句子中的语法和语义信息。
防止梯度消失 GRU LSTM 通过门控单元,如遗忘门和更新门,可以选择性地记住或忘记先前的信息。这有助于减轻梯度消失问题,使模型能够在训练期间更好地传播梯度,从而学习到更好的参数。
处理序列中的不同时间尺度 GRU LSTM 能够处理不同时间尺度的信息,因为它们在每个时间步都有不同的门控单元来控制信息流。这使得它们可以更好地适应不同长度和复杂度的句子,而 RNN 不太适合这种任务。
更好的记忆能力 GRU LSTM 通过细致的控制信息流,具有更好的记忆能力,可以更好地处理文本中的长距离依赖和序列中的重要信息。
综上所述 GRU LSTM 相对于 RNN 在文本翻译中表现更好,因为它们克服了RNN 的一些限制,提供了更好的建模能力,更好地处理了长句子中的依赖关系,因此在这次文本翻译的实验中更有效

3,使用双向的 encoder 获得更好的源语言表示

(这里我完成了双向的 GRU 和双向的 LSTM

loss 图可以看出 loss 明显比原来单向的 GRU 的时候下降更多了,最低达到了2.8,并且从翻页的结果来看也明显优于原来单向的 GRU ,比如在我不能帮你了。翻译成了 i can t help you ,而在单向的 GRU 中翻译成了 i can t you you you you 。有明显的效果提升,
我认为造成这样的原因 是因为双向的 GRU 能够同时利用输入序列的前向和后向信息,提供更丰富的上下文信息,缓解梯度消失问题,增加模型的建模能力,以及更好地表达输入序列的结构。
双向的 LSTM

loss 图来看相对于单向的 LSTM loss 下降了更多,最低达到 2.95 ,然后再从翻译结果来看也比单向的 LSTM 要更好一点,比如句子‘他不会说法语也不会说英语’,单向 LSTM 的翻译结果是 he can t speak speak english ,而双向的 LSTM的翻译是 he can t speak french french english . 虽然结果都与实际结果有差距,但是也可以看出双向的 LSTM 翻译的更好,因为它翻译出来法语,英语。而单向的LSTM 只翻译出英语,这就是差距。
使用双向的 encoder 获得更好的源语言表示结果总结 :双向 encoder 在这次文本翻译的实验中表现更好,因为它具有更好的上下文理解和信息获取能力。以下是我认为的一些原因:
双向信息获取 :双向编码器同时处理输入序列的前向和后向信息。这意味着对于每个输入位置,它能够考虑其之前和之后的单词,从而获得更全面的上下文信息。这对于理解句子中的复杂依赖关系非常重要,特别是在涉及长距离依赖的任务中。
更好的信息传递 :在双向编码中,前向和后向信息通过不同的隐藏状态进行编码,然后合并在一起。这种信息合并允许模型更好地捕捉不同方向上的相关信息,有助于更好地表示输入序列。
降低信息丢失 :单向编码器在处理每个单词时只能看到之前的单词,这可能导致信息丢失,尤其是在句子末尾。双向编码器通过处理输入的两个方向,有助于减少这种信息丢失。
总之 ,双向 encoder 的能力更强,能够更好地捕捉输入序列的语法和语义信息,使其的翻译效果比单向 encoder 的更好。

4,实现注意力机制(实现点积注意力,加法注意力,乘法注意力)

在这里我使用 GRU 和注意力机制共同实现,因为在前面的实验中,GRU 的运行 时间和得出的 loss 图都比 LSTM 要更低,且两者翻译的结果差别不大的情况下, 选择 GRU 更适合此次的文本翻译,因为 GRU 在于其更简洁的结构和较少的参数 量,使得模型更具计算效率(运行时间更快)和抗过拟合能力。此外,GRU 还能 够有效地处理长序列,对于文本翻译中的长句子表现更出色。并且在这次运行中我选择的是点积注意力(运算简单,速度更快)

运行结果

首先从 loss 图来看,最终的下降达到的值比没有加注意力机制的 GRU 要稍微低一点,差 0.1 左右,从实际的翻译效果看加了注意力机制的更好,比如句子今天天气怎么样?,没有加注意力机制的 GRU 翻译结果是 how s it weather today today?而加了注意力机制的 GRU 翻译结果为 what s the weather like today ? 可以说是完全正确。再比如句子‘她喜欢吃草莓味的酸奶’普通 GRU 的翻译结果是 she likes to eat sushi,意思是她喜欢吃寿司,而加了注意力机制的 GRU 的翻译结果是 she likes to drink milk 意思是她喜欢喝牛奶。明显可以看出加了注意力机制的 GRU 翻译结果更接近真实的意思。
注意力机制性能提升总结
注意力机制 GRU 的翻译效果比不加注意力机制的 GRU 要好的原因我认为主要有以下两点:
处理长序列 RNN 在处理长序列时可能会出现梯度消失或爆炸的问题,导致信息丢失。注意力机制允许模型根据需要选择性地关注输入序列的不同部分,从而更好地捕捉长距离的依赖关系,提高性能。
提高记忆能力 GRU 本身是一种改进的 RNN 单元,它具有较长的记忆窗口,但仍然可能无法处理非常长的序列。注意力机制增加了模型的记忆能力,因为它可以在生成每个输出时选择性地关注与当前任务相关的信息。

5 ,对于现有超参数进行调优,这里划分出一个开发集,在开发集上 进行 grid search ,并且报告结果
最终组合所有的最佳参数来进行训练,结果如下
学习率 0.0005
层数 2
注意力种类 :加法注意力
Dropout 概率值 :0.05
强制学习概率: 1
不管是从 loss 来看还是翻译结果来看,都比之前的好不少,这也是我能调出的最好翻译效果。比如句子汤姆不是一个好司机,翻译是 tom isn t a good swimmer .意思是汤姆不是一个好游泳员,已经很接近正确答案,而在之前的改进中这个翻译几乎不沾边,还有其他句子也有类似情况,最终的超参数调整的改进相对来说还是比较成功的,提升了句子翻译的效果。

这篇关于【自然语言处理】seq2seq模型—机器翻译的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/714748

相关文章

Python Transformers库(NLP处理库)案例代码讲解

《PythonTransformers库(NLP处理库)案例代码讲解》本文介绍transformers库的全面讲解,包含基础知识、高级用法、案例代码及学习路径,内容经过组织,适合不同阶段的学习者,对... 目录一、基础知识1. Transformers 库简介2. 安装与环境配置3. 快速上手示例二、核心模

一文详解Java异常处理你都了解哪些知识

《一文详解Java异常处理你都了解哪些知识》:本文主要介绍Java异常处理的相关资料,包括异常的分类、捕获和处理异常的语法、常见的异常类型以及自定义异常的实现,文中通过代码介绍的非常详细,需要的朋... 目录前言一、什么是异常二、异常的分类2.1 受检异常2.2 非受检异常三、异常处理的语法3.1 try-

Python使用getopt处理命令行参数示例解析(最佳实践)

《Python使用getopt处理命令行参数示例解析(最佳实践)》getopt模块是Python标准库中一个简单但强大的命令行参数处理工具,它特别适合那些需要快速实现基本命令行参数解析的场景,或者需要... 目录为什么需要处理命令行参数?getopt模块基础实际应用示例与其他参数处理方式的比较常见问http

Java Response返回值的最佳处理方案

《JavaResponse返回值的最佳处理方案》在开发Web应用程序时,我们经常需要通过HTTP请求从服务器获取响应数据,这些数据可以是JSON、XML、甚至是文件,本篇文章将详细解析Java中处理... 目录摘要概述核心问题:关键技术点:源码解析示例 1:使用HttpURLConnection获取Resp

Java中Switch Case多个条件处理方法举例

《Java中SwitchCase多个条件处理方法举例》Java中switch语句用于根据变量值执行不同代码块,适用于多个条件的处理,:本文主要介绍Java中SwitchCase多个条件处理的相... 目录前言基本语法处理多个条件示例1:合并相同代码的多个case示例2:通过字符串合并多个case进阶用法使用

Java实现优雅日期处理的方案详解

《Java实现优雅日期处理的方案详解》在我们的日常工作中,需要经常处理各种格式,各种类似的的日期或者时间,下面我们就来看看如何使用java处理这样的日期问题吧,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言一、日期的坑1.1 日期格式化陷阱1.2 时区转换二、优雅方案的进阶之路2.1 线程安全重构2

Python处理函数调用超时的四种方法

《Python处理函数调用超时的四种方法》在实际开发过程中,我们可能会遇到一些场景,需要对函数的执行时间进行限制,例如,当一个函数执行时间过长时,可能会导致程序卡顿、资源占用过高,因此,在某些情况下,... 目录前言func-timeout1. 安装 func-timeout2. 基本用法自定义进程subp

Java字符串处理全解析(String、StringBuilder与StringBuffer)

《Java字符串处理全解析(String、StringBuilder与StringBuffer)》:本文主要介绍Java字符串处理全解析(String、StringBuilder与StringBu... 目录Java字符串处理全解析:String、StringBuilder与StringBuffer一、St

浅析Java中如何优雅地处理null值

《浅析Java中如何优雅地处理null值》这篇文章主要为大家详细介绍了如何结合Lambda表达式和Optional,让Java更优雅地处理null值,感兴趣的小伙伴可以跟随小编一起学习一下... 目录场景 1:不为 null 则执行场景 2:不为 null 则返回,为 null 则返回特定值或抛出异常场景

深入理解Apache Kafka(分布式流处理平台)

《深入理解ApacheKafka(分布式流处理平台)》ApacheKafka作为现代分布式系统中的核心中间件,为构建高吞吐量、低延迟的数据管道提供了强大支持,本文将深入探讨Kafka的核心概念、架构... 目录引言一、Apache Kafka概述1.1 什么是Kafka?1.2 Kafka的核心概念二、Ka