论文笔记 | Attention Is All Y ou Need for Chinese Word Segmentation

2024-05-31 12:58

本文主要是介绍论文笔记 | Attention Is All Y ou Need for Chinese Word Segmentation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述


作者:景
单位:燕山大学


论文来源:EMNLP2020
代码地址

关于分词任务

  中文分词(CWS)是在句子中划分单词边界的任务,对于中文和许多其他东亚语言来说,这是一项基本和必要的任务——对于中文来说,进行交流的基本单位是汉字,每个汉字均有各自的意思,且当不同的汉字进行组合后还会产生新的含义。英语中词的最基本单位是字母(letter),但英语日常使用的基本单位是词(word),词汇之间的关联组合性相较中文较弱。在实际应用场景中,如果按照英文的使用习惯对中文进行“按字拆分”,就会割裂中文词汇内的语义联系。

任务定义

  给定一段中文序列[x1,…,xn],用标签0/1来标记序列中俩俩字符之间的间隙(gap),如果间隙前后的字符(如x5、x6)属于不同的词汇,即判定该处间隙属于分词符,用标签1标记该间隙,反之则用标签0表示。最后根据标签值将序列进行划分即可完成分词任务。

论文概述

  • 提出了一种新型的Transformer变体——高斯掩码定向Transformer编码器(Gaussian-masked Directional Transformer encoder,GD)
  • 提出了一种新的中文分词模型,该模型基于GD Transformer设计,但其内部仅仅堆叠了注意力机制模块,没有添加前馈神经网络
  • 作者证明在使用GD作为编码器之后,单个字符特征加上贪婪分割算法可以支持产生强大的性能,并刷新了当前的sota。

方法

模型的总结构图如下所示。
123

1.高斯掩码定向Transformer

  作者提出的GD Transformer与原版的Transformer相比,做了两大改进:
  1.用三种平行的Encoder代替了原transformer中的Encoder
  2.采用高斯掩码定向注意力机制代替了标准的多头自注意力机制

Encoder部分

在这里插入图片描述

  如上图所示,每层共有三个彼此平行的编码器:前向编码器、中心编码器、 后向编码器;前、后向编码器用于捕捉gap前边、后边的信息,中心编码器与原Transformer编码器一样,可以同时捕捉gap前后文的信息。

For the forward encoder, we forcibly set all values inside the attention matrix representing the character pair relation after the concerned character as 0 so that the encoder can focus on the forward characters.

  对于前向编码器,作者强制将gap之后的关系矩阵内的所有值设置为0,进行一个掩盖的操作,以便编码器可以关注前向字符。后向编码器的设置与前向编码器相似,不过掩盖的是gap之前的位置。
  编码器的输出结果为rf、rb、rc,得到图示的 v b v^b vb v f v^f vf
v b = r b + r c v f = r f + r c v^b=r^b+r^c\\ v^f = r^f+r^c vb=rb+rcvf=rf+rc

GD多头注意力机制

在这里插入图片描述

我们知道,Transformer中Attention的计算公式如式1所示,
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V (1) Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt {d_k}})V \tag{1} Attention(Q,K,V)=softmax(dk QKT)V(1)

  与缩放的点积注意力不同,高斯掩码定向注意力期望关注每个位置的相邻字符,并将字符之间的局部性关系作为固定的高斯权重进行关注。作者假设高斯权重只依赖于字符之间的距离。因此引入高斯权重矩阵 G = ( g i j )

这篇关于论文笔记 | Attention Is All Y ou Need for Chinese Word Segmentation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1017989

相关文章

python实现pdf转word和excel的示例代码

《python实现pdf转word和excel的示例代码》本文主要介绍了python实现pdf转word和excel的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价... 目录一、引言二、python编程1,PDF转Word2,PDF转Excel三、前端页面效果展示总结一

基于Java实现模板填充Word

《基于Java实现模板填充Word》这篇文章主要为大家详细介绍了如何用Java实现按产品经理提供的Word模板填充数据,并以word或pdf形式导出,有需要的小伙伴可以参考一下... Java实现按模板填充wor编程d本文讲解的需求是:我们需要把数据库中的某些数据按照 产品经理提供的 word模板,把数据

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个