论文笔记:Convolutional Nerual Network for Sentence Classification

本文主要是介绍论文笔记:Convolutional Nerual Network for Sentence Classification,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Convolutional Nerual Network for Sentence Classification

论文链接:Convolutional Neural Network for Sentence Classification

文中建立了一个一层卷积层和一层全连接层组成的网络,实现文本分类任务。

Introduction

在 Introduction 部分中,开始介绍了一些深度深度神经网络在 NLP 任务的应用,以及CNN网络在语义分析、问题检索等任务上都有不错的效果。

这一部分最后介绍了本文中建立的模型的一些特点,首先卷积层的处理是在词向量之上的,文中对预训练好的词向量以及在训练过程中动态调整的词向量(也就是随机初始化了词向量矩阵,然后也对这些词向量进行训练)都做了测试。相较于随机初始化的词向量,使用预先训练好的词向量的效果更好(这里使用的是 Mikolov 使用 Google News 进行训练得到的词向量),即使两种任务相差甚远,但是词向量是通用的,这些词向量都具有相似的特征。此外,文中所建立的模型中,有一个很重要的是使用了两个 “Channel” 的模型,也就是说,在卷积层的输入上,一个 channel 是使用的 Pre-train 的词向量,这些词向量在训练过程中是不会变化的,另一个 channel 则是动态词向量,可以根据训练进行 fine-tuning(大概是微调的意思)。

Model

这一部分详细介绍了 TextCNN 模型,其实与图像处理的卷积网络结构一样,Figure 1 展示了整个模型的运行情况,对于输入的一个文本,将词向量作为卷积处理的单位,当然定义的 filter 也就只能上下(也就是单词之间移动,不然横移动表示在词向量上进行移动,这样就破坏了词语的完整性,就没有意义了),在这张图上,也可以的看到之前提到的 channel 是什么意思,其实本来输入只有一层的,也就是 词语数量 * 词向量维度 这样的,相当于又加了一层,只不过一层可以调整,一层不能调整而已。

此外,模型中还使用了不同尺寸的卷积核,这有点像 GooLeNet 模型中提出的并行卷积处理结构, 也就是在不同的池逊上提取句子的特征,这种方式可以理解成统计机器学习模型的 N-Gram 模型,也就是相当于提取了词语之间的顺序关系,相对于只使用一种尺寸的卷积核,多种长度应该会得到更多信息,分类的效果应该会更好。

在经过卷积处理之后,接下来进行了一次 max-pool (最大池化),这里的池化的范围是整个特征图,可以想到,一个句子经过卷积处理与最大池化的依次处理之后,会成为一个 单值, 这里最大池化的解释是找到最重要的特征,这里最重要的特征也就是最大值了。。。(不过这样之后的参数倒是节省了不少)。

经过最大池化之后就是非常基操的展平后接全连接分类了,如果假设 K 中不同尺寸的 filter, 每种尺寸的 filter 有 n 个,那么展平后的维度就是 [batch_size, Kn ],个这里假设每种尺寸都有 n 个了,如果数量之间不一样的话就是相加了。

最后对于全连接层,使用 dropuout 方法(实话说,我觉得这里的参数量也不算大啊。。)然后再训练结束之后对这一层的参数 ,也就是 W 参数矩阵进行了 L2 正则化处理。

Experiments

文章的第三部分是对使用的一些数据集进行介绍,在实验上,重点是文中进行测试所使用的不同模型,这里主要是对模型使用的词向量作为划分, 这一部分在 3.3中具体作了介绍,第一种是 CNN-rand,也就是使用完全随机初始化的词向量, CNN-static 使用的是 pre-train 的词向量,词向量在训练过程中是不可训练,也就是不改变的。第三种是 CNN-non-static,也就是使用的 pre-train 的词向量,但是这些词向量可以调整。最后一种是 CNN-multichannel ,也就是之前提到的,使用了两种 channel ,分别是不可调整和可以及逆行微调的。

对于结果分析部分,文中做了详细的数据对比。这四种方式中,可以看到即使是最简单的完全随机初始化的CNN结果,在结果上也是很不错的,不过还是可以看出,如果使用了 pre-train 的词向量,各个测试集上的数据结果都要提升了一些,相比之下,如果对这些 static 的词向量进行微调, 在其中一些数据集上的结果会再提高一些。

按照一般规律,放在最后的模型都会有 buff 加成,而且双 channel 确实感觉很厉害,但是数据集的结果却不是这样,从结果来看,这与使用进行微调的模型相比, 在大部分数据集上的表现反而不够好,当然这些差距都很小,只有两个数据集的效果更好一些,总之,不分伯仲,对于这个结果,文中也写道,因此,可以使用一个 extra dimension 代替双 channel。(这个地方我没有搞懂这个增加一个额外的维度是什么意思?)

在比较 static 和 non-static 的结果数据上,可以发现一些非常有趣的结果,文中列出了一些调整后的词向量以及它们最相近的单词,如果是static vector,good 与 bad 是非常相似的,因为它们的使用场景很一致,但是在具体数据集上进行微调之后,good 就与 nice 之类的词更为接近了。这反映了对于具体数据的学习过程,此外,对于随机初始化的词向量们,甚至可以看到标点符号相似的单词也是很不同的, 感叹号作为情感比较强烈的符号,就比较接近于一些表示情感的形容词,比如 beautiful terrible 等等。但是逗号就更接近于 but and 等等连词了。

在 Futher Observation 中,提到了 dropout 提高了模型的表现,可以提高大概 2%-4% , 另外, 对于使用不同数据集上pre-train 的词向量也会影响模型表现,对于这个问题,文中也没有给出具体的解释。

Conclusion

结论部分,即使是一个非常简单的一层卷积处理的CNN就可以达到很好的结果,作者认为无监督预训练好的词向量将会成为 NLP 相关任务中的重要组成部分。

摘要对模型结构

这篇关于论文笔记:Convolutional Nerual Network for Sentence Classification的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/535193

相关文章

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓