传统词嵌入方法的千层套路

2024-01-26 11:20

本文主要是介绍传统词嵌入方法的千层套路,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

诸神缄默不语-个人CSDN博文目录

在自然语言处理(NLP)领域,词嵌入是一种将词语转换为数值形式的方法,使计算机能够理解和处理语言数据。
词嵌入word embedding也叫文本向量化/文本表征。
本文将介绍几种流行的传统词嵌入方法。

文章目录

  • 0. 独热编码
  • 1. 词袋模型
  • 2. TF-IDF
  • 3. word2vec
    • 1. skip-gram
    • 2. CBOW
  • 4. LSA
  • 5. GloVe
  • 6. CoVe

0. 独热编码

one-hot encoding

将每个词表示为一维向量
在这里插入图片描述

1. 词袋模型

bag of word (BoW)

词袋模型是最简单的文本表示法之一。它将文本转换为一个长向量,这个向量的每一个元素代表词汇表中的一个词,并记录该词在文本中出现的次数。

在这里插入图片描述

  • 优点:简单易懂,易于实现。
  • 缺点:忽略了词语的顺序和上下文信息,无法捕捉词与词之间的关系。

sklearn的实现:

from sklearn.feature_extraction.text import CountVectorizercorpus  #由字符串组成的列表
vector = CountVectorizer().fit(corpus)
train_vector = vector.transform(corpus)

2. TF-IDF

term frequency-inverse document frequency

TF-IDF是一种用于信息检索和文本挖掘的常用加权技术。它评估一个词对于一个文档集或一个语料库中的其中一份文档的重要程度。

TF (Term Frequency)中文含义是词频,IDF (Inverse Document Frequency)中文含义是逆文本频率指数。

TF统计的是词语在特定文档中出现的频率,而IDF统计的是词语在其他文章中出现的频率,其处理基本逻辑是词语的重要性随着其在特定文档中出现的次数呈现递增趋势,但同时会随着其在语料库中其他文档中出现的频率递减下降(考虑到有些常用词在所有文档里面都很常见)。
数学表达式如下:
TF-IDF ( w , d ) = TF ( w , d ) × IDF ( w ) \text{TF-IDF}(w,d)=\text{TF}(w,d)\times \text{IDF}(w) TF-IDF(w,d)=TF(w,d)×IDF(w)

  • 优点:能够减少常见词的影响,突出重要词汇。
  • 缺点:与BoW一样,忽略了词序和上下文信息。

sklearn的实现:

from sklearn.feature_extraction.text import TfidfVectorizertfidf=TfidfVectorizer(max_features=500)
corpus  #由字符串组成的列表
sp_tfidf=tfidf.fit_transform(corpus)  #返回稀疏矩阵,每一行是语料中对应文档的表示向量

3. word2vec

Word2Vec是一种预测模型,用于产生词嵌入。它有两种结构:连续词袋(CBOW)和跳字模型(Skip-Gram)。

  • 优点:能够捕捉一定程度的词序和上下文信息。
  • 缺点:对于每个词仅有一个嵌入表示,忽略了多义性。

原始论文:
Distributed Representations of Sentences and Documents:提出word2vec框架
Efficient Estimation of Word Representations in Vector Space:介绍训练trick:hierarchical softmax 和 negative sampling

1. skip-gram

用一个词语作为输入,来预测它周围的上下文

训练思路:用独热编码表示词语。输入这个词语的独热编码,转换为隐藏层编码,输出上下文的独热编码
在这里插入图片描述

2. CBOW

Continues Bag of Words

拿一个词语的上下文作为输入,来预测这个词语本身

在这里插入图片描述

4. LSA

LSA使用奇异值分解(SVD)技术来减少特征空间的维数,并捕捉词之间的隐含关系。

  • 优点:能够改善稀疏性问题,捕捉词义关系。
  • 缺点:计算复杂,难以处理非常大的语料库。

5. GloVe

GloVe结合了矩阵分解和局部上下文窗口的优点。它通过词与词共现的概率信息来生成词向量。

  • 优点:在全局语料统计和局部上下文信息之间找到了平衡。
  • 缺点:需要大量的语料数据来有效训练。

6. CoVe

原论文:(2017) Learned in Translation: Contextualized Word Vectors

早期LM的感觉

CoVe是一种基于上下文的词嵌入方法,它利用序列到序列的模型从大量翻译数据中学习词向量。

  • 优点:能够捕捉上下文中的词义变化,处理多义性问题。
  • 缺点:模型较为复杂,需要大量的训练数据和计算资源。

在这里插入图片描述
Cove: 从Word2Vec/Glove的启示 - 知乎


以上就是几种传统的词嵌入方法的简介。每种方法都有其独特之处,选择适合的词嵌入技术可以极大地提升自然语言处理任务的性能。希望这篇文章能帮助你更好地理解不同的词嵌入方法,为你的NLP项目选择合适的技术。

参考资料:

  1. 文本向量化的六种常见模式
  2. 还没看完:
    1. [NLP] 秒懂词向量Word2vec的本质 - 知乎(整理到“我举个例子,假设全世界所有的词语总共有 V 个,这 V 个词语有自己的先后顺序,假设『吴彦”这一行)
    2. 全面理解word2vec
    3. word2vec简介
    4. 词向量学习算法 Glove - 简书
    5. A Neural Probabilistic Language Model
    6. NLP方向Word2vec算法面试题6道|含解析
    7. (2011 PMLR) Deep Learning for Efficient Discriminative Parsing
    8. 深度学习word2vec笔记之基础篇-CSDN博客
    9. word2vec Explained: deriving Mikolov et al.'s negative-sampling word-embedding method
    10. word2vec Parameter Learning Explained
    11. word2vec 相比之前的 Word Embedding 方法好在什么地方? - 知乎
    12. (2016 国科大博士论文) 基于神经网络的词和文档语义向量表示方法研究
    13. On word embeddings - Part 2: Approximating the Softmax

这篇关于传统词嵌入方法的千层套路的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/646636

相关文章

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

【VUE】跨域问题的概念,以及解决方法。

目录 1.跨域概念 2.解决方法 2.1 配置网络请求代理 2.2 使用@CrossOrigin 注解 2.3 通过配置文件实现跨域 2.4 添加 CorsWebFilter 来解决跨域问题 1.跨域概念 跨域问题是由于浏览器实施了同源策略,该策略要求请求的域名、协议和端口必须与提供资源的服务相同。如果不相同,则需要服务器显式地允许这种跨域请求。一般在springbo

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出 在数字化时代,文本到语音(Text-to-Speech, TTS)技术已成为人机交互的关键桥梁,无论是为视障人士提供辅助阅读,还是为智能助手注入声音的灵魂,TTS 技术都扮演着至关重要的角色。从最初的拼接式方法到参数化技术,再到现今的深度学习解决方案,TTS 技术经历了一段长足的进步。这篇文章将带您穿越时

模版方法模式template method

学习笔记,原文链接 https://refactoringguru.cn/design-patterns/template-method 超类中定义了一个算法的框架, 允许子类在不修改结构的情况下重写算法的特定步骤。 上层接口有默认实现的方法和子类需要自己实现的方法

使用JS/Jquery获得父窗口的几个方法(笔记)

<pre name="code" class="javascript">取父窗口的元素方法:$(selector, window.parent.document);那么你取父窗口的父窗口的元素就可以用:$(selector, window.parent.parent.document);如题: $(selector, window.top.document);//获得顶级窗口里面的元素 $(