主题模型Gensim入门系列之三:主题和变换

2024-08-24 01:48

本文主要是介绍主题模型Gensim入门系列之三:主题和变换,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系列目录:

(1)主题模型Gensim入门系列之一:核心概念

(2)主题模型Gensim入门系列之二:语料和向量空间

(3)主题模型Gensim入门系列之三:主题和变换

(4)主题模型Gensim入门系列之四:文本相似度查询

————————————————————————————

 

本节主要介绍Gensim中从一个向量空间转换到另外一个向量空间的变换的概念,通过一个简单的语料加以说明,变换主要达到以下目的:

(1)揭示语料的隐含结构,发现单词之间的联系,并用它们来更具语义地描述文档

(2)使文档的描述更加紧凑,这种描述更加突出文档特征,同时更加高效。

 

1、创建语料

创建语料的方法和前两个部分的处理一样,即将原始文档进行分词,去除停止词、低频词和标点符号之后,得到每一个文档的单词列表。

from collections import defaultdict
from gensim import corporadocuments = ["Human machine interface for lab abc computer applications","A survey of user opinion of computer system response time","The EPS user interface management system","System and human system engineering testing of EPS","Relation of user perceived response time to error measurement","The generation of random binary unordered trees","The intersection graph of paths in trees","Graph minors IV Widths of trees and well quasi ordering","Graph minors A survey",
]# 去除停用词
stoplist = set('for a of the and to in'.split())
texts = [[word for word in document.lower().split() if word not in stoplist]for document in documents
]# 去除只出现1次的词
frequency = defaultdict(int)
for text in texts:for token in text:frequency[token] += 1texts = [[token for token in text if frequency[token] > 1]for text in texts
]dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]

 

2、创建一个变换

Gensim是一个标准的python对象,通过上述用于训练的语料进行初始化,代码如下:

from gensim import models
tfidf = models.TfidfModel(corpus)  # 初始话tf-idf变换模型

所谓的初始化,实际上就是用语料来训练模型。在tf-idf中,这种训练比较简单,只是扫描语料中的每一个单词并且统计词频。而在训练 Latent Semantic Analysis(LSA) 或者 Latent Dirichlet Allocation(LDA)等模型时,训练则要复杂得多,同时也比较耗时。

 

3、向量变换

在创建上述变换之后,tfidf 模型可以用于变换任何输入向量,将输入向量从一个向量空间转换到另外一个向量空间。

一个转换的示例如下:

doc_bow = [(0, 1), (1, 1)]
print(tfidf[doc_bow])  # 用tf-idf 转换模型#输出
"""
[(0, 0.7071067811865476), (1, 0.7071067811865476)]
"""

或者可以将转换应用到所有的语料中:

corpus_tfidf = tfidf[corpus]
for doc in corpus_tfidf:print(doc)#输出
"""
[(0, 0.5773502691896257), (1, 0.5773502691896257), (2, 0.5773502691896257)]
[(0, 0.44424552527467476), (3, 0.44424552527467476), (4, 0.44424552527467476), (5, 0.3244870206138555), (6, 0.44424552527467476), (7, 0.3244870206138555)]
[(2, 0.5710059809418182), (5, 0.4170757362022777), (7, 0.4170757362022777), (8, 0.5710059809418182)]
[(1, 0.49182558987264147), (5, 0.7184811607083769), (8, 0.49182558987264147)]
[(3, 0.6282580468670046), (6, 0.6282580468670046), (7, 0.45889394536615247)]
[(9, 1.0)]
[(9, 0.7071067811865475), (10, 0.7071067811865475)]
[(9, 0.5080429008916749), (10, 0.5080429008916749), (11, 0.695546419520037)]
[(4, 0.6282580468670046), (10, 0.45889394536615247), (11, 0.6282580468670046)]
"""

实际上,训练好的tf-idf模型可以应用于任何的输入文档,当然要保证输入文档的向量空间符合变换模型的格式。

另外,代码 corpus_tfidf = tfidf[corpus] 仅仅是产生了转换的迭代器,而计算则是延迟的,后续可以通过迭代实现计算。这样做的原因是为了减少内存的额占用。

向量空间可以进行连续变换,比如在变换得到 tf-idf 的向量空间之后,还可以进一步变换,形成一个变换链,一个示例代码如下所示:

lsi_model = models.LsiModel(corpus_tfidf, id2word=dictionary, num_topics=2)  # 初始化一个LSI模型# 将训练的 lsi_model打印出来
lsi_model.print_topics(2)"""
[(0,'0.703*"trees" + 0.538*"graph" + 0.402*"minors" + 0.187*"survey" + 0.061*"system" + 0.060*"time" + 0.060*"response" + 0.058*"user" + 0.049*"computer" + 0.035*"interface"'),(1,'-0.460*"system" + -0.373*"user" + -0.332*"eps" + -0.328*"interface" + -0.320*"response" + -0.320*"time" + -0.293*"computer" + -0.280*"human" + -0.171*"survey" + 0.161*"trees"')]
"""

从打印结果可以看出,“trees”,“graph”,“minors” 都是相关的单词,并且对第1个主题贡献最大,第2个主题则几乎和所有的单词相关。

我们将训练后的lsi_model将原始语料进行转化,并打印:

# 在原始语料的基础上,创建两层包装器: bow->tfidf->fold-in-lsi
corpus_lsi = lsi_model[corpus_tfidf]# 原始语料的变换在之前其实没有执行,而是在这一步迭代执行
for doc, as_text in zip(corpus_lsi, documents):print(doc, as_text)# 输出
"""
[(0, 0.06600783396090627), (1, -0.520070330636184)] Human machine interface for lab abc computer applications
[(0, 0.1966759285914279), (1, -0.760956316770005)] A survey of user opinion of computer system response time
[(0, 0.08992639972446735), (1, -0.7241860626752503)] The EPS user interface management system
[(0, 0.07585847652178428), (1, -0.6320551586003422)] System and human system engineering testing of EPS
[(0, 0.10150299184980327), (1, -0.5737308483002963)] Relation of user perceived response time to error measurement
[(0, 0.7032108939378309), (1, 0.16115180214026148)] The generation of random binary unordered trees
[(0, 0.8774787673119828), (1, 0.16758906864659825)] The intersection graph of paths in trees
[(0, 0.9098624686818573), (1, 0.14086553628719417)] Graph minors IV Widths of trees and well quasi ordering
[(0, 0.6165825350569281), (1, -0.053929075663891594)] Graph minors A survey
"""

从输出的结果可以看出,前5个语料和第2个主题关联度比较大,而后4个语料和第1个主题关联度比较大。

同样的,我们可以保存和加载训练好的模型:

# 模型保存
lsi_model.save(tmp.name)  # 所有的模型都用该方法保存,比如 TF-IDF,LDA,LSI等#模型加载
loaded_lsi_model = models.LsiModel.load(tmp.name)

 

4、Gensim中实现的主题变换模型

在Gensim中,实现了常用的主题变换模型,先简单介绍如下:

(1)TF-IDF(Term Frequency * Inverse Document Frequency,文档频率*逆文档频率)

TF-IDF模型的训练输入为词袋向量(整数值)。在训练之后的变换中,TF-IDF模型输入一个词袋向量,并得到同样维度的变换向量。变换后的向量输出单词在训练语料中的稀有程度,越稀有,则值越大(该值为实数)。这个值可以进行归一化设置,使它的取值范围在0~1之间:

model = models.TfidfModel(corpus, normalize=True)

(2)LSI(Latent Semantic Indexing,潜在语义索引)

LSI 模型的独特之处在于,它可以在任何时间点继续训练,只需要提供更多的训练文本(document),这主要是因为模型的增量式更新的。因此LSI模型可以一直训练,同时随时用于变换。代码样例如下所示:

lsi_model.add_documents(another_tfidf_corpus)  # lsi_model 是用tfidf_corpus训练好的模型,接着用another_tfidf_corpus 进行增量训练lsi_vec = lsi_model[tfidf_vec]  # 将一些 tfidf向量进行转换lsi_model.add_documents(more_documents)  # 进一步增量训练
lsi_vec = lsi_model[tfidf_vec] # 再次利用训练后的模型进行转换

关于gensim 中lsi模型的使用请参考:gensim.models.lsimodel 

(3)RP(Random Projections,随机投影)

RP方法用于向量降维,这是一个通过一些随机性来估计文档之间的 tf-idf 距离的非常高效的方法(内存和CPU)。推荐的维度一般为几百或者几千,视文档的数量而定。

model = models.RpModel(tfidf_corpus, num_topics=500)

(4)LDA(Latent Dirichlet Allocation,潜在狄利克雷分布)

LDA 是另外一个从词袋向量转换到低维主题空间的模型。LDA是LSA(或者叫多项式PCA)在概率上的拓展,因此LDA 主题模型可以将单词以概率的方式解释。这些概率分布是通过用于训练的语料训练所得,由此,文本可以解释为这些主题的概率混合。

model = models.LdaModel(corpus, id2word=dictionary, num_topics=100)

(5)HDA(Hierarchical Dirichlet Process,层次狄利克雷过程)

HDA是一个非参数的贝叶斯方法(注意不需要指定主题的数量)

model = models.HdpModel(corpus, id2word=dictionary)

值得注意的是,HDA在gensim中是新增模型,同时这个模型处于学术研究阶段。

最后,需要强调的是,所有的模型都不需要一次性提供所有的语料,而可以通过迭代的方式进行训练。

 

翻译和编辑自:Topics and Transformations

 

这篇关于主题模型Gensim入门系列之三:主题和变换的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1101103

相关文章

从入门到精通MySQL联合查询

《从入门到精通MySQL联合查询》:本文主要介绍从入门到精通MySQL联合查询,本文通过实例代码给大家介绍的非常详细,需要的朋友可以参考下... 目录摘要1. 多表联合查询时mysql内部原理2. 内连接3. 外连接4. 自连接5. 子查询6. 合并查询7. 插入查询结果摘要前面我们学习了数据库设计时要满

从入门到精通C++11 <chrono> 库特性

《从入门到精通C++11<chrono>库特性》chrono库是C++11中一个非常强大和实用的库,它为时间处理提供了丰富的功能和类型安全的接口,通过本文的介绍,我们了解了chrono库的基本概念... 目录一、引言1.1 为什么需要<chrono>库1.2<chrono>库的基本概念二、时间段(Durat

解析C++11 static_assert及与Boost库的关联从入门到精通

《解析C++11static_assert及与Boost库的关联从入门到精通》static_assert是C++中强大的编译时验证工具,它能够在编译阶段拦截不符合预期的类型或值,增强代码的健壮性,通... 目录一、背景知识:传统断言方法的局限性1.1 assert宏1.2 #error指令1.3 第三方解决

从入门到精通MySQL 数据库索引(实战案例)

《从入门到精通MySQL数据库索引(实战案例)》索引是数据库的目录,提升查询速度,主要类型包括BTree、Hash、全文、空间索引,需根据场景选择,建议用于高频查询、关联字段、排序等,避免重复率高或... 目录一、索引是什么?能干嘛?核心作用:二、索引的 4 种主要类型(附通俗例子)1. BTree 索引(

Redis 配置文件使用建议redis.conf 从入门到实战

《Redis配置文件使用建议redis.conf从入门到实战》Redis配置方式包括配置文件、命令行参数、运行时CONFIG命令,支持动态修改参数及持久化,常用项涉及端口、绑定、内存策略等,版本8... 目录一、Redis.conf 是什么?二、命令行方式传参(适用于测试)三、运行时动态修改配置(不重启服务

MySQL DQL从入门到精通

《MySQLDQL从入门到精通》通过DQL,我们可以从数据库中检索出所需的数据,进行各种复杂的数据分析和处理,本文将深入探讨MySQLDQL的各个方面,帮助你全面掌握这一重要技能,感兴趣的朋友跟随小... 目录一、DQL 基础:SELECT 语句入门二、数据过滤:WHERE 子句的使用三、结果排序:ORDE

苹果macOS 26 Tahoe主题功能大升级:可定制图标/高亮文本/文件夹颜色

《苹果macOS26Tahoe主题功能大升级:可定制图标/高亮文本/文件夹颜色》在整体系统设计方面,macOS26采用了全新的玻璃质感视觉风格,应用于Dock栏、应用图标以及桌面小部件等多个界面... 科技媒体 MACRumors 昨日(6 月 13 日)发布博文,报道称在 macOS 26 Tahoe 中

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可

Python中OpenCV与Matplotlib的图像操作入门指南

《Python中OpenCV与Matplotlib的图像操作入门指南》:本文主要介绍Python中OpenCV与Matplotlib的图像操作指南,本文通过实例代码给大家介绍的非常详细,对大家的学... 目录一、环境准备二、图像的基本操作1. 图像读取、显示与保存 使用OpenCV操作2. 像素级操作3.

SpringBoot整合Sa-Token实现RBAC权限模型的过程解析

《SpringBoot整合Sa-Token实现RBAC权限模型的过程解析》:本文主要介绍SpringBoot整合Sa-Token实现RBAC权限模型的过程解析,本文给大家介绍的非常详细,对大家的学... 目录前言一、基础概念1.1 RBAC模型核心概念1.2 Sa-Token核心功能1.3 环境准备二、表结