jieba textrank关键词提取 python_教你如何使用python快速提取文章关键词(附源码)

2023-11-11 14:50

本文主要是介绍jieba textrank关键词提取 python_教你如何使用python快速提取文章关键词(附源码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

写在前面

如何给文章取一个标题,要贴近文章主题那种?如何给文章提取关键词?即使你能一目十行,过目不忘,也比不上机器“一幕十篇”。接下来介绍一个python项目,经过笔者的改造后,可以方便学习和使用,它能很好、很快地提取文章关键词。

dbc7c29bdd737f1c3401eab7215c2277.png

先喝杯咖啡,让我们开始python之旅

  • 环境配置

python版本: 3.6.0

编辑器: pycharm

项目所需要的环境安装包

pip install jiebapip install bs4
  • 代码目录结构:
60de150e8d2a62d5443b64dfae279cdb.png

第一步:导入相关的python包

# encoding:utf-8import jiebaimport jieba.analyseimport jieba.posseg as psegfrom bs4 import BeautifulSoup

jieba: 这是一个处理中文分词工具包。其实它并不是只有分词这一个功能,而是一个开源框架,提供了很多在分词之上的算法,如关键词提取、词性标注等。可以说是做人工智能一个必备的python包。

bs4: 它的作用是能够快速方便简单的提取网页中指定的内容,给我一个网页字符串,然后使用它的接口将网页字符串生成一个对象,然后通过这个对象的方法来提取数据。爬虫工程师会经常用到这个包,这里作为一个数据清洗的包使用。

5f8ac69346e1a541ca76afa57dba4f0d.png

第二步:参数配置类

class CONF:    stopwords_path = './data/stopwords.txt'    mydict_path = './data/mydict.txt'    top_n = 10  # 只取10个关键词

参数配置类: 文件路径、模型存放路径、模型参数统一放在一个类中。值得注意的是,实际项目开发的时候,是用后缀名为config 文本文件存放,不会直接写在代码里。这里为了演示方便,就写在一起,也方便运行。这块代码放在代码文件的开头也方便查看和修改。stopwords_path 是一个停用词库的相对路径。mydict_path 是一个词典路径,词典里主要存放一些网络名词和一些 jieba 分词识别不出的新词汇。

f966b7280f641a4ca576cb31798c4b8e.png

第三步:类的初始化

class KeyWordModel:    def __init__(self, stopwords_path, mydict_path, top_n):        self.stopwords_path = stopwords_path        self.mydict_path = mydict_path        self.top_n = top_n        # 加载停用词  特殊词典        jieba.analyse.set_stop_words(self.stopwords_path)        jieba.load_userdict(self.mydict_path)    """模型初始化"""    @classmethod    def initialize(cls, config):        stopwords_path = config.stopwords_path        mydict_path = config.mydict_path        top_n = config.top_n        return cls(stopwords_path, mydict_path, top_n)

initialize() 函数和 __init__() 函数 是对象初始化和实例化,其中包括基本参数的赋值、最后返回用户一个对象。这里作为一个类的基本操作,是属于一个通用模板,在大多数项目中,都可以这么去写。为了养成良好的编程习惯,大家可以把这个模板记下来,后续直接套用,修改部分参数就可以了。jieba.analyse.set_stop_words() jieba.load_userdict() 分别是导入停用词和导入自己构建的词汇,这里放在__init__() 函数中,类被实例化的时候,只被调用一次。

aa76182a8b45670a379617d69dbed050.png

第四步: 类的主流程函数

"""获取关键词"""def get_keyword(self, content):    text_rank_word = self.__tf_idf_key_word(content)    tf_idf_word = self.__textrank_key_word(content)    word_list = list(set(text_rank_word).union(set(tf_idf_word)))    result = self.__filter_pos_key_word(word_list, content)    return result

在写代码的时候,一定要抓住主线,就是代码运行的主流程。因为一个完整可靠的项目,它是有很多细枝末节考虑,很多步骤是要分模块来写。主流程就是把主心干确定好,各个模块的入口确定好。这样开发的时候,思路会比较清晰,不会被细节吸引住。这里主心干只有个函数 get_keyword() 的调用,其中text_rank_word tf_idf_word 分别用textranktfidf算法提取关键词,最后再用词性过滤器__filter_pos_key_word(), 提取名词关键词。

e38739a33fc427e49672037f7244be16.png

第五步: 提取关键词的三个方法

"""TF-IDF 提取top_n个关键词"""def __tf_idf_key_word(self, content):    sp = BeautifulSoup(content, "html.parser")    tags = jieba.analyse.extract_tags(sp.text, topK=self.top_n)    return tags"""TextRank 提取top_n个关键词"""def __textrank_key_word(self, content):    sp = BeautifulSoup(content, "html.parser")    tags = jieba.analyse.textrank(sp.text, topK=self.top_n)    return tags"""只获取名词"""def __filter_pos_key_word(self, tag_list, content, pos_list=['n', 'nr', 'ns', 'nt', 'nrt']):    sp = BeautifulSoup(content, "html.parser")    words = pseg.cut(sp.text)    list_tmp = []    for w in words:        word = w.word        if w.flag in pos_list and len(word) > 1 and word not in list_tmp and word in tag_list:            list_tmp.append(word)    return list_tm

TF-IDF: 这是一个常用的提取关键词算法,利用文章中词频越高重要性越高、和逆词频(该词在其他文章词频越低越能代表本文章)。

TextRank: 有点像PageRank 算法,感兴趣的朋友可以了解一下,这里不过多介绍有难度的算法。

pseg: 这是一个词性解析器,它能够分析句子中每个词语的属性,例如:名词、动词、形容词等。

21bddb24bc907e8807095426f903c17c.png

第六步: 主函数入口

f44f36a202916c35f1fa4f1cccda994a.png

最后,测试一下

用我之前写的《最近很火的文章自动生成器,python源码公开了(内附python代码)》,来生成随机一篇文章标题为《标题党》的文章,作为程序的输入,运行结果:

ebb852c112a3c10b3ba1784748b65876.png

关键词: ['标题党', '事实', '缺点', '深思', '角度', '能力', '梦想']


如果有疑问想获取源码, 可以在后台私信我,回复:python关键词。 我把源码发你。最后,感谢大家的阅读,祝大家工作生活愉快!

这篇关于jieba textrank关键词提取 python_教你如何使用python快速提取文章关键词(附源码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/390826

相关文章

Linux使用cut进行文本提取的操作方法

《Linux使用cut进行文本提取的操作方法》Linux中的cut命令是一个命令行实用程序,用于从文件或标准输入中提取文本行的部分,本文给大家介绍了Linux使用cut进行文本提取的操作方法,文中有详... 目录简介基础语法常用选项范围选择示例用法-f:字段选择-d:分隔符-c:字符选择-b:字节选择--c

Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)

《Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)》本文介绍了如何使用Python和Selenium结合ddddocr库实现图片验证码的识别和点击功能,感兴趣的朋友一起看... 目录1.获取图片2.目标识别3.背景坐标识别3.1 ddddocr3.2 打码平台4.坐标点击5.图

Python自动化Office文档处理全攻略

《Python自动化Office文档处理全攻略》在日常办公中,处理Word、Excel和PDF等Office文档是再常见不过的任务,手动操作这些文档不仅耗时耗力,还容易出错,幸运的是,Python提供... 目录一、自动化处理Word文档1. 安装python-docx库2. 读取Word文档内容3. 修改

使用Go语言开发一个命令行文件管理工具

《使用Go语言开发一个命令行文件管理工具》这篇文章主要为大家详细介绍了如何使用Go语言开发一款命令行文件管理工具,支持批量重命名,删除,创建,移动文件,需要的小伙伴可以了解下... 目录一、工具功能一览二、核心代码解析1. 主程序结构2. 批量重命名3. 批量删除4. 创建文件/目录5. 批量移动三、如何安

Python重命名文件并移动到对应文件夹

《Python重命名文件并移动到对应文件夹》在日常的文件管理和处理过程中,我们可能会遇到需要将文件整理到不同文件夹中的需求,下面我们就来看看如何使用Python实现重命名文件并移动到对应文件夹吧... 目录检查并删除空文件夹1. 基本需求2. 实现代码解析3. 代码解释4. 代码执行结果5. 总结方法补充在

springboot的调度服务与异步服务使用详解

《springboot的调度服务与异步服务使用详解》本文主要介绍了Java的ScheduledExecutorService接口和SpringBoot中如何使用调度线程池,包括核心参数、创建方式、自定... 目录1.调度服务1.1.JDK之ScheduledExecutorService1.2.spring

Java使用Tesseract-OCR实战教程

《Java使用Tesseract-OCR实战教程》本文介绍了如何在Java中使用Tesseract-OCR进行文本提取,包括Tesseract-OCR的安装、中文训练库的配置、依赖库的引入以及具体的代... 目录Java使用Tesseract-OCRTesseract-OCR安装配置中文训练库引入依赖代码实

Python自动化办公之合并多个Excel

《Python自动化办公之合并多个Excel》在日常的办公自动化工作中,尤其是处理大量数据时,合并多个Excel表格是一个常见且繁琐的任务,下面小编就来为大家介绍一下如何使用Python轻松实现合... 目录为什么选择 python 自动化目标使用 Python 合并多个 Excel 文件安装所需库示例代码

Python使用Pandas对比两列数据取最大值的五种方法

《Python使用Pandas对比两列数据取最大值的五种方法》本文主要介绍使用Pandas对比两列数据取最大值的五种方法,包括使用max方法、apply方法结合lambda函数、函数、clip方法、w... 目录引言一、使用max方法二、使用apply方法结合lambda函数三、使用np.maximum函数

Qt 中集成mqtt协议的使用方法

《Qt中集成mqtt协议的使用方法》文章介绍了如何在工程中引入qmqtt库,并通过声明一个单例类来暴露订阅到的主题数据,本文通过实例代码给大家介绍的非常详细,感兴趣的朋友一起看看吧... 目录一,引入qmqtt 库二,使用一,引入qmqtt 库我是将整个头文件/源文件都添加到了工程中进行编译,这样 跨平台