python情感分析库-snownlp

2024-06-03 21:44
文章标签 python 分析 情感 snownlp

本文主要是介绍python情感分析库-snownlp,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

内容目录

        • 一、words方法
        • 二、sentences方法
        • 三、han方法
        • 四、pinyin方法
        • 五、sentiments方法
        • 六、tags方法
        • 七、tf方法和idf方法
        • 八、summary方法
        • 九、keywords方法

SnowNLP 是一个简易的 Python 库,主要用于处理中文文本数据,提供了多种实用的功能。

源码中提供了一些方法:

class SnowNLP(object):def __init__(self, doc):self.doc = docself.bm25 = bm25.BM25(doc)@propertydef words(self):# 功能: 对输入的文本进行分词,返回一个包含所有分词结果的列表。pass@propertydef sentences(self):# 功能: 将文本分割成句子,返回一个包含所有句子的列表。pass@propertydef han(self):pass@propertydef pinyin(self):# 功能: 返回文本的拼音形式,返回一个列表pass@propertydef sentiments(self):# 功能: 进行情感分析,返回一个介于0到1之间的浮点数,表示文本的情感倾向,接近1表示正面情绪,接近0表示负面情绪。pass@propertydef tags(self):# 功能: 返回文本中每个词语的词性标注,通常以列表形式给出,每个元素是一个包含词语和对应词性的元组。pass@propertydef tf(self):# 功能: 计算词频(Term Frequency),返回一个字典,键是词语,值是该词语在文本中的出现频率。pass@propertydef idf(self):# 功能: 计算逆文档频率(Inverse Document Frequency)passdef sim(self, doc):# 功能: 计算两个文本的相似度,返回一个介于0到1之间的浮点数,值越接近1表示两个文本越相似。passdef summary(self, limit=5):# 功能: 提供文本摘要功能passdef keywords(self, limit=5, merge=False):# 功能: 提取文本中的关键词,返回一个按相关性排序的关键词列表。pass

详细使用说明

一、words方法

功能: 对输入的文本进行分词,返回一个包含所有分词结果的列表。
分词一般会使用jieba, 但是snownlp本身也提供了此类功能
使用方法:

from snownlp import SnowNLPtext = "解决这个问题的关键是先找到关键的问题"
s = SnowNLP(text)
words_list = s.words
print(words_list)
# ['解决', '这个', '问题', '的', '关键', '是', '先', '找', '到', '关键', '的', '问题']

源码解释:
底层调用了seg中的seg方法

@property
def words(self):return seg.seg(self.doc)
re_zh = re.compile('([\u4E00-\u9FA5]+)')def seg(sent):words = []for s in re_zh.split(sent):s = s.strip()if not s:continueif re_zh.match(s):words += single_seg(s)else:for word in s.split():word = word.strip()if word:words.append(word)return words# 其中又调用了segger中的single_seg()方法
def single_seg(sent):return list(segger.seg(sent))# 其中又调用了seg方法
def seg(self, sentence):ret = self.segger.tag(sentence)tmp = ''for i in ret:if i[1] == 'e':yield tmp+i[0]tmp = ''elif i[1] == 'b' or i[1] == 's':if tmp:yield tmptmp = i[0]else:tmp += i[0]if tmp:yield tmp

以上可以看出, 分词处理其实是根据词性进行划分的

二、sentences方法

功能: 将文本分割成句子,返回一个包含所有句子的列表。

from snownlp import SnowNLPtext = "解决这个问题的关键,是先找到关键的问题"
s = SnowNLP(text)
print(s.sentences)
# ['解决这个问题的关键', '是先找到关键的问题']
三、han方法

功能: 繁体转简体

from snownlp import SnowNLPs = SnowNLP("這個姑娘真好看")
print(s.han)
# 这个姑娘真好看
四、pinyin方法

功能: 中文转拼音, 返回一个列表

from snownlp import SnowNLPtext = "解决这个问题的关键,是先找到关键的问题"
s = SnowNLP(text)
print(s.pinyin)
五、sentiments方法

功能: 进行情感分析,返回一个介于0到1之间的浮点数,表示文本的情感倾向,接近1表示正面情绪,接近0表示负面情绪。

from snownlp import SnowNLPtext = "解决这个问题的关键,是先找到关键的问题"
s = SnowNLP(text)
print(s.sentiments) # 0.4619828689317872s = SnowNLP("上班好快乐")
print(s.sentiments) # 0.93885208707686s = SnowNLP("这工作狗都不干")
print(s.sentiments) # 0.2205915558008712
六、tags方法

功能: 返回文本中每个词语的词性标注,通常以列表形式给出,每个元素是一个包含词语和对应词性的元组。

@property
def tags(self):words = self.wordstags = tag.tag(words)return zip(words, tags)
from snownlp import SnowNLPtext = "解决这个问题的关键,是先找到关键的问题"
s = SnowNLP(text)
for ele in s.tags:print(ele)
# ('解决', 'v')
# ('这个', 'r')
# ('问题', 'n')
# ('的', 'u')
# ('关键', 'n')
# (',', 'w')
# ('是', 'v')
# ('先', 'd')
# ('找', 'v')
# ('到', 'v')
# ('关键', 'a')
# ('的', 'u')
# ('问题', 'n')
七、tf方法和idf方法

TF-IDF由两部分组成

Term Frequency (TF): 词频,指的是某一个给定的词语在该文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词数,而不管该词语在两个文件中的重要程度是否相同。)

Inverse Document Frequency (IDF): 逆文档频率,是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。
功能: 计算词频(Term Frequency)和 计算逆文档频率(Inverse Document Frequency)

from snownlp import SnowNLPtext = "解决这个问题的关键,是先找到关键的问题"
s = SnowNLP(text)
print(s.tf)
print(s.idf)
# [{'解': 1}, {'决': 1}, {'这': 1}, {'个': 1}, {'问': 1}, {'题': 1}, {'的': 1}, {'关': 1}, {'键': 1}, {',': 1}, {'是': 1}, {'先': 1}, {'找': 1}, {'到': 1}, {'关': 1}, {'键': 1}, {'的': 1}, {'问': 1}, {'题': 1}]
# {'解': 2.512305623976115, '决': 2.512305623976115, '这': 2.512305623976115, '个': 2.512305623976115, '问': 1.9459101490553135, '题': 1.9459101490553135, '的': 1.9459101490553135, '关': 1.9459101490553135, '键': 1.9459101490553135, ',': 2.512305623976115, '是': 2.512305623976115, '先': 2.512305623976115, '找': 2.512305623976115, '到': 2.512305623976115}
八、summary方法

功能: 提供文本摘要功能
支持传入一个参数, 限制输出的数量

from snownlp import SnowNLPs = SnowNLP("解决这个问题的关键,是先找到关键的问题")
print(s.summary(5))
# ['解决这个问题的关键', '是先找到关键的问题']
九、keywords方法

功能: 提取文本中的关键词,返回一个按相关性排序的关键词列表。

from snownlp import SnowNLPs = SnowNLP("解决这个问题的关键,是先找到关键的问题")
print(s.keywords(5))
# ['关键', '先', '找', '解决']

和summary的区别在于summary断句, 而keywords断词

这篇关于python情感分析库-snownlp的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1028194

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

MOLE 2.5 分析分子通道和孔隙

软件介绍 生物大分子通道和孔隙在生物学中发挥着重要作用,例如在分子识别和酶底物特异性方面。 我们介绍了一种名为 MOLE 2.5 的高级软件工具,该工具旨在分析分子通道和孔隙。 与其他可用软件工具的基准测试表明,MOLE 2.5 相比更快、更强大、功能更丰富。作为一项新功能,MOLE 2.5 可以估算已识别通道的物理化学性质。 软件下载 https://pan.quark.cn/s/57

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

衡石分析平台使用手册-单机安装及启动

单机安装及启动​ 本文讲述如何在单机环境下进行 HENGSHI SENSE 安装的操作过程。 在安装前请确认网络环境,如果是隔离环境,无法连接互联网时,请先按照 离线环境安装依赖的指导进行依赖包的安装,然后按照本文的指导继续操作。如果网络环境可以连接互联网,请直接按照本文的指导进行安装。 准备工作​ 请参考安装环境文档准备安装环境。 配置用户与安装目录。 在操作前请检查您是否有 sud