对商品评论进行文本分析(NLP)的实战项目

2024-08-21 08:20

本文主要是介绍对商品评论进行文本分析(NLP)的实战项目,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文本分析技术是指使用计算机程序或算法处理、分析和理解文本数据的一系列方法。这种技术在自然语言处理(NLP)领域中非常重要,它可以应用于多种场景,包括但不限于情感分析、主题识别、信息提取、文本分类等。以下是一些常见的文本分析技术和方法:

1. 分词(Tokenization):
   - 将文本分割成单独的词汇或短语,这是文本处理的第一步。

2. 词性标注(Part-of-Speech Tagging):
   - 识别文本中每个词汇的词性,如名词、动词、形容词等。

3. 句法分析(Parsing):
   - 理解句子的语法结构,包括短语结构和依存关系。

4. 情感分析(Sentiment Analysis):
   - 判断文本的情感倾向,如正面、负面或中性。

5. 主题建模(Topic Modeling):
   - 识别文本集合中的主题分布,常用于文档聚类和探索性数据分析。

6. 文本分类(Text Classification):
   - 将文本分配到一个或多个类别中,如垃圾邮件检测、新闻分类等。

7. 命名实体识别(Named Entity Recognition, NER):
   - 识别文本中的特定实体,如人名、地点、组织等。

8. 链接识别(Entity Linking):
   - 将文本中的实体链接到知识库中的相应条目。

9. 关键词提取(Keyword Extraction):
   - 自动提取文本中的关键词汇或短语。

10. 摘要生成(Summarization):
    - 生成文本的简短摘要,保留主要信息。

11. 语义分析(Semantic Analysis):
    - 理解文本的深层含义,包括词义消歧和句子的真正意图。

12. 机器翻译(Machine Translation):
    - 将一种语言的文本自动翻译成另一种语言。

13. 文本相似度计算(Text Similarity):
    - 计算文本之间的相似度,常用于信息检索和去重。

14. 自然语言理解(Natural Language Understanding, NLU):
    - 综合理解自然语言的意图、情感、语境等。

15. 预训练语言模型(Pretrained Language Models):
    - 使用大规模数据预训练的深度学习模型,如BERT、GPT等,用于各种NLP任务。

文本分析技术的应用非常广泛,从社交媒体监控到客户反馈分析,从自动化内容生成到智能搜索引擎,都是文本分析技术的用武之地。随着技术的发展,文本分析技术正变得越来越精准和智能,为各种行业提供数据驱动的洞察。

在这里介绍一个用于情感分析的Python库SnowNLP。SnowNLP是一个专为中文文本处理设计的Python库,它提供了包括分词、词性标注、情感分析、文本转换(简繁转换)、关键词提取、摘要生成、短语提取等多种功能。SnowNLP的核心优势在于对中文文本的处理能力,特别是情感分析功能。

SnowNLP的安装非常简单,可以通过pip命令直接安装:

pip install snownlp

或者使用这个命令:

#安装snownlp包
!pip install snownlp  -i https://pypi.tuna.tsinghua.edu.cn/simple

接下来将对关于一个包含对一个商品的3637条评论的文本数据集来进行文本分析。本文将使用jieba,snownlp,wordcloud,matplotlib等模块对文本数据进行了简要的情感分析及可视化。

数据观看和下载入口:‌​​​​‍‌‍​‬​​‍‬‍​‍⁠‬​⁠​‌​⁠​​‍‌‍​​​​‌​‌​​​​数据集_NLP - 飞书云文档 (feishu.cn)

一、情感分析

先导入数据:

import pandas as pd
data = pd.read_csv('./商品评论数据.csv')
data1 = data[['sku_id','content']]
data1.head(10)

显示数据样貌为:

from snownlp import SnowNLP
data1['emotion'] = data1['content'].apply(lambda x:SnowNLP(x).sentiments)
data1.head(10)

接下来利用先前提到的用于情感分析的Python库SnowNLP:

from snownlp import SnowNLP
data1['emotion'] = data1['content'].apply(lambda x:SnowNLP(x).sentiments)
data1.head(10)

可以得到如下结果:

情感分析的结果是一个介于0到1之间的分数,越接近1表示情感越正面,越接近0则表示情感越负面 ,因此我们可以根据情感评分筛选出积极评论和消极评论。

我们也可对这些情感评分进一步可视化:

#情感分直方图
import matplotlib.pyplot as plt
import numpy as npplt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = Falsebins=np.arange(0,1.1,0.1)
plt.hist(data1['emotion'],bins,color='#4F94CD',alpha=0.9)
plt.xlim(0,1)
plt.xlabel('情感分')
plt.ylabel('数量')
plt.title('情感分直方图')plt.show()

可以得到如下的直方图:

便可得到如下结论:

  • 由直方图可见,评论内容两级分化较为严重

二、所有评论的词云图

from wordcloud import WordCloud
import jieba
w = WordCloud()
text = ''
for s in data['content']:text += s
data_cut = ' '.join(jieba.lcut(text))w = WordCloud(font_path='SimHei',stopwords=['的', '我', '了', '是', '和', '都', '就', '用'],width=2000,height=1200).generate(data_cut)
# 保存词云
w.to_file('词云图.png')
# 显示词云文件
plt.imshow(w)
plt.axis("off")
plt.show()

需要注意的是,为了运行这段代码,除了需要安装wordcloudjieba库之外,还需要安装matplotlib库来显示图片。

  • WordCloud 是一个用于生成词云的库。
  • jieba 是一个中文分词库,用于将中文文本拆分成单独的词语。
  • font_path='SimHei' 设置词云使用的字体,SimHei是一种常用的中文字体。
  • stopwords=['的', '我', '了', '是', '和', '都', '就', '用'] 设置停用词列表,这些词在生成词云时会被忽略。
  • width=2000 和 height=1200 设置生成的词云图片的宽度和高度。
  • generate(data_cut) 是根据分词后的文本数据生成词云。

以下为所有评论的词云图:

接下来我们提取其中的最常出现的前10个关键词:

#关键词top10
from jieba import analyse 
key_words = jieba.analyse.extract_tags(sentence=text, topK=10, withWeight=True, allowPOS=())
key_words

代码调用extract_tags函数来提取关键词,并带有以下参数:

  • sentence=text:要提取关键词的文本,这里使用之前拼接好的长字符串text
  • topK=10:指定提取关键词的数量,这里设置为10,表示提取出现频率最高的10个关键词。
  • withWeight=True:设置是否返回每个关键词的权重(即该关键词在文本中的出现频率),这里设置为True表示返回权重。
  • allowPOS=():这是一个可选参数,用来指定提取关键词时允许的词性。这里设置为空元组(),表示不限制词性,默认情况下会提取所有词性的关键词。

结果如下:

以上关键词显示,消费者比较在意手机的“屏幕”“拍照”“手感”等特性。

三、积极评论和消极评论的词云图

先根据第一步得出的情感评分进行分类,数值大于0.5的为积极评论,数值小于0.5的为消极评论。从而得出积极评论与消极评论占比:

#计算积极评论与消极评论各自的数目
pos = 0
neg = 0
for i in data1['emotion']:if i >= 0.5:pos += 1else:neg += 1
print('积极评论,消极评论数目分别为:',pos,neg)

得出结果为积极评论,消极评论数目分别为: 2791,846。

接下来我们对消极评论进行详细的分析:

#获取消极评论数据
data2=data1[data1['emotion']<0.5]
data2.head(10)

我们先了解消极评论数据样貌:

用与之前类似的方法得出消极评论的词云图:

#消极评论词云图
text2 = ''
for s in data2['content']:text2 += s
data_cut2 = ' '.join(jieba.lcut(text2))
w.generate(data_cut2)
image = w.to_file('消极评论词云.png')# 显示词云文件
plt.imshow(w)
plt.axis("off")
plt.show()

结果如下:

随后我们再用与之前类似的方法提取消极评论中最常出现的前10个关键词:

#消极评论关键词top10
key_words = jieba.analyse.extract_tags(sentence=text2, topK=10, withWeight=True, allowPOS=())
key_words

结果如下:

  • 消极评论关键词显示,“屏幕”“快递”“充电”是造成用户体验不佳的几个重要因素;屏幕和充电问题有可能是手机不良品率过高或快递压迫;

  • 因此平台应注重提高手机品控,降低不良品率;另外应设法提升发货,配送,派件的效率和质量。

以上就完成了对商品评论进行文本分析(NLP)的实战项目的全部流程,可以帮助了解用户使用体验,以此对平台运营提出优化建议。

点下关注,分享更多有关AI,数据分析和量化金融的实用教程和实战项目。

这篇关于对商品评论进行文本分析(NLP)的实战项目的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1092625

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

这15个Vue指令,让你的项目开发爽到爆

1. V-Hotkey 仓库地址: github.com/Dafrok/v-ho… Demo: 戳这里 https://dafrok.github.io/v-hotkey 安装: npm install --save v-hotkey 这个指令可以给组件绑定一个或多个快捷键。你想要通过按下 Escape 键后隐藏某个组件,按住 Control 和回车键再显示它吗?小菜一碟: <template

如何用Docker运行Django项目

本章教程,介绍如何用Docker创建一个Django,并运行能够访问。 一、拉取镜像 这里我们使用python3.11版本的docker镜像 docker pull python:3.11 二、运行容器 这里我们将容器内部的8080端口,映射到宿主机的80端口上。 docker run -itd --name python311 -p

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

在cscode中通过maven创建java项目

在cscode中创建java项目 可以通过博客完成maven的导入 建立maven项目 使用快捷键 Ctrl + Shift + P 建立一个 Maven 项目 1 Ctrl + Shift + P 打开输入框2 输入 "> java create"3 选择 maven4 选择 No Archetype5 输入 域名6 输入项目名称7 建立一个文件目录存放项目,文件名一般为项目名8 确定

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

滚雪球学Java(87):Java事务处理:JDBC的ACID属性与实战技巧!真有两下子!

咦咦咦,各位小可爱,我是你们的好伙伴——bug菌,今天又来给大家普及Java SE啦,别躲起来啊,听我讲干货还不快点赞,赞多了我就有动力讲得更嗨啦!所以呀,养成先点赞后阅读的好习惯,别被干货淹没了哦~ 🏆本文收录于「滚雪球学Java」专栏,专业攻坚指数级提升,助你一臂之力,带你早日登顶🚀,欢迎大家关注&&收藏!持续更新中,up!up!up!! 环境说明:Windows 10

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者