使用Spacy做中文词频和词性分析

2024-02-16 00:12

本文主要是介绍使用Spacy做中文词频和词性分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用Spacy python库做中文词性和词频分析,读取word并给出其中每个词的词频和词性,写入excel表。

1、为什么选择Spacy库
相比与NLTK这个库更快和更准
2、模型比较
zh_core_web_trf模型,模型大,准确性高。
需要确保你的Spacy版本是最新的,因为zh_core_web_trf是一个基于transformer的模型,因为它包含了整个transformer模型。下载和加载这个模型可能需要一些时间,并且会占用较多的内存。

传统的模型如zh_core_web_sm,模型小准确性低

3、常见问题
模型下不下来,直接去github下载whl或者在csdn上下载我的资源。

cd /your_path
pip install  xx.whl

4、代码
代码如下

import pandas as pd
from docx import Document
import spacy# 加载Spacy的中文模型
nlp = spacy.load('zh_core_web_trf')# 读取Word文档
path_r=r"xx.docx"
doc = Document(path_r)
text = ' '.join([paragraph.text for paragraph in doc.paragraphs])# 分析文本
tokens = nlp(text)
word_freq = {}for token in tokens:if token.text in word_freq:word_freq[token.text] += 1else:word_freq[token.text] = 1# 提取词性和词频
results = []
for token in tokens:results.append([token.text, token.pos_, word_freq[token.text]])# 转换为DataFrame
df = pd.DataFrame(results, columns=['词', '词性', '词频'])# 写入Excel
df.to_excel('analysis_results.xlsx', index=False)

在没有GPU的情况下,模型推理巨慢无比,可以考虑使用以下的多进程方式,其中nlp = spacy.load(‘zh_core_web_trf’)可能无法pickle,需要放入analyze_text(paragraph_text, nlp)函数内部。

import pandas as pd
from docx import Document
import spacy
from multiprocessing import Pool, cpu_count
from functools import partial
import itertools# 加载Spacy的中文模型
nlp = spacy.load('zh_core_web_trf')def analyze_text(paragraph_text, nlp):# 分析文本段落tokens = nlp(paragraph_text)word_freq = {}for token in tokens:if token.text in word_freq:word_freq[token.text] += 1else:word_freq[token.text] = 1# 提取词性和词频results = []for token in tokens:results.append([token.text, token.pos_, word_freq[token.text]])return resultsdef main():# 读取Word文档path_r = r"C:\Users\xueshifeng\Desktop\合并.docx"try:doc = Document(path_r)except Exception as e:print(f"Error occurred while loading the document: {e}")returntext = ' '.join([paragraph.text for paragraph in doc.paragraphs])# 分割文本到段落级别(考虑实际情况调整)paragraphs = [p for p in text.split('
') if p.strip()]# 创建一个进程池with Pool(processes=cpu_count()) as pool:# 为每个进程创建一个新的nlp实例with nlp.disable_pipes(*nlp.pipe_names):analyze_text_with_nlp = partial(analyze_text, nlp=nlp.clone())results = pool.map(analyze_text_with_nlp, paragraphs)# 直接构建DataFrameflat_results = list(itertools.chain.from_iterable(results))df = pd.DataFrame(flat_results, columns=['词', '词性', '词频'])# 写入Exceldf.to_excel('analysis_results.xlsx', index=False)if __name__ == "__main__":main()

这篇关于使用Spacy做中文词频和词性分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/712950

相关文章

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Spring Boot中WebSocket常用使用方法详解

《SpringBoot中WebSocket常用使用方法详解》本文从WebSocket的基础概念出发,详细介绍了SpringBoot集成WebSocket的步骤,并重点讲解了常用的使用方法,包括简单消... 目录一、WebSocket基础概念1.1 什么是WebSocket1.2 WebSocket与HTTP

C#中Guid类使用小结

《C#中Guid类使用小结》本文主要介绍了C#中Guid类用于生成和操作128位的唯一标识符,用于数据库主键及分布式系统,支持通过NewGuid、Parse等方法生成,感兴趣的可以了解一下... 目录前言一、什么是 Guid二、生成 Guid1. 使用 Guid.NewGuid() 方法2. 从字符串创建

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互