Python自然语言处理分析倚天屠龙记

2024-03-24 10:20

本文主要是介绍Python自然语言处理分析倚天屠龙记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Python中文社区
全球Python中文开发者的精神部落


最近在了解到,在机器学习中,自然语言处理是较大的一个分支。存在许多挑战。例如: 如何分词,识别实体关系,实体间关系,关系网络展示等。

我用Jieba + Word2vec + NetworkX 结合在一起,做了一次自然语言分析。语料是 倚天屠龙记。 之前也有很多人用金庸的武侠小说做分析和处理,希望带来一些不同的地方。截几张图来看看:

所有人物的相似图连接。

关系同上。展示形式为多中心结构

以张无忌的不同身份为中心的网络关系图。 

这次分析的不一样之处主要是:

1、Word2Vec的相似度结果 - 作为后期社交网络权重

2、NetworkX中分析和展示

上面两个方法结合起来,可以大幅减少日常工作中阅读文章的时间。 采用机器学习,可以从头到尾半自动抽取文章中的实体信息,节约大量时间和成本。 在各种工作中都有利用的场景, 如果感兴趣的朋友,可以联系合作。

先来看看,用Word2Vec+NetworkX 可以发现什么。

一、分析结果

实体的不同属性(张无忌的总多马甲)

张无忌,无忌,张教主,无忌哥哥,张公子。同一个张无忌有多个身份,不同身份又和不同的人联系,有不一样的相似度。

先来看看图:

无忌哥哥是过于亲密的名字,一般不喊。好似和这个词相似度高的都是比较奇怪的角色。

无忌是关系熟了以后,平辈或者长辈可以称呼的名字。还有周姑娘,殷姑娘等

张无忌是通用的名字,人人可以称呼 和马甲联系密切。

张公子是礼貌尊称。 例如,黄衫女子,汝阳王等

张教主是头衔。既要尊重,也表示其实不太熟,有时还有些敌意。 例如: 朱元璋

注:

1、图是Networkx 基于Word2vex画出来了,上面的描述是我的人工分析。 

2、赵敏不在上面的网络关系图中。Word2Vec计算出来 张无忌和赵敏 相似度不太高。有些出乎我的意料。 仔细回忆一下,当年看此书时,突然就发现二人在一起了,显得比较突兀。推想起来,书中世界二人成婚了,如果变成现实世界,二人关系比较悬。

二、实现过程

主要步骤:

准备语料

  1. 倚天屠龙记 小说的文本文件

  2. 自定义分词词典 (小说中的人物名,网上有现成的,约180个)

  3. 停用词表

准备工具

  1. Python Pandas, Numpy,Scipy(标准库)

  2. Jieba(中文分词)

  3. Word2vec (单词向量化工具,可以计算单词之间的详细度)

  4. Networks(网络图工具,用于展示复杂的网络关系

数据预处理

  1. 文本文件转发成utf8(pandas)

  2. 文本文件分句,分词(Jieba)

  3. 文本文件分句,分词, 分析词性,主要是人名(Jieba)

  4. 更新自定义词典,重新分词(整个过程需要几遍,直至满意)

  5. 手工少量删除(分词出来的人名误判率不高,但是还是存在一些。例如:赵敏笑道,可以被识别的 一个叫 赵敏笑的人。 这部分工作还需要手工做。 除非有更好的分词工具,或者可以训练的分词工具,才能解决这一问题。

Word2Vec 训练模型。这个模型可以计算两个人之间的相似度

  1. 采用300个维度

  2. 过滤词频小于20次

  3. 滑动窗口 为20

  4. 下采样:0.001

生成实体关系矩阵。

  1. 网上没找找到现成库,我就自己写了一个。

  2. N*N 维度。 N是人名数量。

  3. 用上面WordVec的模型来,填充实体关系矩阵

NetworkX 生成网络图

  1. 节点是人名

  2. 边是两个节点之间的线条。也就是两个人之间的关系。

三、部分代码实现(因篇幅有限,获取完整代码请关注公众号编程狗回复0321获取)

初始化

  
  1. import numpy as np

  2. import pandas as pd

  3. import jieba

  4. import jieba.posseg as posseg

  5. %matplotlib inline

数据分词,清洗

  
  1. renming_file = "yttlj_renming.csv"

  2. jieba.load_userdict(renming_file)

  3. stop_words_file = "stopwordshagongdakuozhan.txt"

  4. stop_words = pd.read_csv(stop_words_file,header=None,quoting=3,sep="\t")[0].values

  5. corpus = "yttlj.txt"

  6. yttlj = pd.read_csv(corpus,encoding="gb18030",header=None,names=["sentence"])

  7. def cut_join(s):

  8.    new_s=list(jieba.cut(s,cut_all=False)) #分词

  9.    #print(list(new_s))

  10.    stop_words_extra =set([""])

  11.    for seg in new_s:

  12.        if len(seg)==1:

  13.            #print("aa",seg)

  14.            stop_words_extra.add(seg)

  15.    #print(stop_words_extra)

  16.    #print(len(set(stop_words)| stop_words_extra))

  17.    new_s =set(new_s) -set(stop_words)-stop_words_extra

  18.    #过滤标点符号

  19.    #过滤停用词

  20.    result = ",".join(new_s)

  21.    return  result

  22. def extract_name(s):

  23.    new_s=posseg.cut(s) #取词性

  24.    words=[]

  25.    flags=[]

  26.    for k,v in new_s:

  27.        if len(k)>1:

  28.            words.append(k)

  29.            flags.append(v)

  30.    full_wf["word"].extend(words)

  31.    full_wf["flag"].extend(flags)

  32.    return len(words)

  33. def check_nshow(x):

  34.    nshow = yttlj["sentence"].str.count(x).sum()

  35.    #print(x, nshow)

  36.    return nshow

  37. # extract name & filter times

  38. full_wf={"word":[],"flag":[]}

  39. possible_name = yttlj["sentence"].apply(extract_name)

  40. #tmp_w,tmp_f

  41. df_wf = pd.DataFrame(full_wf)

  42. df_wf_renming = df_wf[(df_wf.flag=="nr")].drop_duplicates()

  43. df_wf_renming.to_csv("tmp_renming.csv",index=False)

  44. df_wf_renming = pd.read_csv("tmp_renming.csv")

  45. df_wf_renming.head()

  46. df_wf_renming["nshow"] = df_wf_renming.word.apply(check_nshow)

  47. df_wf_renming[df_wf_renming.nshow>20].to_csv("tmp_filtered_renming.csv",index=False)

  48. df_wf_renming[df_wf_renming.nshow>20].shape

  49. #手工编辑,删除少量非人名,分词错的人名

  50. df_wf_renming=pd.read_csv("tmp_filtered_renming.csv")

  51. my_renming = df_wf_renming.word.tolist()

  52. external_renming = pd.read_csv(renming_file,header=None)[0].tolist()

  53. combined_renming = set(my_renming) |set(external_renming)

  54. pd.DataFrame(list(combined_renming)).to_csv("combined_renming.csv",header=None,index=False)

  55. combined_renming_file ="combined_renming.csv"

  56. jieba.load_userdict(combined_renming_file)

  57. # tokening

  58. yttlj["token"]=yttlj["sentence"].apply(cut_join)

  59. yttlj["token"].to_csv("tmp_yttlj.csv",header=False,index=False)

  60. sentences = yttlj["token"].str.split(",").tolist()

Word2Vec 向量化训练

  
  1. # Set values for various parameters

  2. num_features = 300    # Word vector dimensionality                      

  3. min_word_count = 20   # Minimum word count                        

  4. num_workers = 4       # Number of threads to run in parallel

  5. context = 20          # Context window size                                                                                    

  6. downsampling = 1e-3   # Downsample setting for frequent words

  7. # Initialize and train the model (this will take some time)

  8. from gensim.models import word2vec

  9. model_file_name = 'yttlj_model.txt'

  10. #sentences = w2v.LineSentence('cut_jttlj.csv')

  11. model = word2vec.Word2Vec(sentences, workers=num_workers, \

  12.            size=num_features, min_count = min_word_count, \

  13.            window = context, \

  14.            sample = downsampling

  15.            )

  16. model.save(model_file_name)  

建立实体关系矩阵

  
  1. entity = pd.read_csv(combined_renming_file,header=None,index_col=None)

  2. entity = entity.rename(columns={0:"Name"})

  3. entity = entity.set_index(["Name"],drop=False)

  4. ER = pd.DataFrame(np.zeros((entity.shape[0],entity.shape[0]),dtype=np.float32),index=entity["Name"],columns=entity["Name"])

  5. ER["tmp"] = entity.Name

  6. def check_nshow(x):

  7.    nshow = yttlj["sentence"].str.count(x).sum()

  8.    #print(x, nshow)

  9.    return nshow

  10. ER["nshow"]=ER["tmp"].apply(check_nshow)

  11. ER = ER.drop(["tmp"],axis=1)

  12. count = 0

  13. for i in entity["Name"].tolist():

  14.    count +=1

  15.    if count % round(entity.shape[0]/10) ==0:

  16.        print("{0:.1f}% relationship has been checked".format(100*count/entity.shape[0]))

  17.    elif count == entity.shape[0]:

  18.        print("{0:.1f}% relationship has been checked".format(100*count/entity.shape[0]))

  19.    for j in entity["Name"]:

  20.        relation =0

  21.        try:

  22.            relation = model.wv.similarity(i,j)

  23.            ER.loc[i,j] = relation

  24.            if i!=j:

  25.                ER.loc[j,i] = relation

  26.        except:

  27.            relation = 0

  28. ER.to_hdf("ER.h5","ER")

NetworkX 展示人物关系图

  
  1. import networkx as nx

  2. import matplotlib.pyplot as plt

  3. import pandas as pd

  4. import numpy as np

  5. import pygraphviz

  6. from networkx.drawing.nx_agraph import graphviz_layout


本文作者

王勇,Python中文社区专栏作者,雪球ID:快乐_爸,目前感兴趣项目商业分析、Python、机器学习、Kaggle。17年项目管理,通信业干了11年项目经理管合同交付,制造业干了6年项目管理:PMO,变革,生产转移,清算和资产处理。MBA, PMI-PBA, PMP。


因篇幅有限,获取完整代码请关注公众号编程狗回复0321获取

点击下方阅读原文免费成为Python中文社区会员

这篇关于Python自然语言处理分析倚天屠龙记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/841306

相关文章

Go标准库常见错误分析和解决办法

《Go标准库常见错误分析和解决办法》Go语言的标准库为开发者提供了丰富且高效的工具,涵盖了从网络编程到文件操作等各个方面,然而,标准库虽好,使用不当却可能适得其反,正所谓工欲善其事,必先利其器,本文将... 目录1. 使用了错误的time.Duration2. time.After导致的内存泄漏3. jsO

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

Python Websockets库的使用指南

《PythonWebsockets库的使用指南》pythonwebsockets库是一个用于创建WebSocket服务器和客户端的Python库,它提供了一种简单的方式来实现实时通信,支持异步和同步... 目录一、WebSocket 简介二、python 的 websockets 库安装三、完整代码示例1.

揭秘Python Socket网络编程的7种硬核用法

《揭秘PythonSocket网络编程的7种硬核用法》Socket不仅能做聊天室,还能干一大堆硬核操作,这篇文章就带大家看看Python网络编程的7种超实用玩法,感兴趣的小伙伴可以跟随小编一起... 目录1.端口扫描器:探测开放端口2.简易 HTTP 服务器:10 秒搭个网页3.局域网游戏:多人联机对战4.

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

Python使用自带的base64库进行base64编码和解码

《Python使用自带的base64库进行base64编码和解码》在Python中,处理数据的编码和解码是数据传输和存储中非常普遍的需求,其中,Base64是一种常用的编码方案,本文我将详细介绍如何使... 目录引言使用python的base64库进行编码和解码编码函数解码函数Base64编码的应用场景注意

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.