nlp---Nltk 常用方法

2024-06-13 20:32
文章标签 方法 常用 nlp nltk

本文主要是介绍nlp---Nltk 常用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

引言

在nltk的介绍文章中,前面几篇主要介绍了nltk自带的数据(书籍和语料),感觉系统学习意义不大,用到哪里看到那里就行(笑),所以这里会从一些常用功能开始,适当略过对于数据本体的介绍。

文本处理

词频提取

把切分好的词表进行词频排序(按照出现次数排序),

1
2
3
all_words  =  nltk.FreqDist(w.lower()  for  in  nltk.word_tokenize( "I'm foolish foolish man" ))
print (all_words.keys())
all_words.plot()

dict_keys(["'m", 'man', 'i', 'foolish'])

只考虑最高频率的两个词,并且绘制累积图,

1
all_words.plot( 2 , cumulative = True )

英文词干提取器

1
2
3
import  nltk
porter  =  nltk.PorterStemmer()
porter.stem( 'lying' )

'lie'

英文分词

1
2
text  =  nltk.word_tokenize( "And now for something completely different" )
print (text)

['And', 'now', 'for', 'something', 'completely', 'different']

分词&词形还原&词根还原使用概览

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
import  nltk
sent  =  "I'm super lying man"
'''
分词
'''
print (nltk.word_tokenize(sent))
print (nltk.tokenize.word_tokenize(sent))
'''
词根还原
'''
porter  =  nltk.PorterStemmer()
print ([porter.stem(x)  for  in  nltk.word_tokenize(sent)])
'''
词形还原(lemmatizer),即把一个任何形式的英语单词还原到一般形式,与词根还原不同(stemmer),
后者是抽取一个单词的词根。
'''
porter2  =  nltk.stem.WordNetLemmatizer()
print ([porter2.lemmatize(x)  for  in  nltk.word_tokenize(sent)])

『TensorFlow』测试项目_对评论分类

词性标注

1
2
3
print (nltk.pos_tag(text))
print (nltk.pos_tag([ 'i' , 'love' , 'you' ]))
print ( nltk.pos_tag([ 'love' , 'and' , 'hate' ]))

[('And', 'CC'), ('now', 'RB'), ('for', 'IN'), ('something', 'NN'), ('completely', 'RB'), ('different', 'JJ')]
[('i', 'NN'), ('love', 'VBP'), ('you', 'PRP')]
[('love', 'NN'), ('and', 'CC'), ('hate', 'NN')]

厉害的地方在这里:第二局里面的love是动词,第三句里面的love是名词。

  • 词性标注语料制作

1
2
tagged_token  =  nltk.tag.str2tuple( 'fly/NN' )
print (tagged_token)

('fly', 'NN')

中文的也行,

1
2
sent  =  '我/NN 是/IN 一个/AT 大/JJ 傻×/NN'
[nltk.tag.str2tuple(t)  for  in  sent.split()]  # 中文语料词性标注(&分词)

[('我', 'NN'), ('是', 'IN'), ('一个', 'AT'), ('大', 'JJ'), ('傻×', 'NN')]

  • 词性标注器

默认标注器:

不管什么词,都标注为频率最高的一种词性。比如经过分析,所有中文语料里的词是名次的概率是13%最大,那么我们的默认标注器就全部标注为名次。这种标注器一般作为其他标注器处理之后的最后一道门,即:不知道是什么词?那么他是名词。

1
2
3
4
5
6
7
8
9
raw  =  '我 累 嗯个 e去?'
tokens  =  nltk.word_tokenize(raw)
default_tagger  =  nltk.DefaultTagger( 'NN' )
tags  =  default_tagger.tag(tokens)
print (tokens)
print (tags)

['我', '累', '嗯个', 'e去', '?']

[('我', 'NN'), ('累', 'NN'), ('嗯个', 'NN'), ('e去', 'NN'), ('?', 'NN')]

正则表达式标注器:

满足特定正则表达式的认为是某种词性,比如凡是带“们”的都认为是代词(PRO)。

1
2
3
4
5
pattern  =  [( '.*们$' , 'PRO' )]
tagger  =  nltk.RegexpTagger(pattern)
print (tagger.tag(nltk.word_tokenize( '我们 累 个 去 你们 和 他们 啊' )))

[('我们', 'PRO'), ('累', None), ('个', None), ('去', None), ('你们', 'PRO'), ('和', None), ('他们', 'PRO'), ('啊', None)]

查询标注器:

找出最频繁的n个词以及它的词性,然后用这个信息去查找语料库,匹配的就标记上,剩余的词使用默认标注器(回退)。这一般使用一元标注的方式,见下面。

一元标注:基于已经标注的语料库做训练,然后用训练好的模型来标注新的语料。

1
2
3
4
5
6
7
sents  =  [[u '我' , u '你' , u '小兔' ]]
tagged_sents  =  [[(u '我' , u 'PRO' ), (u '小兔' , u 'NN' )]]
unigram_tagger  =  nltk.UnigramTagger(tagged_sents)
tags  =  unigram_tagger.tag(sents[ 0 ])
print (tags)

[('我', 'PRO'), ('你', None), ('小兔', 'NN')]

二元标注和多元标注:一元标注指的是只考虑当前这个词,不考虑上下文,二元标注器指的是考虑它前面的词的标注,用法只需要把上面的UnigramTagger换成BigramTagger,同理三元标注换成TrigramTagger(并未有示例)。

组合标注器:

为了提高精度和覆盖率,我们对多种标注器组合,比如组合二元标注器、一元标注器和默认标注器,如下,

1
2
3
t0  =  nltk.DefaultTagger( 'NN' )
t1  =  nltk.UnigramTagger(train_sents, backoff = t0) 
t2  =  nltk.BigramTagger(train_sents, backoff = t1)

直接调用t2即可。

持久化&较为完整的训练一个标注器:
1
2
3
4
5
6
7
8
9
10
11
sent  =  '我/NN 是/IN 一个/AT 好的/JJ 人/NN'
train_sents  =  [[nltk.tag.str2tuple(t)  for  in  sent.split()]]
t0  =  nltk.DefaultTagger( 'NN' )
t1  =  nltk.UnigramTagger(train_sents, backoff = t0) 
t2  =  nltk.BigramTagger(train_sents, backoff = t1) 
from  pickle  import  dump
output  =  open ( 't2.pkl' 'wb' )
dump(t2, output,  - 1 )
output.close()  

加载在这里,

1
2
3
4
from  pickle  import  load 
input  =  open ( 't2.pkl' 'rb'
tagger  =  load( input
input .close()

  

这篇关于nlp---Nltk 常用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1058349

相关文章

JAVA中整型数组、字符串数组、整型数和字符串 的创建与转换的方法

《JAVA中整型数组、字符串数组、整型数和字符串的创建与转换的方法》本文介绍了Java中字符串、字符数组和整型数组的创建方法,以及它们之间的转换方法,还详细讲解了字符串中的一些常用方法,如index... 目录一、字符串、字符数组和整型数组的创建1、字符串的创建方法1.1 通过引用字符数组来创建字符串1.2

Java调用Python代码的几种方法小结

《Java调用Python代码的几种方法小结》Python语言有丰富的系统管理、数据处理、统计类软件包,因此从java应用中调用Python代码的需求很常见、实用,本文介绍几种方法从java调用Pyt... 目录引言Java core使用ProcessBuilder使用Java脚本引擎总结引言python

Apache Tomcat服务器版本号隐藏的几种方法

《ApacheTomcat服务器版本号隐藏的几种方法》本文主要介绍了ApacheTomcat服务器版本号隐藏的几种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1. 隐藏HTTP响应头中的Server信息编辑 server.XML 文件2. 修China编程改错误

Java中switch-case结构的使用方法举例详解

《Java中switch-case结构的使用方法举例详解》:本文主要介绍Java中switch-case结构使用的相关资料,switch-case结构是Java中处理多个分支条件的一种有效方式,它... 目录前言一、switch-case结构的基本语法二、使用示例三、注意事项四、总结前言对于Java初学者

使用Python实现大文件切片上传及断点续传的方法

《使用Python实现大文件切片上传及断点续传的方法》本文介绍了使用Python实现大文件切片上传及断点续传的方法,包括功能模块划分(获取上传文件接口状态、临时文件夹状态信息、切片上传、切片合并)、整... 目录概要整体架构流程技术细节获取上传文件状态接口获取临时文件夹状态信息接口切片上传功能文件合并功能小

Oracle Expdp按条件导出指定表数据的方法实例

《OracleExpdp按条件导出指定表数据的方法实例》:本文主要介绍Oracle的expdp数据泵方式导出特定机构和时间范围的数据,并通过parfile文件进行条件限制和配置,文中通过代码介绍... 目录1.场景描述 2.方案分析3.实验验证 3.1 parfile文件3.2 expdp命令导出4.总结

更改docker默认数据目录的方法步骤

《更改docker默认数据目录的方法步骤》本文主要介绍了更改docker默认数据目录的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1.查看docker是否存在并停止该服务2.挂载镜像并安装rsync便于备份3.取消挂载备份和迁

Java 枚举的常用技巧汇总

《Java枚举的常用技巧汇总》在Java中,枚举类型是一种特殊的数据类型,允许定义一组固定的常量,默认情况下,toString方法返回枚举常量的名称,本文提供了一个完整的代码示例,展示了如何在Jav... 目录一、枚举的基本概念1. 什么是枚举?2. 基本枚举示例3. 枚举的优势二、枚举的高级用法1. 枚举

JavaScript DOM操作与事件处理方法

《JavaScriptDOM操作与事件处理方法》本文通过一系列代码片段,详细介绍了如何使用JavaScript进行DOM操作、事件处理、属性操作、内容操作、尺寸和位置获取,以及实现简单的动画效果,涵... 目录前言1. 类名操作代码片段代码解析2. 属性操作代码片段代码解析3. 内容操作代码片段代码解析4.

SpringBoot3集成swagger文档的使用方法

《SpringBoot3集成swagger文档的使用方法》本文介绍了Swagger的诞生背景、主要功能以及如何在SpringBoot3中集成Swagger文档,Swagger可以帮助自动生成API文档... 目录一、前言1. API 文档自动生成2. 交互式 API 测试3. API 设计和开发协作二、使用