ngram模型中文语料实验step by step(1)-分词与统计

2024-05-13 06:08

本文主要是介绍ngram模型中文语料实验step by step(1)-分词与统计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

ngram模型是统计语言的最基本的模型了,这里将给出用中文语料做实验建立ngram模型的个人总结,主要参考sun拼音2.0的代码以及有点意思拼音输入法,会参考srilmstevejian.cublog.cn。我会尽量逐步完成所有的实验总结。

分词与统计

对于中文语料和英文不同需要我们先进行分词,当然如果是切分好空格隔开的语料就简单许多。假设是普通的语料,sun拼音的做法是采用正向最大匹配分词,并且去掉可能有歧义的部分,当然这些都是首先依赖于词典。

  1. 利用词典文本建立一个存储字典中词的索引结构。可以选择hash map,map,trie树等结构,这里选择double array trie作为索引结构。我这里采用的是GBK的编码方式对于每一个字给予一个trie树种的编码,同时对于每一个词典中的词给予一个唯一的int型的编号,我们在后续统计三元组以及建立ngram模型的时候采用都是词的编号而不是词本身,这主要是为了节省空间,方便数据结构写硬盘以及排序,当然用string其实也是可以的。我们的词典中会保证有所有的GBK单字作为词。 
  2. 基于1步骤词典的最大匹配分词,这里为了简单只考虑中文,而英文,标点等等都作为分割符号。为了简单没有采用句子开始符号和结尾符号而是采用统一的分割符号。10表示分隔符号,用9表示歧义。与sun拼音不同的是这里采用直接逐句分词添加到统计模块的做法而不是对于整个文本分词写文件再读文件再统计三元组的做法。这样可以方便处理比如直接从数据库中的用户查询作为语料。统计的时候可以采用map/hash_map+sort的方法(其实就是单机版的map_reduce),保证最后三元组是排好序的从而方便ngram模型的建立。如果语料较大可以考虑利用hadoop统计。 
  3. 关于歧义部分的识别处理,参考 “有点意思拼音输入法” 
    1. 在processSingleFile()中,逐句读取语料库,例如,"为人民办实事的精神",然后进行调用SIMDict::matchLongest()进行最长匹配。
      因为辞典中有“为人民”这个词条,因此分割到的第一个词是“为人民”,其长度为3,然后调用getAmbiLen(),来分析是否有交集歧义,并返回最大交集歧义的长度。下面是每次迭代的情况: 
    2. 人民, 办实事的精神 -> i=1, len=2, word_len=3, 对“人民办实事”进行最长匹配,分割到的词为“人民”,其长度为2, 
    3. 民办, 实事的精神 -> i=2, len=2, word_len=4, 对“民办实事”进行最长匹配,分割到的词为“民办”,其长度为2,因为i与len的合超过了最初传入的word_len,则设置word_len为4,继续迭代。可以看出,此时歧义已经检测到了。 
    4. 办实事, 的精神 -> i=3, len=3, word_len=6 
    5. 实事, 的精神 -> i=4, len=2, word_len=6 
    6. 事, 的精神 -> i=5, len=1, word_len=6, 最后歧义的长度为6 
    7. 退出循环,返回得到的长度,即6 
    8. 如果指定了ambiguous-id,则会将这6个字符作为一个AMBI-ID(由参数-a指定),输出到分词的结果中。然后跳过这6个字符,继续进行分词。当句子结束时,如果使用二进制格式输出,则会输出一个句子结束的ID(由参数-s指定)。最后得到的结果是:
      $ echo "为人民办实事的精神" | ./mmseg -d ../raw/dict.utf8 -f text -s 10 -a 9
      <ambi>为人民办实事</ambi> 的 精神

那么,我们最终得到的分词结果中,所有的交集歧义都作为作为一个词AMBI-ID,相当于我们忽略了这部分信息(这个比例并不低)。这样在我们后面的统计中,绝大部分的3元组都可以保证是有意义和有价值的。进而训练得到的统计语言模型,能够排除交集歧义的影响。然后,可以这个模型,使用slmseg,重新对语料库进行分词,并计算新的语言模型。这一次,原来忽略的带有歧义的信息,我们也加以利用。

  • 实验结果。 
    • 测试文本

小明读了一本书。小红读了一本书。
美丽的心灵,美丽的世界,美丽的心灵
最 伟大 的 足球 运动员 !
为人民办实事的精神

    • 分词结果 (注意结果和字典有很大关系:)
    • 不考虑去除歧义的最大匹配切分:

      (10) 小明(95986) 读(696) 了(1740) 一(3322) 本书(10966) 。(10) 小红(95813) 读(696) 了(1740) 一(3322) 本书(10966) 。(10)
      (10) 美丽(61314) 的(605) 心灵(97425) ,(10) 美丽(61314) 的(605) 世界(79499) ,(10) 美丽(61314) 的(605) 心灵(97425) (10)
      (10) 最(3843)  (10) 伟大(90591)  (10) 的(605)  (10) 足球(117470)  (10) 运动员(108391)  (10)
      (10) 为人(90374) 民办(62366) 实事(79157) 的(605) 精神(48942) (10) 

      考虑去除歧义部分的最大匹配切分(注意我的词典里面没有”办实事”这个词):

      (10) 小明(95986) 读(696) 了(1740) 一(3322) 本书(10966) 。(10) 小红(95813) 读(696) 了(1740) 一(3322) 本书(10966) 。(10)
      (10) 美丽(61314) 的(605) 心灵(97425) ,(10) 美丽(61314) 的(605) 世界(79499) ,(10) 美丽(61314) 的(605) 心灵(97425) (10)
      (10) 最(3843)  (10) 伟大(90591)  (10) 的(605)  (10) 足球(117470)  (10) 运动员(108391)  (10)
      (10) <ambi>为人民办</ambi>(9) 实事(79157) 的(605) 精神(48942) (10)

                另外需要注意如果是用分好词的语料,显然应该对应空格不作为gap(标号为10)处理。

    • 统计排序的结果

       仅给出按照上面不去除歧义部分的分词对应的统计结果:

<b> 的 <b> 1
10 605 10 
<b> 最 <b> 1
10 3843 10 
<b> 美丽 的 3
10 61314 605 
<b> 为人 民办 1
10 90374 62366 
<b> 伟大 <b> 1
10 90591 10 
<b> 小红 读 1
10 95813 696 
<b> 小明 读 1
10 95986 696 
<b> 运动员 <b> 1
10 108391 10 
<b> 足球 <b> 1
10 117470 10 
的 <b> 足球 1
605 10 117470 
的 精神 <b> 1
605 48942 10 
的 世界 <b> 1
605 79499 10 
的 心灵 <b> 2
605 97425 10 
读 了 一 2
696 1740 3322 
了 一 本书 2
1740 3322 10966 
一 本书 <b> 2
3322 10966 10 
最 <b> 伟大 1
3843 10 90591 
本书 <b> <b> 1
10966 10 10 
本书 <b> 小红 1
10966 10 95813 
精神 <b> <b> 1
48942 10 10 
美丽 的 世界 1
61314 605 79499 
美丽 的 心灵 2
61314 605 97425 
民办 实事 的 1
62366 79157 605 
实事 的 精神 1
79157 605 48942 
世界 <b> 美丽 1
79499 10 61314 
为人 民办 实事 1
90374 62366 79157 
伟大 <b> 的 1
90591 10 605 
小红 读 了 1
95813 696 1740 
小明 读 了 1
95986 696 1740 
心灵 <b> <b> 1
97425 10 10 
心灵 <b> 美丽 1
97425 10 61314 
运动员 <b> <b> 1
108391 10 10 
足球 <b> 运动员 1
ngram_builder.ngramTypeNum(1) ------- 19
ngram_builder.ngramTypeNum(2) ------- 21
ngram_builder.ngramTypeNum(3) ------- 13
ngram_builder.tokenNum() ------- 40

这篇关于ngram模型中文语料实验step by step(1)-分词与统计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/984888

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

2024.6.24 IDEA中文乱码问题(服务器 控制台 TOMcat)实测已解决

1.问题产生原因: 1.文件编码不一致:如果文件的编码方式与IDEA设置的编码方式不一致,就会产生乱码。确保文件和IDEA使用相同的编码,通常是UTF-8。2.IDEA设置问题:检查IDEA的全局编码设置和项目编码设置是否正确。3.终端或控制台编码问题:如果你在终端或控制台看到乱码,可能是终端的编码设置问题。确保终端使用的是支持你的文件的编码方式。 2.解决方案: 1.File -> S

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

SQL Server中,查询数据库中有多少个表,以及数据库其余类型数据统计查询

sqlserver查询数据库中有多少个表 sql server 数表:select count(1) from sysobjects where xtype='U'数视图:select count(1) from sysobjects where xtype='V'数存储过程select count(1) from sysobjects where xtype='P' SE

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著

PyTorch模型_trace实战:深入理解与应用

pytorch使用trace模型 1、使用trace生成torchscript模型2、使用trace的模型预测 1、使用trace生成torchscript模型 def save_trace(model, input, save_path):traced_script_model = torch.jit.trace(model, input)<