白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十)

2023-11-22 12:08

本文主要是介绍白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这有一个好的数据集 [ SpamAssassin public corpus ]。

我们使用前缀为20021010的文件(在Windows中你可能需要像7-Zip的软件用于解压它们)。

在抽取数据之后(例如,放到C:\spam中),你得到3个文件夹:spameasy_hamhard_ham,每个文件夹包含许多邮件,每个邮件包含在单独的文件中,为了让事情变得变得简单些,我们只考虑每个邮件的标题行。

那么,我们怎样识别标题行?浏览所有的文件,它们似乎所有都是以”Subject:”开始,所以我们会寻找这个:

import glob, re# modify the path with wherever you've put the files
path = r"C:\spam\*\*"data = []# glob.glob returns every filename that matches the wildcarded path
for fn in glob.glob(path):is_spam = "ham" not in fnwith open(fn,'r') as file:for line in file:if line.startswith("Subject:"):# remove the leading "Subject: " and keep what's leftsubject = re.sub(r"^Subject: ", "", line).strip()data.append((subject, is_spam))

现在我们能把数据分成训练集和测试集,然后我们准备建立分类器:

random.seed(0) # just so you get the same answers as me
train_data, test_data = split_data(data, 0.75)classifier = NaiveBayesClassifier()
classifier.train(train_data)

然后我们能检测模型的性能:

# triplets (subject, actual is_spam, predicted spam probability)
classified = [(subject, is_spam, classifier.classify(subject))for subject, is_spam in test_data]# assume that spam_probability > 0.5 corresponds to spam prediction
# and count the combinations of (actual is_spam, predicted is_spam)
counts = Counter((is_spam, spam_probability > 0.5)for _, is_spam, spam_probability in classified)

预测结果有101个 true positives(实际是spam,预测也为spam),33个 false positives(实际是nonspam,预测为spam),704 true negatives(实际是nonspam,预测为nonspam),38 false negatives(实际是spam,预测为nonspam)。这个意味着我们的精度(precision)是 101/(101+33)=75 ,我们的召回度(recall)是 101/(101+38)=73 ,对于这样一个简单的模型不算一个坏的数字。

同时也对大多数误检感兴趣:

# sort by spam_probability from smallest to largest
classified.sort(key=lambda row: row[2])# the highest predicted spam probabilities among the non-spams
spammiest_hams = filter(lambda row: not row[1], classified)[-5:]# the lowest predicted spam probabilities among the actual spams
hammiest_spams = filter(lambda row: row[1], classified)[:5]

有2个spammiest hams同时有单词”needed”(77 times likely to appear in spam),”insurance”(30 times more likely to appear in spam),以及”important”(10 times more likely to appear in spam)。

hammiest spam 是太短了而不能做出判断,第二个 hammiest 是一个信用卡询价,它的大多数单词没有出现在训练集中。

我们能看spammiest单词:

def p_spam_given_word(word_prob):"""uses bayes's theorem to compute p(spam | message contains word)"""# word_prob is one of the triplets produced by word_probabilitiesword, prob_if_spam, prob_if_not_spam = word_probreturn prob_if_spam / (prob_if_spam + prob_if_not_spam)
words = sorted(classifier.word_probs, key=p_spam_given_word)spammiest_words = words[-5:]
hammiest_words = words[:5]

spammiest单词是”money”、”systemworks”、”rates”、”sale”以及”year”,它们似乎涉及尝试让人们买东西。hammiest单词是”spambayes”、”users”、”razor”、”zzzteana”以及”sadev”,它们似乎涉及阻止垃圾邮件,足够的奇特。

我们怎样得到更好的性能?很显然的一个办法是得到更多的数据到训练模型上,也有许多方法改善模型,下面是一些可能的方法,你可以尝试一下:

  • 训练消息内容,而不只是题目行;
  • 我们的分类器考虑每个出现在训练集中的单词,甚至只出现一次。修改分类器,接受一个可选的min_count的阈值,忽略出现次数小于阈值的单词;
  • 分词器没有相似单词的概念(例如:”cheap”和”cheapest”)。修改分类器,添加一个可选的stemmer函数,把单词转换到等价层面上。例如,一个简单的stemmer函数可以是:
def drop_final_s(word):return re.sub("s$", "", word)

创建一个好的stemmer函数是难的,人们频繁的使用Porter Stemmer算法。
* 虽然我们的特征全部都是形如”包含单词 wi 的消息”,没有理由为什么就一定是这个样子的,在我们执行中,我们能添加额外的特征例如”包含一个数字的消息”。

下一章节中我们将介绍线性回归。

这篇关于白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/410027

相关文章

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密