类别朴素贝叶斯CategoricalNB和西瓜数据集

2024-06-14 20:04

本文主要是介绍类别朴素贝叶斯CategoricalNB和西瓜数据集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

CategoricalNB

  • 1 CategoricalNB原理以及用法
  • 2 数据集
    • 2.1 西瓜数据集
    • 2.2 LabelEncoder
    • 2.3 OrdinalEncoder
  • 3 代码实现

1 CategoricalNB原理以及用法

(1)具体原理
具体原理可看:贝叶斯分类器原理
sklearn之CategoricalNB对条件概率的原理如下:
P ( x i = k ∣ y ) = N y , k + α N y + α n i P(x_i = k | y) = \frac{N_{y,k} + \alpha}{N_y + \alpha n_i} P(xi=ky)=Ny+αniNy,k+α
其中:

  • N y , k N_{y,k} Ny,k是在类别y下特征 x i x_i xi取值为k的样本数。
  • N y N_y Ny 是类别y下的总样本数。
  • α \alpha α是平滑参数,用来避免零概率,如果我们将 α \alpha α设置为1,则这个平滑叫做拉普拉斯平滑,如果 α \alpha α小于1,则我们把它叫做利德斯通平滑。
  • n i n_i ni是特征 x i x_i xi的可能取值的数量。

(2)CategoricalNB用法
之后会有详细例子,现在先看用法

class sklearn.naive_bayes.CategoricalNB(*, alpha=1.0, fit_prior=True, class_prior=None)

参数说明:

参数
说明
alphafloat, default=1.0
附加的平滑参数(Laplace/Lidstone),0是不平滑
fit_priorbool, default=True
是否学习类别先验概率。若为False,将使用统一的先验(概率相等)
class_priorarray-like of shape (n_classes,), default=None
类别的先验概率。一经指定先验概率不能随着数据而调整。

属性说明:

属性
说明
category_count_list of arrays of shape (n_features,)
为每个要素保存形状的数组(n_classes,各个要素的n_categories)。每个数组为每个类别和分类的特定特征提供遇到的样本数量。
class_count_ndarray of shape (n_classes,)
拟合期间每个类别遇到的样本数。此值由提供的样本权重加权。
class_log_prior_ndarray of shape (n_classes,)
每个类别的对数先验概率(平滑)。
classes_ndarray of shape (n_classes,)
分类器已知的类别标签
feature_log_prob_list of arrays of shape (n_features,)
为每个特征保形状的数组(n_classes,各个要素的n_categories)。每个数组提供了给定各自特征和类别的分类的经验对数概率log(p(xi|y))
n_features_int
每个样本的特征数量。

方法说明:

方法
说明
fit(X, y[, sample_weight])根据X,y拟合朴素贝叶斯分类器。
get_params([deep])获取这个估计器的参数
partial_fit(X, y[, classes, sample_weight])对一批样本进行增量拟合。
predict(X)对测试向量X进行分类
predict_log_proba(X)返回针对测试向量X的对数概率估计
predict_proba(X)返回针对测试向量X的概率估计
score(X, y[, sample_weight])返回给定测试数据和标签上的平均准确率
set_params(**params)为这个估计器设置参数

对于X矩阵和y矩阵的要求如下:

参数
说明
X{array-like, sparse matrix} of shape (n_samples, n_features)
样本的特征矩阵,其中n_samples是样本数量,n_features是特征数量。在此,假设X的每个特征都来自不同的分类分布。进一步假设每个特征的所有类别均由数字0,…,n-1表示,其中n表示给定特征的类别总数。例如,这可以在顺序编码(OrdinalEncoder)的帮助下实现。
yarray-like of shape (n_samples,)
每个样本所属的标签类别

2 数据集

2.1 西瓜数据集

要对下述的数据集转换成特征矩阵X和标签类别y,则需要认识两种编码

色泽根蒂敲击纹理脐部触感好坏
青绿蜷缩浊响清晰凹陷硬滑好瓜
乌黑蜷缩沉闷清晰凹陷硬滑好瓜
乌黑蜷缩浊响清晰凹陷硬滑好瓜
青绿蜷缩沉闷清晰凹陷硬滑好瓜
浅白蜷缩浊响清晰凹陷硬滑好瓜
青绿稍蜷浊响清晰稍凹软粘好瓜
乌黑稍蜷浊响稍糊稍凹软粘好瓜
乌黑稍蜷浊响清晰稍凹硬滑好瓜
乌黑稍蜷沉闷稍糊稍凹硬滑坏瓜
青绿硬挺清脆清晰平坦软粘坏瓜
浅白硬挺清脆模糊平坦硬滑坏瓜
浅白蜷缩浊响模糊平坦软粘坏瓜
青绿稍蜷浊响稍糊凹陷硬滑坏瓜
浅白稍蜷沉闷稍糊凹陷硬滑坏瓜
乌黑稍蜷浊响清晰稍凹软粘坏瓜
浅白蜷缩浊响模糊平坦硬滑坏瓜
青绿蜷缩沉闷稍糊稍凹硬滑坏瓜

2.2 LabelEncoder

class sklearn.preprocessing.LabelEncoder
  • 对目标标签进行编码,其值介于0和n_classes-1之间。
  • 该转换器应用于编码目标值,即y,而不是输入X。

常用方法:

方法
说明
fit(self, y)适合标签编码器
fit_transform(self, y)适合标签编码器并返回编码的标签
get_params(self[, deep])获取此估计量的参数
inverse_transform(self, y)将标签转换回原始编码
set_params(self, **params)设置此估算器的参数
transform(self, y)将标签转换为标准化的编码

对于y矩阵的要求如下:

参数
说明
yarray-like of shape (n_samples,)
每个样本所属的标签类别

2.3 OrdinalEncoder

class sklearn.preprocessing.OrdinalEncoder(*, categories='auto', dtype=<class 'numpy.float64'>)
  • 将分类特征编码为整数数组。
  • 该转换器的输入应为整数或字符串之类的数组,表示分类(离散)特征所采用的值。要素将转换为序数整数。这将导致每个要素的一列整数(0到n_categories-1)。

参数说明如下:

参数
说明
categories‘auto’ or a list of array-like, default=’auto’
适合标签编码器每个功能的类别(唯一值):
‘auto’:根据训练数据自动确定类别。
list:category [i]保存第i列中预期的类别。传递的类别不应将字符串和数字值混合使用,并且在使用数字值时应进行排序
使用的类别可以在category_属性中找到。
dtypenumber type, default np.float64
所需的输出dtype

常用方法有:

方法
说明
fit(X[, y])使OrdinalEncoder拟合X
get_params([deep])获取此估计量的参数
inverse_transform(X)将数据转换回原始表示形式
set_params(**params)设置此估算器的参数
transform(X)将X转换为序数代码

对X矩阵的要求如下:

参数
说明
Xarray-like, shape [n_samples, n_features]

3 代码实现

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import LabelEncoder, OrdinalEncoder
from sklearn.naive_bayes import CategoricalNB# 第一步:创建数据集
data = {'色泽': ['青绿', '乌黑', '乌黑', '青绿', '浅白', '青绿', '乌黑', '乌黑', '乌黑', '青绿', '浅白', '浅白', '青绿', '浅白', '乌黑', '浅白', '青绿'],'根蒂': ['蜷缩', '蜷缩', '蜷缩', '蜷缩', '蜷缩', '稍蜷', '稍蜷', '稍蜷', '稍蜷', '硬挺', '硬挺', '蜷缩', '稍蜷', '稍蜷', '稍蜷', '蜷缩', '蜷缩'],'敲击': ['浊响', '沉闷', '浊响', '沉闷', '浊响', '浊响', '浊响', '浊响', '沉闷', '清脆', '清脆', '浊响', '浊响', '沉闷', '浊响', '浊响', '沉闷'],'纹理': ['清晰', '清晰', '清晰', '清晰', '清晰', '清晰', '稍糊', '清晰', '稍糊', '清晰', '模糊', '模糊', '稍糊', '稍糊', '清晰', '模糊', '稍糊'],'脐部': ['凹陷', '凹陷', '凹陷', '凹陷', '凹陷', '稍凹', '稍凹', '稍凹', '稍凹', '平坦', '平坦', '平坦', '凹陷', '凹陷', '稍凹', '平坦', '稍凹'],'触感': ['硬滑', '硬滑', '硬滑', '硬滑', '硬滑', '软粘', '软粘', '硬滑', '硬滑', '软粘', '硬滑', '软粘', '硬滑', '硬滑', '软粘', '硬滑', '硬滑'],'好坏': ['好瓜', '好瓜', '好瓜', '好瓜', '好瓜', '好瓜', '好瓜', '好瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜', '坏瓜']
}df = pd.DataFrame(data)# 第二步:编码# 标签编码
label_encoder = LabelEncoder()
df['好坏'] = label_encoder.fit_transform(df['好坏'])# 对分类特征进行Ordinal编码
ordinal_encoder = OrdinalEncoder()
categorical_features = df.columns[:-1]  # 除最后一列“好坏”之外的所有列
df[categorical_features] = ordinal_encoder.fit_transform(df[categorical_features])# 确定特征X和标签y
X = df.drop('好坏', axis=1)
y = df['好坏']# 第三步:划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)# 第四步:训练模型
model = CategoricalNB()
model.fit(X_train, y_train)# 输出预测概率
probabilities = model.predict_proba(X_test)
print("Probabilities:\n", probabilities)
print('精确度:', model.score(X_test, y_test))

首先看一下X矩阵和y矩阵,如图所示:
X矩阵
X矩阵
y矩阵
y矩阵
代码准确率结果如下:
准确率

这篇关于类别朴素贝叶斯CategoricalNB和西瓜数据集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1061381

相关文章

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解

Oracle存储过程里操作BLOB的字节数据的办法

《Oracle存储过程里操作BLOB的字节数据的办法》该篇文章介绍了如何在Oracle存储过程中操作BLOB的字节数据,作者研究了如何获取BLOB的字节长度、如何使用DBMS_LOB包进行BLOB操作... 目录一、缘由二、办法2.1 基本操作2.2 DBMS_LOB包2.3 字节级操作与RAW数据类型2.

MySQL使用binlog2sql工具实现在线恢复数据功能

《MySQL使用binlog2sql工具实现在线恢复数据功能》binlog2sql是大众点评开源的一款用于解析MySQLbinlog的工具,根据不同选项,可以得到原始SQL、回滚SQL等,下面我们就来... 目录背景目标步骤准备工作恢复数据结果验证结论背景生产数据库执行 SQL 脚本,一般会经过正规的审批