本文主要是介绍【无标题】天池机器学习训练营task1,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
学习目标:
了解 逻辑回归 的理论
掌握 逻辑回归 的 sklearn 函数调用使用并将其运用到鸢尾花数据集预测
Demo实践:
准备软件包:
我们需要现在准备一些软件包
numpy:是用Python进行科学计算的基本软件包。
sklearn:为数据挖掘和数据分析提供的简单高效的工具。
matplotlib :是一个用于在Python中绘制图表的库。
Seaborn:是在matplotlib的基础上进行了更高级的API封装,从而使得作图更加容易
#调入库
import numpy as np
import matplotlib.pyplot as plt
import seaborn as snsfrom sklearn.linear_model import LogisticRegression
构造数据集并训练:
logistic 回归,虽然名字里有 “回归” 二字,但实际上是解决分类问题的一类线性模型。通过创建一个逻辑回归分类器clf,通过调用clf.fit()传入训练集训练分类器,得到权重与偏置值,方便进行之后的预测。
对逻辑回归不懂可去观看吴恩达的机器学习视频。
可视化训练集:
将训练集以散点图的形式显示。
plt.figure()
plt.scatter(x_features[:,0],x_features[:,1],c=y_label,s=50)
plt.title("dataset")
plt.show()
可视化决策边界:
这块代码是在课程代码基础上修改后的代码。
主要思想是通过在训练集的最大和最小的x,y范围内,找出一个固定步长的排列,通过meshgrid方法,构造一个网格,生成所有的点(返回的xx为行全相同的矩阵,yy为列全相同的矩阵),通过展开xx和yy矩阵,并通过np.c_按列合并得到所有生成的点的坐标,并将其传入分类器中。
clf.predict_proba()返回的是一个 n 行 k 列的数组, 第 i 行 第 j 列上的数值是模型预测 第 i 个预测样本为某个标签的概率,并且每一行的概率和为1。其实这里选择第一列(clf.predict_proba(z)[:,0])或第二列(clf.predict_proba(z)[:,1])都可以。
plt.contour是在levels为0.5处画线。(因为采用sigmoid函数,预测值>=0.5为第一类,反之第二类)
meshgrid和contour不懂可以看这个
基于鸢尾花(iris)数据集的逻辑回归分类实践:
准备软件包:
- Pandas:pandas 是基于NumPy 的一种工具,该工具是为解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。
## 基础函数库 import numpy as np import pandas as pd## 绘图函数库 import matplotlib.pyplot as plt import seaborn as sns
构造数据集:
对DataFrame格式不懂的看
## 我们利用 sklearn 中自带的 iris 数据作为数据载入,并利用Pandas转化为DataFrame格式 from sklearn.datasets import load_iris data = load_iris() #得到数据特征 iris_target = data.target #得到数据对应的标签 iris_features = pd.DataFrame(data=data.data, columns=data.feature_names) #利用Pandas转化为DataFrame格式
进行二分类进行训练预测:
将数据集的80%分为训练集,20%作为测试集。
from sklearn.model_selection import train_test_split## 选择其类别为0和1的样本 (不包括类别为2的样本)
iris_features_part = iris_features.iloc[:100]
iris_target_part = iris_target[:100]## 测试集大小为20%, 80%/20%分
#这里的random_state是为了保证每次随机划分的测试集和训练集是一样的
x_train, x_test, y_train, y_test = train_test_split(iris_features_part, iris_target_part, test_size = 0.2, random_state = 2020)## 从sklearn中导入逻辑回归模型
from sklearn.linear_model import LogisticRegression## 定义 逻辑回归模型
clf = LogisticRegression(random_state=0, solver='lbfgs')# 在训练集上训练逻辑回归模型
clf.fit(x_train, y_train)
可视化热力图:
from sklearn import metrics## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))## 查看混淆矩阵 (预测值和真实值的各类情况统计矩阵)
confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)# 利用热力图对于结果进行可视化
plt.figure(figsize=(8, 6))
sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')
plt.xlabel('Predicted labels')
plt.ylabel('True labels')
plt.show()
总结:
①巩固了之前的理论知识,理论转变为实践。
②锻炼了可视化操作的能力。
这篇关于【无标题】天池机器学习训练营task1的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!