利用python进行分类-预测顾客流失(简版)

2024-04-12 16:32

本文主要是介绍利用python进行分类-预测顾客流失(简版),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

利用python进行分类-预测顾客流失(简版)

96 
鸣人吃土豆  关注
2017.12.16 16:11  字数 878  阅读 166 评论 4 赞赏 2

更新内容:第4点c方式
计算准确率的方式(用了sklearn方式)


由于每个算法都基于某些特定的假设,且均含有某些缺点,因此需要通过大量的实践为特定的问题选择合适的算法。可以这么说:没有任何一种分类器可以在所有的情况下都有良好的表现。
分类器的性能,计算能力,预测能力在很大程度上都依赖于用于模型的相关数据。训练机器学习算法涉及到五个主要的步骤:

  • 1.特征的选择
  • 2.确定性能评价标准
  • 3.选择分类器及其优化算法
  • 4.对模型性能的评估
  • 5.算法的调优

写在前面:接下来的我们通过一些电信数据来看看一些常用的分类器的简单情况(默认参数),通过这些分类器来预测客户是否会流失。这次是一些比较简单的做法,有空再来完善,比如超参调优等。


1.加载数据

数据下载链接https://pan.baidu.com/s/1bp8nloV

import pandas as pd
data = pd.read_csv("customer_churn.csv",header=0,index_col=0)
data.head()

但是在读取的过程中出现了如下错误:

OSError:Initializing from file failed

查看了源码,应该是调用pandas的read_csv()方法时,默认使用C engine作为parser engine,而当文件名中含有中文的时候,用C engine在部分情况下就会出错

所以解决方案有二:

  • 1.将文件路径的中文替换掉
  • 2.在read_csv中加入engine=‘python’参数,即:
data = pd.read_csv("C:\\Users\\Administrator\\OneDrive\\公开\\customer_churn.csv",header=0,index_col=0,engine='python')

2.查看数据

data.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 3333 entries, 1 to 3333
Data columns (total 20 columns):
state                            3333 non-null object
account_length                   3333 non-null int64
area_code                        3333 non-null object
international_plan               3333 non-null object
voice_mail_plan                  3333 non-null object
number_vmail_messages            3333 non-null int64
total_day_minutes                3333 non-null float64
total_day_calls                  3333 non-null int64
total_day_charge                 3333 non-null float64
total_eve_minutes                3333 non-null float64
total_eve_calls                  3333 non-null int64
total_eve_charge                 3333 non-null float64
total_night_minutes              3333 non-null float64
total_night_calls                3333 non-null int64
total_night_charge               3333 non-null float64
total_intl_minutes               3333 non-null float64
total_intl_calls                 3333 non-null int64
total_intl_charge                3333 non-null float64
number_customer_service_calls    3333 non-null int64
churn                            3333 non-null object
dtypes: float64(8), int64(7), object(5)
memory usage: 546.8+ KB

3.特征选取

特征其实就是属性、字段等的意思
我们这里采取比较简单的方式,直接将state 、account_length 、area_code 这三列去掉,因为和是否流失的关系不大

data = data.ix[:,3:]
data.head()

4.将标称特征的值转换为整数,方便算法的运算

这里的话我们有三种方式

  • a.
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = data[v].map(lambda a:1 if a=='yes' else 0)
  • b
#可以用字典的方式
data = pd.read_csv("customer_churn.csv",header=0,index_col=0,engine='python')
data = data.ix[:,3:]
mapping = {'yes':1,'no':0}
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = data[v].map(mapping)
  • c
#或者也可以使用sklearn里的LabelEncoder类
from sklearn.preprocessing import LabelEncoder
data = pd.read_csv("customer_churn.csv",header=0,index_col=0,engine='python')
data = data.ix[:,3:]
le = LabelEncoder()
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = le.fit_transform(data[v])
data[var].head()

c方式我们可以用以下方式得出将yes和no分别转换成了什么整数

le.transform(['yes','no'])

结果

array([1, 0], dtype=int64)

5.将数据分为测试集和训练集

X=data.ix[:,:-1]
y=data.ix[:,-1]
from sklearn.cross_validation import train_test_split
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=0)

6.1使用决策树进行分类

#使用决策树
from sklearn import tree
clf = tree.DecisionTreeClassifier(max_depth=3)
clf.fit(X_train,y_train)

我们可以通过以下方式将决策树的图导出来,只是在python上相对R来说要麻烦一点,需要下载Graphviz软件,并将其安装目录下的bin文件夹设置在系统变量中

#将决策树的决策过程导出到当前代码文件所在文件夹
tree.export_graphviz(clf,out_file='tree3.dot')

再在cmd中输入以下命令,将dot文件转换为png文件

dot -T png tree.dot -o tree.png

因为本人用的是jupyter notebook,所以要想在jupyter notebookz中插入图片的话,得用以下命令

%pylab inline
from IPython.display import Image
Image("tree.png")

结果如下


tree.png

可以看到决策树最先是以训练集中的第3列特征进行分支的

#检测分类结果
import numpy as np
print("Test accuracy:%.3f" %(np.sum(y_test==clf.predict(X_test))/len(y_test)))

结果为:Test accuracy:0.910

我们可以利用sklearn里面的东西直接计算准确率

#1
print("Test accuracy:%.3f" % clf.score(X_test,y_test))#2
from sklearn.metrics import accuracy_score
print("Test accuracy:%.3f" % accuracy_score(y_test,clf.predict(X_test)))

结果同样都为0.910

6.2逻辑回归

from sklearn.linear_model import LogisticRegression
clf = LogisticRegression()
clf.fit(X_train,y_train)
print("Test accuracy:%.3f" % clf.score(X_test,y_test))

结果为:Test accuracy:0.870

6.3支持向量机

#使用支持向量机
from sklearn.svm import SVC
clf = SVC()
clf.fit(X_train,y_train)
print("Test accuracy:%.3f" % clf.score(X_test,y_test))

结果为:Test accuracy:0.862

写在最后:从准确率上看,这份数据决策树分类器的泛化能力最好,但是我们这里用的是各个分类器的默认参数,没有进行相关检验,调优,所以目前的结果并不可信,也不能完全按照准确率去比较分类器的优劣

这篇关于利用python进行分类-预测顾客流失(简版)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897654

相关文章

Python实现终端清屏的几种方式详解

《Python实现终端清屏的几种方式详解》在使用Python进行终端交互式编程时,我们经常需要清空当前终端屏幕的内容,本文为大家整理了几种常见的实现方法,有需要的小伙伴可以参考下... 目录方法一:使用 `os` 模块调用系统命令方法二:使用 `subprocess` 模块执行命令方法三:打印多个换行符模拟

Python实现MQTT通信的示例代码

《Python实现MQTT通信的示例代码》本文主要介绍了Python实现MQTT通信的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 安装paho-mqtt库‌2. 搭建MQTT代理服务器(Broker)‌‌3. pytho

如何使用Lombok进行spring 注入

《如何使用Lombok进行spring注入》本文介绍如何用Lombok简化Spring注入,推荐优先使用setter注入,通过注解自动生成getter/setter及构造器,减少冗余代码,提升开发效... Lombok为了开发环境简化代码,好处不用多说。spring 注入方式为2种,构造器注入和setter

基于Python开发一个图像水印批量添加工具

《基于Python开发一个图像水印批量添加工具》在当今数字化内容爆炸式增长的时代,图像版权保护已成为创作者和企业的核心需求,本方案将详细介绍一个基于PythonPIL库的工业级图像水印解决方案,有需要... 目录一、系统架构设计1.1 整体处理流程1.2 类结构设计(扩展版本)二、核心算法深入解析2.1 自

从入门到进阶讲解Python自动化Playwright实战指南

《从入门到进阶讲解Python自动化Playwright实战指南》Playwright是针对Python语言的纯自动化工具,它可以通过单个API自动执行Chromium,Firefox和WebKit... 目录Playwright 简介核心优势安装步骤观点与案例结合Playwright 核心功能从零开始学习

Python 字典 (Dictionary)使用详解

《Python字典(Dictionary)使用详解》字典是python中最重要,最常用的数据结构之一,它提供了高效的键值对存储和查找能力,:本文主要介绍Python字典(Dictionary)... 目录字典1.基本特性2.创建字典3.访问元素4.修改字典5.删除元素6.字典遍历7.字典的高级特性默认字典

MySQL进行数据库审计的详细步骤和示例代码

《MySQL进行数据库审计的详细步骤和示例代码》数据库审计通过触发器、内置功能及第三方工具记录和监控数据库活动,确保安全、完整与合规,Java代码实现自动化日志记录,整合分析系统提升监控效率,本文给大... 目录一、数据库审计的基本概念二、使用触发器进行数据库审计1. 创建审计表2. 创建触发器三、Java

Python自动化批量重命名与整理文件系统

《Python自动化批量重命名与整理文件系统》这篇文章主要为大家详细介绍了如何使用Python实现一个强大的文件批量重命名与整理工具,帮助开发者自动化这一繁琐过程,有需要的小伙伴可以了解下... 目录简介环境准备项目功能概述代码详细解析1. 导入必要的库2. 配置参数设置3. 创建日志系统4. 安全文件名处

使用Python构建一个高效的日志处理系统

《使用Python构建一个高效的日志处理系统》这篇文章主要为大家详细讲解了如何使用Python开发一个专业的日志分析工具,能够自动化处理、分析和可视化各类日志文件,大幅提升运维效率,需要的可以了解下... 目录环境准备工具功能概述完整代码实现代码深度解析1. 类设计与初始化2. 日志解析核心逻辑3. 文件处

python生成随机唯一id的几种实现方法

《python生成随机唯一id的几种实现方法》在Python中生成随机唯一ID有多种方法,根据不同的需求场景可以选择最适合的方案,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习... 目录方法 1:使用 UUID 模块(推荐)方法 2:使用 Secrets 模块(安全敏感场景)方法