利用python进行分类-预测顾客流失(简版)

2024-04-12 16:32

本文主要是介绍利用python进行分类-预测顾客流失(简版),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

利用python进行分类-预测顾客流失(简版)

96 
鸣人吃土豆  关注
2017.12.16 16:11  字数 878  阅读 166 评论 4 赞赏 2

更新内容:第4点c方式
计算准确率的方式(用了sklearn方式)


由于每个算法都基于某些特定的假设,且均含有某些缺点,因此需要通过大量的实践为特定的问题选择合适的算法。可以这么说:没有任何一种分类器可以在所有的情况下都有良好的表现。
分类器的性能,计算能力,预测能力在很大程度上都依赖于用于模型的相关数据。训练机器学习算法涉及到五个主要的步骤:

  • 1.特征的选择
  • 2.确定性能评价标准
  • 3.选择分类器及其优化算法
  • 4.对模型性能的评估
  • 5.算法的调优

写在前面:接下来的我们通过一些电信数据来看看一些常用的分类器的简单情况(默认参数),通过这些分类器来预测客户是否会流失。这次是一些比较简单的做法,有空再来完善,比如超参调优等。


1.加载数据

数据下载链接https://pan.baidu.com/s/1bp8nloV

import pandas as pd
data = pd.read_csv("customer_churn.csv",header=0,index_col=0)
data.head()

但是在读取的过程中出现了如下错误:

OSError:Initializing from file failed

查看了源码,应该是调用pandas的read_csv()方法时,默认使用C engine作为parser engine,而当文件名中含有中文的时候,用C engine在部分情况下就会出错

所以解决方案有二:

  • 1.将文件路径的中文替换掉
  • 2.在read_csv中加入engine=‘python’参数,即:
data = pd.read_csv("C:\\Users\\Administrator\\OneDrive\\公开\\customer_churn.csv",header=0,index_col=0,engine='python')

2.查看数据

data.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 3333 entries, 1 to 3333
Data columns (total 20 columns):
state                            3333 non-null object
account_length                   3333 non-null int64
area_code                        3333 non-null object
international_plan               3333 non-null object
voice_mail_plan                  3333 non-null object
number_vmail_messages            3333 non-null int64
total_day_minutes                3333 non-null float64
total_day_calls                  3333 non-null int64
total_day_charge                 3333 non-null float64
total_eve_minutes                3333 non-null float64
total_eve_calls                  3333 non-null int64
total_eve_charge                 3333 non-null float64
total_night_minutes              3333 non-null float64
total_night_calls                3333 non-null int64
total_night_charge               3333 non-null float64
total_intl_minutes               3333 non-null float64
total_intl_calls                 3333 non-null int64
total_intl_charge                3333 non-null float64
number_customer_service_calls    3333 non-null int64
churn                            3333 non-null object
dtypes: float64(8), int64(7), object(5)
memory usage: 546.8+ KB

3.特征选取

特征其实就是属性、字段等的意思
我们这里采取比较简单的方式,直接将state 、account_length 、area_code 这三列去掉,因为和是否流失的关系不大

data = data.ix[:,3:]
data.head()

4.将标称特征的值转换为整数,方便算法的运算

这里的话我们有三种方式

  • a.
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = data[v].map(lambda a:1 if a=='yes' else 0)
  • b
#可以用字典的方式
data = pd.read_csv("customer_churn.csv",header=0,index_col=0,engine='python')
data = data.ix[:,3:]
mapping = {'yes':1,'no':0}
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = data[v].map(mapping)
  • c
#或者也可以使用sklearn里的LabelEncoder类
from sklearn.preprocessing import LabelEncoder
data = pd.read_csv("customer_churn.csv",header=0,index_col=0,engine='python')
data = data.ix[:,3:]
le = LabelEncoder()
var = ['international_plan', 'voice_mail_plan','churn']
for v in var:data[v] = le.fit_transform(data[v])
data[var].head()

c方式我们可以用以下方式得出将yes和no分别转换成了什么整数

le.transform(['yes','no'])

结果

array([1, 0], dtype=int64)

5.将数据分为测试集和训练集

X=data.ix[:,:-1]
y=data.ix[:,-1]
from sklearn.cross_validation import train_test_split
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=0)

6.1使用决策树进行分类

#使用决策树
from sklearn import tree
clf = tree.DecisionTreeClassifier(max_depth=3)
clf.fit(X_train,y_train)

我们可以通过以下方式将决策树的图导出来,只是在python上相对R来说要麻烦一点,需要下载Graphviz软件,并将其安装目录下的bin文件夹设置在系统变量中

#将决策树的决策过程导出到当前代码文件所在文件夹
tree.export_graphviz(clf,out_file='tree3.dot')

再在cmd中输入以下命令,将dot文件转换为png文件

dot -T png tree.dot -o tree.png

因为本人用的是jupyter notebook,所以要想在jupyter notebookz中插入图片的话,得用以下命令

%pylab inline
from IPython.display import Image
Image("tree.png")

结果如下


tree.png

可以看到决策树最先是以训练集中的第3列特征进行分支的

#检测分类结果
import numpy as np
print("Test accuracy:%.3f" %(np.sum(y_test==clf.predict(X_test))/len(y_test)))

结果为:Test accuracy:0.910

我们可以利用sklearn里面的东西直接计算准确率

#1
print("Test accuracy:%.3f" % clf.score(X_test,y_test))#2
from sklearn.metrics import accuracy_score
print("Test accuracy:%.3f" % accuracy_score(y_test,clf.predict(X_test)))

结果同样都为0.910

6.2逻辑回归

from sklearn.linear_model import LogisticRegression
clf = LogisticRegression()
clf.fit(X_train,y_train)
print("Test accuracy:%.3f" % clf.score(X_test,y_test))

结果为:Test accuracy:0.870

6.3支持向量机

#使用支持向量机
from sklearn.svm import SVC
clf = SVC()
clf.fit(X_train,y_train)
print("Test accuracy:%.3f" % clf.score(X_test,y_test))

结果为:Test accuracy:0.862

写在最后:从准确率上看,这份数据决策树分类器的泛化能力最好,但是我们这里用的是各个分类器的默认参数,没有进行相关检验,调优,所以目前的结果并不可信,也不能完全按照准确率去比较分类器的优劣

这篇关于利用python进行分类-预测顾客流失(简版)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897654

相关文章

Python将博客内容html导出为Markdown格式

《Python将博客内容html导出为Markdown格式》Python将博客内容html导出为Markdown格式,通过博客url地址抓取文章,分析并提取出文章标题和内容,将内容构建成html,再转... 目录一、为什么要搞?二、准备如何搞?三、说搞咱就搞!抓取文章提取内容构建html转存markdown

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

使用Jackson进行JSON生成与解析的新手指南

《使用Jackson进行JSON生成与解析的新手指南》这篇文章主要为大家详细介绍了如何使用Jackson进行JSON生成与解析处理,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 核心依赖2. 基础用法2.1 对象转 jsON(序列化)2.2 JSON 转对象(反序列化)3.

Python Websockets库的使用指南

《PythonWebsockets库的使用指南》pythonwebsockets库是一个用于创建WebSocket服务器和客户端的Python库,它提供了一种简单的方式来实现实时通信,支持异步和同步... 目录一、WebSocket 简介二、python 的 websockets 库安装三、完整代码示例1.

揭秘Python Socket网络编程的7种硬核用法

《揭秘PythonSocket网络编程的7种硬核用法》Socket不仅能做聊天室,还能干一大堆硬核操作,这篇文章就带大家看看Python网络编程的7种超实用玩法,感兴趣的小伙伴可以跟随小编一起... 目录1.端口扫描器:探测开放端口2.简易 HTTP 服务器:10 秒搭个网页3.局域网游戏:多人联机对战4.

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

Python使用自带的base64库进行base64编码和解码

《Python使用自带的base64库进行base64编码和解码》在Python中,处理数据的编码和解码是数据传输和存储中非常普遍的需求,其中,Base64是一种常用的编码方案,本文我将详细介绍如何使... 目录引言使用python的base64库进行编码和解码编码函数解码函数Base64编码的应用场景注意

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优