KMeans算法在RFM模型(用户分层模型)上的应用

2024-01-17 12:20

本文主要是介绍KMeans算法在RFM模型(用户分层模型)上的应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

KMeans在RFM模型上的应用

RFM模型到底是个啥,建议先参考百度百科以及知乎的解释。
KMeans算法又是个啥,一言以蔽之:无监督学习的聚类算法(也就是俗话讲的物以类聚,人以群分)。
废话不多说,开始上手

import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
data = pd.read_excel('./consumption_data.xls', index_col='Id')
data.head()

解释下这个数据集:字段R表示最近一次消费(Recency),字段F表示消费频率(Frequency),字段M表示消费金额(Monetary)
- 字段R:最近一次消费指上一次购买的时间——用户上一次是什么时候下的单、用户上一次是什么时候订购的服务,或在线下门店中用户上一次进店购买是什么时候。
- 字段F:消费频率指的是顾客在限定的期间内所购买的次数。一般而言,最常购买的用户,也是满意度/忠诚度最高的顾客,同时也是对品牌认可度最高的用户。
- 字段M:消费金额是电商相关业务数据库的支柱,也可以用来验证“帕雷托法则”——公司80%的收入来自20%的顾客。M值带有时间范围,指的是一段时间(通常是1年)内的消费金额。对于一般电商店铺而言,M值对客户细分的作用相对较弱(因为客单价波动幅度不大)。

RFM
Id
1276232.61
2351507.11
3416817.62
4311232.81
51471913.05
data.shape
(940, 3)
data.index
Int64Index([  1,   2,   3,   4,   5,   6,   7,   8,   9,  10,...933, 934, 935, 936, 937, 938, 939, 940, 941, 942],dtype='int64', name='Id', length=940)

数据标准化

data_std = 1.0 * (data - data.mean()) / data.std()
data_std.head()
RFM
Id
10.764186-0.493579-1.158711
2-1.024757-0.6300790.622527
3-0.9502170.871423-0.341103
4-1.0247570.188922-1.158432
5-0.204824-0.3570791.189868
k =8  # k-1个簇
iteration = 500  # 聚类最大循环次数
inertia = []  # 簇内误差平方和
for i in range(1, k):model = KMeans(n_clusters=i, n_jobs=4, max_iter=iteration, random_state=1234)model.fit(data_std)inertia.append(model.inertia_)
font = {'family':'SimHei', 'size':'20'}
plt.rc('font', **font)
plt.figure(figsize=(20,6))
plt.plot(range(1, k), inertia)
plt.title('查看最佳k值', fontsize=20)
plt.xlabel('簇的数量')
plt.ylabel('簇内误差平方和')
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RP58bDaK-1645165442623)(output_8_0.png)]

label = pd.Series(model.labels_)
labels = label.value_counts()
labels   #  每个类簇的样本数
1    218
2    189
5    182
6    173
0    144
4     28
3      6
dtype: int64
centers = pd.DataFrame(model.cluster_centers_)
centers    # 簇类中心
012
00.4882871.1539020.260323
1-0.206534-0.5461750.766205
20.496397-0.645968-0.674198
30.8635720.7121737.363321
44.025280-0.1377030.273264
5-0.643460-0.727579-0.853512
6-0.6929921.1964980.152670
# 拼接类簇的数目和簇类中心
output = pd.concat([labels, centers], axis=1)
output
0012
01440.4882871.1539020.260323
1218-0.206534-0.5461750.766205
21890.496397-0.645968-0.674198
360.8635720.7121737.363321
4284.025280-0.1377030.273264
5182-0.643460-0.727579-0.853512
6173-0.6929921.1964980.152670

KMeans追求的效果是:同一聚类内部距离最小化,不同聚类组间距离最大化

其实,聚类处理到这一步,已经可以有一些结论出来了。上面我们聚了7个类别,实际有的类别所包含的样本量比较少,例如类别3和类别4,所以可以重新把上面的步骤跑一遍,然后把k值设置更小一些。

output.columns = ['样本数', 'R', 'F', 'M']
output.columns
Index(['样本数', 'R', 'F', 'M'], dtype='object')
output
样本数RFM
01440.4882871.1539020.260323
1218-0.206534-0.5461750.766205
21890.496397-0.645968-0.674198
360.8635720.7121737.363321
4284.025280-0.1377030.273264
5182-0.643460-0.727579-0.853512
6173-0.6929921.1964980.152670
output.iloc[3]['F']
0.71217272223757799

详细标记原始数据每个样本的类别

model.labels_
array([2, 1, 6, 5, 1, 2, 5, 2, 2, 6, 5, 2, 1, 0, 1, 6, 4, 2, 5, 2, 5, 1, 6,2, 2, 0, 1, 1, 2, 3, 6, 2, 5, 1, 6, 6, 5, 1, 1, 2, 5, 6, 5, 5, 6, 1,2, 2, 6, 6, 1, 1, 1, 6, 2, 2, 1, 4, 1, 2, 5, 0, 6, 1, 1, 2, 1, 1, 2,1, 0, 0, 5, 2, 1, 5, 4, 6, 6, 1, 2, 2, 5, 2, 5, 6, 0, 2, 5, 0, 4, 5,6, 6, 2, 1, 6, 2, 6, 6, 5, 2, 4, 0, 0, 5, 5, 0, 0, 5, 2, 6, 1, 5, 2,2, 5, 2, 4, 0, 2, 1, 5, 2, 2, 2, 5, 2, 2, 0, 1, 2, 5, 5, 2, 2, 5, 2,4, 2, 1, 1, 5, 0, 2, 5, 5, 2, 0, 1, 6, 1, 6, 5, 2, 2, 1, 5, 1, 1, 1,0, 2, 2, 5, 5, 5, 5, 0, 5, 0, 6, 6, 1, 2, 1, 2, 2, 6, 5, 0, 5, 1, 2,2, 6, 2, 6, 6, 1, 2, 0, 4, 2, 1, 1, 1, 1, 5, 5, 5, 5, 2, 5, 5, 1, 2,2, 1, 1, 5, 5, 0, 6, 2, 5, 5, 2, 0, 2, 1, 6, 1, 5, 2, 3, 5, 1, 5, 6,2, 2, 1, 1, 1, 2, 2, 1, 5, 5, 5, 1, 1, 0, 5, 1, 5, 2, 5, 6, 6, 0, 1,5, 4, 2, 2, 2, 1, 0, 5, 6, 1, 1, 6, 2, 6, 2, 4, 1, 2, 2, 1, 6, 0, 6,1, 6, 5, 1, 1, 4, 2, 1, 2, 1, 0, 0, 1, 5, 6, 2, 5, 5, 1, 1, 5, 4, 5,4, 0, 6, 5, 0, 1, 1, 5, 1, 6, 2, 5, 6, 2, 1, 5, 1, 6, 4, 1, 0, 2, 5,1, 6, 6, 1, 2, 5, 1, 6, 5, 0, 4, 1, 0, 0, 2, 6, 3, 6, 5, 2, 1, 2, 0,5, 5, 1, 5, 0, 2, 5, 2, 6, 5, 0, 2, 6, 0, 5, 1, 6, 0, 2, 6, 2, 2, 0,1, 2, 2, 0, 6, 6, 1, 2, 6, 5, 2, 6, 2, 6, 5, 1, 5, 1, 1, 6, 5, 5, 6,5, 6, 0, 2, 0, 5, 1, 6, 2, 1, 6, 6, 2, 6, 0, 0, 0, 1, 6, 2, 6, 6, 1,6, 6, 6, 5, 4, 1, 5, 6, 5, 0, 0, 2, 1, 6, 0, 0, 1, 5, 1, 6, 0, 1, 0,1, 0, 2, 6, 6, 5, 6, 5, 0, 5, 2, 6, 5, 1, 2, 1, 6, 5, 1, 5, 6, 6, 5,6, 5, 0, 5, 0, 0, 6, 1, 0, 6, 0, 0, 5, 2, 0, 1, 0, 2, 1, 6, 1, 1, 6,3, 5, 2, 1, 1, 5, 5, 2, 6, 6, 1, 6, 5, 1, 0, 1, 0, 6, 1, 1, 1, 5, 1,1, 0, 5, 6, 0, 1, 0, 0, 1, 0, 5, 0, 5, 2, 1, 2, 6, 0, 3, 1, 2, 1, 2,5, 0, 2, 6, 0, 5, 1, 2, 0, 0, 6, 6, 1, 0, 5, 0, 1, 1, 6, 5, 1, 2, 5,0, 1, 1, 0, 2, 6, 1, 1, 0, 1, 5, 1, 1, 5, 5, 0, 0, 1, 1, 6, 6, 1, 0,2, 0, 6, 1, 6, 2, 1, 2, 5, 5, 6, 2, 2, 6, 0, 5, 2, 2, 6, 0, 5, 0, 6,5, 0, 0, 5, 5, 2, 1, 6, 0, 2, 0, 1, 5, 4, 2, 2, 5, 5, 2, 5, 1, 0, 1,2, 0, 6, 5, 4, 1, 1, 2, 0, 6, 6, 1, 5, 0, 6, 0, 1, 1, 5, 4, 1, 6, 0,2, 2, 1, 5, 1, 0, 2, 6, 2, 4, 0, 6, 5, 5, 0, 2, 1, 1, 5, 1, 6, 0, 1,6, 1, 4, 6, 6, 6, 1, 1, 1, 1, 0, 1, 5, 1, 5, 0, 2, 6, 5, 5, 2, 5, 1,0, 1, 1, 0, 1, 6, 1, 1, 1, 1, 4, 6, 1, 2, 1, 1, 2, 6, 2, 2, 6, 1, 2,5, 6, 6, 5, 5, 1, 1, 4, 0, 6, 5, 5, 5, 5, 1, 0, 1, 6, 5, 1, 0, 0, 5,2, 4, 2, 2, 2, 1, 6, 2, 5, 5, 5, 2, 1, 2, 5, 5, 0, 0, 6, 6, 2, 6, 1,0, 0, 6, 0, 2, 0, 0, 2, 6, 6, 0, 0, 1, 2, 6, 6, 5, 5, 6, 5, 6, 6, 2,1, 1, 5, 5, 1, 1, 2, 6, 2, 4, 2, 4, 6, 5, 0, 2, 6, 0, 6, 6, 5, 6, 1,0, 0, 5, 6, 1, 5, 5, 5, 5, 2, 2, 1, 6, 0, 6, 5, 6, 0, 2, 1, 0, 2, 1,2, 0, 1, 6, 2, 2, 0, 2, 5, 0, 1, 0, 0, 6, 5, 1, 1, 5, 2, 6, 1, 5, 2,5, 2, 2, 2, 1, 1, 0, 1, 1, 0, 6, 5, 5, 6, 5, 1, 0, 6, 2, 1, 0, 0, 2,0, 0, 6, 6, 1, 2, 1, 4, 0, 1, 6, 5, 1, 6, 2, 2, 0, 6, 6, 2, 1, 6, 1,6, 2, 4, 2, 2, 1, 2, 2, 0, 1, 6, 5, 2, 6, 6, 5, 1, 6, 1, 2, 5, 5, 2,6, 1, 2, 2, 0, 1, 6, 0, 0, 0, 1, 6, 3, 6, 1, 1, 5, 1, 2, 2])
data.index
Int64Index([  1,   2,   3,   4,   5,   6,   7,   8,   9,  10,...933, 934, 935, 936, 937, 938, 939, 940, 941, 942],dtype='int64', name='Id', length=940)
summary = pd.concat([data, pd.Series(model.labels_, index=data.index)], axis=1)
summary.head()
RFM0
Id
1276232.612
2351507.111
3416817.626
4311232.815
51471913.051
summary.columns = ['R', 'F', 'M', 'label']
summary.head()
RFMlabel
Id
1276232.612
2351507.111
3416817.626
4311232.815
51471913.051
summary.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 940 entries, 1 to 942
Data columns (total 4 columns):
R        940 non-null int64
F        940 non-null int64
M        940 non-null float64
label    940 non-null int32
dtypes: float64(1), int32(1), int64(2)
memory usage: 33.0 KB
# 类别0
dd = summary[summary['label'] == 0]
dd.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 144 entries, 13 to 929
Data columns (total 5 columns):
Id       144 non-null int64
R        144 non-null int64
F        144 non-null int64
M        144 non-null float64
label    144 non-null int64
dtypes: float64(1), int64(4)
memory usage: 6.8 KB
# 用户群0(label=0)
plt.figure(figsize=(12,9))
plt.subplot(311)
dd['R'].plot(kind='kde')
plt.legend()
plt.subplot(312)
dd['F'].plot(kind='kde')
plt.legend()
plt.subplot(313)
dd['M'].plot(kind='kde')
plt.legend()
plt.show()

output_24_0

分群0的特点

  • R 间隔多分布在0到15天左右
  • F 消费频率集中在10到25次
  • M 消费金额集中在500到2000左右
# 用户群1(label=1)
dd1 = summary[summary['label'] == 1]plt.figure(figsize=(12,9))
plt.subplot(311)
dd1['R'].plot(kind='kde')
plt.legend()
plt.subplot(312)
dd1['F'].plot(kind='kde')
plt.legend()
plt.subplot(313)
dd1['M'].plot(kind='kde')
plt.legend()
plt.show()

output_26_0

分群1的特点

  • R 间隔多分布在0到35天左右
  • F 消费频率集中在0到12次
  • M 消费金额集中在1000到2000左右

其他用户的分群同理,都可以整理出来。

那么问题来了,整理这些分群特点有什么用处呢?
用处就是可以把用户拆分成不同的用户包,支持后期对用户的精细化运营,例如给不同的用户群设置不同额度的优惠券,或者给不同的用户群推广不同价位的商品等等。

-------------------------------------END--------------------------------------------

这篇关于KMeans算法在RFM模型(用户分层模型)上的应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/616019

相关文章

PostgreSQL的扩展dict_int应用案例解析

《PostgreSQL的扩展dict_int应用案例解析》dict_int扩展为PostgreSQL提供了专业的整数文本处理能力,特别适合需要精确处理数字内容的搜索场景,本文给大家介绍PostgreS... 目录PostgreSQL的扩展dict_int一、扩展概述二、核心功能三、安装与启用四、字典配置方法

Java中的雪花算法Snowflake解析与实践技巧

《Java中的雪花算法Snowflake解析与实践技巧》本文解析了雪花算法的原理、Java实现及生产实践,涵盖ID结构、位运算技巧、时钟回拨处理、WorkerId分配等关键点,并探讨了百度UidGen... 目录一、雪花算法核心原理1.1 算法起源1.2 ID结构详解1.3 核心特性二、Java实现解析2.

Python中re模块结合正则表达式的实际应用案例

《Python中re模块结合正则表达式的实际应用案例》Python中的re模块是用于处理正则表达式的强大工具,正则表达式是一种用来匹配字符串的模式,它可以在文本中搜索和匹配特定的字符串模式,这篇文章主... 目录前言re模块常用函数一、查看文本中是否包含 A 或 B 字符串二、替换多个关键词为统一格式三、提

Java MQTT实战应用

《JavaMQTT实战应用》本文详解MQTT协议,涵盖其发布/订阅机制、低功耗高效特性、三种服务质量等级(QoS0/1/2),以及客户端、代理、主题的核心概念,最后提供Linux部署教程、Sprin... 目录一、MQTT协议二、MQTT优点三、三种服务质量等级四、客户端、代理、主题1. 客户端(Clien

SpringSecurity显示用户账号已被锁定的原因及解决方案

《SpringSecurity显示用户账号已被锁定的原因及解决方案》SpringSecurity中用户账号被锁定问题源于UserDetails接口方法返回值错误,解决方案是修正isAccountNon... 目录SpringSecurity显示用户账号已被锁定的解决方案1.问题出现前的工作2.问题出现原因各

MySQL 用户创建与授权最佳实践

《MySQL用户创建与授权最佳实践》在MySQL中,用户管理和权限控制是数据库安全的重要组成部分,下面详细介绍如何在MySQL中创建用户并授予适当的权限,感兴趣的朋友跟随小编一起看看吧... 目录mysql 用户创建与授权详解一、MySQL用户管理基础1. 用户账户组成2. 查看现有用户二、创建用户1. 基

CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比

《CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比》CSS中的position属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布... css 中的 position 属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布局和层叠关

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

Python使用Tkinter打造一个完整的桌面应用

《Python使用Tkinter打造一个完整的桌面应用》在Python生态中,Tkinter就像一把瑞士军刀,它没有花哨的特效,却能快速搭建出实用的图形界面,作为Python自带的标准库,无需安装即可... 目录一、界面搭建:像搭积木一样组合控件二、菜单系统:给应用装上“控制中枢”三、事件驱动:让界面“活”

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可