KMeans算法在RFM模型(用户分层模型)上的应用

2024-01-17 12:20

本文主要是介绍KMeans算法在RFM模型(用户分层模型)上的应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

KMeans在RFM模型上的应用

RFM模型到底是个啥,建议先参考百度百科以及知乎的解释。
KMeans算法又是个啥,一言以蔽之:无监督学习的聚类算法(也就是俗话讲的物以类聚,人以群分)。
废话不多说,开始上手

import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
data = pd.read_excel('./consumption_data.xls', index_col='Id')
data.head()

解释下这个数据集:字段R表示最近一次消费(Recency),字段F表示消费频率(Frequency),字段M表示消费金额(Monetary)
- 字段R:最近一次消费指上一次购买的时间——用户上一次是什么时候下的单、用户上一次是什么时候订购的服务,或在线下门店中用户上一次进店购买是什么时候。
- 字段F:消费频率指的是顾客在限定的期间内所购买的次数。一般而言,最常购买的用户,也是满意度/忠诚度最高的顾客,同时也是对品牌认可度最高的用户。
- 字段M:消费金额是电商相关业务数据库的支柱,也可以用来验证“帕雷托法则”——公司80%的收入来自20%的顾客。M值带有时间范围,指的是一段时间(通常是1年)内的消费金额。对于一般电商店铺而言,M值对客户细分的作用相对较弱(因为客单价波动幅度不大)。

RFM
Id
1276232.61
2351507.11
3416817.62
4311232.81
51471913.05
data.shape
(940, 3)
data.index
Int64Index([  1,   2,   3,   4,   5,   6,   7,   8,   9,  10,...933, 934, 935, 936, 937, 938, 939, 940, 941, 942],dtype='int64', name='Id', length=940)

数据标准化

data_std = 1.0 * (data - data.mean()) / data.std()
data_std.head()
RFM
Id
10.764186-0.493579-1.158711
2-1.024757-0.6300790.622527
3-0.9502170.871423-0.341103
4-1.0247570.188922-1.158432
5-0.204824-0.3570791.189868
k =8  # k-1个簇
iteration = 500  # 聚类最大循环次数
inertia = []  # 簇内误差平方和
for i in range(1, k):model = KMeans(n_clusters=i, n_jobs=4, max_iter=iteration, random_state=1234)model.fit(data_std)inertia.append(model.inertia_)
font = {'family':'SimHei', 'size':'20'}
plt.rc('font', **font)
plt.figure(figsize=(20,6))
plt.plot(range(1, k), inertia)
plt.title('查看最佳k值', fontsize=20)
plt.xlabel('簇的数量')
plt.ylabel('簇内误差平方和')
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RP58bDaK-1645165442623)(output_8_0.png)]

label = pd.Series(model.labels_)
labels = label.value_counts()
labels   #  每个类簇的样本数
1    218
2    189
5    182
6    173
0    144
4     28
3      6
dtype: int64
centers = pd.DataFrame(model.cluster_centers_)
centers    # 簇类中心
012
00.4882871.1539020.260323
1-0.206534-0.5461750.766205
20.496397-0.645968-0.674198
30.8635720.7121737.363321
44.025280-0.1377030.273264
5-0.643460-0.727579-0.853512
6-0.6929921.1964980.152670
# 拼接类簇的数目和簇类中心
output = pd.concat([labels, centers], axis=1)
output
0012
01440.4882871.1539020.260323
1218-0.206534-0.5461750.766205
21890.496397-0.645968-0.674198
360.8635720.7121737.363321
4284.025280-0.1377030.273264
5182-0.643460-0.727579-0.853512
6173-0.6929921.1964980.152670

KMeans追求的效果是:同一聚类内部距离最小化,不同聚类组间距离最大化

其实,聚类处理到这一步,已经可以有一些结论出来了。上面我们聚了7个类别,实际有的类别所包含的样本量比较少,例如类别3和类别4,所以可以重新把上面的步骤跑一遍,然后把k值设置更小一些。

output.columns = ['样本数', 'R', 'F', 'M']
output.columns
Index(['样本数', 'R', 'F', 'M'], dtype='object')
output
样本数RFM
01440.4882871.1539020.260323
1218-0.206534-0.5461750.766205
21890.496397-0.645968-0.674198
360.8635720.7121737.363321
4284.025280-0.1377030.273264
5182-0.643460-0.727579-0.853512
6173-0.6929921.1964980.152670
output.iloc[3]['F']
0.71217272223757799

详细标记原始数据每个样本的类别

model.labels_
array([2, 1, 6, 5, 1, 2, 5, 2, 2, 6, 5, 2, 1, 0, 1, 6, 4, 2, 5, 2, 5, 1, 6,2, 2, 0, 1, 1, 2, 3, 6, 2, 5, 1, 6, 6, 5, 1, 1, 2, 5, 6, 5, 5, 6, 1,2, 2, 6, 6, 1, 1, 1, 6, 2, 2, 1, 4, 1, 2, 5, 0, 6, 1, 1, 2, 1, 1, 2,1, 0, 0, 5, 2, 1, 5, 4, 6, 6, 1, 2, 2, 5, 2, 5, 6, 0, 2, 5, 0, 4, 5,6, 6, 2, 1, 6, 2, 6, 6, 5, 2, 4, 0, 0, 5, 5, 0, 0, 5, 2, 6, 1, 5, 2,2, 5, 2, 4, 0, 2, 1, 5, 2, 2, 2, 5, 2, 2, 0, 1, 2, 5, 5, 2, 2, 5, 2,4, 2, 1, 1, 5, 0, 2, 5, 5, 2, 0, 1, 6, 1, 6, 5, 2, 2, 1, 5, 1, 1, 1,0, 2, 2, 5, 5, 5, 5, 0, 5, 0, 6, 6, 1, 2, 1, 2, 2, 6, 5, 0, 5, 1, 2,2, 6, 2, 6, 6, 1, 2, 0, 4, 2, 1, 1, 1, 1, 5, 5, 5, 5, 2, 5, 5, 1, 2,2, 1, 1, 5, 5, 0, 6, 2, 5, 5, 2, 0, 2, 1, 6, 1, 5, 2, 3, 5, 1, 5, 6,2, 2, 1, 1, 1, 2, 2, 1, 5, 5, 5, 1, 1, 0, 5, 1, 5, 2, 5, 6, 6, 0, 1,5, 4, 2, 2, 2, 1, 0, 5, 6, 1, 1, 6, 2, 6, 2, 4, 1, 2, 2, 1, 6, 0, 6,1, 6, 5, 1, 1, 4, 2, 1, 2, 1, 0, 0, 1, 5, 6, 2, 5, 5, 1, 1, 5, 4, 5,4, 0, 6, 5, 0, 1, 1, 5, 1, 6, 2, 5, 6, 2, 1, 5, 1, 6, 4, 1, 0, 2, 5,1, 6, 6, 1, 2, 5, 1, 6, 5, 0, 4, 1, 0, 0, 2, 6, 3, 6, 5, 2, 1, 2, 0,5, 5, 1, 5, 0, 2, 5, 2, 6, 5, 0, 2, 6, 0, 5, 1, 6, 0, 2, 6, 2, 2, 0,1, 2, 2, 0, 6, 6, 1, 2, 6, 5, 2, 6, 2, 6, 5, 1, 5, 1, 1, 6, 5, 5, 6,5, 6, 0, 2, 0, 5, 1, 6, 2, 1, 6, 6, 2, 6, 0, 0, 0, 1, 6, 2, 6, 6, 1,6, 6, 6, 5, 4, 1, 5, 6, 5, 0, 0, 2, 1, 6, 0, 0, 1, 5, 1, 6, 0, 1, 0,1, 0, 2, 6, 6, 5, 6, 5, 0, 5, 2, 6, 5, 1, 2, 1, 6, 5, 1, 5, 6, 6, 5,6, 5, 0, 5, 0, 0, 6, 1, 0, 6, 0, 0, 5, 2, 0, 1, 0, 2, 1, 6, 1, 1, 6,3, 5, 2, 1, 1, 5, 5, 2, 6, 6, 1, 6, 5, 1, 0, 1, 0, 6, 1, 1, 1, 5, 1,1, 0, 5, 6, 0, 1, 0, 0, 1, 0, 5, 0, 5, 2, 1, 2, 6, 0, 3, 1, 2, 1, 2,5, 0, 2, 6, 0, 5, 1, 2, 0, 0, 6, 6, 1, 0, 5, 0, 1, 1, 6, 5, 1, 2, 5,0, 1, 1, 0, 2, 6, 1, 1, 0, 1, 5, 1, 1, 5, 5, 0, 0, 1, 1, 6, 6, 1, 0,2, 0, 6, 1, 6, 2, 1, 2, 5, 5, 6, 2, 2, 6, 0, 5, 2, 2, 6, 0, 5, 0, 6,5, 0, 0, 5, 5, 2, 1, 6, 0, 2, 0, 1, 5, 4, 2, 2, 5, 5, 2, 5, 1, 0, 1,2, 0, 6, 5, 4, 1, 1, 2, 0, 6, 6, 1, 5, 0, 6, 0, 1, 1, 5, 4, 1, 6, 0,2, 2, 1, 5, 1, 0, 2, 6, 2, 4, 0, 6, 5, 5, 0, 2, 1, 1, 5, 1, 6, 0, 1,6, 1, 4, 6, 6, 6, 1, 1, 1, 1, 0, 1, 5, 1, 5, 0, 2, 6, 5, 5, 2, 5, 1,0, 1, 1, 0, 1, 6, 1, 1, 1, 1, 4, 6, 1, 2, 1, 1, 2, 6, 2, 2, 6, 1, 2,5, 6, 6, 5, 5, 1, 1, 4, 0, 6, 5, 5, 5, 5, 1, 0, 1, 6, 5, 1, 0, 0, 5,2, 4, 2, 2, 2, 1, 6, 2, 5, 5, 5, 2, 1, 2, 5, 5, 0, 0, 6, 6, 2, 6, 1,0, 0, 6, 0, 2, 0, 0, 2, 6, 6, 0, 0, 1, 2, 6, 6, 5, 5, 6, 5, 6, 6, 2,1, 1, 5, 5, 1, 1, 2, 6, 2, 4, 2, 4, 6, 5, 0, 2, 6, 0, 6, 6, 5, 6, 1,0, 0, 5, 6, 1, 5, 5, 5, 5, 2, 2, 1, 6, 0, 6, 5, 6, 0, 2, 1, 0, 2, 1,2, 0, 1, 6, 2, 2, 0, 2, 5, 0, 1, 0, 0, 6, 5, 1, 1, 5, 2, 6, 1, 5, 2,5, 2, 2, 2, 1, 1, 0, 1, 1, 0, 6, 5, 5, 6, 5, 1, 0, 6, 2, 1, 0, 0, 2,0, 0, 6, 6, 1, 2, 1, 4, 0, 1, 6, 5, 1, 6, 2, 2, 0, 6, 6, 2, 1, 6, 1,6, 2, 4, 2, 2, 1, 2, 2, 0, 1, 6, 5, 2, 6, 6, 5, 1, 6, 1, 2, 5, 5, 2,6, 1, 2, 2, 0, 1, 6, 0, 0, 0, 1, 6, 3, 6, 1, 1, 5, 1, 2, 2])
data.index
Int64Index([  1,   2,   3,   4,   5,   6,   7,   8,   9,  10,...933, 934, 935, 936, 937, 938, 939, 940, 941, 942],dtype='int64', name='Id', length=940)
summary = pd.concat([data, pd.Series(model.labels_, index=data.index)], axis=1)
summary.head()
RFM0
Id
1276232.612
2351507.111
3416817.626
4311232.815
51471913.051
summary.columns = ['R', 'F', 'M', 'label']
summary.head()
RFMlabel
Id
1276232.612
2351507.111
3416817.626
4311232.815
51471913.051
summary.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 940 entries, 1 to 942
Data columns (total 4 columns):
R        940 non-null int64
F        940 non-null int64
M        940 non-null float64
label    940 non-null int32
dtypes: float64(1), int32(1), int64(2)
memory usage: 33.0 KB
# 类别0
dd = summary[summary['label'] == 0]
dd.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 144 entries, 13 to 929
Data columns (total 5 columns):
Id       144 non-null int64
R        144 non-null int64
F        144 non-null int64
M        144 non-null float64
label    144 non-null int64
dtypes: float64(1), int64(4)
memory usage: 6.8 KB
# 用户群0(label=0)
plt.figure(figsize=(12,9))
plt.subplot(311)
dd['R'].plot(kind='kde')
plt.legend()
plt.subplot(312)
dd['F'].plot(kind='kde')
plt.legend()
plt.subplot(313)
dd['M'].plot(kind='kde')
plt.legend()
plt.show()

output_24_0

分群0的特点

  • R 间隔多分布在0到15天左右
  • F 消费频率集中在10到25次
  • M 消费金额集中在500到2000左右
# 用户群1(label=1)
dd1 = summary[summary['label'] == 1]plt.figure(figsize=(12,9))
plt.subplot(311)
dd1['R'].plot(kind='kde')
plt.legend()
plt.subplot(312)
dd1['F'].plot(kind='kde')
plt.legend()
plt.subplot(313)
dd1['M'].plot(kind='kde')
plt.legend()
plt.show()

output_26_0

分群1的特点

  • R 间隔多分布在0到35天左右
  • F 消费频率集中在0到12次
  • M 消费金额集中在1000到2000左右

其他用户的分群同理,都可以整理出来。

那么问题来了,整理这些分群特点有什么用处呢?
用处就是可以把用户拆分成不同的用户包,支持后期对用户的精细化运营,例如给不同的用户群设置不同额度的优惠券,或者给不同的用户群推广不同价位的商品等等。

-------------------------------------END--------------------------------------------

这篇关于KMeans算法在RFM模型(用户分层模型)上的应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/616019

相关文章

PHP应用中处理限流和API节流的最佳实践

《PHP应用中处理限流和API节流的最佳实践》限流和API节流对于确保Web应用程序的可靠性、安全性和可扩展性至关重要,本文将详细介绍PHP应用中处理限流和API节流的最佳实践,下面就来和小编一起学习... 目录限流的重要性在 php 中实施限流的最佳实践使用集中式存储进行状态管理(如 Redis)采用滑动

深入浅出Spring中的@Autowired自动注入的工作原理及实践应用

《深入浅出Spring中的@Autowired自动注入的工作原理及实践应用》在Spring框架的学习旅程中,@Autowired无疑是一个高频出现却又让初学者头疼的注解,它看似简单,却蕴含着Sprin... 目录深入浅出Spring中的@Autowired:自动注入的奥秘什么是依赖注入?@Autowired

PostgreSQL简介及实战应用

《PostgreSQL简介及实战应用》PostgreSQL是一种功能强大的开源关系型数据库管理系统,以其稳定性、高性能、扩展性和复杂查询能力在众多项目中得到广泛应用,本文将从基础概念讲起,逐步深入到高... 目录前言1. PostgreSQL基础1.1 PostgreSQL简介1.2 基础语法1.3 数据库

Python中的filter() 函数的工作原理及应用技巧

《Python中的filter()函数的工作原理及应用技巧》Python的filter()函数用于筛选序列元素,返回迭代器,适合函数式编程,相比列表推导式,内存更优,尤其适用于大数据集,结合lamb... 目录前言一、基本概念基本语法二、使用方式1. 使用 lambda 函数2. 使用普通函数3. 使用 N

Python中yield的用法和实际应用示例

《Python中yield的用法和实际应用示例》在Python中,yield关键字主要用于生成器函数(generatorfunctions)中,其目的是使函数能够像迭代器一样工作,即可以被遍历,但不会... 目录python中yield的用法详解一、引言二、yield的基本用法1、yield与生成器2、yi

Python多线程应用中的卡死问题优化方案指南

《Python多线程应用中的卡死问题优化方案指南》在利用Python语言开发某查询软件时,遇到了点击搜索按钮后软件卡死的问题,本文将简单分析一下出现的原因以及对应的优化方案,希望对大家有所帮助... 目录问题描述优化方案1. 网络请求优化2. 多线程架构优化3. 全局异常处理4. 配置管理优化优化效果1.

从基础到高阶详解Python多态实战应用指南

《从基础到高阶详解Python多态实战应用指南》这篇文章主要从基础到高阶为大家详细介绍Python中多态的相关应用与技巧,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、多态的本质:python的“鸭子类型”哲学二、多态的三大实战场景场景1:数据处理管道——统一处理不同数据格式

Java Stream 的 Collectors.toMap高级应用与最佳实践

《JavaStream的Collectors.toMap高级应用与最佳实践》文章讲解JavaStreamAPI中Collectors.toMap的使用,涵盖基础语法、键冲突处理、自定义Map... 目录一、基础用法回顾二、处理键冲突三、自定义 Map 实现类型四、处理 null 值五、复杂值类型转换六、处理

分布式锁在Spring Boot应用中的实现过程

《分布式锁在SpringBoot应用中的实现过程》文章介绍在SpringBoot中通过自定义Lock注解、LockAspect切面和RedisLockUtils工具类实现分布式锁,确保多实例并发操作... 目录Lock注解LockASPect切面RedisLockUtils工具类总结在现代微服务架构中,分布

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.