[黑马程序员Pandas教程]——分组与分箱

2023-11-09 16:30

本文主要是介绍[黑马程序员Pandas教程]——分组与分箱,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录:

  1. 学习目标
  2. 分组对象DataFrameGroupBy
    1. 数据准备
    2. df.groupby分组函数返回分组对象
    3. 分组对象其他API
      1. 取出每组第一条或最后一条数据
      2. 获取分组后每组的名称
      3. gs.get_group()按分组依据获取其中一组
  3. 分组聚合
    1. 分组后直接聚合
    2. 分组后指定单列或多列聚合
    3. 分组后使用多个聚合函数
    4. 分组后对多列分别使用不同的聚合函数
    5. 分组后使用自定义聚合函数
  4. 分组转换聚合
    1. 分组后指定列数据转换聚合
    2. 分组后使用自定义函数进行转换聚合
    3. 分组聚合和分组转换的区别
  5. 分组过滤
  6. 数据离散化(分箱)
  7. 总结
  8. 项目地址:

1.学习目标

  • 知道Pandas分组聚合的使用方法

  • 知道Pandas分组转换聚合的使用方法

  • 知道Pandas分组过滤的使用方法

  • 知道Pandas数据离散化分箱操作的使用方法

2.分组对象DataFrameGroupBy

数据准备
  • 加载优衣库的销售数据集,包含了不同城市优衣库门店的所有产品类别的销售记录,数据字段说明如下

    • store_id 门店随机id

    • city 城市

    • channel 销售渠道 网购自提 门店购买

    • gender_group 客户性别 男女

    • age_group 客户年龄段

    • wkd_ind 购买发生的时间(周末,周间)

    • product 产品类别

    • customer 客户数量

    • revenue 销售金额

    • order 订单数量

    • quant 购买产品的数量

    • unit_cost 成本(制作+运营)

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)
df.groupby分组函数返回分组对象
  • 基于一列进行分组

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 基于顾客性别分组
gs = df.groupby(['gender_group'])
print(gs)
print(gs['city'])
  • 基于多列进行分组

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 基于顾客性别、不同城市分组
gs2 = df.groupby(['gender_group', 'city'])
print(gs2)
  • 返回的分组对象可以直接使用,或选择一列做聚合、转换、过滤操作;比如我们要计算不同性别、不同城市的顾客的平均销售金额

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 按性别、城市分组后,选择销售金额列,做平均数计算
print(df.groupby(['gender_group', 'city'])['revenue'].mean())
分组对象其他API
取出每组第一条或最后一条数据
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])
# 取出每组第一条数据
print(gs2.first())
# 取出每组最后一条数据
print(gs2.last())
获取分组后每组的名称
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])print(gs2.grouper.result_index)
print(gs2.grouper.result_index.tolist())
gs.get_group()按分组依据获取其中一组
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])print(gs2.get_group(('Female', '线上')))

3.分组聚合

分组后直接聚合
  • 分组后直接进行聚合计算并返回df
df.groupby(['列名1', '列名2']).聚合函数()
  • 按性别分组,计算每组的各数值列的平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['gender_group'])[['store_id', 'customer', 'revenue', 'order', 'quant', 'unit_cost']].mean())
分组后指定单列或多列聚合
  • 根据1列或多列的值进行分组,后每一组都对指定列的值使用聚合函数(比如mean求平均值)进行计算;分组后指定1列返回series对象,指定多列返回dataframe对象
df.groupby(['列名1', '列名2'])['指定列1'].聚合函数()
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].聚合函数()
  • 计算不同城市的销售额总和

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city'])['revenue'].sum())

 

分组后使用多个聚合函数
  • 同时使用多个内置聚合函数,全部放入一个Python列表, 然后把整个列表传入agg或aggregate函数中;返回以分组列作为索引,每一个聚合计算结果作为列的全新df
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(['max', 'min']) 
# max, min 为pandas内置的聚合函数名
  • 按城市和线上线下划分,计算销售金额、成本的总和和平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'channel'])[['revenue', 'unit_cost']].agg(['sum', 'mean']))

 

分组后对多列分别使用不同的聚合函数
  • agg函数中可以传入字典,字典的key是df的列名,与key对应的value是pandas内置的聚合计算函数、其名称的字符串;;返回以分组列作为索引,每一个聚合计算结果作为列的全新df
df.groupby(['列名1', '列名2']).agg({'指定列1':'mean', '指定列2':'sum', '指定列3':'mean'
})
  • 按城市和线上线下划分,分别计算销售金额的平均值、成本的总和

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'channel']).agg({'revenue': 'mean','unit_cost': 'sum'
}))

 

分组后使用自定义聚合函数
  • 分组之后指定列,对该列的值使用自定义的函数;返回series对象
def bar(s, args1, args2):'''自定义函数s,为传入的series对象args1,args2为自定义传参'''s_mean = s.sum() / s.sizereturn s_mean + args1 + args2
# 调用自定义函数
df.groupby(['列名1', '列名2']).agg(bar, args1=xxx, args2=xxx)
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(bar, args1=xxx, args2=xxx)
  • 按线上线下及不同城市划分,计算每组销售金额、成本的平均值,要求使用自定义聚合函数

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)def foo(s):# 参数s 是分组之后指定的每一列s_mean = s.sum() / s.sizereturn s_meanprint(df.groupby(['channel', 'city'])[['revenue', 'unit_cost']].agg(foo))# 与下面的代码效果相同
# print(df.groupby(['channel', 'city'])[['revenue', 'unit_cost']].mean())

 

4.分组转换聚合

分组后指定列数据转换聚合
  • 分组后,对指定列的值做聚合计算,只返回计算结果,不返回分组情况
df.groupby(['列名1', '列名2'])[['指定列1', '指定列2']].transform('sum') # sum是pandas内置聚合函数的函数名,求和
  • 根据城市、性别分组,再计算每组销售金额、成本的平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'gender_group'])[['revenue', 'unit_cost']].transform('mean'))
分组后使用自定义函数进行转换聚合
  • transform使用自定义的函数,注意此时传入的函数名没有引号
# 自定义一个计算函数
def foo(x, y):return x + y
df.groupby('列名1')['列名2'].transform(foo, y=3)
  • 根据城市、性别分组,再计算每组销售金额、成本的平均值;要求使用自定义函数

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)def foo(s):return s.sum() / s.sizeprint(df.groupby(['city', 'gender_group'])[['revenue', 'unit_cost']].transform(foo))
分组聚合和分组转换的区别
  • 二者返回对象的长度不同
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby('city')['revenue'].transform('mean'))
print(df.groupby('city')['revenue'].mean())
# 前者返回结果的数据数量对应df的所有行,一一对应
# 后者返回的结果数据仅对应分组的个数
# 二者返回结果的长度不同

 

5.分组过滤

  • 分组后接filter方法,filter传入一个返回布尔值的匿名函数,该函数的入参就是groupby分组之后的每一组数据或是每组选中的一列数据,返回False的数据会被过滤掉
df.groupby(['列名1',...]).filter(lambda x: dosomething returun True or False
)
  • 按城市分组,查询每组销售金额平均值大于200的全部数据,并获取索引值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city']).filter(lambda s: s['revenue'].mean() > 200))
# df.groupby(['city']).filter(lambda s: s['revenue'].mean() > 200).index.tolist()
print(df.groupby(['city'])['revenue'].filter(lambda s: s.mean() > 200))
# df.groupby(['city'])['revenue'].filter(lambda s: s.mean() > 200).index.tolist()

 6.数据离散化(分箱)

  • pd.cut()函数用来把一组数据分割成离散的区间。比如有一组年龄数据,可以使用pandas.cut将年龄数据分割成不同的年龄段并打上标签。上述过程又叫做分箱
pd.cut(x=Seriers对象, bins=3, labels=['低', '中', '高'])
  • 离散化分箱函数的常用参数有:

    • x 指定离散化(分箱)依据的列,Seriers对象

    • bins 分为几组,int类型,也可以传入分组区间的列表

    • labels 每组的标签名称,按数值由小到大的顺序

    • right 默认True:左开右闭;False:左闭右开

    • include_lowest 默认False:不包含第一个分组的起始值;True:包含

  • 按成本金额大小分为3组,将每条数据都打上高中低的标签

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 复制数据集
df2 = df.copy()
# 分箱返回Seriers对象并复制给新的列
df2['成本高中低'] = pd.cut(x=df['unit_cost'], bins=3, labels=['低', '中', '高'])
# df2['成本高中低'] = pd.cut(x=df['unit_cost'], bins=[-1,20,50,999], labels=['低', '中', '高'])
# 查看数据集
print(df2)

7.总结

  • 分组对象

    • gs = df.groupby(['列1', '列2']) 按照列1、列2的值对数据集进行分组,返回分组对象

    • gs.first() 返回每组的第一条数据

    • gs.last() 返回每组的最后一条数据

    • gs.grouper.result_index 获取全部组名

    • gs.get_group((组名)) 按照

  • 分组聚合

    • 分组后直接聚合

      df.groupby(['列名1', '列名2']).聚合函数()
    • 分组后指定单列或多列聚合

      df.groupby(['列名1', '列名2'])['指定列'].聚合函数()
    • 分组后使用多个聚合函数

      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(['max', 'min'])
    • 分组后对多列分别使用不同的聚合函数

      df.groupby(['列名1', '列名2']).agg({'指定列1':'mean', '指定列2':'sum', '指定列3':'mean'
      })
    • 分组后使用自定义聚合函数

      def foo(s):# 参数s 是分组之后指定的每一列s_mean = s.sum() / s.sizereturn s_mean
      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(foo)
  • 分组转换

    • 分组后指定列数据转换

      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].transform('pandas内置聚合函数的函数名')
    • 分组后使用自定义函数进行转换聚合

      def foo(x, y):return x + y
      df.groupby('列名1')['列名2'].transform(foo, y=3)
  • 分组聚合和分组转换的区别:二者返回结果的长度不同

    • 分组转换返回结果的数据数量对应df的所有行,一一对应

    • 分组聚合返回的结果数据仅对应分组的个数

  • 分组过滤

    # 匿名函数入参就是groupby分组之后的每一组数据或是每组选中的一列数据,返回False的数据会被过滤掉
    df.groupby(['列名1',...]).filter(lambda x: dosomething returun True or False
    )
  • 数据离散化(分箱)用来把一组数据分割成若干个离散的区间。比如有一组年龄数据,可以使用pandas.cut将年龄数据分割成不同的年龄段并打上标签。上述过程又叫做分箱。

    • 参数x 指定离散化(分箱)依据的列,Seriers对象

    • 参数bins 分为几组,int类型,也可以传入分组区间的列表

    • 参数labels 每组的标签名称,按数值由小到大的顺序

    • 参数right 默认True:左开右闭;False:左闭右开

    • 参数include_lowest 默认False:不包含第一个分组的起始值;True:包含

    • pd.cut(x=Seriers对象, bins=3, labels=['低', '中', '高'])
    • pd.cut(x=Seriers对象, bins=[0,10,20,999], labels=['低', '中', '高']) 

8.项目地址:

 Python: 66666666666666 - Gitee.com

这篇关于[黑马程序员Pandas教程]——分组与分箱的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/377252

相关文章

Vue项目的甘特图组件之dhtmlx-gantt使用教程和实现效果展示(推荐)

《Vue项目的甘特图组件之dhtmlx-gantt使用教程和实现效果展示(推荐)》文章介绍了如何使用dhtmlx-gantt组件来实现公司的甘特图需求,并提供了一个简单的Vue组件示例,文章还分享了一... 目录一、首先 npm 安装插件二、创建一个vue组件三、业务页面内 引用自定义组件:四、dhtmlx

MySQL zip安装包配置教程

《MySQLzip安装包配置教程》这篇文章详细介绍了如何使用zip安装包在Windows11上安装MySQL8.0,包括下载、解压、配置环境变量、初始化数据库、安装服务以及更改密码等步骤,感兴趣的朋... 目录mysql zip安装包配置教程1、下载zip安装包:2、安装2.1 解压zip包到安装目录2.2

解读Pandas和Polars的区别及说明

《解读Pandas和Polars的区别及说明》Pandas和Polars是Python中用于数据处理的两个库,Pandas适用于中小规模数据的快速原型开发和复杂数据操作,而Polars则专注于高效数据... 目录Pandas vs Polars 对比表使用场景对比Pandas 的使用场景Polars 的使用

Java使用Tesseract-OCR实战教程

《Java使用Tesseract-OCR实战教程》本文介绍了如何在Java中使用Tesseract-OCR进行文本提取,包括Tesseract-OCR的安装、中文训练库的配置、依赖库的引入以及具体的代... 目录Java使用Tesseract-OCRTesseract-OCR安装配置中文训练库引入依赖代码实

Python使用Pandas对比两列数据取最大值的五种方法

《Python使用Pandas对比两列数据取最大值的五种方法》本文主要介绍使用Pandas对比两列数据取最大值的五种方法,包括使用max方法、apply方法结合lambda函数、函数、clip方法、w... 目录引言一、使用max方法二、使用apply方法结合lambda函数三、使用np.maximum函数

Ubuntu固定虚拟机ip地址的方法教程

《Ubuntu固定虚拟机ip地址的方法教程》本文详细介绍了如何在Ubuntu虚拟机中固定IP地址,包括检查和编辑`/etc/apt/sources.list`文件、更新网络配置文件以及使用Networ... 1、由于虚拟机网络是桥接,所以ip地址会不停地变化,接下来我们就讲述ip如何固定 2、如果apt安

PyCharm 接入 DeepSeek最新完整教程

《PyCharm接入DeepSeek最新完整教程》文章介绍了DeepSeek-V3模型的性能提升以及如何在PyCharm中接入和使用DeepSeek进行代码开发,本文通过图文并茂的形式给大家介绍的... 目录DeepSeek-V3效果演示创建API Key在PyCharm中下载Continue插件配置Con

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

在不同系统间迁移Python程序的方法与教程

《在不同系统间迁移Python程序的方法与教程》本文介绍了几种将Windows上编写的Python程序迁移到Linux服务器上的方法,包括使用虚拟环境和依赖冻结、容器化技术(如Docker)、使用An... 目录使用虚拟环境和依赖冻结1. 创建虚拟环境2. 冻结依赖使用容器化技术(如 docker)1. 创

Spring Boot整合log4j2日志配置的详细教程

《SpringBoot整合log4j2日志配置的详细教程》:本文主要介绍SpringBoot项目中整合Log4j2日志框架的步骤和配置,包括常用日志框架的比较、配置参数介绍、Log4j2配置详解... 目录前言一、常用日志框架二、配置参数介绍1. 日志级别2. 输出形式3. 日志格式3.1 PatternL