[黑马程序员Pandas教程]——分组与分箱

2023-11-09 16:30

本文主要是介绍[黑马程序员Pandas教程]——分组与分箱,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录:

  1. 学习目标
  2. 分组对象DataFrameGroupBy
    1. 数据准备
    2. df.groupby分组函数返回分组对象
    3. 分组对象其他API
      1. 取出每组第一条或最后一条数据
      2. 获取分组后每组的名称
      3. gs.get_group()按分组依据获取其中一组
  3. 分组聚合
    1. 分组后直接聚合
    2. 分组后指定单列或多列聚合
    3. 分组后使用多个聚合函数
    4. 分组后对多列分别使用不同的聚合函数
    5. 分组后使用自定义聚合函数
  4. 分组转换聚合
    1. 分组后指定列数据转换聚合
    2. 分组后使用自定义函数进行转换聚合
    3. 分组聚合和分组转换的区别
  5. 分组过滤
  6. 数据离散化(分箱)
  7. 总结
  8. 项目地址:

1.学习目标

  • 知道Pandas分组聚合的使用方法

  • 知道Pandas分组转换聚合的使用方法

  • 知道Pandas分组过滤的使用方法

  • 知道Pandas数据离散化分箱操作的使用方法

2.分组对象DataFrameGroupBy

数据准备
  • 加载优衣库的销售数据集,包含了不同城市优衣库门店的所有产品类别的销售记录,数据字段说明如下

    • store_id 门店随机id

    • city 城市

    • channel 销售渠道 网购自提 门店购买

    • gender_group 客户性别 男女

    • age_group 客户年龄段

    • wkd_ind 购买发生的时间(周末,周间)

    • product 产品类别

    • customer 客户数量

    • revenue 销售金额

    • order 订单数量

    • quant 购买产品的数量

    • unit_cost 成本(制作+运营)

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)
df.groupby分组函数返回分组对象
  • 基于一列进行分组

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 基于顾客性别分组
gs = df.groupby(['gender_group'])
print(gs)
print(gs['city'])
  • 基于多列进行分组

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 基于顾客性别、不同城市分组
gs2 = df.groupby(['gender_group', 'city'])
print(gs2)
  • 返回的分组对象可以直接使用,或选择一列做聚合、转换、过滤操作;比如我们要计算不同性别、不同城市的顾客的平均销售金额

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 按性别、城市分组后,选择销售金额列,做平均数计算
print(df.groupby(['gender_group', 'city'])['revenue'].mean())
分组对象其他API
取出每组第一条或最后一条数据
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])
# 取出每组第一条数据
print(gs2.first())
# 取出每组最后一条数据
print(gs2.last())
获取分组后每组的名称
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])print(gs2.grouper.result_index)
print(gs2.grouper.result_index.tolist())
gs.get_group()按分组依据获取其中一组
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)gs2 = df.groupby(['gender_group', 'channel'])print(gs2.get_group(('Female', '线上')))

3.分组聚合

分组后直接聚合
  • 分组后直接进行聚合计算并返回df
df.groupby(['列名1', '列名2']).聚合函数()
  • 按性别分组,计算每组的各数值列的平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['gender_group'])[['store_id', 'customer', 'revenue', 'order', 'quant', 'unit_cost']].mean())
分组后指定单列或多列聚合
  • 根据1列或多列的值进行分组,后每一组都对指定列的值使用聚合函数(比如mean求平均值)进行计算;分组后指定1列返回series对象,指定多列返回dataframe对象
df.groupby(['列名1', '列名2'])['指定列1'].聚合函数()
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].聚合函数()
  • 计算不同城市的销售额总和

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city'])['revenue'].sum())

 

分组后使用多个聚合函数
  • 同时使用多个内置聚合函数,全部放入一个Python列表, 然后把整个列表传入agg或aggregate函数中;返回以分组列作为索引,每一个聚合计算结果作为列的全新df
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(['max', 'min']) 
# max, min 为pandas内置的聚合函数名
  • 按城市和线上线下划分,计算销售金额、成本的总和和平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'channel'])[['revenue', 'unit_cost']].agg(['sum', 'mean']))

 

分组后对多列分别使用不同的聚合函数
  • agg函数中可以传入字典,字典的key是df的列名,与key对应的value是pandas内置的聚合计算函数、其名称的字符串;;返回以分组列作为索引,每一个聚合计算结果作为列的全新df
df.groupby(['列名1', '列名2']).agg({'指定列1':'mean', '指定列2':'sum', '指定列3':'mean'
})
  • 按城市和线上线下划分,分别计算销售金额的平均值、成本的总和

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'channel']).agg({'revenue': 'mean','unit_cost': 'sum'
}))

 

分组后使用自定义聚合函数
  • 分组之后指定列,对该列的值使用自定义的函数;返回series对象
def bar(s, args1, args2):'''自定义函数s,为传入的series对象args1,args2为自定义传参'''s_mean = s.sum() / s.sizereturn s_mean + args1 + args2
# 调用自定义函数
df.groupby(['列名1', '列名2']).agg(bar, args1=xxx, args2=xxx)
df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(bar, args1=xxx, args2=xxx)
  • 按线上线下及不同城市划分,计算每组销售金额、成本的平均值,要求使用自定义聚合函数

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)def foo(s):# 参数s 是分组之后指定的每一列s_mean = s.sum() / s.sizereturn s_meanprint(df.groupby(['channel', 'city'])[['revenue', 'unit_cost']].agg(foo))# 与下面的代码效果相同
# print(df.groupby(['channel', 'city'])[['revenue', 'unit_cost']].mean())

 

4.分组转换聚合

分组后指定列数据转换聚合
  • 分组后,对指定列的值做聚合计算,只返回计算结果,不返回分组情况
df.groupby(['列名1', '列名2'])[['指定列1', '指定列2']].transform('sum') # sum是pandas内置聚合函数的函数名,求和
  • 根据城市、性别分组,再计算每组销售金额、成本的平均值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city', 'gender_group'])[['revenue', 'unit_cost']].transform('mean'))
分组后使用自定义函数进行转换聚合
  • transform使用自定义的函数,注意此时传入的函数名没有引号
# 自定义一个计算函数
def foo(x, y):return x + y
df.groupby('列名1')['列名2'].transform(foo, y=3)
  • 根据城市、性别分组,再计算每组销售金额、成本的平均值;要求使用自定义函数

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)def foo(s):return s.sum() / s.sizeprint(df.groupby(['city', 'gender_group'])[['revenue', 'unit_cost']].transform(foo))
分组聚合和分组转换的区别
  • 二者返回对象的长度不同
import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby('city')['revenue'].transform('mean'))
print(df.groupby('city')['revenue'].mean())
# 前者返回结果的数据数量对应df的所有行,一一对应
# 后者返回的结果数据仅对应分组的个数
# 二者返回结果的长度不同

 

5.分组过滤

  • 分组后接filter方法,filter传入一个返回布尔值的匿名函数,该函数的入参就是groupby分组之后的每一组数据或是每组选中的一列数据,返回False的数据会被过滤掉
df.groupby(['列名1',...]).filter(lambda x: dosomething returun True or False
)
  • 按城市分组,查询每组销售金额平均值大于200的全部数据,并获取索引值

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)print(df.groupby(['city']).filter(lambda s: s['revenue'].mean() > 200))
# df.groupby(['city']).filter(lambda s: s['revenue'].mean() > 200).index.tolist()
print(df.groupby(['city'])['revenue'].filter(lambda s: s.mean() > 200))
# df.groupby(['city'])['revenue'].filter(lambda s: s.mean() > 200).index.tolist()

 6.数据离散化(分箱)

  • pd.cut()函数用来把一组数据分割成离散的区间。比如有一组年龄数据,可以使用pandas.cut将年龄数据分割成不同的年龄段并打上标签。上述过程又叫做分箱
pd.cut(x=Seriers对象, bins=3, labels=['低', '中', '高'])
  • 离散化分箱函数的常用参数有:

    • x 指定离散化(分箱)依据的列,Seriers对象

    • bins 分为几组,int类型,也可以传入分组区间的列表

    • labels 每组的标签名称,按数值由小到大的顺序

    • right 默认True:左开右闭;False:左闭右开

    • include_lowest 默认False:不包含第一个分组的起始值;True:包含

  • 按成本金额大小分为3组,将每条数据都打上高中低的标签

import pandas as pddf = pd.read_csv('../datas/data_set/uniqlo.csv')
print(df)# 复制数据集
df2 = df.copy()
# 分箱返回Seriers对象并复制给新的列
df2['成本高中低'] = pd.cut(x=df['unit_cost'], bins=3, labels=['低', '中', '高'])
# df2['成本高中低'] = pd.cut(x=df['unit_cost'], bins=[-1,20,50,999], labels=['低', '中', '高'])
# 查看数据集
print(df2)

7.总结

  • 分组对象

    • gs = df.groupby(['列1', '列2']) 按照列1、列2的值对数据集进行分组,返回分组对象

    • gs.first() 返回每组的第一条数据

    • gs.last() 返回每组的最后一条数据

    • gs.grouper.result_index 获取全部组名

    • gs.get_group((组名)) 按照

  • 分组聚合

    • 分组后直接聚合

      df.groupby(['列名1', '列名2']).聚合函数()
    • 分组后指定单列或多列聚合

      df.groupby(['列名1', '列名2'])['指定列'].聚合函数()
    • 分组后使用多个聚合函数

      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(['max', 'min'])
    • 分组后对多列分别使用不同的聚合函数

      df.groupby(['列名1', '列名2']).agg({'指定列1':'mean', '指定列2':'sum', '指定列3':'mean'
      })
    • 分组后使用自定义聚合函数

      def foo(s):# 参数s 是分组之后指定的每一列s_mean = s.sum() / s.sizereturn s_mean
      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].agg(foo)
  • 分组转换

    • 分组后指定列数据转换

      df.groupby(['列名1', '列名2'])['指定列1', '指定列2'].transform('pandas内置聚合函数的函数名')
    • 分组后使用自定义函数进行转换聚合

      def foo(x, y):return x + y
      df.groupby('列名1')['列名2'].transform(foo, y=3)
  • 分组聚合和分组转换的区别:二者返回结果的长度不同

    • 分组转换返回结果的数据数量对应df的所有行,一一对应

    • 分组聚合返回的结果数据仅对应分组的个数

  • 分组过滤

    # 匿名函数入参就是groupby分组之后的每一组数据或是每组选中的一列数据,返回False的数据会被过滤掉
    df.groupby(['列名1',...]).filter(lambda x: dosomething returun True or False
    )
  • 数据离散化(分箱)用来把一组数据分割成若干个离散的区间。比如有一组年龄数据,可以使用pandas.cut将年龄数据分割成不同的年龄段并打上标签。上述过程又叫做分箱。

    • 参数x 指定离散化(分箱)依据的列,Seriers对象

    • 参数bins 分为几组,int类型,也可以传入分组区间的列表

    • 参数labels 每组的标签名称,按数值由小到大的顺序

    • 参数right 默认True:左开右闭;False:左闭右开

    • 参数include_lowest 默认False:不包含第一个分组的起始值;True:包含

    • pd.cut(x=Seriers对象, bins=3, labels=['低', '中', '高'])
    • pd.cut(x=Seriers对象, bins=[0,10,20,999], labels=['低', '中', '高']) 

8.项目地址:

 Python: 66666666666666 - Gitee.com

这篇关于[黑马程序员Pandas教程]——分组与分箱的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/377252

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

沁恒CH32在MounRiver Studio上环境配置以及使用详细教程

目录 1.  RISC-V简介 2.  CPU架构现状 3.  MounRiver Studio软件下载 4.  MounRiver Studio软件安装 5.  MounRiver Studio软件介绍 6.  创建工程 7.  编译代码 1.  RISC-V简介         RISC就是精简指令集计算机(Reduced Instruction SetCom

前端技术(七)——less 教程

一、less简介 1. less是什么? less是一种动态样式语言,属于css预处理器的范畴,它扩展了CSS语言,增加了变量、Mixin、函数等特性,使CSS 更易维护和扩展LESS 既可以在 客户端 上运行 ,也可以借助Node.js在服务端运行。 less的中文官网:https://lesscss.cn/ 2. less编译工具 koala 官网 http://koala-app.

Solr 使用Facet分组过程中与分词的矛盾解决办法

对于一般查询而言  ,  分词和存储都是必要的  .  比如  CPU  类型  ”Intel  酷睿  2  双核  P7570”,  拆分成  ”Intel”,”  酷睿  ”,”P7570”  这样一些关键字并分别索引  ,  可能提供更好的搜索体验  .  但是如果将  CPU  作为 Facet  字段  ,  最好不进行分词  .  这样就造成了矛盾  ,  解决方法

【Shiro】Shiro 的学习教程(三)之 SpringBoot 集成 Shiro

目录 1、环境准备2、引入 Shiro3、实现认证、退出3.1、使用死数据实现3.2、引入数据库,添加注册功能后端代码前端代码 3.3、MD5、Salt 的认证流程 4.、实现授权4.1、基于角色授权4.2、基于资源授权 5、引入缓存5.1、EhCache 实现缓存5.2、集成 Redis 实现 Shiro 缓存 1、环境准备 新建一个 SpringBoot 工程,引入依赖:

Windows环境利用VS2022编译 libvpx 源码教程

libvpx libvpx 是一个开源的视频编码库,由 WebM 项目开发和维护,专门用于 VP8 和 VP9 视频编码格式的编解码处理。它支持高质量的视频压缩,广泛应用于视频会议、在线教育、视频直播服务等多种场景中。libvpx 的特点包括跨平台兼容性、硬件加速支持以及灵活的接口设计,使其可以轻松集成到各种应用程序中。 libvpx 的安装和配置过程相对简单,用户可以从官方网站下载源代码