###好好好### 【Python实战】Pandas:让你像写SQL一样做数据分析 ######

2024-05-07 15:18

本文主要是介绍###好好好### 【Python实战】Pandas:让你像写SQL一样做数据分析 ######,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 引言

Pandas是一个开源的Python数据分析库。Pandas把结构化数据分为了三类:

  • Series,1维序列,可视作为没有column名的、只有一个column的DataFrame;
  • DataFrame,同Spark SQL中的DataFrame一样,其概念来自于R语言,为多column并schema化的2维结构化数据,可视作为Series的容器(container);
  • Panel,为3维的结构化数据,可视作为DataFrame的容器;

DataFrame较为常见,因此本文主要讨论内容将为DataFrame。DataFrame的生成可通过读取纯文本、Json等数据来生成,亦可以通过Python对象来生成:

import pandas as pd
import numpy as npdf = pd.DataFrame({'total_bill': [16.99, 10.34, 23.68, 23.68, 24.59],'tip': [1.01, 1.66, 3.50, 3.31, 3.61],'sex': ['Female', 'Male', 'Male', 'Male', 'Female']})

对于DataFrame,我们可以看到其固有属性:

# data type of columns
df.dtypes
# indexes
df.index
# return pandas.Index
df.columns
# each row, return array[array]
df.values
# a tuple representing the dimensionality of df
df.shape
  • .index,为行索引
  • .columns,为列名称(label)
  • .dtype,为列数据类型

2. SQL操作

官方Doc给出了部分SQL的Pandas实现,在此基础上本文给出了一些扩充说明。以下内容基于Python 2.7 + Pandas 0.18.1的版本。

select

SQL中的select是根据列的名称来选取;Pandas则更为灵活,不但可根据列名称选取,还可以根据列所在的position选取。相关函数如下:

  • loc,基于列label,可选取特定行(根据行index);
  • iloc,基于行/列的position;
print df.loc[1:3, ['total_bill', 'tip']]
print df.loc[1:3, 'tip': 'total_bill']
print df.iloc[1:3, [1, 2]]
print df.iloc[1:3, 1: 3]
  • at,根据指定行index及列label,快速定位DataFrame的元素;
  • iat,与at类似,不同的是根据position来定位的;
print df.at[3, 'tip']
print df.iat[3, 1]
  • ix,为loc与iloc的混合体,既支持label也支持position;
print df.ix[1:3, [1, 2]]
print df.ix[1:3, ['total_bill', 'tip']]

此外,有更为简洁的行/列选取方式:

print df[1: 3]
print df[['total_bill', 'tip']]
# print df[1:2, ['total_bill', 'tip']]  # TypeError: unhashable type

where

Pandas实现where filter,较为常用的办法为df[df[colunm] boolean expr],比如:

print df[df['sex'] == 'Female']
print df[df['total_bill'] > 20]# or
print df.query('total_bill > 20')

在where子句中常常会搭配and, or, in, not关键词,Pandas中也有对应的实现:

# and
print df[(df['sex'] == 'Female') & (df['total_bill'] > 20)]
# or
print df[(df['sex'] == 'Female') | (df['total_bill'] > 20)]
# in
print df[df['total_bill'].isin([21.01, 23.68, 24.59])]
# not
print df[-(df['sex'] == 'Male')]
print df[-df['total_bill'].isin([21.01, 23.68, 24.59])]
# string function
print df = df[(-df['app'].isin(sys_app)) & (-df.app.str.contains('^微信\d+$'))]

对where条件筛选后只有一行的dataframe取其中某一列的值,其两种实现方式如下:

total = df.loc[df['tip'] == 1.66, 'total_bill'].values[0]
total = df.get_value(df.loc[df['tip'] == 1.66].index.values[0], 'total_bill')

distinct

drop_duplicates根据某列对dataframe进行去重:

df.drop_duplicates(subset=['sex'], keep='first', inplace=True)

包含参数:

  • subset,为选定的列做distinct,默认为所有列;
  • keep,值选项{'first', 'last', False},保留重复元素中的第一个、最后一个,或全部删除;
  • inplace ,默认为False,返回一个新的dataframe;若为True,则返回去重后的原dataframe

group

group一般会配合合计函数(Aggregate functions)使用,比如:count、avg等。Pandas对合计函数的支持有限,有count和size函数实现SQL的count:

print df.groupby('sex').size()
print df.groupby('sex').count()
print df.groupby('sex')['tip'].count()

对于多合计函数,

select sex, max(tip), sum(total_bill) as total
from tips_tb
group by sex;

实现在agg()中指定dict:

print df.groupby('sex').agg({'tip': np.max, 'total_bill': np.sum})# count(distinct **)
print df.groupby('tip').agg({'sex': pd.Series.nunique})

as

SQL中使用as修改列的别名,Pandas也支持这种修改:

# first implementation
df.columns = ['total', 'pit', 'xes']
# second implementation
df.rename(columns={'total_bill': 'total', 'tip': 'pit', 'sex': 'xes'}, inplace=True)

其中,第一种方法的修改是有问题的,因为其是按照列position逐一替换的。因此,我推荐第二种方法。

join

Pandas中join的实现也有两种:

# 1.
df.join(df2, how='left'...)# 2. 
pd.merge(df1, df2, how='left', left_on='app', right_on='app')

第一种方法是按DataFrame的index进行join的,而第二种方法才是按on指定的列做join。Pandas满足left、right、inner、full outer四种join方式。

order

Pandas中支持多列order,并可以调整不同列的升序/降序,有更高的排序自由度:

print df.sort_values(['total_bill', 'tip'], ascending=[False, True])

top

对于全局的top:

print df.nlargest(3, columns=['total_bill'])

对于分组top,MySQL的实现(采用自join的方式):

select a.sex, a.tip
from tips_tb a
where (select count(*)from tips_tb bwhere b.sex = a.sex and b.tip > a.tip
) < 2
order by a.sex, a.tip desc;

Pandas的等价实现,思路与上类似:

# 1.
df.assign(rn=df.sort_values(['total_bill'], ascending=False).groupby('sex').cumcount()+1)\.query('rn < 3')\.sort_values(['sex', 'rn'])# 2.
df.assign(rn=df.groupby('sex')['total_bill'].rank(method='first', ascending=False)) \.query('rn < 3') \.sort_values(['sex', 'rn'])

replace

replace函数提供对dataframe全局修改,亦可通过where条件进行过滤修改(搭配loc):

# overall replace
df.replace(to_replace='Female', value='Sansa', inplace=True)# dict replace
df.replace({'sex': {'Female': 'Sansa', 'Male': 'Leone'}}, inplace=True)# replace on where condition 
df.loc[df.sex == 'Male', 'sex'] = 'Leone'

自定义

除了上述SQL操作外,Pandas提供对每列/每一元素做自定义操作,为此而设计以下三个函数:

  • map(func),为Series的函数,DataFrame不能直接调用,需取列后再调用;
  • apply(func),对DataFrame中的某一行/列进行func操作;
  • applymap(func),为element-wise函数,对每一个元素做func操作
print df['tip'].map(lambda x: x - 1)
print df[['total_bill', 'tip']].apply(sum)
print df.applymap(lambda x: x.upper() if type(x) is str else x)

3. 实战

环比增长

现有两个月APP的UV数据,要得到月UV环比增长;该操作等价于两个Dataframe left join后按指定列做减操作:

def chain(current, last):df1 = pd.read_csv(current, names=['app', 'tag', 'uv'], sep='\t')df2 = pd.read_csv(last, names=['app', 'tag', 'uv'], sep='\t')df3 = pd.merge(df1, df2, how='left', on='app')df3['uv_y'] = df3['uv_y'].map(lambda x: 0.0 if pd.isnull(x) else x)df3['growth'] = df3['uv_x'] - df3['uv_y']return df3[['app', 'growth', 'uv_x', 'uv_y']].sort_values(by='growth', ascending=False)

差集

对于给定的列,一个Dataframe过滤另一个Dataframe该列的值;相当于集合的差集操作:

def difference(left, right, on):"""
    difference of two dataframes
    :param left: left dataframe
    :param right: right dataframe
    :param on: join key
    :return: difference dataframe
    """df = pd.merge(left, right, how='left', on=on)left_columns = left.columnscol_y = df.columns[left_columns.size]df = df[df[col_y].isnull()]df = df.ix[:, 0:left_columns.size]df.columns = left_columnsreturn df

这篇关于###好好好### 【Python实战】Pandas:让你像写SQL一样做数据分析 ######的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/967713

相关文章

通过ibd文件恢复MySql数据的操作方法

《通过ibd文件恢复MySql数据的操作方法》文章介绍通过.ibd文件恢复MySQL数据的过程,包括知道表结构和不知道表结构两种情况,对于知道表结构的情况,可以直接将.ibd文件复制到新的数据库目录并... 目录第一种情况:知道表结构第二种情况:不知道表结构总结今天干了一件大事,安装1Panel导致原来服务

Python如何在Word中生成多种不同类型的图表

《Python如何在Word中生成多种不同类型的图表》Word文档中插入图表不仅能直观呈现数据,还能提升文档的可读性和专业性,本文将介绍如何使用Python在Word文档中创建和自定义各种图表,需要的... 目录在Word中创建柱形图在Word中创建条形图在Word中创建折线图在Word中创建饼图在Word

Python Excel实现自动添加编号

《PythonExcel实现自动添加编号》这篇文章主要为大家详细介绍了如何使用Python在Excel中实现自动添加编号效果,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1、背景介绍2、库的安装3、核心代码4、完整代码1、背景介绍简单的说,就是在Excel中有一列h=会有重复

mysql关联查询速度慢的问题及解决

《mysql关联查询速度慢的问题及解决》:本文主要介绍mysql关联查询速度慢的问题及解决方案,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录mysql关联查询速度慢1. 记录原因1.1 在一次线上的服务中1.2 最终发现2. 解决方案3. 具体操作总结mysql

Linux搭建Mysql主从同步的教程

《Linux搭建Mysql主从同步的教程》:本文主要介绍Linux搭建Mysql主从同步的教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录linux搭建mysql主从同步1.启动mysql服务2.修改Mysql主库配置文件/etc/my.cnf3.重启主库my

Python FastAPI入门安装使用

《PythonFastAPI入门安装使用》FastAPI是一个现代、快速的PythonWeb框架,用于构建API,它基于Python3.6+的类型提示特性,使得代码更加简洁且易于绶护,这篇文章主要介... 目录第一节:FastAPI入门一、FastAPI框架介绍什么是ASGI服务(WSGI)二、FastAP

MySql中的数据库连接池详解

《MySql中的数据库连接池详解》:本文主要介绍MySql中的数据库连接池方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录mysql数据库连接池1、概念2、为什么会出现数据库连接池3、原理4、数据库连接池的提供商5、DataSource数据源6、DBCP7、C

Python中Windows和macOS文件路径格式不一致的解决方法

《Python中Windows和macOS文件路径格式不一致的解决方法》在Python中,Windows和macOS的文件路径字符串格式不一致主要体现在路径分隔符上,这种差异可能导致跨平台代码在处理文... 目录方法 1:使用 os.path 模块方法 2:使用 pathlib 模块(推荐)方法 3:统一使

一文教你解决Python不支持中文路径的问题

《一文教你解决Python不支持中文路径的问题》Python是一种广泛使用的高级编程语言,然而在处理包含中文字符的文件路径时,Python有时会表现出一些不友好的行为,下面小编就来为大家介绍一下具体的... 目录问题背景解决方案1. 设置正确的文件编码2. 使用pathlib模块3. 转换路径为Unicod

MySQL的隐式锁(Implicit Lock)原理实现

《MySQL的隐式锁(ImplicitLock)原理实现》MySQL的InnoDB存储引擎中隐式锁是一种自动管理的锁,用于保证事务在行级别操作时的数据一致性和安全性,本文主要介绍了MySQL的隐式锁... 目录1. 背景:什么是隐式锁?2. 隐式锁的工作原理3. 隐式锁的类型4. 隐式锁的实现与源代码分析4