【Python从入门到进阶】64、Pandas如何实现数据的Concat合并

2024-09-08 12:28

本文主要是介绍【Python从入门到进阶】64、Pandas如何实现数据的Concat合并,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

接上篇《63.Pandas如何实现数据的Merge》
上一篇我们学习了Pandas如何实现数据的Merge,本篇我们来继续学习Pandas如何实现数据的Concat合并。

一、引言

在数据处理过程中,经常需要将多个数据集合并为一个统一的数据集,以便进行进一步的分析或建模。这种需求在多种场景下都非常常见,比如合并不同来源的数据集以获取更全面的信息、将时间序列数据按时间顺序拼接起来以观察长期趋势等。在这些情况下,Pandas的concat函数就显得尤为重要,它是实现数据合并的主要工具之一。

在深入探讨concat函数之前,我们先快速回顾一下Pandas库的基本概念和主要功能。Pandas是一个开源的、基于NumPy的Python库,提供了高性能、易用的数据结构和数据分析工具。其核心数据结构包括DataFrame和Series。

●DataFrame:一个二维的、表格型的数据结构,可以看作是一个共享相同索引的Series的字典(或类似字典的对象)。DataFrame既有行索引也有列索引,非常适合存储和操作结构化数据。
●Series:一个一维的、长度可变的、能够保存任何数据类型(整数、字符串、浮点数、Python对象等)的数组,可以被看作是一个固定长度的有序字典。Series有一个索引(index)和一个值(value)数组。

二、Concat合并基础

1、定义与功能

pd.concat()函数是Pandas中用于合并多个Pandas对象(如DataFrame或Series)的函数。它允许用户沿着特定轴(axis)将多个对象合并成一个新的对象。这种合并可以是垂直的(沿着行,即axis=0),也可以是水平的(沿着列,即axis=1)。concat函数非常灵活,能够处理各种复杂的数据合并需求。

2、基本语法

pd.concat()函数的基本使用格式如下:

pd.concat(objs, axis=0, join='outer', ignore_index=False, keys=None, levels=None, names=None, verify_integrity=False, sort=False)

●objs:一个序列或映射的序列,其中的元素是要被合并的Pandas对象(如DataFrame或Series)。
●axis:默认为0,表示沿着行的方向(垂直方向)合并;如果设置为1,则表示沿着列的方向(水平方向)合并。
●ignore_index:默认为False,表示保留原始索引;如果为True,则重新生成一个整数索引。
●join:默认为'outer',表示使用并集的方式合并索引;'inner'表示使用交集的方式合并索引,即只保留在所有对象中都存在的索引。
●其他参数(如keys、levels、names等)提供了更高级的功能,如为合并后的对象添加层级索引等,但在此不展开详述。

通过调整这些参数,用户可以灵活地实现各种数据合并的需求。例如,可以使用ignore_index=True来避免合并后索引的重复或混乱;使用join='inner'来确保合并后的数据在每个对象中都有对应的索引。

三、实战演练:使用Concat合并数据

1. 垂直合并(行合并)

垂直合并,也称为行合并,是将多个DataFrame沿着行方向(即axis=0)合并为一个新的DataFrame。在合并过程中,索引的处理是一个关键考虑点。示例说明如何使用pd.concat()沿着axis=0合并多个DataFrame:

import pandas as pd# 创建两个DadaFrame
df1 = pd.DataFrame({'姓名': ['张三', '李四'],'年龄': [23, 34]
})df2 = pd.DataFrame({'姓名': ['王五', '赵六'],'年龄': [45, 51]
})# 使用Concat沿着axis=0合并(默认值,为行方向)
result_df = pd.concat([df1, df2])print(result_df)

效果:

合并时索引的处理:

●自动排序:默认情况下,合并后的索引是自动排序的,但如果不希望排序,可以通过在concat函数中设置sort=False来避免。
●重复索引:如果合并的DataFrame中存在重复索引,这些索引在结果DataFrame中将被保留。这可能导致后续处理时出现混淆。
●ignore_index参数的使用:通过设置ignore_index=True,可以在合并时忽略原始索引,并重新生成一个从0开始的整数索引。

合并后的结果及其索引变化:

# 使用ignore_index=True重新生成索引  
result_df_reset = pd.concat([df1, df2], ignore_index=True)  print(result_df_reset)

效果:

2. 水平合并(列合并)

水平合并是将多个DataFrame沿着列方向(即axis=1)合并为一个新的DataFrame。在这种合并中,列名的对齐非常重要。

示例说明如何使用axis=1参数进行水平合并:

# 创建另一个DataFrame,注意列名与df1不完全相同  
df3 = pd.DataFrame({  '籍贯': ['郑州', '商丘'],  '邮箱': ['hsdad@126.com', 'sdjfh@136.com']  
})  # 使用axis=1进行水平合并  
result_df_horizontal = pd.concat([df1, df3], axis=1)  print(result_df_horizontal)

效果:

在上述示例中,df1和df3的列名不完全相同,因此它们被简单地并排放置,形成了新的DataFrame result_df_horizontal。

列名(columns)对齐的重要性及不匹配时的处理方式:

●如果合并的DataFrame具有完全相同的列名(不包括索引列),则这些列在结果DataFrame中将被叠加。
●如果列名不匹配,则这些列将简单地并排放置,每个DataFrame的列名保持不变。
●如果需要基于某个或多个键进行列的对齐和合并(类似于SQL中的JOIN操作),则应该使用merge或join方法,而不是concat。

3. 合并Series

Series的合并与DataFrame类似,但也有一些特殊之处。
Series的合并特点:

●Series的合并同样支持垂直合并(沿着索引方向)和水平合并(通过to_frame()转换为DataFrame后再合并)。
●垂直合并时,索引的处理方式与DataFrame相同,包括索引的自动排序、重复索引的处理以及ignore_index参数的使用。
●水平合并通常需要将Series转换为DataFrame,因为Series本身不支持直接的列合并。

以下示例演示如何将多个Series垂直或水平合并:

(1)Series垂直合并
s1 = pd.Series([1, 2], index=['a', 'b'])  
s2 = pd.Series([3, 4], index=['b', 'c'])  # 垂直合并  
result_series = pd.concat([s1, s2], ignore_index=True)  print(result_series)

效果:

(2)Series水平合并(通过转换为DataFrame)
# 将Series转换为DataFrame  
df_s1 = s1.to_frame('Series1')  
df_s2 = s2.to_frame('Series2')  # 水平合并  
result_df_series = pd.concat([df_s1, df_s2], axis=1)  print(result_df_series)

效果:

在水平合并的示例中,我们首先使用to_frame()方法将Series转换为DataFrame,然后使用concat函数沿着axis=1进行合并。这样,我们就能够像合并DataFrame一样合并Series了。

四、进阶应用

1、合并时忽略某些列/行

当我们在合并DataFrame时,有时需要忽略某些列或行。这可以通过在合并之前使用drop方法删除不需要的列,或者使用条件筛选来过滤行。

(1)忽略列

假设我们有两个DataFrame,但只想合并其中的某些列:

import pandas as pd  # 创建两个DataFrame  
df1 = pd.DataFrame({  'A': [1, 2],  'B': [3, 4],  'C': [5, 6]  
})  df2 = pd.DataFrame({  'A': [7, 8],  'B': [9, 10],  'D': [11, 12]  
})  # 忽略'C'列和'D'列,只合并'A'和'B'  
df1_filtered = df1[['A', 'B']]  
df2_filtered = df2[['A', 'B']]  # 合并  
result_df = pd.concat([df1_filtered, df2_filtered])  print(result_df)

效果:

(2)忽略行

忽略行通常通过条件筛选来实现,但在合并上下文中,我们更可能是在合并后处理,或者在合并前分别处理每个DataFrame。这里展示一个合并前筛选的例子:

# 假设我们只想合并df1中'A'列大于1的行  
df1_filtered = df1[df1['A'] > 1]  # 直接与df2合并(这里不筛选df2,仅作示例)  
result_df = pd.concat([df1_filtered, df2])  print(result_df)

效果:


2、合并具有不同列的数据

当两个DataFrame的列不完全相同时,concat或merge(对于基于键的合并)可以处理这种情况。concat会简单地并排放置列,而merge会尝试基于共同列进行匹配。

# 使用concat合并(注意,非共有列将直接并排放置)  
result_concat = pd.concat([df1, df2], axis=0)  # 这里axis=0表示行合并,但为了展示列的不同,实际操作中可能需要根据需求调整  # 使用merge合并(需要基于共同列,这里以'A'为例)  
result_merge = pd.merge(df1, df2[['A', 'D']], on='A', how='outer')  print("result_concat:")
print(result_concat)
print("result_merge:")
print(result_merge)

注意:在上面的merge示例中,我们选择了outer连接方式来保留所有行,但只合并了共有的A列和df2中的D列。
效果:

3、合并多层索引的DataFrame

多层索引(MultiIndex)在Pandas中用于表示具有多个级别的索引。合并多层索引的DataFrame时,需要确保索引的对齐性。

# 创建具有多层索引的DataFrame  
index = pd.MultiIndex.from_tuples([('x', 'a'), ('x', 'b'), ('y', 'a'), ('y', 'b')], names=['level1', 'level2'])  
df_multi = pd.DataFrame({'data': [1, 2, 3, 4]}, index=index)  # 创建另一个具有相同多层索引的DataFrame  
df_multi_2 = pd.DataFrame({'data_2': [5, 6, 7, 8]}, index=index)  # 直接使用concat合并(因为索引完全相同)  
result_multi = pd.concat([df_multi, df_multi_2], axis=1)  print(result_multi)

效果:

在这个例子中,concat能够直接处理多层索引,因为两个DataFrame的索引完全相同。如果索引不完全相同,你可能需要先使用reindex、reset_index或set_index等方法来调整索引,以确保它们可以正确对齐。

至此,关于Pandas如何实现数据Concat合并的内容全部介绍完毕,下一篇我们继续学习Pandas如何批量拆分与合并Excel文件。

转载请注明出处:https://guangzai.blog.csdn.net/article/details/141712490

这篇关于【Python从入门到进阶】64、Pandas如何实现数据的Concat合并的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1148104

相关文章

SpringBoot集成redisson实现延时队列教程

《SpringBoot集成redisson实现延时队列教程》文章介绍了使用Redisson实现延迟队列的完整步骤,包括依赖导入、Redis配置、工具类封装、业务枚举定义、执行器实现、Bean创建、消费... 目录1、先给项目导入Redisson依赖2、配置redis3、创建 RedissonConfig 配

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF