Pandas 的Merge函数详解

在日常工作中,我们可能会从多个数据集中获取数据,并且希望合并两个或多个不同的数据集。这时就可以使用Pandas包中的Merge函数。在本文中,我们将介绍用于合并数据的三个函数

merge

merge_ordered

merge_asof

merge

merge函数是Pandas中执行基本数据集合并的首选函数。函数将根据给定的数据集索引或列组合两个数据集。

我们使用下面试示例:

 import pandas as pdcustomer = pd.DataFrame({'cust_id': [1,2,3,4,5],'cust_name': ['Maria', 'Fran', 'Dominique', 'Elsa', 'Charles'],'country': ['German', 'Spain', 'Japan', 'Poland', 'Argentina']})order = pd.DataFrame({'order_id': [200, 201,202,203,204],'cust_id':[1,3,3,4,2],'order_date': ['2014-07-05', '2014-07-06', '2014-07-07', '2014-07-07', '2014-07-08'],'order_value': [10.1, 20.5, 18.7, 19.1, 13.5]})

我们尝试模拟两个不同的数据集:客户和订单数据,其中cust_id列同时存在于两个DataFrame中。

 pd.merge(customer, order)

默认情况下,merge函数是这样工作的:

将按列合并,并尝试从两个数据集中找到公共列,使用来自两个DataFrame(内连接)的列值之间的交集。

列和索引合并

在上面合并的数据集中,merge函数在cust_id列上连接两个数据集,因为它是唯一的公共列。我们也可以指定要在两个数据集上连接的列名。

如果两个列的名称都存在于两个DataFrame中,则可以使用参数on。

 pd.merge(customer, order, on = 'cust_id')

结果与前面的示例类似,因为cust_id是唯一的公共列。但是如果两个DataFrame都包含两个或多个具有相同名称的列,则这个参数就很重要。

我们来创建一个包含两个相似列的数据。

 customer = pd.DataFrame({'cust_id': [1,2,3,4,5],'cust_name': ['Maria', 'Fran', 'Dominique', 'Elsa', 'Charles'],'country': ['German', 'Spain', 'Japan', 'Poland', 'Argentina']})order = pd.DataFrame({'order_id': [200, 201,202,203,204],'cust_id':[1,3,3,4,2],'order_date': ['2014-07-05', '2014-07-06', '2014-07-07', '2014-07-07', '2014-07-08'],'order_value': [10.1, 20.5, 18.7, 19.1, 13.5],'country' : ['German', 'Indonesia', 'Armenia', 'Singapore', 'Japan']})

数据集现在包含两个名称相似的列:cust_id和country。让我们看看如果使用默认方法合并两个DataFrame会发生什么。

 pd.merge(customer, order)

只剩下一行了,这是因为merge函数将使用与键名相同的所有列来合并两个数据集。所以现在是通过cust_id和country中找到的相同值来实现合并的。

还有一个问题,我们指定一个列后,其他的重复列(这里是country),现在存在country_x和country_y列。这两列是来自各自数据集的国家列。country_x来自Customer数据集,country_y来自Order数据集。

为了帮助区分合并过程中相同列名的结果,我们可以将一个元组对象传递给suffix参数。

 pd.merge(customer, order, on ='cust_id', suffixes = ('_customer', '_order'))

使用suffix参数,可以让我们避免混淆,或者在合并前我们直接将列改名

 customer = customer.rename(columns = {'country':'customer_country'})order = order.rename(columns = {'country':'delivery_country'})

这样就不会造成混淆了。

然是如果我们要合并的列名在两个数据集不同时,on参数就没有效果了,这时就需要使用left_on和right_on参数,我们这里以刚刚改名的country列为例:

 pd.merge(customer, order, left_on = 'customer_country', right_on = 'delivery_country',suffixes = ('_customer', '_order'))

在上面的代码中,我们将左侧数据集(Customer)上想要合并的列传递给left_on参数,将右侧数据集(Order)的列名传递给right_on参数。

left_on和right_on参数是串联工作的,因此我们不能在left_on参数中传递列名,而将right_on参数保留为空。

我们也可以使用left_index和right_index来替换left_on和right_on参数。right_index和left_index参数控制merge函数,以根据索引而不是列连接数据集。

 pd.merge(customer, order, left_index = True,  right_on = 'cust_id', suffixes = ('_customer', '_order'))

在上面的代码将True值传递给left_index参数,表示希望使用左侧数据集上的索引作为连接键。合并过程类似于下图。

当我们按索引和列合并时,DataFrame结果将由于合并(匹配的索引)会增加一个额外的列。

合并类型介绍

默认情况下,当我们合并数据集时,merge函数将执行Inner Join。在Inner Join中,根据键之间的交集选择行。匹配在两个键列或索引中找到的相同值。

下图显示了Inner Join图,其中只选择了Customer和Order数据集上的列和/或索引之间匹配的值。

 pd.merge(customer, order, left_on = 'customer_country',  right_on = 'delivery_country', suffixes = ('_customer', '_order'),how = 'inner')

我们也可以使用左连接和右连接来保留想要的DataFrame。

 pd.merge(customer, order, left_on = 'customer_country',  right_on = 'delivery_country', suffixes = ('_customer', '_order'),how = 'left', indicator = True)

上面的代码,所有与订单数据值不匹配的客户数据值都用NaN值填充。

indicator=True参数,将创建_merge列。在上面的结果中,可以看到两个值都表明该行来自DataFrame和left_only的交集,其中该行来自第一个DataFrame(左侧)。

如果要执行右连接,可以使用以下代码。

 pd.merge(customer, order, left_on = 'customer_country',  right_on = 'delivery_country', suffixes = ('_customer', '_order'),how = 'right', indicator = True)

还可以在合并过程中使用外连接来保留两个DataFrame。我们可以把外连接看作是同时进行的左连接和右连接。

最后就是交叉连接,将合并两个DataFrame之间的每个数据行。

让我们用下面的代码尝试交叉连接。

 pd.merge(customer, order, how = 'cross', suffixes = ('_customer', '_order'))

DataFrame将Customer数据中的每一行都与Order数据结合起来。

merge_ordered

在 Pandas 中,

merge_ordered

是一种用于合并有序数据的函数。它类似于

merge

函数,但适用于处理时间序列数据或其他有序数据。

merge_ordered

在合并时会保留原始数据的顺序,并且支持对缺失值进行处理。

 pd.merge_ordered(customer, order)

默认情况下,merge_ordered将执行Outer Join并根据连接键对数据进行排序。我们也可以像更改合并类型一样调整how参数。

merge_ordered是为有序数据(如时间序列)开发的。所以我们创建另一个名为Delivery的数据集来模拟时间序列数据合并。

 order = pd.DataFrame({'order_id': [200, 201,202,203,204],'cust_id':[1,3,3,4,2],'order_date': ['2014-07-05', '2014-07-06', '2014-07-07', '2014-07-07', '2014-07-08'],'order_value': [10.1, 20.5, 18.7, 19.1, 13.5],'delivery_country' : ['German', 'Indonesia', 'Armenia', 'Singapore', 'Japan']})delivery = pd.DataFrame({'delivery_date': ['2014-07-06', '2014-07-08', '2014-07-09', '2014-07-10'], 'product': ['Apple', 'Apple', 'Orange', 'Orange']})

让我们假设delivery_date是投递时间,它包含与Order数据集中的order_date一起使用。另外就是我们还需要将日期列转换为datetime对象。

 order['order_date'] = pd.to_datetime(order['order_date'])delivery['delivery_date'] = pd.to_datetime(delivery['delivery_date'])

让我们尝试按日期列合并两个数据集。

 pd.merge_ordered(order, delivery, left_on = 'order_date', right_on = 'delivery_date')

合并的DataFrame是按连接键排序的Order和Delivery数据集的Outer Join结果。

由于是外连接,一些数据点是空的。对于merge_ordered,有一个选项可以通过使用fill_method参数来填充缺失的值。

 pd.merge_ordered(order, delivery, left_on = 'order_date', right_on = 'delivery_date', fill_method = 'ffill' )

在上面的DataFrame中执行前向填充方法来计算缺失的值。

最后merge_ordered函数还可以基于数据集列执行DataFrame分组,并将它们一块一块地合并到另一个数据集。

 pd.merge_ordered(order, delivery, left_on = 'order_date', right_on = 'delivery_date', right_by = 'product')

在上面的代码中将product列传递给right_by参数,这样product列中的每个值都映射到每个可用行,并且用于对数据进行分组的同一DataFrame中不存在的数据用NaN填充。

为了进一步理解,我们在合并之前添加日期来对数据进行分组。

 pd.merge_ordered(order, delivery, left_on = 'order_date', right_on = 'delivery_date', right_by = ['delivery_date','product'])

在上面的合并过程中,我们最终得到了4个不同的组:

     ['2014–07–06', 'Apple'],['2014–07–08', 'Apple'],['2014–07–09', 'Orange'],['2014–07–10', 'Orange']

该组基于所使用列中的现有行,因此它不是所有惟一值的组合。例如,没有[’ 2014-07-09 ',‘Apple’]组,因为此数据不存在。

在上面的DataFrame中可以看到Order数据集中的每一行都映射到Delivery数据集中的组。

merge_asof

merge_asof

是一种用于按照最近的关键列值合并两个数据集的函数。这个函数用于处理时间序列数据或其他有序数据,并且可以根据指定的列或索引按照最接近的值进行合并。

 order = pd.DataFrame({'order_id': [199, 200, 201,202,203,204],'cust_id':[1,1,3,3,4,2],'order_date': ['2014-07-01', '2014-07-05', '2014-07-06', '2014-07-07', '2014-07-07', '2014-07-08'],'order_value': [11, 10.1, 20.5, 18.7, 19.1, 13.5],'delivery_country' : ['Poland', 'German', 'Indonesia', 'Armenia', 'Singapore', 'Japan']})delivery = pd.DataFrame({'delivery_date': ['2014-07-06', '2014-07-08', '2014-07-09', '2014-07-10'], 'product': ['Apple', 'Apple', 'Orange', 'Orange']})

使用merge_asof函数的一个注意事项是,必须按键对两个DataFrame进行排序。这是因为它将根据键的距离合并键,而未排序的DataFrame将抛出错误消息。

使用merge_asof类似于其他的合并操作,需要传递想要合并的DataFrame及其键名称。

 pd.merge_asof(order, delivery, left_on = 'order_date', right_on = 'delivery_date')

我们可以看到一些数据被合并了,但不是精确的值匹配。比如在第三行和第四行,order_date值为“2014-07-07”,但delivery_date为“2014-07-06”。

使用merge_asof会丢失数据。默认情况下它查找最接近匹配的已排序的键。在上面的代码中,与delivery_date不完全匹配的order_date试图在delivery_date列中找到与order_date值较小或相等的键。

delivery_date中小于等于order_date’ 2014-07-07 ‘的值为’ 2014-07-06 '。这就是为什么合并发生在这个键上。而order_date ’ 2017-04-01 ‘和’ 2017-04-05 '根本没有匹配,因为在delivery_date中没有小于或等于它们的值的值。

如果在正确的DataFrame中有多个重复的键,则只有最后一行用于合并过程。例如将更改delivery_date数据,使其具有多个不同产品的“2014-07-06”值。

 delivery = pd.DataFrame({'delivery_date': ['2014-07-06', '2014-07-06', '2014-07-08', '2014-07-10'], 'product': ['Apple', 'Orange', 'Apple', 'Orange']})

然后我们将执行与之前相同的合并过程。

 pd.merge_asof(order, delivery, left_on = 'order_date', right_on = 'delivery_date')

可以看到,合并过程对Orange产品而不是Apple产品使用delivery_date ,尽管两者具有相同的键值。另外具有精确匹配的键也会受到影响,它们会选择最后一行键。

可以通过设置allow_exact_matches=False来关闭精确匹配合并。

 pd.merge_asof(order, delivery, left_on = 'order_date', right_on = 'delivery_date', allow_exact_matches = False)

通过使用direction 参数来改变查找键的策略。例如使用向前策略:

 pd.merge_asof(order, delivery, left_on = 'order_date', right_on = 'delivery_date', direction = 'forward')

向前策略与向后策略类似,不同之处在于该函数将通过查看大于或等于正确DataFrame键的值来尝试合并。

另一个可以使用的策略是就近策略。在这个策略中使用向后或向前策略;取绝对距离中最近的那个。如果有多个最接近的键或精确匹配,则使用向后策略。

 pd.merge_asof(order, delivery, left_on = 'order_date',right_on = 'delivery_date', direction = 'nearest')

最后还可以通过使用tolerance 参数来控制键之间的距离。

 pd.merge_asof(order, delivery, left_on = 'order_date', right_on = 'delivery_date', direction = 'forward', tolerance = pd.Timedelta(1, 'd'))

在上面的示例中,只有第一行包含缺失值。这是因为order_date第一行与最近的日期delivery_date之间的距离大于一天。第二行成功合并,因为只差一天。

总结

Pandas函数提供了Merge函数可以轻松的帮助我们合并数据,而merge_ordered函数和merge_asof可以帮助我们进行更加定制化的合并工作,虽然这两个函数可能并不常见,但是它们的确在一些特殊的需求上非常的好用。

https://avoid.overfit.cn/post/9928a4b397734cfcb4aea5a232eec095

作者:Cornellius Yudha Wijaya

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/78841.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

算法练习--leetcode 数组

文章目录 爬楼梯问题裴波那契数列两数之和 [数组]合并两个有序数组移动零找到所有数组中消失的数字三数之和 爬楼梯问题 输入n阶楼梯,每次爬1或者2个台阶,有多少种方法可以爬到楼顶? 示例1:输入2, 输出2 一次爬2阶&a…

743. 网络延迟时间

有 n 个网络节点,标记为 1 到 n。 给你一个列表 times,表示信号经过 有向 边的传递时间。 times[i] (ui, vi, wi),其中 ui 是源节点,vi 是目标节点, wi 是一个信号从源节点传递到目标节点的时间。 现在,…

用 Gaussian Process 建模 state-action 空间相关性,加速 Multi-Fidelity RL

1 intro 利用相邻 state-action 的空间相关性来加速学习:通过 Gaussian Process(GP)作为函数逼近器。主要贡献:两个算法。 model-based MFRL 算法 GP-VI-MFRL,估计转换函数,然后使用 value iteration 计算…

rust基础

这是笔者学习rust的学习笔记(如有谬误,请君轻喷) 参考视频: https://www.bilibili.com/video/BV1hp4y1k7SV参考书籍:rust程序设计语言:https://rust.bootcss.com/title-page.htmlmarkdown地址:h…

金鸣识别将无表格线的图片转为excel的几个常用方案

我们知道,金鸣识别要将横竖线齐全的表格图片转为excel非常简单,但要是表格线不齐全甚至没有表格线的图片呢?这就没那么容易了,在识别这类图片时,我们一般会使用以下的一种或多种方法进行处理: 1. 基于布局…

【Unity 实用工具篇】✨| 学会使用 可编程瓦片Tile Map,快速搭建2D地图

前言【【Unity 实用工具篇】✨| 学会使用 可编程瓦片Tile Map,快速搭建2D地图一、导入 Tile Map Editor二、创建调色板 Tile Palette三、快速绘制地图四、TilePalette 调色板功能介绍五、TileMap 相关组件属性介绍GirdTilemapTilemap Renderer 瓦片地图渲染器Tile Assets 瓦片…

ArcGIS Pro简介下载安装地址

ArcGIS Pro简介 ArcGIS Pro是一款功能强大的地理信息系统(GIS)软件,由Esri开发。它为用户提供了一种直观、灵活且高效的方式来处理、分析和可视化地理数据。ArcGIS Pro具有现代化的用户界面和工作流程,使用户能够更好地利用地理信…

【项目 计网2】4.4网络模型 4.5协议 4.6网络通信的过程

文章目录 4.4网络模型OSI七层参考模型TCP/IP四层模型(常用)简介四层介绍 4.5协议简介常见协议UDP协议TCP协议IP协议以太网帧协议(MAC地址封装)ARP协议(IP->MAC) 4.6网络通信的过程封装分用 4.4网络模型 …

list删除重复元素几种思路

文章目录 list删除重复元素几种思路hashsetStream流删除所有重复元素 list删除重复元素几种思路 hashset List<String> list2 new ArrayList<>();list2.add("a");list2.add("b");list2.add("a");Set<String> set new HashS…

uni-app uView自定义底部导航栏

因项目需要自定义底部导航栏&#xff0c;我把它写在了组件里&#xff0c;基于uView2框架写的&#xff08;vue2&#xff09;&#xff1b; 一、代码 在components下创建tabbar.vue文件&#xff0c;代码如下&#xff1a; <template><view><u-tabbar :value"c…

macbook 安装 Git 和 安装 Homebrew

使用MacBook 时&#xff0c;需要拉取代码&#xff0c;我们需要使用到 Git&#xff0c;但 MacBook 中并没安装&#xff0c;这里我们分享一下安装过程。其他方式可查看参考文献中的方法。 一、使用终端直接安装 在新版的 MacBook 中&#xff0c;可以使用终端直接安装 Git&#…

ensp与虚拟机搭建测试环境

1.虚拟机配置 ①首先确定VMnet8 IP地址&#xff0c;若要修改IP地址&#xff0c;保证在启动Ensp前操作 ②尽量保证NAT模式 2.ensp配置 (1)拓扑结构 (2)Cloud配置 ①首先点击 绑定信息 UDP → 增加 ②然后点击 绑定信息 VMware ... → 增加 ③最后在 端口映射设置上点击双向通…

算法练习--leetcode 链表

文章目录 合并两个有序链表删除排序链表中的重复元素 1删除排序链表中的重复元素 2环形链表1环形链表2相交链表反转链表 合并两个有序链表 将两个升序链表合并为一个新的 升序 链表并返回。 新链表是通过拼接给定的两个链表的所有节点组成的。 示例 1&#xff1a; 输入&…

Axure RP9中使用Echarts示例

目录 在Axure中拖入一个矩形框&#xff0c;并命名tes 进入Echarts官网示例页面https://echarts.apache.org/examples/zh/index.html 选择自己需要的图表&#xff0c;修改数据&#xff0c;并复制左侧js代码 把上面复制的代码替换下方的option{}; javascript: var script docum…

工作记录------单元测试(持续更新)

工作记录------单元测试 之前的工作中从来没有写过单元测试&#xff0c;新入职公司要求写单元测试&#xff0c; 个人觉得&#xff0c;作为程序员单元测试还是必须会写的 于此记录一下首次编写单元测试的过程。 首先引入单元测试相关的依赖 <dependency><groupId>…

[深度学习入门]PyTorch深度学习[Numpy基础](上)

目录 一、前言二、Numpy概述三、生成Numpy数组3.1 从已有数据中创建数组3.2 利用random模块生成数组3.3 创建特定形状的多维数组3.4 利用arange和linspace函数生成数组 四、获取元素五、Numpy的算术运算5.1 对应元素相乘5.2 点积运算 六、后记 本文的目标受众&#xff1a; 对机…

改进粒子群算法优化BP神经网络---回归+分类两种案例

今天采用改进的粒子群算法(LPSO)优化算法优化BP神经网络。本文选用的LPSO算法是之前作者写过的一篇文章&#xff1a;基于改进莱维飞行和混沌映射&#xff08;10种混沌映射随意切换&#xff09;的粒子群优化算法&#xff0c;附matlab代码 文章一次性讲解两种案例&#xff0c;回归…

Maven出现报错 ; Unable to import maven project: See logs for details错误的多种解决方法

问题现象; IDEA版本&#xff1a; Maven 版本 &#xff1a; 3.3.9 0.检查 maven 的设置 &#xff1a;F:\softeware\maven\apache-maven-3.9.3\conf 检查setting.xml 配置 本地仓库<localRepository>F:\softeware\maven\local\repository</localRepository>镜像…

xLua学习

xLua教程&#xff1a;https://github.com/Tencent/xLua/blob/master/Assets/XLua/Doc/XLua%E6%95%99%E7%A8%8B.md xLua配置&#xff1a;https://github.com/Tencent/xLua/blob/master/Assets/XLua/Doc/configure.md FAQ&#xff1a;https://github.com/Tencent/xLua/blob/maste…