学习Pandas中操作Excel,看这一篇文章就够了
liuian 2025-05-02 11:47 65 浏览
在数据分析和处理领域,Excel文件是常见的数据存储格式之一。Pandas库提供了强大的功能来读取、处理和写入Excel文件。本文将详细介绍如何使用Pandas操作Excel文件,包括读取、数据清洗、数据操作和写入等步骤。
1. 安装与配置
首先,确保你已经安装了Pandas库以及用于读写Excel文件的库(如 openpyxl 或 xlrd)。你可以使用以下命令进行安装:
pip install pandas openpyxl xlrd
2. 读取Excel文件
2.1 基本用法
使用 pd.read_excel() 函数可以从Excel文件中读取数据到DataFrame。以下是一个基本示例:
import pandas as pd
# 读取Excel文件
df = pd.read_excel('data.xlsx')
print(df.head())
2.2 指定工作表
如果Excel文件包含多个工作表,可以使用 sheet_name 参数指定要读取的工作表:
# 读取名为 'Sheet1' 的工作表
df = pd.read_excel('data.xlsx', sheet_name='Sheet1')
print(df.head())
2.3 指定单元格范围
可以使用 usecols 参数指定要读取的列范围,使用 skiprows 和 nrows 参数指定要跳过的行和读取的行数:
# 读取第1到第3列,跳过前2行,读取10行
df = pd.read_excel('data.xlsx', usecols="A:C", skiprows=2, nrows=10)
print(df.head())
3. 数据检查与预处理
3.1 查看数据的基本信息
使用 head()、tail()、info() 和 describe() 函数可以查看数据的基本信息:
print(df.head()) # 显示前5行
print(df.tail()) # 显示后5行
print(df.info()) # 显示数据类型和缺失值信息
print(df.describe()) # 显示统计信息
3.2 数据类型检查与转换
可以使用 dtypes 属性查看数据类型,并使用 astype() 函数进行类型转换:
print(df.dtypes)
df['Column1'] = df['Column1'].astype('int')
3.3 检查缺失值
使用 isnull() 和 sum() 函数检查缺失值:
print(df.isnull().sum())
3.4 处理缺失值
可以使用 fillna() 函数填充缺失值,或使用 dropna() 函数删除包含缺失值的行或列:
# 填充缺失值
df.fillna(0, inplace=True)
# 删除包含缺失值的行
df.dropna(inplace=True)
4. 数据清洗与转换
4.1 重命名列
使用 rename() 函数重命名列:
df.rename(columns={'OldName': 'NewName'}, inplace=True)
4.2 删除重复数据
使用 drop_duplicates() 函数删除重复数据:
df.drop_duplicates(inplace=True)
4.3 数据替换
使用 replace() 函数进行数据替换:
df['Column1'].replace(10, 20, inplace=True)
4.4 数据排序
使用 sort_values() 函数进行数据排序:
df.sort_values(by='Column1', ascending=False, inplace=True)
4.5 数据分组与聚合
使用 groupby() 和 agg() 函数进行数据分组与聚合:
grouped = df.groupby('Category')
result = grouped['Value'].agg(['mean', 'sum'])
print(result)
5. 数据选择与过滤
5.1 按标签选择
使用 loc 按标签选择数据:
subset = df.loc[df['Column1'] > 10]
print(subset)
5.2 按位置选择
使用 iloc 按位置选择数据:
subset = df.iloc[0:5, 1:3]
print(subset)
5.3 布尔索引
使用布尔索引进行数据过滤:
subset = df[df['Column1'] > 10]
print(subset)
5.4 多条件过滤
使用多个条件进行数据过滤:
subset = df[(df['Column1'] > 10) & (df['Column2'] < 20)]
print(subset)
6. 数据操作
6.1 添加、删除列
使用 insert() 函数添加列,使用 drop() 函数删除列:
df.insert(1, 'NewColumn', [1, 2, 3, 4, 5])
df.drop(columns=['OldColumn'], inplace=True)
6.2 数据框合并
使用 concat()、merge() 和 join() 函数进行数据框合并:
# 使用 concat() 合并
df1 = pd.DataFrame({'A': [1, 2], 'B': [3, 4]})
df2 = pd.DataFrame({'A': [5, 6], 'B': [7, 8]})
result = pd.concat([df1, df2], ignore_index=True)
# 使用 merge() 合并
df1 = pd.DataFrame({'key': ['K0', 'K1'], 'A': [1, 2]})
df2 = pd.DataFrame({'key': ['K0', 'K1'], 'B': [3, 4]})
result = pd.merge(df1, df2, on='key')
# 使用 join() 合并
df1 = pd.DataFrame({'A': [1, 2]}, index=['K0', 'K1'])
df2 = pd.DataFrame({'B': [3, 4]}, index=['K0', 'K1'])
result = df1.join(df2)
6.3 数据透视表
使用 pivot_table() 函数创建数据透视表:
pivot_table = df.pivot_table(values='Value', index='Category', columns='Year', aggfunc='mean')
print(pivot_table)
6.4 交叉表
使用 crosstab() 函数创建交叉表:
crosstab = pd.crosstab(df['Category'], df['Year'])
print(crosstab)
7. 写入Excel文件
7.1 基本用法
使用 pd.DataFrame.to_excel() 函数将DataFrame写入Excel文件:
df.to_excel('output.xlsx', index=False)
7.2 指定工作表名称
可以使用 sheet_name 参数指定工作表名称:
df.to_excel('output.xlsx', sheet_name='Sheet1', index=False)
7.3 指定单元格位置
可以使用 startrow 和 startcol 参数指定单元格位置:
df.to_excel('output.xlsx', startrow=1, startcol=2, index=False)
7.4 处理多个工作表
使用 ExcelWriter 类处理多个工作表:
with pd.ExcelWriter('output.xlsx') as writer:
df1.to_excel(writer, sheet_name='Sheet1', index=False)
df2.to_excel(writer, sheet_name='Sheet2', index=False)
7.5 设置样式和格式
可以使用 openpyxl 库设置单元格样式和格式:
from openpyxl import Workbook
from openpyxl.styles import Font
with pd.ExcelWriter('output.xlsx', engine='openpyxl') as writer:
df.to_excel(writer, sheet_name='Sheet1', index=False)
workbook = writer.book
worksheet = workbook['Sheet1']
for cell in worksheet['A'] + worksheet['B']:
cell.font = Font(bold=True)
8. 实战项目
为了使实战项目更具实际操作性,我们设计一个简单的Excel数据集,该数据集包含一些虚拟的销售数据。这个数据集将包括以下列:
- Date:销售日期
- Region:销售区域
- Product:产品名称
- Quantity:销售数量
- Unit Price:单价
- Sales:销售额(通过 Quantity 和 Unit Price 计算得出)
以下是这个数据集的示例数据:
Date | Region | Product | Quantity | Unit Price | Sales |
2023-01-01 | North | ProductA | 10 | 20 | 200 |
2023-01-01 | South | ProductB | 15 | 30 | 450 |
2023-01-02 | East | ProductA | 20 | 20 | 400 |
2023-01-02 | West | ProductC | 25 | 25 | 625 |
2023-01-03 | North | ProductB | 30 | 30 | 900 |
2023-01-03 | South | ProductC | 35 | 25 | 875 |
2023-01-04 | East | ProductA | 40 | 20 | 800 |
2023-01-04 | West | ProductB | 45 | 30 | 1350 |
2023-01-05 | North | ProductC | 50 | 25 | 1250 |
2023-01-05 | South | ProductA | 55 | 20 | 1100 |
你可以将以上数据保存到一个Excel文件中,例如 sales_data.xlsx,并使用以下Python代码来读取、处理和分析这些数据。
8.1 读取真实Excel数据集
读取一个包含销售数据的Excel文件:
import pandas as pd
# 读取Excel文件
df = pd.read_excel('sales_data.xlsx')
print(df.head())
8.2 数据清洗与预处理
进行数据清洗和预处理,包括处理缺失值、重命名列、删除重复数据等:
# 检查缺失值并填充
df.fillna(0, inplace=True)
# 重命名列
df.rename(columns={'Unit Price': 'Unit_Price'}, inplace=True)
# 删除重复数据
df.drop_duplicates(inplace=True)
8.3 数据分析与可视化
进行数据分析和可视化,例如计算销售额总和并绘制图表:
import matplotlib.pyplot as plt
# 计算总销售额
total_sales = df['Sales'].sum()
print(f'Total Sales: {total_sales}')
# 按区域汇总销售额
region_sales = df.groupby('Region')['Sales'].sum()
print(region_sales)
# 绘制销售额柱状图
region_sales.plot(kind='bar')
plt.xlabel('Region')
plt.ylabel('Total Sales')
plt.title('Total Sales by Region')
plt.show()
8.4 将结果写回Excel文件
将处理后的数据和分析结果写回Excel文件:
with pd.ExcelWriter('processed_sales_data.xlsx') as writer:
df.to_excel(writer, sheet_name='Data', index=False)
pd.DataFrame({'Total Sales': [total_sales]}).to_excel(writer, sheet_name='Summary', index=False)
region_sales.to_excel(writer, sheet_name='Region Sales')
9. 性能优化
9.1 数据取样
对于大型数据集,可以使用 sample() 函数进行数据取样:
sampled_df = df.sample(n=1000)
9.2 内存优化
使用 memory_usage() 函数检查内存使用情况,并使用 astype() 函数优化数据类型:
print(df.memory_usage(deep=True))
df['Column1'] = df['Column1'].astype('int32')
9.3 矢量化操作
矢量化操作是指在操作数组或数据时,通过使用向量化函数(通常是数组级函数)来替代显式的循环,以实现更高效的计算。这种方法利用了底层C、Fortran等语言的高效实现,显著提升了计算速度。
在Pandas中,矢量化操作通常涉及对整个Series或DataFrame进行操作,而不需要显式地遍历每个元素。矢量化操作不仅使代码更简洁、更易读,还能大幅提高数据处理的性能。
使用矢量化操作提高性能,例如使用 apply() 函数进行批量操作:
df['NewColumn'] = df['Column1'].apply(lambda x: x * 2)
以下是一些矢量化操作的示例:
示例1:简单数学运算
假设我们有一个包含销售数量的Series,我们希望将每个销售数量乘以2。
传统方法(使用循环):
import pandas as pd
# 创建示例数据
sales_quantities = pd.Series([10, 20, 30, 40, 50])
# 使用循环进行操作
doubled_quantities = []
for quantity in sales_quantities:
doubled_quantities.append(quantity * 2)
doubled_quantities = pd.Series(doubled_quantities)
print(doubled_quantities)
矢量化方法:
# 使用矢量化操作
doubled_quantities = sales_quantities * 2
print(doubled_quantities)
示例2:应用自定义函数
假设我们有一个包含产品价格的DataFrame,我们希望对每个价格应用一个折扣函数。
传统方法(使用循环和apply):
import pandas as pd
# 创建示例数据
data = {'Product': ['A', 'B', 'C'], 'Price': [100, 200, 300]}
df = pd.DataFrame(data)
# 定义折扣函数
def apply_discount(price):
return price * 0.9
# 使用apply方法
df['Discounted_Price'] = df['Price'].apply(apply_discount)
print(df)
矢量化方法:
# 使用矢量化操作
df['Discounted_Price'] = df['Price'] * 0.9
print(df)
示例3:条件操作
假设我们有一个包含销售数据的DataFrame,我们希望根据销售额为每个记录添加一个“高销售”标签。
传统方法(使用循环):
import pandas as pd
# 创建示例数据
data = {'Product': ['A', 'B', 'C'], 'Sales': [150, 300, 450]}
df = pd.DataFrame(data)
# 使用循环进行操作
high_sales_label = []
for sales in df['Sales']:
if sales > 200:
high_sales_label.append('High')
else:
high_sales_label.append('Low')
df['Sales_Label'] = high_sales_label
print(df)
矢量化方法:
# 使用矢量化操作
df['Sales_Label'] = df['Sales'].apply(lambda x: 'High' if x > 200 else 'Low')
print(df)
性能对比
矢量化操作通常比使用循环快得多,尤其是当数据量较大时。下面是一个简单的性能对比示例:
import pandas as pd
import numpy as np
import time
# 创建大规模示例数据
data = np.random.randint(1, 100, size=1000000)
df = pd.DataFrame(data, columns=['Value'])
# 使用循环进行操作
start_time = time.time()
doubled_values = []
for value in df['Value']:
doubled_values.append(value * 2)
doubled_values = pd.Series(doubled_values)
print("Loop time:", time.time() - start_time)
# 使用矢量化操作
start_time = time.time()
doubled_values = df['Value'] * 2
print("Vectorized time:", time.time() - start_time)
Loop time: 0.83 seconds
Vectorized time: 0.02 seconds
请注意,具体的时间取决于执行环境和硬件配置,但一般来说,矢量化操作的性能会显著优于显式循环。这个示例展示了在处理大数据集时,矢量化操作可以显著提升性能,通常会快一个数量级甚至多个数量级。使用矢量化操作不仅使代码更加简洁和易读,还能显著提高数据处理的效率。
相关推荐
- eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级
-
近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...
- SpringBoot异常处理_springboot异常注解
-
在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...
- Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)
-
这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...
- 告别宕机!零基础搭建服务器监控告警系统!小白也能学会!
-
前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...
- httprunner实战接口测试笔记,拿走不谢
-
每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...
- 基于JMeter的性能压测平台实现_jmeter压测方案
-
这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...
- 12K+ Star!新一代的开源持续测试工具!
-
大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...
- Spring Boot3 中分库分表之后如何合并查询
-
在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...
- 离线在docker镜像方式部署ragflow0.17.2
-
经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...
- 看,教你手写一个最简单的SpringBoot Starter
-
何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...
- 《群星stellaris》军事基地跳出怎么办?解决方法一览
-
《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...
- 数据开发工具dbt手拉手教程-03.定义数据源模型
-
本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...
- docker compose 常用命令手册_docker-compose init
-
以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...
- RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现
-
一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...
- Docker Compose 配置更新指南_docker-compose配置
-
高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...
- 一周热门
-
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
Python实现人事自动打卡,再也不会被批评
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
飞牛OS入门安装遇到问题,如何解决?
-
系统C盘清理:微信PC端文件清理,扩大C盘可用空间步骤
-
10款高性能NAS丨双十一必看,轻松搞定虚拟机、Docker、软路由
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)
- mysql刷新权限 (34)