学习Pandas中操作Excel,看这一篇文章就够了
liuian 2025-05-02 11:47 29 浏览
在数据分析和处理领域,Excel文件是常见的数据存储格式之一。Pandas库提供了强大的功能来读取、处理和写入Excel文件。本文将详细介绍如何使用Pandas操作Excel文件,包括读取、数据清洗、数据操作和写入等步骤。
1. 安装与配置
首先,确保你已经安装了Pandas库以及用于读写Excel文件的库(如 openpyxl 或 xlrd)。你可以使用以下命令进行安装:
pip install pandas openpyxl xlrd
2. 读取Excel文件
2.1 基本用法
使用 pd.read_excel() 函数可以从Excel文件中读取数据到DataFrame。以下是一个基本示例:
import pandas as pd
# 读取Excel文件
df = pd.read_excel('data.xlsx')
print(df.head())
2.2 指定工作表
如果Excel文件包含多个工作表,可以使用 sheet_name 参数指定要读取的工作表:
# 读取名为 'Sheet1' 的工作表
df = pd.read_excel('data.xlsx', sheet_name='Sheet1')
print(df.head())
2.3 指定单元格范围
可以使用 usecols 参数指定要读取的列范围,使用 skiprows 和 nrows 参数指定要跳过的行和读取的行数:
# 读取第1到第3列,跳过前2行,读取10行
df = pd.read_excel('data.xlsx', usecols="A:C", skiprows=2, nrows=10)
print(df.head())
3. 数据检查与预处理
3.1 查看数据的基本信息
使用 head()、tail()、info() 和 describe() 函数可以查看数据的基本信息:
print(df.head()) # 显示前5行
print(df.tail()) # 显示后5行
print(df.info()) # 显示数据类型和缺失值信息
print(df.describe()) # 显示统计信息
3.2 数据类型检查与转换
可以使用 dtypes 属性查看数据类型,并使用 astype() 函数进行类型转换:
print(df.dtypes)
df['Column1'] = df['Column1'].astype('int')
3.3 检查缺失值
使用 isnull() 和 sum() 函数检查缺失值:
print(df.isnull().sum())
3.4 处理缺失值
可以使用 fillna() 函数填充缺失值,或使用 dropna() 函数删除包含缺失值的行或列:
# 填充缺失值
df.fillna(0, inplace=True)
# 删除包含缺失值的行
df.dropna(inplace=True)
4. 数据清洗与转换
4.1 重命名列
使用 rename() 函数重命名列:
df.rename(columns={'OldName': 'NewName'}, inplace=True)
4.2 删除重复数据
使用 drop_duplicates() 函数删除重复数据:
df.drop_duplicates(inplace=True)
4.3 数据替换
使用 replace() 函数进行数据替换:
df['Column1'].replace(10, 20, inplace=True)
4.4 数据排序
使用 sort_values() 函数进行数据排序:
df.sort_values(by='Column1', ascending=False, inplace=True)
4.5 数据分组与聚合
使用 groupby() 和 agg() 函数进行数据分组与聚合:
grouped = df.groupby('Category')
result = grouped['Value'].agg(['mean', 'sum'])
print(result)
5. 数据选择与过滤
5.1 按标签选择
使用 loc 按标签选择数据:
subset = df.loc[df['Column1'] > 10]
print(subset)
5.2 按位置选择
使用 iloc 按位置选择数据:
subset = df.iloc[0:5, 1:3]
print(subset)
5.3 布尔索引
使用布尔索引进行数据过滤:
subset = df[df['Column1'] > 10]
print(subset)
5.4 多条件过滤
使用多个条件进行数据过滤:
subset = df[(df['Column1'] > 10) & (df['Column2'] < 20)]
print(subset)
6. 数据操作
6.1 添加、删除列
使用 insert() 函数添加列,使用 drop() 函数删除列:
df.insert(1, 'NewColumn', [1, 2, 3, 4, 5])
df.drop(columns=['OldColumn'], inplace=True)
6.2 数据框合并
使用 concat()、merge() 和 join() 函数进行数据框合并:
# 使用 concat() 合并
df1 = pd.DataFrame({'A': [1, 2], 'B': [3, 4]})
df2 = pd.DataFrame({'A': [5, 6], 'B': [7, 8]})
result = pd.concat([df1, df2], ignore_index=True)
# 使用 merge() 合并
df1 = pd.DataFrame({'key': ['K0', 'K1'], 'A': [1, 2]})
df2 = pd.DataFrame({'key': ['K0', 'K1'], 'B': [3, 4]})
result = pd.merge(df1, df2, on='key')
# 使用 join() 合并
df1 = pd.DataFrame({'A': [1, 2]}, index=['K0', 'K1'])
df2 = pd.DataFrame({'B': [3, 4]}, index=['K0', 'K1'])
result = df1.join(df2)
6.3 数据透视表
使用 pivot_table() 函数创建数据透视表:
pivot_table = df.pivot_table(values='Value', index='Category', columns='Year', aggfunc='mean')
print(pivot_table)
6.4 交叉表
使用 crosstab() 函数创建交叉表:
crosstab = pd.crosstab(df['Category'], df['Year'])
print(crosstab)
7. 写入Excel文件
7.1 基本用法
使用 pd.DataFrame.to_excel() 函数将DataFrame写入Excel文件:
df.to_excel('output.xlsx', index=False)
7.2 指定工作表名称
可以使用 sheet_name 参数指定工作表名称:
df.to_excel('output.xlsx', sheet_name='Sheet1', index=False)
7.3 指定单元格位置
可以使用 startrow 和 startcol 参数指定单元格位置:
df.to_excel('output.xlsx', startrow=1, startcol=2, index=False)
7.4 处理多个工作表
使用 ExcelWriter 类处理多个工作表:
with pd.ExcelWriter('output.xlsx') as writer:
df1.to_excel(writer, sheet_name='Sheet1', index=False)
df2.to_excel(writer, sheet_name='Sheet2', index=False)
7.5 设置样式和格式
可以使用 openpyxl 库设置单元格样式和格式:
from openpyxl import Workbook
from openpyxl.styles import Font
with pd.ExcelWriter('output.xlsx', engine='openpyxl') as writer:
df.to_excel(writer, sheet_name='Sheet1', index=False)
workbook = writer.book
worksheet = workbook['Sheet1']
for cell in worksheet['A'] + worksheet['B']:
cell.font = Font(bold=True)
8. 实战项目
为了使实战项目更具实际操作性,我们设计一个简单的Excel数据集,该数据集包含一些虚拟的销售数据。这个数据集将包括以下列:
- Date:销售日期
- Region:销售区域
- Product:产品名称
- Quantity:销售数量
- Unit Price:单价
- Sales:销售额(通过 Quantity 和 Unit Price 计算得出)
以下是这个数据集的示例数据:
Date | Region | Product | Quantity | Unit Price | Sales |
2023-01-01 | North | ProductA | 10 | 20 | 200 |
2023-01-01 | South | ProductB | 15 | 30 | 450 |
2023-01-02 | East | ProductA | 20 | 20 | 400 |
2023-01-02 | West | ProductC | 25 | 25 | 625 |
2023-01-03 | North | ProductB | 30 | 30 | 900 |
2023-01-03 | South | ProductC | 35 | 25 | 875 |
2023-01-04 | East | ProductA | 40 | 20 | 800 |
2023-01-04 | West | ProductB | 45 | 30 | 1350 |
2023-01-05 | North | ProductC | 50 | 25 | 1250 |
2023-01-05 | South | ProductA | 55 | 20 | 1100 |
你可以将以上数据保存到一个Excel文件中,例如 sales_data.xlsx,并使用以下Python代码来读取、处理和分析这些数据。
8.1 读取真实Excel数据集
读取一个包含销售数据的Excel文件:
import pandas as pd
# 读取Excel文件
df = pd.read_excel('sales_data.xlsx')
print(df.head())
8.2 数据清洗与预处理
进行数据清洗和预处理,包括处理缺失值、重命名列、删除重复数据等:
# 检查缺失值并填充
df.fillna(0, inplace=True)
# 重命名列
df.rename(columns={'Unit Price': 'Unit_Price'}, inplace=True)
# 删除重复数据
df.drop_duplicates(inplace=True)
8.3 数据分析与可视化
进行数据分析和可视化,例如计算销售额总和并绘制图表:
import matplotlib.pyplot as plt
# 计算总销售额
total_sales = df['Sales'].sum()
print(f'Total Sales: {total_sales}')
# 按区域汇总销售额
region_sales = df.groupby('Region')['Sales'].sum()
print(region_sales)
# 绘制销售额柱状图
region_sales.plot(kind='bar')
plt.xlabel('Region')
plt.ylabel('Total Sales')
plt.title('Total Sales by Region')
plt.show()
8.4 将结果写回Excel文件
将处理后的数据和分析结果写回Excel文件:
with pd.ExcelWriter('processed_sales_data.xlsx') as writer:
df.to_excel(writer, sheet_name='Data', index=False)
pd.DataFrame({'Total Sales': [total_sales]}).to_excel(writer, sheet_name='Summary', index=False)
region_sales.to_excel(writer, sheet_name='Region Sales')
9. 性能优化
9.1 数据取样
对于大型数据集,可以使用 sample() 函数进行数据取样:
sampled_df = df.sample(n=1000)
9.2 内存优化
使用 memory_usage() 函数检查内存使用情况,并使用 astype() 函数优化数据类型:
print(df.memory_usage(deep=True))
df['Column1'] = df['Column1'].astype('int32')
9.3 矢量化操作
矢量化操作是指在操作数组或数据时,通过使用向量化函数(通常是数组级函数)来替代显式的循环,以实现更高效的计算。这种方法利用了底层C、Fortran等语言的高效实现,显著提升了计算速度。
在Pandas中,矢量化操作通常涉及对整个Series或DataFrame进行操作,而不需要显式地遍历每个元素。矢量化操作不仅使代码更简洁、更易读,还能大幅提高数据处理的性能。
使用矢量化操作提高性能,例如使用 apply() 函数进行批量操作:
df['NewColumn'] = df['Column1'].apply(lambda x: x * 2)
以下是一些矢量化操作的示例:
示例1:简单数学运算
假设我们有一个包含销售数量的Series,我们希望将每个销售数量乘以2。
传统方法(使用循环):
import pandas as pd
# 创建示例数据
sales_quantities = pd.Series([10, 20, 30, 40, 50])
# 使用循环进行操作
doubled_quantities = []
for quantity in sales_quantities:
doubled_quantities.append(quantity * 2)
doubled_quantities = pd.Series(doubled_quantities)
print(doubled_quantities)
矢量化方法:
# 使用矢量化操作
doubled_quantities = sales_quantities * 2
print(doubled_quantities)
示例2:应用自定义函数
假设我们有一个包含产品价格的DataFrame,我们希望对每个价格应用一个折扣函数。
传统方法(使用循环和apply):
import pandas as pd
# 创建示例数据
data = {'Product': ['A', 'B', 'C'], 'Price': [100, 200, 300]}
df = pd.DataFrame(data)
# 定义折扣函数
def apply_discount(price):
return price * 0.9
# 使用apply方法
df['Discounted_Price'] = df['Price'].apply(apply_discount)
print(df)
矢量化方法:
# 使用矢量化操作
df['Discounted_Price'] = df['Price'] * 0.9
print(df)
示例3:条件操作
假设我们有一个包含销售数据的DataFrame,我们希望根据销售额为每个记录添加一个“高销售”标签。
传统方法(使用循环):
import pandas as pd
# 创建示例数据
data = {'Product': ['A', 'B', 'C'], 'Sales': [150, 300, 450]}
df = pd.DataFrame(data)
# 使用循环进行操作
high_sales_label = []
for sales in df['Sales']:
if sales > 200:
high_sales_label.append('High')
else:
high_sales_label.append('Low')
df['Sales_Label'] = high_sales_label
print(df)
矢量化方法:
# 使用矢量化操作
df['Sales_Label'] = df['Sales'].apply(lambda x: 'High' if x > 200 else 'Low')
print(df)
性能对比
矢量化操作通常比使用循环快得多,尤其是当数据量较大时。下面是一个简单的性能对比示例:
import pandas as pd
import numpy as np
import time
# 创建大规模示例数据
data = np.random.randint(1, 100, size=1000000)
df = pd.DataFrame(data, columns=['Value'])
# 使用循环进行操作
start_time = time.time()
doubled_values = []
for value in df['Value']:
doubled_values.append(value * 2)
doubled_values = pd.Series(doubled_values)
print("Loop time:", time.time() - start_time)
# 使用矢量化操作
start_time = time.time()
doubled_values = df['Value'] * 2
print("Vectorized time:", time.time() - start_time)
Loop time: 0.83 seconds
Vectorized time: 0.02 seconds
请注意,具体的时间取决于执行环境和硬件配置,但一般来说,矢量化操作的性能会显著优于显式循环。这个示例展示了在处理大数据集时,矢量化操作可以显著提升性能,通常会快一个数量级甚至多个数量级。使用矢量化操作不仅使代码更加简洁和易读,还能显著提高数据处理的效率。
相关推荐
- 使用Assembly打包和部署Spring Boot工程
-
SpringBoot项目的2种部署方式目前来说,SpringBoot项目有如下2种常见的部署方式一种是使用docker容器去部署。将SpringBoot的应用构建成一个docke...
- java高级用法之:调用本地方法的利器JNA
-
简介JAVA是可以调用本地方法的,官方提供的调用方式叫做JNI,全称叫做javanativeinterface。要想使用JNI,我们需要在JAVA代码中定义native方法,然后通过javah命令...
- Linux中如何通过Shell脚本来控制Spring Boot的Jar包启停服务?
-
SpringBoot项目在为开发者带来方便的同时,也带来了一个新的问题就是Jar包如何启动?在一般情况下我们都是采用了最为经典的java-jar命令来进行启动。然后通过ps命令找到对应的应用线程通...
- 牛逼!自己手写一个热加载(人民币手写符号一个横还是两个横)
-
热加载:在不停止程序运行的情况下,对类(对象)的动态替换JavaClassLoader简述Java中的类从被加载到内存中到卸载出内存为止,一共经历了七个阶段:加载、验证、准备、解析、初始化、使用、...
- java 错误: 找不到或无法加载主类?看看怎么解决吧!
-
问题扫述:项目名称调整,由原来的com.mp.qms.report.biz调整为com.mp.busicen.mec.qms.report.biz后。项目在IDEA直接运行,但打包部署到服务器...
- 如何将 Spring Boot 工程打包成独立的可执行 JAR 包
-
导语:通过将SpringBoot项目打包成独立的可执行JAR包,可以方便地在任何支持Java环境的机器上运行项目。本文将详细介绍如何通过Maven构建插件将SpringBoot...
- class 增量发包改造为 jar 包方式发布
-
大纲class增量发包介绍项目目录结构介绍jar包方式发布落地方案class增量发包介绍当前项目的迭代修复都是通过class增量包来发版本的将改动的代码class增量打包,如下图cla...
- Jar启动和IDE里启动Sprintboot的区别
-
想聊明白这个问题,需要补充一些前提条件,比如Fatjar、类加载机制等1、Fatjar我们在开发业务程序的时候,经常需要引用第三方的jar包,最终程序开发完成之后,通过打包程序,会把自己的代码和三...
- Java 20年,以后将往哪儿走?(java还能流行多久)
-
在今年的Java20周年的庆祝大会中,JavaOne2015的中心议题是“Java的20年”。甲骨文公司Java平台软件开发部的副总裁GeorgesSaab的主题演讲就将关注点放在了java...
- Spring Boot Jar 包秒变 Docker 镜像实现多环境部署
-
你是否在互联网大厂后端开发工作中,遇到过这样的困扰?当完成一个SpringBoot项目开发,准备将Jar包部署到不同环境时,却发现各个环境依赖不同、配置复杂,部署过程繁琐又容易出错,不仅耗费...
- 从0开始,让你的Spring Boot项目跑在Linux服务器
-
1搭建Linux服务器1.1购买阿里云服务器或安装虚拟机这里建议是CentOS7.X或CentOS8.X,当然其他的Linux如deepin、Ubuntu也可以,只是软件环境的安装包和安装方式...
- 【技术】Maven 上传第三方jar包到私服
-
通过nexus后台上传私服以NexusRepositoryManagerOSS2.14.5-02为例。登录nexus后台。定义Maven坐标Maven坐标有两种方式:1.自定义参数;2....
- JVM参数、main方法的args参数使用
-
一、前言我们知道JVM参数分为自定义参数、JVM系统参数,Javamain方法的参数。今天就谈谈怎么使用吧。二、查看jvm参数定义自定义参数我们打开cmd窗口,输入java,就能看到自定义参数的格式...
- Maven项目如何发布jar包到Nexus私服
-
Maven项目发布jar包到Nexus私服在编码过程中,有些通用的代码模块,有时候我们不想通过复制粘贴来粗暴地复用。因为这样不仅体现不了变化,也不利于统一管理。这里我们使用mavendeploy的方...
- 干货丨Hadoop安装步骤!详解各目录内容及作用
-
Hadoop是Apache基金会面向全球开源的产品之一,任何用户都可以从ApacheHadoop官网下载使用。今天,播妞将以编写时较为稳定的Hadoop2.7.4版本为例,详细讲解Hadoop的安...
- 一周热门
-
-
Python实现人事自动打卡,再也不会被批评
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
系统C盘清理:微信PC端文件清理,扩大C盘可用空间步骤
-
10款高性能NAS丨双十一必看,轻松搞定虚拟机、Docker、软路由
-
python使用fitz模块提取pdf中的图片
-
- 最近发表
-
- 使用Assembly打包和部署Spring Boot工程
- java高级用法之:调用本地方法的利器JNA
- Linux中如何通过Shell脚本来控制Spring Boot的Jar包启停服务?
- 牛逼!自己手写一个热加载(人民币手写符号一个横还是两个横)
- java 错误: 找不到或无法加载主类?看看怎么解决吧!
- 如何将 Spring Boot 工程打包成独立的可执行 JAR 包
- class 增量发包改造为 jar 包方式发布
- Jar启动和IDE里启动Sprintboot的区别
- Java 20年,以后将往哪儿走?(java还能流行多久)
- Spring Boot Jar 包秒变 Docker 镜像实现多环境部署
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- table.render (33)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)