Pandas库使用教程(pandas库的主要用途)
liuian 2025-05-02 11:46 39 浏览
Pandas是一个强大的Python库,用于数据处理和分析,它提供了灵活的数据结构和数据操作功能,非常适合处理各种数据源,如CSV文件、Excel表格、SQL数据库等。
目录
1. 介绍
2. 安装
3. 基本数据结构
Series
DataFrame
4. 数据读取与写入
读取csv、excel等文件数据
写入csv、excel等文件数据
5. 数据选择与操作
切片和索引
数据过滤
数据排序
6. 数据统计与分析
描述性统计
数据聚合
7. 数据可视化
8. 结论
1. 介绍
Pandas是一个强大的数据处理和分析库,它构建在NumPy之上,提供了更高级的数据结构和数据操作功能,使数据清洗、分析和可视化变得更容易。它的两个主要数据结构是Series和DataFrame,可以用于处理各种类型的数据。
pip install pandas
3. 基本数据结构
Series
Series是一维标记数组,可以存储各种数据类型。你可以将Series视为带有标签的数组或字典。
import pandas as pd
data = pd.Series([10, 20, 30, 40, 50])
print(data)
DataFrame
DataFrame是一个二维数据结构,类似于电子表格或SQL表。它由行和列组成,每列可以包含不同类型的数据。
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
print(data)
# Name, Age
#0,Alice,25
#1,Bob,30
#2,Charlie,35
import pandas as pd
data = [['Google',10],['Runoob',12],['Wiki',13]]
df = pd.DataFrame(data,columns=['Site','Age'],dtype=float)
print(df)
# Site Age
#0 Google 10.0
#1 Runoob 12.0
#2 Wiki 13.0
遍历
使用for循环遍历行(常用):
这种方法逐行遍历DataFrame,返回每行的索引和数据。iterrows()方法返回一个生成器,逐行返回每一行的数据
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
for index, row in data.iterrows():
print(f'Index: {index}, Name: {row["Name"]}, Age: {row["Age"]}')
#Index: 0, Name: Alice, Age: 25
#Index: 1, Name: Bob, Age: 30
#Index: 2, Name: Charlie, Age: 35
使用itertuples()方法遍历行:
for row in data.itertuples():
print(f'Index: {row.Index}, Name: {row.Name}, Age: {row.Age}')
#Index: 0, Name: Alice, Age: 25
#Index: 1, Name: Bob, Age: 30
#Index: 2, Name: Charlie, Age: 35
使用apply()方法遍历列:
apply()方法可以用于对每一行或每一列的数据应用自定义函数。
def process_data(row):
return f'Name: {row["Name"]}, Age: {row["Age"]}'
data['Info'] = data.apply(process_data, axis=1)
print(data['Info'])
#0 Name: Alice, Age: 25
#1 Name: Bob, Age: 30
#2 Name: Charlie, Age: 35
#Name: Info, dtype: object
4. 数据读取与写入
读取CSV文件数据
Pandas可以轻松读取各种数据格式,包括CSV文件:
import pandas as pd
data = pd.read_csv('data.csv')
print(data.head()) # 查看前几行数据
写入CSV文件数据
你也可以将数据保存到CSV文件:
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
data.to_csv('output.csv', index=False) # 将数据保存到output.csv文件
读取json数据
[
{
"id": "A001",
"name": "baidu",
"url": "https://www.baidu.com/",
"likes": 61
},
{
"id": "A002",
"name": "Google",
"url": "https://www.google.com",
"likes": 124
},
{
"id": "A003",
"name": "taobao",
"url": "www.taobao.com",
"likes": 45
}
]
to_string() 用于返回 DataFrame 类型的数据,我们也可以直接处理 JSON 字符串。
import pandas as pd
df = pd.read_json('sites.json')
print(df.to_string())
# id name url likes
#0 A001 baidu https://www.baidu.com/ 61
#1 A002 Google https://www.google.com 124
#2 A003 taobao www.taobao.com 45
df = pd.DataFrame(data)
JSON 对象与 Python 字典具有相同的格式,所以我们可以直接将 Python 字典转化为 DataFrame 数据:
import pandas as pd
# 字典格式的 JSON
data_dict = {
"col1":{"row1":1,"row2":2,"row3":3},
"col2":{"row1":"x","row2":"y","row3":"z"}
}
# 读取 JSON 转为 DataFrame
df = pd.DataFrame(data_dict)
print(df)
# col1 col2
#row1 1 x
#row2 2 y
#row3 3 z
内嵌的 JSON 数据
假设有一组内嵌的 JSON 数据文件 nested_list.json :
{
"school_name": "ABC primary school",
"class": "Year 1",
"students": [
{
"id": "A001",
"name": "Tom",
"math": 60,
"physics": 66,
"chemistry": 61
},
{
"id": "A002",
"name": "James",
"math": 89,
"physics": 76,
"chemistry": 51
},
{
"id": "A003",
"name": "Jenny",
"math": 79,
"physics": 90,
"chemistry": 78
}]
}
import pandas as pd
df = pd.read_json('nested_list.json')
df
# school_name class students
#0 ABC primary school Year 1 {'id': 'A001', 'name': 'Tom', 'math': 60, 'phy...
#1 ABC primary school Year 1 {'id': 'A002', 'name': 'James', 'math': 89, 'p...
#2 ABC primary school Year 1 {'id': 'A003', 'name': 'Jenny', 'math': 79, 'p...
这时我们就需要使用到 json_normalize() 方法将内嵌的数据完整的解析出来:
import pandas as pd
import json
# 使用 Python JSON 模块载入数据
with open('nested_list.json','r') as f:
data = json.loads(f.read())
# 展平数据
df_nested_list = pd.json_normalize(data, record_path =['students'])
print(df_nested_list)
# id name math physics chemistry
#0 A001 Tom 60 66 61
#1 A002 James 89 76 51
#2 A003 Jenny 79 90 78
data = json.loads(f.read()) 使用 Python JSON 模块载入数据。
json_normalize() 使用了参数 record_path 并设置为 ['students'] 用于展开内嵌的 JSON 数据 students。
显示结果还没有包含 school_name 和 class 元素,如果需要展示出来可以使用 meta 参数来显示这些元数据:
import pandas as pd
import json
# 使用 Python JSON 模块载入数据
with open('nested_list.json','r') as f:
data = json.loads(f.read())
# 展平数据
df_nested_list = pd.json_normalize(data, record_path =['students'], meta=['school_name', 'class'])
print(df_nested_list)
# id name math physics chemistry school_name class
#0 A001 Tom 60 66 61 ABC primary school Year 1
#1 A002 James 89 76 51 ABC primary school Year 1
#2 A003 Jenny 79 90 78 ABC primary school Year 1
接下来,让我们尝试读取更复杂的 JSON 数据,该数据嵌套了列表和字典,数据文件 nested_mix.json 如下:
{
"school_name": "local primary school",
"class": "Year 1",
"info": {
"president": "John Kasich",
"address": "ABC road, London, UK",
"contacts": {
"email": "admin@e.com",
"tel": "123456789"
}
},
"students": [
{
"id": "A001",
"name": "Tom",
"math": 60,
"physics": 66,
"chemistry": 61
},
{
"id": "A002",
"name": "James",
"math": 89,
"physics": 76,
"chemistry": 51
},
{
"id": "A003",
"name": "Jenny",
"math": 79,
"physics": 90,
"chemistry": 78
}]
}
nested_mix.json 文件转换为 DataFrame:
import pandas as pd
import json
# 使用 Python JSON 模块载入数据
with open('nested_mix.json','r') as f:
data = json.loads(f.read())
df = pd.json_normalize(
data,
record_path =['students'],
meta=[
'class',
['info', 'president'],
['info', 'contacts', 'tel']
]
)
df
读取内嵌数据中的一组数据
以下是实例文件 nested_deep.json,我们只读取内嵌中的 math 字段:
5. 数据选择与操作
切片和索引
你可以使用标签或位置来选择数据:
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
# 使用标签选择数据
print(data['Name'])
print("+++"*10)
# 使用位置选择数据
print(data.iloc[0])
#0 Alice
#1 Bob
#2 Charlie
#Name: Name, dtype: object
#++++++++++++++++++++++++++++++
#Name Alice
#Age 25
#Name: 0, dtype: object
数据过滤
你可以根据条件过滤数据:
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
filtered_data = data[data['Age'] > 30]
print(filtered_data)
# Name Age
#2 Charlie 35
数据排序
对数据进行排序:
import pandas as pd
data = pd.DataFrame({
'Name': ['Alice', 'Bob', 'Charlie'],
'Age': [25, 30, 35]
})
sorted_data = data.sort_values(by='Age', ascending=False)
print(sorted_data)
# Name Age
#2 Charlie 35
#1 Bob 30
#0 Alice 25
6. 数据统计与分析
描述性统计
Pandas提供了各种描述性统计方法,如mean、median、std等:
import pandas as pd
data = pd.DataFrame({
'Age': [25, 30, 35, 40, 45]
})
print(data.mean()) # 计算平均值
print(data.median()) # 计算中位数
print(data.std()) # 计算标准差
#Age 35.0
#dtype: float64
#Age 35.0
#dtype: float64=
#Age 7.905694
#dtype: float64
数据聚合
你可以使用groupby方法对数据进行聚合操作:
import pandas as pd
data = pd.DataFrame({
'Category': ['A', 'B', 'A', 'B', 'A'],
'Value': [10, 20, 15, 25, 30]
})
grouped_data = data.groupby('Category').sum()
print(grouped_data)
# Value
#Category
#A 55
#B 45
7. 数据可视化
Pandas结合其他库如Matplotlib和Seaborn可以用于数据可视化。这里只提供一个简单示例:
import pandas as pd
import matplotlib.pyplot as plt
data = pd.DataFrame({
'Year': [2010, 2011, 2012, 2013, 2014],
'Sales': [100, 150, 200, 250, 300]
})
data.plot(x='Year', y='Sales', kind='line')
plt.show()
最后
Pandas是一个强大的Python库,用于数据处理和分析。本教程涵盖了Pandas的基本数据结构、数据读写、数据操作、统计分析和简单可视化。希望这个教程能帮助你入门Pandas,并在数据处理工作中发挥作用。如果你想深入学习Pandas,可以查看Pandas官方文档和更高级的教程。
参考文献:
1. https://www.runoob.com/pandas/pandas-json.html
相关推荐
- eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级
-
近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...
- SpringBoot异常处理_springboot异常注解
-
在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...
- Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)
-
这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...
- 告别宕机!零基础搭建服务器监控告警系统!小白也能学会!
-
前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...
- httprunner实战接口测试笔记,拿走不谢
-
每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...
- 基于JMeter的性能压测平台实现_jmeter压测方案
-
这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...
- 12K+ Star!新一代的开源持续测试工具!
-
大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...
- Spring Boot3 中分库分表之后如何合并查询
-
在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...
- 离线在docker镜像方式部署ragflow0.17.2
-
经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...
- 看,教你手写一个最简单的SpringBoot Starter
-
何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...
- 《群星stellaris》军事基地跳出怎么办?解决方法一览
-
《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...
- 数据开发工具dbt手拉手教程-03.定义数据源模型
-
本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...
- docker compose 常用命令手册_docker-compose init
-
以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...
- RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现
-
一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...
- Docker Compose 配置更新指南_docker-compose配置
-
高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...
- 一周热门
-
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
Python实现人事自动打卡,再也不会被批评
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
飞牛OS入门安装遇到问题,如何解决?
-
系统C盘清理:微信PC端文件清理,扩大C盘可用空间步骤
-
10款高性能NAS丨双十一必看,轻松搞定虚拟机、Docker、软路由
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)
- mysql刷新权限 (34)