百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Pandas进阶修炼120题,给你深度和广度的船新体验

liuian 2025-02-16 21:58 9 浏览

来源:早起Python

本文约5800字,建议阅读15分钟。

本文为你介绍Pandas基础、Pandas数据处理、金融数据处理等方面的一些习题。

Pandas 是基于 NumPy 的一种数据处理工具,该工具为了解决数据分析任务而创建。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的函数和方法。

和鲸社区的刘早起创作了这个项目,其中包含Pandas基础、Pandas数据处理、金融数据处理、当Pandas遇上NumPy、补充内容 5个部分。在深度和广度上,都相较之前的Pandas习题系列有了很大的提升。

此前的Pandas系列文章:

  • 10套练习,教你如何用Pandas做数据分析
  • 50道练习带你玩转Pandas
  • 给Excel重度用户准备的Pandas教程:用Pandas逐帧还原20个Excel常用操作

以上3套,再加上现在这篇,各种姿势,各种体位基本都已经集齐了

希望榨干我一个,满足大家所有人,靴靴

Part 1 Pandas基础

1.将下面的字典创建为DataFrame

data?=?{"grammer":["Python","C","Java","GO",np.nan,"SQL","PHP","Python"],
???????"score":[1,2,np.nan,4,5,6,7,10]}
???????
df?=?pd.DataFrame(data)
df

2.提取含有字符串"Python"的行

#方法一
df[df['grammer']?==?'Python']
#方法二
results?=?df['grammer'].str.contains("Python")
results.fillna(value=False,inplace?=?True)
df[results]

3.输出df的所有列名

print(df.columns)

4.修改第二列列名为'popularity'

df.rename(columns={'score':'popularity'},?inplace?=?True)
df

5.统计grammer列中每种编程语言出现的次数

df['grammer'].value_counts()

6.将空值用上下值的平均值填充

df['popularity']?=?df['popularity'].fillna(df['popularity'].interpolate())
df

7.提取popularity列中值大于3的行

df[df['popularity']?>?3]

8.按照grammer列进行去除重复值

df.drop_duplicates(['grammer'])

9.计算popularity列平均值

df['popularity'].mean()

10.将grammer列转换为list

df['grammer'].to_list()

11.将DataFrame保存为EXCEL

df.to_excel('test.xlsx')

12.查看数据行列数

df.shape

13.提取popularity列值大于3小于7的行

df[(df['popularity']?>?3)?&?(df['popularity']?

14.交换两列位置

#?方法1
temp?=?df['popularity']
df.drop(labels=['popularity'],?axis=1,inplace?=?True)
df.insert(0,?'popularity',?temp)
df
#?方法2
cols?=?df.columns[[1,0]]
df?=?df[cols]
df

15.提取popularity列最大值所在行

df[df['popularity']?==?df['popularity'].max()]

16.查看最后5行数据

df.tail()

17.删除最后一行数据

df.drop([len(df)-1],inplace=True)
df

18.添加一行数据['Perl',6.6]

row={'grammer':'Perl','popularity':6.6}
df?=?df.append(row,ignore_index=True)
df

19.对数据按照"popularity"列值的大小进行排序

df.sort_values("popularity",inplace=True)
df

20.统计grammer列每个字符串的长度

df['grammer']?=?df['grammer'].fillna('R')
df['len_str']?=?df['grammer'].map(lambda?x:?len(x))
df

Part 2 Pandas数据处理

21.读取本地EXCEL数据

import?pandas?as?pd
df?=?pd.read_excel('pandas120.xlsx')

22.查看df数据前5行

df.head()

23.将salary列数据转换为最大值与最小值的平均值

#备注,在某些版本pandas中.ix方法可能失效,可使用.iloc,参考https://mp.weixin.qq.com/s/5xJ-VLaHCV9qX2AMNOLRtw
#为什么不能直接使用max,min函数,因为我们的数据中是20k-35k这种字符串,所以需要先用正则表达式提取数字
import?re
#?方法一:apply +?自定义函数
def?func(df):
????lst?=?df['salary'].split('-')
????smin?=?int(lst[0].strip('k'))
????smax?=?int(lst[1].strip('k'))
????df['salary']?=?int((smin?+?smax)?/?2?*?1000)
????return?df

df?=?df.apply(func,axis=1)
#?方法二:iterrows +?正则
import?re
for?index,row?in?df.iterrows():
????nums?=?re.findall('\d+',row[2])
????df.iloc[index,2]?=?int(eval(f'({nums[0]}?+?{nums[1]})?/?2?*?1000'))

24.将数据根据学历进行分组并计算平均薪资

print(df.groupby('education').mean())

25.将createTime列时间转换为月-日

#备注,在某些版本pandas中.ix方法可能失效,可使用.iloc,参考https://mp.weixin.qq.com/s/5xJ-VLaHCV9qX2AMNOLRtw
for?i?in?range(len(df)):
????df.ix[i,0]?=?df.ix[i,0].to_pydatetime().strftime("%m-%d")??
df.head()

26.查看索引、数据类型和内存信息

df.info()

27.查看数值型列的汇总统计

df.describe()

28.新增一列根据salary将数据分为三组

bins?=?[0,5000,?20000,?50000]
group_names?=?['低',?'中',?'高']
df['categories']?=?pd.cut(df['salary'],?bins,?labels=group_names)
df

29.按照salary列对数据降序排列

df.sort_values('salary',?ascending=False)

30.取出第33行数据

df.loc[32]

31.计算salary列的中位数

np.median(df['salary'])

32.绘制薪资水平频率分布直方图

#执行两次
df.salary.plot(kind='hist')

33.绘制薪资水平密度曲线

df.salary.plot(kind='kde',xlim=(0,80000))

34.删除最后一列categories

del?df['categories']
#?等价于
df.drop(columns=['categories'],?inplace=True)

35.将df的第一列与第二列合并为新的一列

df['test']?=?df['education']+df['createTime']
df

36.将education列与salary列合并为新的一列

#备注:salary为int类型,操作与35题有所不同
df["test1"]?=?df["salary"].map(str)?+?df['education']
df

37.计算salary最大值与最小值之差

df[['salary']].apply(lambda?x:?x.max()?-?x.min())

38.将第一行与最后一行拼接,成一个新表

pd.concat([df[:1],?df[-2:-1]])

39.将第8行数据添加至末尾

df.append(df.iloc[7])

40.查看每列的数据类型

df.dtypes

41.将createTime列设置为索引

df.set_index("createTime")

42.生成一个和df长度相同的随机数dataframe

df1?=?pd.DataFrame(pd.Series(np.random.randint(1,?10,?135)))
df1

43.将上一题生成的dataframe与df合并

df=?pd.concat([df,df1],axis=1)
df

44.生成新的一列new为salary列减去之前生成随机数列

df["new"]?=?df["salary"]?-?df[0]
df

45.检查数据中是否含有任何缺失值

df.isnull().values.any()

46.将salary列类型转换为浮点数

df['salary'].astype(np.float64)

47.计算salary大于10000的次数

len(df[df['salary']>10000])

48.查看每种学历出现的次数

df.education.value_counts()

49.查看education列共有几种学历

df['education'].nunique()

50.提取salary与new列的和大于60000的最后3行

df1?=?df[['salary','new']]
rowsums?=?df1.apply(np.sum,?axis=1)
res?=?df.iloc[np.where(rowsums?>?60000)[0][-3:],?:]
res

Part 3 金融数据处理

51.使用绝对路径读取本地Excel数据

#请将下面的路径替换为你存储数据的路径
data?=?pd.read_excel('/Users/Desktop/600000.SH.xls')

52.查看数据前三行

data.head(3)

53.查看每列数据缺失值情况

data.isnull().sum()

54.提取日期列含有空值的行

data[data['日期'].isnull()]

55.输出每列缺失值具体行数

for?columname?in?data.columns:
????if?data[columname].count()?!=?len(data):
????????loc?=?data[columname][data[columname].isnull().values==True].index.tolist()
????????print('列名:"{}", 第{}行位置有缺失值'.format(columname,loc))

56.删除所有存在缺失值的行

#?备注
# axis:0-行操作(默认),1-列操作
# how:any-只要有空值就删除(默认),all-全部为空值才删除
# inplace:False-返回新的数据集(默认),True-在原数据集上操作
data.dropna(axis=0,?how='any',?inplace=True)

57.绘制收盘价的折线图

import?matplotlib.pyplot?as?plt?
plt.style.use('seaborn-darkgrid')?#?设置画图的风格
plt.rc('font',??size=6)?#设置图中字体和大小
plt.rc('figure',?figsize=(4,3),?dpi=150)?#?设置图的大小
data['收盘价(元)'].plot()

#?等价于
import?matplotlib.pyplot?as?plt
plt.plot(df['收盘价(元)'])

58.同时绘制开盘价与收盘价

data[['收盘价(元)','开盘价(元)']].plot()

59.绘制涨跌幅的直方图

plt.hist(df['涨跌幅(%)'])
#?等价于
df['涨跌幅(%)'].hist()

60.让直方图更细致

data['涨跌幅(%)'].hist(bins?=?30)

61.以data的列名创建一个dataframe

temp?=?pd.DataFrame(columns?=?data.columns.to_list())

62.打印所有换手率不是数字的行

for?i?in?range(len(data)):
????if?type(data.iloc[i,13])?!=?float:
????????temp?=?temp.append(data.loc[i])

temp

63.打印所有换手率为--的行

data[data['换手率(%)'].isin(['--'])]

64.重置data的行号

data?=?data.reset_index()

65.删除所有换手率为非数字的行

k?=[]
for?i?in?range(len(data)):
????if?type(data.iloc[i,13])?!=?float:
????????k.append(i)
data.drop(labels=k,inplace=True)

66.绘制换手率的密度曲线

data['换手率(%)'].plot(kind='kde')

67.计算前一天与后一天收盘价的差值

data['收盘价(元)'].diff()

68.计算前一天与后一天收盘价变化率

data['收盘价(元)'].pct_change()

69.设置日期为索引

data?=?data.set_index('日期')

70.以5个数据作为一个数据滑动窗口,在这个5个数据上取均值(收盘价)

data['收盘价(元)'].rolling(5).mean()

71.以5个数据作为一个数据滑动窗口,计算这五个数据总和(收盘价)

data['收盘价(元)'].rolling(5).sum()

72.将收盘价5日均线、20日均线与原始数据绘制在同一个图上

data['收盘价(元)'].plot()
data['收盘价(元)'].rolling(5).mean().plot()
data['收盘价(元)'].rolling(20).mean().plot()

73.按周为采样规则,取一周收盘价最大值

data['收盘价(元)'].resample('W').max()

74.绘制重采样数据与原始数据

data['收盘价(元)'].plot()
data['收盘价(元)'].resample('7D').max().plot()

75.将数据往后移动5天

data.shift(5)

76.将数据向前移动5天

data.shift(-5)

77.使用expending函数计算开盘价的移动窗口均值

data['开盘价(元)'].expanding(min_periods=1).mean()

78.绘制上一题的移动均值与原始数据折线图

data['expanding?Open?mean']=data['开盘价(元)'].expanding(min_periods=1).mean()
data[['开盘价(元)',?'expanding?Open?mean']].plot(figsize=(16,?6))

79.计算布林指标

data['former?30?days?rolling?Close?mean']=data['收盘价(元)'].rolling(20).mean()
data['upper?bound']=data['former?30?days?rolling?Close?mean']+2*data['收盘价(元)'].rolling(20).std()#在这里我们取20天内的标准差
data['lower?bound']=data['former?30?days?rolling?Close?mean']-2*data['收盘价(元)'].rolling(20).std()

80.计算布林线并绘制

data[['收盘价(元)',?'former?30?days?rolling?Close?mean','upper?bound','lower?bound'?]].plot(figsize=(16,?6))

Part 4 当Pandas遇上NumPy

81.导入并查看pandas与numpy版本

import?pandas?as?pd
import?numpy?as?np
print(np.__version__)
print(pd.__version__)

82.从NumPy数组创建DataFrame

#备注?使用numpy生成20个0-100随机数
tem?=?np.random.randint(1,100,20)
df1?=?pd.DataFrame(tem)
df1

83.从NumPy数组创建DataFrame

#备注?使用numpy生成20个0-100固定步长的数
tem?=?np.arange(0,100,5)
df2?=?pd.DataFrame(tem)
df2

84.从NumPy数组创建DataFrame

#备注?使用numpy生成20个指定分布(如标准正态分布)的数
tem?=?np.random.normal(0,?1,?20)
df3?=?pd.DataFrame(tem)
df3

85.将df1,df2,df3按照行合并为新DataFrame

df?=?pd.concat([df1,df2,df3],axis=0,ignore_index=True)
df

86.将df1,df2,df3按照列合并为新DataFrame

df?=?pd.concat([df1,df2,df3],axis=1,ignore_index=True)
df

87.查看df所有数据的最小值、25%分位数、中位数、75%分位数、最大值

print(np.percentile(df,?q=[0,?25,?50,?75,?100]))

88.修改列名为col1,col2,col3

df.columns?=?['col1','col2','col3']

89.提取第一列中不在第二列出现的数字

df['col1'][~df['col1'].isin(df['col2'])]

90.提取第一列和第二列出现频率最高的三个数字

temp?=?df['col1'].append(df['col2'])
temp.value_counts().index[:3]

91.提取第一列中可以整除5的数字位置

np.argwhere(df['col1']?%?5==0)

92.计算第一列数字前一个与后一个的差值

df['col1'].diff().tolist()

93.将col1,col2,clo3三列顺序颠倒

df.ix[:,?::-1]

94.提取第一列位置在1,10,15的数字

df['col1'].take([1,10,15])
#?等价于
df.iloc[[1,10,15],0]

95.查找第一列的局部最大值位置

#备注?即比它前一个与后一个数字的都大的数字
tem?=?np.diff(np.sign(np.diff(df['col1'])))
np.where(tem?==?-2)[0]?+?1

96.按行计算df的每一行均值

df[['col1','col2','col3']].mean(axis=1)

97.对第二列计算移动平均值

#备注?每次移动三个位置,不可以使用自定义函数
np.convolve(df['col2'],?np.ones(3)/3,?mode='valid')

98.将数据按照第三列值的大小升序排列

df.sort_values("col3",inplace=True)

99.将第一列大于50的数字修改为'高'

df.col1[df['col1']?>?50]=?'高'

100.计算第二列与第三列之间的欧式距离

np.linalg.norm(df['col2']-df['col3'])

Part 5 一些补充

101.从CSV文件中读取指定数据

#?备注?从数据1中的前10行中读取positionName,?salary两列

df?=?pd.read_csv('数据1.csv',encoding='gbk',?usecols=['positionName',?'salary'],nrows?=?10)
df

102.从CSV文件中读取指定数据

#?备注?从数据2中读取数据并在读取数据时将薪资大于10000的为改为高
df?=?pd.read_csv('数据2.csv',converters={'薪资水平':?lambda?x:?'高'?if?float(x)?>?10000?else?'低'}?)
df

103.从上一题数据中,对薪资水平列每隔20行进行一次抽样

df.iloc[::20,?:][['薪资水平']]

104.将数据取消使用科学计数法

#?输入
df?=?pd.DataFrame(np.random.random(10)**10,?columns=['data'])
df

df.round(3)

105.将上一题的数据转换为百分数

df.style.format({'data':?'{0:.2%}'.format})

106.查找上一题数据中第3大值的行号

df['data'].argsort()[::-1][7]

107.反转df的行

df.iloc[::-1,?:]

108.按照多列对数据进行合并

#?输入
df1=?pd.DataFrame({'key1':?['K0',?'K0',?'K1',?'K2'],
'key2':?['K0',?'K1',?'K0',?'K1'],
'A':?['A0',?'A1',?'A2',?'A3'],
'B':?['B0',?'B1',?'B2',?'B3']})

df2=?pd.DataFrame({'key1':?['K0',?'K1',?'K1',?'K2'],
'key2':?['K0',?'K0',?'K0',?'K0'],
'C':?['C0',?'C1',?'C2',?'C3'],
'D':?['D0',?'D1',?'D2',?'D3']})

pd.merge(df1,?df2,?on=['key1',?'key2'])

109.按照多列对数据进行合并

pd.merge(df1,?df2,?how='left',?on=['key1',?'key2'])

110.再次读取数据1并显示所有的列

df?=?pd.read_csv('数据1.csv',encoding='gbk')
pd.set_option("display.max.columns",?None)
df

111.查找secondType与thirdType值相等的行号

np.where(df.secondType?==?df.thirdType)

112.查找薪资大于平均薪资的第三个数据

np.argwhere(df['salary']?>?df['salary'].mean())[2]

113.将上一题数据的salary列开根号

df[['salary']].apply(np.sqrt)

114.将上一题数据的linestaion列按_拆分

df['split']?=?df['linestaion'].str.split('_')

115.查看上一题数据中一共有多少列

df.shape[1]

116.提取industryField列以'数据'开头的行

df[df['industryField'].str.startswith('数据')]

117.按列制作数据透视表

pd.pivot_table(df,values=["salary","score"],index="positionId")

118.同时对salary、score两列进行计算

df[["salary","score"]].agg([np.sum,np.mean,np.min])

119.对salary求平均,对score列求和

df.agg({"salary":np.sum,"score":np.mean})

120.计算并提取平均薪资最高的区

df[['district','salary']].groupby(by='district').mean().sort_values('salary',ascending=False).head(1)

编辑:王菁

校对:林亦霖

—完—

想要获得更多数据科学领域相关动态,诚邀关注清华-青岛数据科学研究院官方微信公众平台“ 数据派THU ”。

相关推荐

【常识】如何优化Windows 7

优化Windows7可以让这个经典系统运行更流畅,特别是在老旧硬件上。以下是经过整理的实用优化方案,分为基础优化和进阶优化两部分:一、基础优化(适合所有用户)1.关闭不必要的视觉效果右键计算机...

系统优化!Windows 11/10 必做的十个优化配置

以下是为Windows10/11用户整理的10个必做优化配置,涵盖性能提升、隐私保护和系统精简等方面,操作安全且无需第三方工具:1.禁用不必要的开机启动项操作路径:`Ctrl+S...

最好用音频剪辑的软件,使用方法?

QVE音频剪辑是一款简单实用的软件,功能丰富,可编辑全格式音频。支持音频转换、合并、淡入淡出、变速、音量调节等,无时长限制,用户可自由剪辑。剪辑后文件音质无损,支持多格式转换,便于存储与跨设备播放,满...

Vue2 开发总踩坑?这 8 个实战技巧让代码秒变丝滑

前端开发的小伙伴们,在和Vue2打交道的日子里,是不是总被各种奇奇怪怪的问题搞得头大?数据不响应、组件传值混乱、页面加载慢……别慌!今天带来8个超实用的Vue2实战技巧,每一个都能直击痛...

Motion for Vue:为Vue量身定制的强大动画库

在前端开发中,动画效果是提升用户体验的重要手段。Vue生态系统中虽然有许多动画库,但真正能做到高性能、易用且功能丰富的并不多。今天,我们要介绍的是MotionforVue(motion-v),...

CSS view():JavaScript 滚动动画的终结

前言CSSview()方法可能会标志着JavaScript在制作滚动动画方面的衰落。如何用5行CSS代码取代50多行繁琐的JavaScript,彻底改变网页动画每次和UI/U...

「大数据」 hive入门

前言最近会介入数据中台项目,所以会推出一系列的跟大数据相关的组件博客与文档。Hive这个大数据组件自从Hadoop诞生之日起,便作为Hadoop生态体系(HDFS、MR/YARN、HIVE、HBASE...

青铜时代的终结:对奖牌架构的反思

作者|AdamBellemare译者|王强策划|Tina要点运维和分析用例无法可靠地访问相关、完整和可信赖的数据。需要一种新的数据处理方法。虽然多跳架构已经存在了几十年,并且可以对...

解析IBM SQL-on-Hadoop的优化思路

对于BigSQL的优化,您需要注意以下六个方面:1.平衡的物理设计在进行集群的物理设计需要考虑数据节点的配置要一致,避免某个数据节点性能短板而影响整体性能。而对于管理节点,它虽然不保存业务数据,但作...

交易型数据湖 - Apache Iceberg、Apache Hudi和Delta Lake的比较

图片由作者提供简介构建数据湖最重要的决定之一是选择数据的存储格式,因为它可以大大影响系统的性能、可用性和兼容性。通过仔细考虑数据存储的格式,我们可以增强数据湖的功能和性能。有几种不同的选择,每一种都有...

深入解析全新 AWS S3 Tables:重塑数据湖仓架构

在AWSre:Invent2024大会中,AWS发布了AmazonS3Tables:一项专为可扩展存储和管理结构化数据而设计的解决方案,基于ApacheIceberg开放表格...

Apache DataFusion查询引擎简介

简介DataFusion是一个查询引擎,其本身不具备存储数据的能力。正因为不依赖底层存储的格式,使其成为了一个灵活可扩展的查询引擎。它原生支持了查询CSV,Parquet,Avro,Json等存储格式...

大数据Hadoop之——Flink Table API 和 SQL(单机Kafka)

一、TableAPI和FlinkSQL是什么TableAPI和SQL集成在同一套API中。这套API的核心概念是Table,用作查询的输入和输出,这套API都是批处理和...

比较前 3 名Schema管理工具

关注留言点赞,带你了解最流行的软件开发知识与最新科技行业趋势。在本文中,读者将了解三种顶级schema管理工具,如AWSGlue、ConfluentSchemaRegistry和Memph...

大数据技术之Flume

第1章概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。1.2Flume的优点1.可以和...