百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

订单数据分析:python操作案例分享

liuian 2025-05-02 11:47 54 浏览

在数据分析中,相对于excel的简单易用,python的学习门槛比较高。但在面对数据量大(比如超过100W行)、多数据源/表、复杂数据处理的情况下,python的优势就非常明显了。

前面“数据分析方法论”一文有提到数据分析的三个大步骤:是什么、为什么、怎么样。今天继续以电商领域的订单数据为例,结合分析步骤,分享一点python操作过程。

在开始分析前,我们需要先完成两个前提步骤:数据获取、数据处理。


【数据获取】

数据获取的情景,通常是这样的:收到数据库处理同学发的一份压缩文件包,里面有多层文件夹及多个文件;我们需要快速、自动化地读取文件包里的文件,并合并成一张表

1、首先导入需要的函数包

import os

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

2、解压文件包后,获取文件包根目录地址

path = "C:\\Users\\project_data"

3、读取文件包里的所有文件

files = os.listdir(path)

4、创建一个空列表

final_data = pd.DataFrame()

5、自定义一个函数,可以逐层读取文件夹及文件,并把读取到的多个列表文件合并成一个

def get_all_files(path):

# 声明final_data是全局变量,使自定义函数也能调用

global final_data

files = os.listdir(path)

# 遍历第一层文件夹里的文件

for file in files:

# 如果file是文件,就获取文件名和扩展名,并读取文件内容

if os.path.isfile(path + "\\" + file):

filename,extension = os.path.splitext(file)

if extension == ".txt":

data = pd.read_table(path + "\\" + file)

print(data)

elif extension == ".xlsx":

data = pd.read_excel(path + "\\" + file)

print(data)

elif extension == ".csv":

file_data = pd.read_csv(path + "\\" + file)

# 把读取到的每个csv文件数据都加到final_data里,重新排列索引

final_data = final_data.append(file_data,ignore_index=True)

print(file + ".......合并中")

# 如果file是文件夹,就调用函数自己,重新遍历

if os.path.isdir(path + "\\" + file):

get_all_files(path + "\\" + file)

get_all_files(path)

print('数据合并完成')




【数据处理】

假设我们拿到的订单数据是这样的:

处理需求一:其中“订单状态”列有已取消、已完成、待发货、待支付、待收货五个值,后面分析只针对有效订单,所以需要把“已取消”的数据剔除。

data_clean = data[data["订单状态"]!="已取消"]

处理需求二:时间是电商订单分析的一个重要维度,当前的两列时间数据格式都是年-月-日 时-分-秒并在一起,需要把每个时间单位单个提取出来。本次案例只针对“时”进行分析。

data_clean["下单时段"] = data_clean["下单时间"].dt.hour

注:数据处理只是告一段落,随着数据分析需求的新增或调整,数据处理会不断插入进来。


【数据分析】

一、是什么:描述当前的核心指标状态

有效订单量:data_clean.shape

总营收:round(sum(data_clean["商品价格"]),2)

客单价:round(sum(data_clean["商品价格"])/((data_clean.shape[0]),2)

二、为什么:罗列可能原因的维度,当现状出现偏差时,下钻查看相关维度的哪个节点出现了问题。这里我们以时间维度中的“时”为例来展示下python代码:

1、以下单时段的24小时进行分组,获得每个小时的订单量

hour_count = data_clean.groupby("下单时段")["商品编号"].count().reset_index().rename(columns={"商品编号":"订单数量"})

2、把有效订单数/24得出平均每个小时的有效订单数为680,以680暂作为每个小时的好坏标准值:

hour_count["时均订单数量"] = [680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680,680]

3、可视化展示有效订单数在时段维度上的分布情况:

plt.figure(figsize=(25,3))

plt.plot(hour_count["下单时段"],hour_count["订单数量"])

plt.plot(hour_count["下单时段"],hour_count["时均订单数量"])

plt.xticks(np.arange(0,23,step=1))

plt.show()

三、怎么样:预测未来变化趋势。假设我们拿到的每日数据在时段上的分布是基本稳定的,那么从上图也能总结出时段分布规律:下单时间按订单量高低可划分成两个时段——早上十点至晚上十二点高订单量、凌晨一点至早上九点低订单量,其中晚上八点是高峰期。

相关推荐

eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级

近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...

SpringBoot异常处理_springboot异常注解

在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...

Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)

这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...

告别宕机!零基础搭建服务器监控告警系统!小白也能学会!

前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...

httprunner实战接口测试笔记,拿走不谢

每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...

基于JMeter的性能压测平台实现_jmeter压测方案

这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...

12K+ Star!新一代的开源持续测试工具!

大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...

Spring Boot3 中分库分表之后如何合并查询

在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...

离线在docker镜像方式部署ragflow0.17.2

经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...

看,教你手写一个最简单的SpringBoot Starter

何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...

《群星stellaris》军事基地跳出怎么办?解决方法一览

《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...

数据开发工具dbt手拉手教程-03.定义数据源模型

本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...

docker compose 常用命令手册_docker-compose init

以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...

RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现

一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...

Docker Compose 配置更新指南_docker-compose配置

高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...