百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

七爪源码:在 Python 中创建数据集的自动化(使用 Pandas)

liuian 2025-05-02 11:47 35 浏览

在日常操作中,数据专业人员会遇到检索、清理和合并数据的不同方式。 在这篇文章中,我们将了解如何从文件夹中的 JSON 文件自动化和创建数据集。

JSON 文件:这是一个常见的用例,其中一个文件夹可能包含具有相似结构的 json 文件,我们将它们组合起来得到一个数据集。 因此,假设文件具有相同的结构。

文件夹:我们创建一个包含几个 json 文件和文本文件的测试文件夹。 这用作源文件夹。

JSON 中的数据:Json 的结构类似。 这是文件 1

[{"customer":"John",
"age":"25",
"sex":"male",
"amount":"32000"},
{"customer":"Ron",
"age":"20",
"sex":"male",
"amount":"12000"}]

这是文件 2

[{"customer":"Daisy",
"age":"22",
"sex":"female",
"amount":"20000"},
{"customer":"Anna",
"age":"26",
"sex":"female",
"amount":"24000"}]


算法:

  1. 我们的文件夹由异构文件(Json 和文本文件)组成。 使用 os 函数 listdir() 将所有文件名添加到列表中。
  2. 为 Json 文件创建一个列表,然后遍历文件名列表并将每个带有“.json”的名称添加到列表中。
  3. 启动数据框变量。
  4. 创建一个数据框列表以添加从 json 文件创建的各个数据框。
  5. 循环遍历 json 列表并将 json 文件读取到数据帧。 将数据框添加到数据框列表中。
  6. 将所有数据帧添加到最终数据帧
  7. 打印以检查数据框的形状
  8. 通过创建数据集,将最终数据帧以 csv 格式写入指定文件夹。

代码:

#os library helps with operating system dependent functionality
import os
# pandas library for creating data frames
import pandas as pd

# give the file path of the folder
file_path=r'folderpath\Test_Folder'

# get the list of files in the folder
List_of_files=os.listdir(file_path)
print(List_of_files)# a list to collect the json files
json_list = []
df=pd.DataFrame()

# looping through the files
for i in List_of_files:
    if i.endswith('.json'):
        json_list.append(i)
    else:
        pass

print(json_list)# create a list
dataframes=list()# creating data frames
for item in json_list:
    path=(os.path.join(file_path,item))
    dataframes.append(pd.read_json(path))
# final data frame
final_df=pd.concat(dataframes,ignore_index=True)# final df shape
print(final_df.shape)
print(final_df)  final_df.to_csv('destination_path/name_of_the_file.csv')

代码输出:

['1.json', '2.json', 'test1.txt', 'test2.txt']['1.json', '2.json'](4, 4)  customer  age     sex  amount
0     John   25    male   32000
1      Ron   20    male   12000
2    Daisy   22  female   20000
3     Anna   26  female   24000

我们只是自动化了读取文件和合并它们的过程。 因此,我们可以自动化创建数据集的流程。 这为公司增加了很多价值并节省了时间,尤其是在为数据分析设计数据集时。 我希望本指南可以帮助您创建和合并数据集。

谢谢你。


关注七爪网,获取更多APP/小程序/网站源码资源!

相关推荐

eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级

近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...

SpringBoot异常处理_springboot异常注解

在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...

Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)

这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...

告别宕机!零基础搭建服务器监控告警系统!小白也能学会!

前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...

httprunner实战接口测试笔记,拿走不谢

每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...

基于JMeter的性能压测平台实现_jmeter压测方案

这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...

12K+ Star!新一代的开源持续测试工具!

大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...

Spring Boot3 中分库分表之后如何合并查询

在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...

离线在docker镜像方式部署ragflow0.17.2

经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...

看,教你手写一个最简单的SpringBoot Starter

何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...

《群星stellaris》军事基地跳出怎么办?解决方法一览

《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...

数据开发工具dbt手拉手教程-03.定义数据源模型

本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...

docker compose 常用命令手册_docker-compose init

以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...

RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现

一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...

Docker Compose 配置更新指南_docker-compose配置

高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...