百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

高效办公:Python处理excel文件,摆脱无效办公

liuian 2025-02-08 11:50 9 浏览

一、Python处理excel文件

1. 两个头文件

import xlrd
import xlwt

其中xlrd模块实现对excel文件内容读取,xlwt模块实现对excel文件的写入。

2. 读取excel文件

# 打开excel文件
workBook = xlrd.open_workbook(excelPath)
# 获取所有的sheet的名字
allSheetNames = workBook.sheet_names()
print(allSheetNames)

输出:[‘Sheet1’, ‘Sheet2’]

# 按索引号获取sheet的名字(string类型)
sheet1Name = workBook.sheet_names()[1]
print(sheet1Name)

输出:Sheet2

# 指定选择第二个sheet
sheet1_content1 = workBook.sheet_by_index(1)  

# 获取第二个sheet中的 某一列 数据,index为 列 的编号
content = sheet1_content1.col_values(index)
print(content )

输出:[‘50_female_CNS’, 0.0001450627129261498, 0.00014610459059353443, 0.0001005863347657359, 6.582112999369104e-05, 0.00012061284774544405, ’ ', 0.00012075268247024065, 9.77776267815119e-05, 0.00012586155938565746, 0.0003279103274939261, 0.00022441965601437833 …]

# 指定选择第二个sheet
sheet1_content1 = workBook.sheet_by_index(1)  

# 获取第二个sheet中的 某一行 数据,index为 行 的编号
content = sheet1_content1.row_values(index)
print(content)

输出:[’’, 0.0001450627129261498, 0.00017014314076560212, 0.00018181811940739254, 0.0003775072437995825, 0.00042918333947459267, 0.0004889411346133797, 0.0001635510979069336, 0.00018714823789391146, 0.0002130216204564284, 0.0004294577819371397, 0.0004909460429236959, 0.0005394823288641913]

3. 写入excel文件

# 初始化写入环境
workbook = xlwt.Workbook(encoding='utf-8')
# 创建一个 sheet
worksheet = workbook.add_sheet('sheet')
# 调用 write 函数将内容写入到excel中, 注意需按照 行  列  内容 的顺序
worksheet.write(0, 0, label='car type')
worksheet.write(0, 1, label='50_female_CNS')
worksheet.write(0, 2, label='75_female_CNS')
worksheet.write(0, 3, label='95_female_CNS')

# 保存 excel
workbook.save("你的路径")

二、Python处理txt文件

1. 打开txt文件

#方法1,这种方式使用后需要关闭文件
f = open("data.txt","r")
f.close()

#方法2,使用文件后自动关闭文件
with open('data.txt',"r") as f:

打开文件的模式主要有,r、w、a、r+、w+、a+

r:以读方式打开文件,可读取文件信息。

w:以写方式打开文件,可向文件写入信息。如文件存在,则清空该文件,再写入新内容

a:以追加模式打开文件(即一打开文件,文件指针自动移到文件末尾),如果文件不存在则创建

r+:以读写方式打开文件,可对文件进行读和写操作。

w+:消除文件内容,然后以读写方式打开文件。

a+:以读写方式打开文件,并把文件指针移到文件尾。

2. 读取txt文件

# 读出文件,如果有count,则读出count个字节,如果不设count则读取整个文件。
f.read([count])  

# 读出一行信息。  
f.readline() 

# 读出所有行,也就是读出整个文件的信息。   
f.readlines()
f = open(r"F:\test.txt", "r")
print(f.read(5))
f.close()

输出:1 2 3

f = open(r"F:\test.txt", "r")
print(f.readline())
print(f.readline())
f.close()

输出:

1 2 3 4 5

6,7,8,9,10

f = open(r"F:\test.txt", "r")
print(f.readlines())
f.close()

输出:[‘1 2 3 4 5\n’, ‘6,7,8,9,10\n’]

上述读取的格式均为: str 类型

3. 写入txt文件(需注意别清空了原来的内容)

首先指定待写入的文件,注意这里是 ‘w’

f = open(r'F:\test.txt','w')
f.write('hello world!')
f.close()
content = ['\nhello world1!','\nhello world2!','\nhello world3!\n']
f = open(r'F:\test.txt','w')
f.writelines(content)
f.close()

相关推荐

【常识】如何优化Windows 7

优化Windows7可以让这个经典系统运行更流畅,特别是在老旧硬件上。以下是经过整理的实用优化方案,分为基础优化和进阶优化两部分:一、基础优化(适合所有用户)1.关闭不必要的视觉效果右键计算机...

系统优化!Windows 11/10 必做的十个优化配置

以下是为Windows10/11用户整理的10个必做优化配置,涵盖性能提升、隐私保护和系统精简等方面,操作安全且无需第三方工具:1.禁用不必要的开机启动项操作路径:`Ctrl+S...

最好用音频剪辑的软件,使用方法?

QVE音频剪辑是一款简单实用的软件,功能丰富,可编辑全格式音频。支持音频转换、合并、淡入淡出、变速、音量调节等,无时长限制,用户可自由剪辑。剪辑后文件音质无损,支持多格式转换,便于存储与跨设备播放,满...

Vue2 开发总踩坑?这 8 个实战技巧让代码秒变丝滑

前端开发的小伙伴们,在和Vue2打交道的日子里,是不是总被各种奇奇怪怪的问题搞得头大?数据不响应、组件传值混乱、页面加载慢……别慌!今天带来8个超实用的Vue2实战技巧,每一个都能直击痛...

Motion for Vue:为Vue量身定制的强大动画库

在前端开发中,动画效果是提升用户体验的重要手段。Vue生态系统中虽然有许多动画库,但真正能做到高性能、易用且功能丰富的并不多。今天,我们要介绍的是MotionforVue(motion-v),...

CSS view():JavaScript 滚动动画的终结

前言CSSview()方法可能会标志着JavaScript在制作滚动动画方面的衰落。如何用5行CSS代码取代50多行繁琐的JavaScript,彻底改变网页动画每次和UI/U...

「大数据」 hive入门

前言最近会介入数据中台项目,所以会推出一系列的跟大数据相关的组件博客与文档。Hive这个大数据组件自从Hadoop诞生之日起,便作为Hadoop生态体系(HDFS、MR/YARN、HIVE、HBASE...

青铜时代的终结:对奖牌架构的反思

作者|AdamBellemare译者|王强策划|Tina要点运维和分析用例无法可靠地访问相关、完整和可信赖的数据。需要一种新的数据处理方法。虽然多跳架构已经存在了几十年,并且可以对...

解析IBM SQL-on-Hadoop的优化思路

对于BigSQL的优化,您需要注意以下六个方面:1.平衡的物理设计在进行集群的物理设计需要考虑数据节点的配置要一致,避免某个数据节点性能短板而影响整体性能。而对于管理节点,它虽然不保存业务数据,但作...

交易型数据湖 - Apache Iceberg、Apache Hudi和Delta Lake的比较

图片由作者提供简介构建数据湖最重要的决定之一是选择数据的存储格式,因为它可以大大影响系统的性能、可用性和兼容性。通过仔细考虑数据存储的格式,我们可以增强数据湖的功能和性能。有几种不同的选择,每一种都有...

深入解析全新 AWS S3 Tables:重塑数据湖仓架构

在AWSre:Invent2024大会中,AWS发布了AmazonS3Tables:一项专为可扩展存储和管理结构化数据而设计的解决方案,基于ApacheIceberg开放表格...

Apache DataFusion查询引擎简介

简介DataFusion是一个查询引擎,其本身不具备存储数据的能力。正因为不依赖底层存储的格式,使其成为了一个灵活可扩展的查询引擎。它原生支持了查询CSV,Parquet,Avro,Json等存储格式...

大数据Hadoop之——Flink Table API 和 SQL(单机Kafka)

一、TableAPI和FlinkSQL是什么TableAPI和SQL集成在同一套API中。这套API的核心概念是Table,用作查询的输入和输出,这套API都是批处理和...

比较前 3 名Schema管理工具

关注留言点赞,带你了解最流行的软件开发知识与最新科技行业趋势。在本文中,读者将了解三种顶级schema管理工具,如AWSGlue、ConfluentSchemaRegistry和Memph...

大数据技术之Flume

第1章概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。1.2Flume的优点1.可以和...