百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Springboot+Easyexcel将数据写入模板文件并导出Excel

liuian 2025-02-08 11:50 11 浏览

Java解析、生成Excel比较有名的框架有Apache poi、jxl。但他们都存在一个严重的问题就是非常的耗内存,poi有一套SAX模式的API可以一定程度的解决一些内存溢出的问题,但POI还是有一些缺陷,比如07版Excel解压缩以及解压后存储都是在内存中完成的,内存消耗依然很大。easyexcel重写了poi对07版Excel的解析,一个3M的excel用POI sax解析依然需要100M左右内存,改用easyexcel可以降低到几M,并且再大的excel也不会出现内存溢出;03版依赖POI的sax模式,在上层做了模型转换的封装,让使用者更加简单方便。

本文使用easyexcel对excel文件进行操作,来实现数据以excel形式导出的功能。

需求背景:

针对用户选择的数据,利用现有的excel模板,实现批量导出的功能。比如CSDN也有类似的批量导出数据功能,这里需要导出时,按照模板文件的字段导出。

现有模板字段:

实现方式:springboot+easyexcel

一、导入依赖



    org.projectlombok
    lombok




    com.alibaba
    easyexcel
    3.0.5


二、根据excel表头创建对应的实体类Pojo

ExcelTitile实体类

import com.alibaba.excel.annotation.ExcelProperty;
import lombok.Data;

@Data
public class ExcelTitle {

    @ExcelProperty(value="事件名称", index=0)
    private String eventName;

    @ExcelProperty(value="需求负责人", index=1)
    private String prdManager;

    @ExcelProperty(value="技术负责人", index=2)
    private String techManager;

    @ExcelProperty(value="文档链接", index=3)
    private String prdDocs;

    @ExcelProperty(value="数据链接", index=4)
    private String statsDocs;

    @ExcelProperty(value="统计口径", index=5)
    private String reportCaliber;

这里采用了@ExcelProperty的注解,其中value表示列名,index表示列名的索引值。@Data 注解的主要作用是提高代码的简洁,使用这个注解可以省去代码中大量的get()、 set()、 toString()等方法;

三、Controller类接收请求

@RequestMapping(value = "/bulkOutput", method = RequestMethod.GET)
    public ResultBean bulkOutput(HttpServletResponse response) {

        // 重要! 设置返回格式是excel形式
        response.setContentType("application/vnd.openxmlformats-officedocument.spreadsheetml.sheet");
        // 设置编码格式
        response.setCharacterEncoding("utf-8");
        // 设置URLEncoder.encode 防止中文乱码
        String fileName = null;
        try {
            fileName = URLEncoder.encode("数据批量导出", "UTF-8").replaceAll("\\+", "%20");
        // 设置响应头
        response.setHeader("Content-disposition", "attachment;filename*=utf-8''" + fileName + ".xlsx");

        List bulkOutputData = wildEventService.getBulkOutputData();

        // 模板文件保存在springboot项目的resources/static下
        Resource resource = new ClassPathResource("static/数据批量导出模板.xlsx");

        ExcelWriter excelWriter = EasyExcel.write(response.getOutputStream())
                                           .withTemplate(resource.getInputStream()) // 利用模板的输出流
                                           .build();
        // 写入模板文件的第一个sheet 索引0    
        WriteSheet writeSheet = EasyExcel.writerSheet(0).build();

        // 将数据写入到模板文件的对应sheet中
        excelWriter.write(bulkOutputData, writeSheet);
        excelWriter.finish();
        } catch (UnsupportedEncodingException e) {
            return ResultBean.errorService(e.getMessage());
        } catch (IOException e) {
            return ResultBean.errorService(e.getMessage());
        }
        return ResultBean.success("数据导出成功!");
    }

上述代码中,首先对response进行了设置,设置了返回类型,响应头,以及导出下载时的文件名称。接下来,利用Resource resource = new ClassPathResource("static/数据批量导出模板.xlsx"); 读取项目下的模板文件,并调用easyexcel的写入方法。这里write(response.getOutputStream())表示写入response的输出流,即将文件返回给客户端进行下载withTemplate(resource.getInputStream())表示读取模板文件进行写入。最后调用 WriteSheet writeSheet = EasyExcel.writerSheet(0).build();将苏剧写入模板文件的第一个sheet中(索引从0开始)。

四、Service层获取待写入数据

这里为了简易期间,构造一些数据如下

import com.example.demo.Pojo.ExcelTitle;
import org.springframework.stereotype.Service;

import java.util.ArrayList;
import java.util.List;

@Service
public class BulkOutputService {

    public List getOutputData()
    {

        List resultList = new ArrayList<>();

        // 第一行数据
        ExcelTitle t1 = new ExcelTitle();
        t1.setEventName("测试数据1");
        t1.setTechManager("张三");
        t1.setPrdManager("张三");
        t1.setPrdDocs("http://prdDocs.com");
        t1.setStatsDocs("http://statsDocs.com");
        t1.setReportCaliber("reportCaliber");

        // 第二行数据
        ExcelTitle t2 = new ExcelTitle();
        t2.setEventName("测试数据2");
        t2.setTechManager("李四");
        t2.setPrdManager("李四");
        t2.setPrdDocs("http://prdDocs.com");
        t2.setStatsDocs("http://statsDocs.com");
        t2.setReportCaliber("reportCaliber");

        resultList.add(t1);
        resultList.add(t2);

        return resultList;
    }

}

这里构造了两行简易数据,实际场景中只需要根据自己的数据做替换就可以了。

有了上述步骤,就可以接下来执行代码查看导出效果了。

效果展示

启动springboot程序,在浏览器中输入请求:
http://localhost:8080/bulkOutput, 可以发现返回的excel文件被浏览器下载,打开后内容如下:

可以看到,数据根据模板格式写入了文件,并以excel的形式导出。初步完成了我们预定的场景。

总结

本次实现的功能是利用现有模板,将数据批量导出成excel,借助于easyexcel来实现操作excel的功能。最重要的功能模块是Controller里的内容。

需要注意

  1. 需要加上response的响应类型和响应头来使得返回请求返回excel文件
  2. 写到Web流时,这里的ContentType和CharacterEncoding不要乱码,否则很容易乱码或者文件损坏
  3. 使用EasyExcel.withTemplate引入模板的输入流

相关推荐

【常识】如何优化Windows 7

优化Windows7可以让这个经典系统运行更流畅,特别是在老旧硬件上。以下是经过整理的实用优化方案,分为基础优化和进阶优化两部分:一、基础优化(适合所有用户)1.关闭不必要的视觉效果右键计算机...

系统优化!Windows 11/10 必做的十个优化配置

以下是为Windows10/11用户整理的10个必做优化配置,涵盖性能提升、隐私保护和系统精简等方面,操作安全且无需第三方工具:1.禁用不必要的开机启动项操作路径:`Ctrl+S...

最好用音频剪辑的软件,使用方法?

QVE音频剪辑是一款简单实用的软件,功能丰富,可编辑全格式音频。支持音频转换、合并、淡入淡出、变速、音量调节等,无时长限制,用户可自由剪辑。剪辑后文件音质无损,支持多格式转换,便于存储与跨设备播放,满...

Vue2 开发总踩坑?这 8 个实战技巧让代码秒变丝滑

前端开发的小伙伴们,在和Vue2打交道的日子里,是不是总被各种奇奇怪怪的问题搞得头大?数据不响应、组件传值混乱、页面加载慢……别慌!今天带来8个超实用的Vue2实战技巧,每一个都能直击痛...

Motion for Vue:为Vue量身定制的强大动画库

在前端开发中,动画效果是提升用户体验的重要手段。Vue生态系统中虽然有许多动画库,但真正能做到高性能、易用且功能丰富的并不多。今天,我们要介绍的是MotionforVue(motion-v),...

CSS view():JavaScript 滚动动画的终结

前言CSSview()方法可能会标志着JavaScript在制作滚动动画方面的衰落。如何用5行CSS代码取代50多行繁琐的JavaScript,彻底改变网页动画每次和UI/U...

「大数据」 hive入门

前言最近会介入数据中台项目,所以会推出一系列的跟大数据相关的组件博客与文档。Hive这个大数据组件自从Hadoop诞生之日起,便作为Hadoop生态体系(HDFS、MR/YARN、HIVE、HBASE...

青铜时代的终结:对奖牌架构的反思

作者|AdamBellemare译者|王强策划|Tina要点运维和分析用例无法可靠地访问相关、完整和可信赖的数据。需要一种新的数据处理方法。虽然多跳架构已经存在了几十年,并且可以对...

解析IBM SQL-on-Hadoop的优化思路

对于BigSQL的优化,您需要注意以下六个方面:1.平衡的物理设计在进行集群的物理设计需要考虑数据节点的配置要一致,避免某个数据节点性能短板而影响整体性能。而对于管理节点,它虽然不保存业务数据,但作...

交易型数据湖 - Apache Iceberg、Apache Hudi和Delta Lake的比较

图片由作者提供简介构建数据湖最重要的决定之一是选择数据的存储格式,因为它可以大大影响系统的性能、可用性和兼容性。通过仔细考虑数据存储的格式,我们可以增强数据湖的功能和性能。有几种不同的选择,每一种都有...

深入解析全新 AWS S3 Tables:重塑数据湖仓架构

在AWSre:Invent2024大会中,AWS发布了AmazonS3Tables:一项专为可扩展存储和管理结构化数据而设计的解决方案,基于ApacheIceberg开放表格...

Apache DataFusion查询引擎简介

简介DataFusion是一个查询引擎,其本身不具备存储数据的能力。正因为不依赖底层存储的格式,使其成为了一个灵活可扩展的查询引擎。它原生支持了查询CSV,Parquet,Avro,Json等存储格式...

大数据Hadoop之——Flink Table API 和 SQL(单机Kafka)

一、TableAPI和FlinkSQL是什么TableAPI和SQL集成在同一套API中。这套API的核心概念是Table,用作查询的输入和输出,这套API都是批处理和...

比较前 3 名Schema管理工具

关注留言点赞,带你了解最流行的软件开发知识与最新科技行业趋势。在本文中,读者将了解三种顶级schema管理工具,如AWSGlue、ConfluentSchemaRegistry和Memph...

大数据技术之Flume

第1章概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。1.2Flume的优点1.可以和...