百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

【Go】用 Go 语言并发处理 CSV 文件到数据库

liuian 2025-03-04 13:04 10 浏览

通过并发处理,我们能够大大提升 CSV 文件迁移到数据库的速度。Go 的 goroutines 和通道非常适合这种类型的任务,可以高效地处理 I/O 密集型的操作。

问题背景

假设你拥有一个包含大量联系人信息的 CSV 文件,需要将这些信息迁移到数据库中。这些联系人信息可能包含姓名、电话号码、邮箱地址等。如果使用传统的单线程方式,逐条处理数据,迁移过程可能会非常缓慢,尤其是在数据量很大时。

在处理大量的 CSV 文件数据并迁移到数据库时,使用并发可以显著提升处理效率。Go 语言的 goroutine 和通道(channel)非常适合用来并发地处理数据。

下面我将给出一个示例,展示如何使用 Go 语言并发地处理 CSV 文件,并将数据插入到数据库中。

主要思路

  1. 读取 CSV 文件:使用 encoding/csv 包来解析 CSV 文件。
  2. 并发处理数据:将 CSV 文件的数据分批次发送到多个 goroutine 中进行并发处理。
  3. 数据库插入:每个 goroutine 从通道中接收数据并将其插入到数据库中。
  4. 同步控制:使用 sync.WaitGroup 来等待所有 goroutine 完成任务。

假设我们的数据库是 MySQL,使用 github.com/jinzhu/gorm 作为 ORM 库来处理数据库插入。我们会定义一个 Contact 结构体来映射数据库中的表,并用并发的方式将每一行 CSV 数据插入到数据库。

示例代码

1. 安装必要的依赖

首先,你需要安装 gorm 和 csv 相关的包:

go get github.com/jinzhu/gorm
go get github.com/jinzhu/gorm/dialects/mysql
go get encoding/csv1.2.3.

2. 数据库模型定义

我们先定义一个 Contact 结构体,它会对应数据库中的联系人表。

package main

import (
	"github.com/jinzhu/gorm"
	_ "github.com/jinzhu/gorm/dialects/mysql"
	"fmt"
)

// Contact 是数据库中表的模型
type Contact struct {
	ID        uint   `gorm:"primary_key"`
	Name      string `gorm:"size:255"`
	Phone     string `gorm:"size:255"`
	Email     string `gorm:"size:255"`
}

func initDB() (*gorm.DB, error) {
	// 使用 MySQL 数据库
	db, err := gorm.Open("mysql", "user:password@/dbname?charset=utf8&parseTime=True&loc=Local")
	if err != nil {
		return nil, err
	}

	// 自动迁移表结构
	db.AutoMigrate(&Contact{})
	return db, nil
}

3. 读取 CSV 文件并处理

接下来,我们需要读取 CSV 文件并将每一行数据并发地插入到数据库中。

package main

import (
	"encoding/csv"
	"fmt"
	"os"
	"strings"
	"sync"
)

// 处理 CSV 文件并将数据插入数据库
func processCSV(filePath string, db *gorm.DB) error {
	// 打开 CSV 文件
	file, err := os.Open(filePath)
	if err != nil {
		return err
	}
	defer file.Close()

	// 创建 CSV 阅读器
	reader := csv.NewReader(file)

	// 读取所有行
	records, err := reader.ReadAll()
	if err != nil {
		return err
	}

	// 使用 WaitGroup 来同步所有的 goroutine
	var wg sync.WaitGroup

	// 通道用于发送每行数据
	ch := make(chan Contact, len(records))

	// 启动多个 goroutine 来并发处理 CSV 数据
	for i := 1; i < len(records); i++ { // 从 1 开始,跳过标题行
		wg.Add(1)
		go func(record []string) {
			defer wg.Done()
			// 将 CSV 行转换为 Contact 实例
			contact := Contact{
				Name:  record[0],
				Phone: record[1],
				Email: record[2],
			}
			ch <- contact // 发送数据到通道
		}(records[i])
	}

	// 启动一个 goroutine 来将通道中的数据插入到数据库
	go func() {
		for contact := range ch {
			if err := db.Create(&contact).Error; err != nil {
				fmt.Println("Error inserting record:", err)
			}
		}
	}()

	// 等待所有 goroutine 完成
	wg.Wait()

	// 关闭通道
	close(ch)

	return nil
}

func main() {
	// 初始化数据库
	db, err := initDB()
	if err != nil {
		fmt.Println("Failed to connect to database:", err)
		return
	}
	defer db.Close()

	// 处理 CSV 文件并将数据迁移到数据库
	err = processCSV("contacts.csv", db)
	if err != nil {
		fmt.Println("Error processing CSV file:", err)
		return
	}

	fmt.Println("CSV data successfully migrated to the database.")
}

4. 代码说明

①.初始化数据库:

  • initDB 函数用于初始化 MySQL 数据库连接并进行自动迁移。
  • 我们使用 gorm 来处理数据库操作,模型 Contact 映射到数据库中的 contacts 表。

②.读取 CSV 文件:

  • processCSV 函数打开并读取 CSV 文件。然后,它读取所有的记录,并将每条记录通过 goroutine 异步发送到通道中。
  • 每个 goroutine 都会将一条记录从 CSV 转换为 Contact 对象,并将其发送到通道。

③.并发处理数据:

  • sync.WaitGroup 被用来确保所有的 goroutine 完成任务。wg.Add(1) 在启动每个 goroutine 时调用,wg.Done() 在每个 goroutine 完成时调用。
  • 使用 chan Contact 通道来将数据从多个 goroutine 传递到数据库插入部分。一个单独的 goroutine 从通道中接收数据并将其插入到数据库。

④.并发插入数据库:

  • 每个 goroutine 向通道发送数据,然后另一个 goroutine 从通道中读取数据并将其插入数据库。通过这种方式,多个数据库插入操作是并发进行的。

⑤.关闭通道与等待:

  • 在所有数据都发送到通道后,使用 wg.Wait() 等待所有 goroutine 完成处理。
  • 关闭通道以确保数据库插入操作可以顺利结束。

5. 性能优化

在这个例子中,我们并发地读取 CSV 文件并将数据插入数据库,显著提高了处理速度。但是,对于大型数据集,还可以做更多的性能优化:

  • 批量插入:可以将多个数据条目批量插入数据库,而不是每次插入一条记录。批量插入可以显著减少数据库的 I/O 操作,提升性能。
  • 控制并发数:通过 semacphore 或者限制通道缓冲区大小,可以控制并发数,避免数据库被过多并发请求压垮。
  • 数据库连接池:确保数据库连接池的配置合理,避免过多的并发连接造成数据库连接耗尽。

总结

通过并发处理,我们能够大大提升 CSV 文件迁移到数据库的速度。Go 的 goroutines 和通道非常适合这种类型的任务,可以高效地处理 I/O 密集型的操作。

在处理大型 CSV 文件时,使用并发处理可以显著提升性能,减少总体处理时间。


相关推荐

Python tkinter学习笔记(七):Notebook和Treeview

‘Pythontkinter’是Python自带的GUI工具包,非常适合开发小型的GUI应用。最近使用‘tkinter’开发了一些自己日常使用的小工具,效果不错,于是把开发过程中学习到的一些tkin...

如何用 Python实现简单的表格界面

Excel有表格编辑功能,为什么我还要弄一个,不是多此一举么。道理是对的,但是很多会员功能才更加强大,不是吗?我们学语言,一来可以练习编码熟练的,巩固知识点,更重要的是你熟悉开发,以后如果你想实现一...

土地增值税清算中的施工合同进行判断是否有重复施工的情况

对土地增值税清算中的施工合同进行判断是否有重复施工的情况,使用Python中的Pandas库对施工合同的相关数据进行处理,基于文本相似度进行判断。1.读取施工内容数据:将施工内容数据存储在一个...

大模型时代必备技能:Embedding与向量数据库开发完全指南

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在官网-聚客AI学院大模型应用开发微调项目实践课程学习平台一.Embeddings与向量数据库1.1Embeddings的...

分布式实时搜索和分析引擎——Elasticsearch

一、概述Elasticsearch是一个基于Lucene的搜索引擎。它提供了具有HTTPWeb界面和无架构JSON文档的分布式,多租户能力的全文搜索引擎。Elasticsearch是用Java开发的...

elasticsearch v9.0.0重磅发布!解锁最新核心特性与性能飞跃!

时隔3年,Elasticsearch迎来重大版本更新!基于Lucene10.1.0构建,9.0.0版本在AI搜索、安全分析、向量计算、集群管理等多个领域实现突破性升级版本亮点o新...

Java中间件-Elasticsearch(java中间件技术及其应用开发)

Elasticsearch是一个非常强大的搜索引擎。它目前被广泛地使用于各个IT公司。Elasticsearch是由Elastic公司创建。它的代码位于GitHub-elastic/...

知名互联网公司和程序员都看好的数据库是什么?

2017年数据库领域的最大趋势是什么?什么是最热的数据处理技术?学什么数据库最有前途?程序员们普遍不喜欢的数据库是什么?本文都会一一揭秘。大数据时代,数据库的选择备受关注,此前本号就曾揭秘国内知名互联...

快速了解Elasticsearch(快速了解词语浑话的读音、释义等知识点)

Elasticsearch是一款基于Lucene的开源分布式全文搜索引擎,它支持实时搜索,具有优秀的可扩展性和可靠性。作为一款搜索引擎,Elasticsearch提供了丰富的API,使得开发人员可以通...

面试官:Kafka和ES选主有什么区别?

Kafka和ES都是用来处理大数据的中间件,一个是消息中间件的代表(Kafka),另一个是大数据搜索引擎的代表(ES)。它们在Java领域的使用非常广泛,在大数据方面就更不用说了,但它们的选...

ElasticSearch 23 种映射参数详解

ElasticSearch系列教程我们前面已经连着发了四篇了,今天第五篇,我们来聊一聊Es中的23种常见的映射参数。针对这23种常见的映射参数,松哥专门录制了一个视频教程:视频链接:...

还不会Elasticsearch?看这些知识入门刚刚好

作者:MacroZheng链接:https://juejin.im/post/5e8c7d65518825736512d097记得刚接触Elasticsearch的时候,没找啥资料,直接看了遍Ela...

Elasticsearch学习,请先看这一篇!

题记:Elasticsearch研究有一段时间了,现特将Elasticsearch相关核心知识、原理从初学者认知、学习的角度,从以下9个方面进行详细梳理。欢迎讨论……0.带着问题上路——ES是如何产...

Elasticsearch企业级应用全景图:原理/场景/优化/避坑四重奏

一、核心概念与架构原理1.基本定义Elasticsearch是基于ApacheLucene构建的分布式实时搜索与分析引擎,具有以下核心特性:分布式架构:支持PB级数据水平扩展近实时(NRT):数据...

ELK Stack系列之基础篇(八) - Elasticsearch原理总结(图示)

前言通过前面的知识,我们已经了解到了ELk到底是什么、以及他们的工作原理、ES集群架构、专有名词的一些解释。在进入下一阶段ES实操学习环节前,那么今天我将以图解的方式将ELK重点以及ES的相关逻辑进行...