百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

高效的并行数据库备份和恢复工具(并行数据库系统的优缺点)

liuian 2025-03-29 19:28 34 浏览

目录


一、gpbackup/gprestore

二、gpcopy


一、gpbackup/gprestore

Greenplum数据库从5.5.0版本开始,基于内置的COPY……ON SEGMENT命令,发布了更加高效的基于Greenplum的gpbackup/gprestore实用工具。关于COPY……ON SEGMENT命令的详细介绍,请参考6.1.1节。总的来说,gpbackup只存储对象的元表文件和DDL文件,且备份文件的生成、压缩和存储是在每个Segment上完成的,因此更加高效。gpbackup的元表信息包含gprestore运行需要的所有信息。另外,把数据存储为csv格式使得数据同样可以被其他工具(比如gpload)加载到同一个集群或者另外一个集群。每一个gpbackup的任务使用单个Greenplum中的事务。在事务执行期间,元表信息会备份到Master节点,而数据文件则通过COPY……ON SEGMENT命令并行备份到Segment节点。在备份过程中,备份进程只会获取备份表上的ACCESS SHARE表锁,不会阻塞线上Greeplum对外正常提供服务。

具体来说,gpbackup相比之前的gpcrondump做了以下优化和增强:

  • 减少对元表(catalog)的加锁。
  • 增强的监控管理和备份日志。
  • 支持csv文件格式。
  • 可插拔的第三方数据接口支持。
  • 增强的对元表(catalog)的查询性能。
  • 并行同步备份的支持。
  • 细粒度选择备份对象(角色、函数等),而不是基于表级。
  • 特殊字符支持(\t\n等)。
  • 完全基于Go语言重写,避免了Python多版本问题。

1)减少或优化对元表(catalog)的加锁以提高Greenplum在线服务能力和备份性能:

不对pg_class表加锁,减少因为pg_class大锁的竞争导致其他操作终止执行。

不加表级的EXCLUSIVE锁,只加表级的ACCESS SHARE锁,从而减少对表的竞争访问,提高并发量。

基于多版本同步控制(MVCC),利用COPY语句在Segment上直接进行数据导入/导出。

移植了PostgreSQL 9.1锁的新特性,提高性能。

提供可选的多种一致性级别,可根据使用场景灵活选择。

2)增强备份过程中的监控管理和日志输出:

利用心跳来探测备份进程是否还在运行。

备份进度指示条。

保留历史的进度信息,可用于估计本次备份所花的时间,以及判断本次备份是否存在性能问题。

可通过配置选择性恢复指定数据文件。

增强的备份结果报告文档,并且对邮件报警部分进行改造。

3)COPY用于导入和导出数据:

利用改进的COPY命令,可以直接并行运行在Segment上,而不需要像之前那样通过Master单节点。

更加灵活,可以为每个Segment的每个表生成独立的csv文件,从而提高恢复的并行性。

4)可插拔的外部数据源API:

可灵活支持各种第三方数据平台,包括Data Domain、Commvault等。

可支持各种基于云的存储,包括AWS、Azure、GCP等。

具备灵活性,可将备份数据对接到用户提供的定制化程序。

容灾备份,可将备份数据对接到远程Greenplum集群。

gpbackup/gprestore可支持的细粒度选择对象如表

使用注意点:

  • 如果用户在分区表的父表上创建索引,备份时不会为子表备份出相应索引,因为在子表上创建相同的索引会导致错误。但是如果用户使用过交换分区操作,gpbac-kup检测不到新的子表上的索引是来自父表,恢复时可能会导致重复创建索引的错误。
  • 用户可以执行多个gpbackup,但是每个gpbackup拥有不同的时间戳。
  • 数据库对象的过滤目前只限于Schema和表。
  • 如果用户使用--single-data-file选项,那么每个Segment上的备份数据都会集中到一个文件中,在恢复时用户就失去并行的可能性。
  • 增量备份目前还只支持追加(Append Optimized)表和列存(ColumnOriented)表。

gpbackup不支持下列Schema下的数据备份:

  • gp_toolkit
  • information_schema
  • pg_aoseg
  • pg_bitmapindex
  • pg_catalog
  • pg_toast*
  • pg_temp*

1.1 实战

bin]$ gpbackup --dbname qmsprd 20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-gpbackup version = 1.20.220210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Starting backup of database qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Timestamp = 2021022315312020210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Database = qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering table state information20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  82 / 82 [==============================================================] 100.00% 0s20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering additional table metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting partition definitions20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting storage information20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting child partitions with altered schema20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Metadata will be written to /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_metadata.sql20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing global database metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Global database metadata backup complete20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing pre-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Pre-data metadata metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing post-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Post-data metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing data to fileTables backed up:  82 / 82 [=========================================================] 100.00% 6m28s20210223:15:37:50 gpbackup:gpadmin:gptest01:003409-[INFO]:-Data backup complete20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Email containing gpbackup report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_report will not be sent20210223:15:37:52 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup completed successfully

运行完之后查看备份结果

master:

运行完上述命令后,可以看到在Master节点上全局和各个数据库的元信息,其格式为$MASTER_DATA_DIRECTORY/backups//

segment:

每个Segment节点在目录/backups///下会存储压缩后的csv格式的备份数据:

如何恢复?

恢复过程中必须通过--timestamp选项指定,同时可指定--create-db选项使得恢复过程有助于重建缺失的数据库。

~]$ gprestore --timestamp 20210223153120 --create-db20210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Restore Key = 2021022315312020210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gpbackup version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gprestore version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Creating database20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Database creation complete for: qmsprd20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring pre-data metadataPre-data objects restored:  338 / 338 [================================================] 100.00% 19s20210223:16:19:41 gprestore:gpadmin:gptest01:044186-[INFO]:-Pre-data metadata restore completeTables restored:  82 / 82 [=========================================================] 100.00% 10m24s20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Data restore complete20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring post-data metadataPost-data objects restored:  69 / 158 [======================>-----------------------------]  43.67%20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[CRITICAL]:-ERROR: could not create unique index "wpp_sht_info_n_1_prt_p2019_pkey"  (seg3 10.50.10.170:6003 pid=44257) (SQLSTATE 23505)20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Email containing gprestore report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gprestore_20210223153120_20210223161919_report will not be sent

gpbackup 提供了多个参数,可以使用 --help查看.

如果只需要备份表结构,则可以使用--metadata

~]$gpbackup --dbname qmsprd --metadata-only20210223:16:29:34 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Starting backup of database qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Timestamp = 2021022316293420210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Database = qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering list of tables for backup20210223:16:29:43 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  1525 / 1525 [=========================================================] 100.00% 11s20210223:16:29:54 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering additional table metadata20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Metadata will be written to /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_metadata.sql20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing global database metadata20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Global database metadata backup complete20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing pre-data metadata20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Pre-data metadata backup complete20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing post-data metadata20210223:16:33:55 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Post-data metadata backup complete20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Found neither /opt/greenplum/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Email containing gpbackup report /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_report will not be sent20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup completed successfully

试想一下?如果两个集群的规模不一致,那gpbackup / gprestore还能用吗?

答案是否定的.会有如下报错

 backups]$ gprestore --timestamp 20210223162934 --metadata-only  --create-db 20210223:17:10:27 gprestore:gpadmin:gpmaster:013990-[INFO]:-Restore Key = 2021022316293420210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[CRITICAL]:-Backup directories missing or inaccessible on 6 segments. See /home/gpadmin/gpAdminLogs/gprestore_20210223.log for a complete list of errors.20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Email containing gprestore report /greenplum/gpdata/master/gpseg-1/backups/20210223/20210223162934/gprestore_20210223162934_20210223171027_report will not be sent

但是既然生成metadata的sql已经存在了。那么可以使用 psql来重放sql来实现。例如

psql -af test.sql > import_metadata.log 2>&1

-a, --echo-all echo all input from script
-f, --file=FILENAME execute commands from file, then exit

因为psql 的输出都是标准输出,因此可以将其重定向到log中。

2>&1 代表的是将标准错误输出和标准输出合并 输入到import_metadata.log

二、gpcopy

实际业务场景如下

升级:16节点的Greenplum 4.3集群迁移到16节点的Greenplum 6.x集群

迁移:8节点的Greenplum4.x集群迁移到16节点的Greenplum 6.x集群

GPCOPY可以迁移整个集群,也可以传输某些数据库、命名空间和表;可以从正则表达式匹配需要传输的数据表;可以略过、追加或者替换目标集群的数据;可以并行传输;可以只迁移数据表的定义信息。GPCOPY利用了Greenplum的COPY…ON SEGMENT特性,基于Segment间直接传输数据获得性能加速。

GPCOPY会在源端和目标端同时执行COPY…ON SEGMENT命令。该命令会被Master下发到每个Segment,在其上执行COPY命令。源端Segment会创建到目标端Segment的连接。当连接创建成功后,源端Segment执行COPY TO命令,将数据表的内容通过连接发送出去,而目标Segment执行COPYFROM命令,从连接上等待接收源端传过来的内容。如果开启了压缩选项,在数据发送前会进行压缩,数据接收后会先进行解压缩。在数据传输过程中,在源端和目标端都各自开启了数据库事务,如果传输中间有错误发生,也可以保证数据的完整性。

GPCOPY的核心功能包括以下几点:

1)Snappy压缩传输。GPCOPY默认打开压缩选项,使用Google的Snappy格式对所传输的数据进行压缩,网络传输压力更小,速度也更快。Snappy对大多数数据的压缩比zlib的最快模式还要快几个数量级。在Core i7的单核64位模式下,Snappy压缩速度可以达到250MB/s或更快,解压缩可以达到大约500MB/s或更快。

2)高效好用的数据校验。判断两个数据库系统的表是否一致不是一个简单的问题,使用哈希校验的话要考虑条目的顺序,使用排序的话又会降低速度。如果这两个数据库系统和Greenplum一样是集群系统,这个问题就更难解决了。而GPCOPY灵活地解决了这个问题,既不需要排序,数据校验的速度又比通过导出csv数据文件进行哈希快几倍。

3)完善的日志记录和错误处理。GPCOPY将数据传输过程中每一步的操作、执行的查询、命令和结果都写到日志文件中,并根据用户指定的级别显示到标准输出。数据迁移操作通过事务块进行保护,发生错误时可以做到表一级的回滚。运行结束时会有详细的成功或失败的总结信息,同时生成和提示用户运行命令去重试所有发生过错误的操作。用户环境如果出现错误,结合GPCOPY和Greenplum的日志文件,可以迅速地定位问题,保障数据迁移顺利进行。

4)GPCOPY用于升级。Greenplum版本升级一般会有catalog变化,只升级可执行文件会导致数据不兼容,利用GPCOPY则可以做到原地升级。另外,因为有了快速好用的数据校验,用户也可以放心地一边迁移数据一边释放空间。对于磁盘空间紧张的用户,不再需要准备双倍空间用于升级,节省了系统资源。

5)支持不同节点数的Greenplum集群间传输。从上图可以看到,当目标集群和源集群节点数不同时,也可以使用GPCOPY进行高效数据迁移

--analyze:数据迁移结束后,是否需要对数据表进行Analyze操作。执行Analyze操作需要花费一些时间,但是会生产准确的统计信息供查询优化器使用,以生成更加高效的查询计划。默认关闭。

--jobs:数据迁移时指定的并行度。数据会分批次迁移,该选项指定每批迁移多少个表。

--metadata-only:只在目标数据库中创建表的定义,不进行实际的数据迁移。

--truncate:如果目标数据库中相同名字的数据库表已经存在,是否在开始迁移前清空目标数据库表的数据。

--append:如果目标数据库中相同表名字的数据库表已经存在,是否保留之前的数据。该选项与--truncate互斥。

gpcopy实战操作

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...