百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

高效的并行数据库备份和恢复工具(并行数据库系统的优缺点)

liuian 2025-03-29 19:28 21 浏览

目录


一、gpbackup/gprestore

二、gpcopy


一、gpbackup/gprestore

Greenplum数据库从5.5.0版本开始,基于内置的COPY……ON SEGMENT命令,发布了更加高效的基于Greenplum的gpbackup/gprestore实用工具。关于COPY……ON SEGMENT命令的详细介绍,请参考6.1.1节。总的来说,gpbackup只存储对象的元表文件和DDL文件,且备份文件的生成、压缩和存储是在每个Segment上完成的,因此更加高效。gpbackup的元表信息包含gprestore运行需要的所有信息。另外,把数据存储为csv格式使得数据同样可以被其他工具(比如gpload)加载到同一个集群或者另外一个集群。每一个gpbackup的任务使用单个Greenplum中的事务。在事务执行期间,元表信息会备份到Master节点,而数据文件则通过COPY……ON SEGMENT命令并行备份到Segment节点。在备份过程中,备份进程只会获取备份表上的ACCESS SHARE表锁,不会阻塞线上Greeplum对外正常提供服务。

具体来说,gpbackup相比之前的gpcrondump做了以下优化和增强:

  • 减少对元表(catalog)的加锁。
  • 增强的监控管理和备份日志。
  • 支持csv文件格式。
  • 可插拔的第三方数据接口支持。
  • 增强的对元表(catalog)的查询性能。
  • 并行同步备份的支持。
  • 细粒度选择备份对象(角色、函数等),而不是基于表级。
  • 特殊字符支持(\t\n等)。
  • 完全基于Go语言重写,避免了Python多版本问题。

1)减少或优化对元表(catalog)的加锁以提高Greenplum在线服务能力和备份性能:

不对pg_class表加锁,减少因为pg_class大锁的竞争导致其他操作终止执行。

不加表级的EXCLUSIVE锁,只加表级的ACCESS SHARE锁,从而减少对表的竞争访问,提高并发量。

基于多版本同步控制(MVCC),利用COPY语句在Segment上直接进行数据导入/导出。

移植了PostgreSQL 9.1锁的新特性,提高性能。

提供可选的多种一致性级别,可根据使用场景灵活选择。

2)增强备份过程中的监控管理和日志输出:

利用心跳来探测备份进程是否还在运行。

备份进度指示条。

保留历史的进度信息,可用于估计本次备份所花的时间,以及判断本次备份是否存在性能问题。

可通过配置选择性恢复指定数据文件。

增强的备份结果报告文档,并且对邮件报警部分进行改造。

3)COPY用于导入和导出数据:

利用改进的COPY命令,可以直接并行运行在Segment上,而不需要像之前那样通过Master单节点。

更加灵活,可以为每个Segment的每个表生成独立的csv文件,从而提高恢复的并行性。

4)可插拔的外部数据源API:

可灵活支持各种第三方数据平台,包括Data Domain、Commvault等。

可支持各种基于云的存储,包括AWS、Azure、GCP等。

具备灵活性,可将备份数据对接到用户提供的定制化程序。

容灾备份,可将备份数据对接到远程Greenplum集群。

gpbackup/gprestore可支持的细粒度选择对象如表

使用注意点:

  • 如果用户在分区表的父表上创建索引,备份时不会为子表备份出相应索引,因为在子表上创建相同的索引会导致错误。但是如果用户使用过交换分区操作,gpbac-kup检测不到新的子表上的索引是来自父表,恢复时可能会导致重复创建索引的错误。
  • 用户可以执行多个gpbackup,但是每个gpbackup拥有不同的时间戳。
  • 数据库对象的过滤目前只限于Schema和表。
  • 如果用户使用--single-data-file选项,那么每个Segment上的备份数据都会集中到一个文件中,在恢复时用户就失去并行的可能性。
  • 增量备份目前还只支持追加(Append Optimized)表和列存(ColumnOriented)表。

gpbackup不支持下列Schema下的数据备份:

  • gp_toolkit
  • information_schema
  • pg_aoseg
  • pg_bitmapindex
  • pg_catalog
  • pg_toast*
  • pg_temp*

1.1 实战

bin]$ gpbackup --dbname qmsprd 20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-gpbackup version = 1.20.220210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Starting backup of database qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Timestamp = 2021022315312020210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Database = qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering table state information20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  82 / 82 [==============================================================] 100.00% 0s20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering additional table metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting partition definitions20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting storage information20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting child partitions with altered schema20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Metadata will be written to /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_metadata.sql20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing global database metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Global database metadata backup complete20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing pre-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Pre-data metadata metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing post-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Post-data metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing data to fileTables backed up:  82 / 82 [=========================================================] 100.00% 6m28s20210223:15:37:50 gpbackup:gpadmin:gptest01:003409-[INFO]:-Data backup complete20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Email containing gpbackup report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_report will not be sent20210223:15:37:52 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup completed successfully

运行完之后查看备份结果

master:

运行完上述命令后,可以看到在Master节点上全局和各个数据库的元信息,其格式为$MASTER_DATA_DIRECTORY/backups//

segment:

每个Segment节点在目录/backups///下会存储压缩后的csv格式的备份数据:

如何恢复?

恢复过程中必须通过--timestamp选项指定,同时可指定--create-db选项使得恢复过程有助于重建缺失的数据库。

~]$ gprestore --timestamp 20210223153120 --create-db20210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Restore Key = 2021022315312020210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gpbackup version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gprestore version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Creating database20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Database creation complete for: qmsprd20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring pre-data metadataPre-data objects restored:  338 / 338 [================================================] 100.00% 19s20210223:16:19:41 gprestore:gpadmin:gptest01:044186-[INFO]:-Pre-data metadata restore completeTables restored:  82 / 82 [=========================================================] 100.00% 10m24s20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Data restore complete20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring post-data metadataPost-data objects restored:  69 / 158 [======================>-----------------------------]  43.67%20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[CRITICAL]:-ERROR: could not create unique index "wpp_sht_info_n_1_prt_p2019_pkey"  (seg3 10.50.10.170:6003 pid=44257) (SQLSTATE 23505)20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Email containing gprestore report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gprestore_20210223153120_20210223161919_report will not be sent

gpbackup 提供了多个参数,可以使用 --help查看.

如果只需要备份表结构,则可以使用--metadata

~]$gpbackup --dbname qmsprd --metadata-only20210223:16:29:34 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Starting backup of database qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Timestamp = 2021022316293420210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Database = qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering list of tables for backup20210223:16:29:43 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  1525 / 1525 [=========================================================] 100.00% 11s20210223:16:29:54 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering additional table metadata20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Metadata will be written to /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_metadata.sql20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing global database metadata20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Global database metadata backup complete20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing pre-data metadata20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Pre-data metadata backup complete20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing post-data metadata20210223:16:33:55 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Post-data metadata backup complete20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Found neither /opt/greenplum/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Email containing gpbackup report /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_report will not be sent20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup completed successfully

试想一下?如果两个集群的规模不一致,那gpbackup / gprestore还能用吗?

答案是否定的.会有如下报错

 backups]$ gprestore --timestamp 20210223162934 --metadata-only  --create-db 20210223:17:10:27 gprestore:gpadmin:gpmaster:013990-[INFO]:-Restore Key = 2021022316293420210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[CRITICAL]:-Backup directories missing or inaccessible on 6 segments. See /home/gpadmin/gpAdminLogs/gprestore_20210223.log for a complete list of errors.20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Email containing gprestore report /greenplum/gpdata/master/gpseg-1/backups/20210223/20210223162934/gprestore_20210223162934_20210223171027_report will not be sent

但是既然生成metadata的sql已经存在了。那么可以使用 psql来重放sql来实现。例如

psql -af test.sql > import_metadata.log 2>&1

-a, --echo-all echo all input from script
-f, --file=FILENAME execute commands from file, then exit

因为psql 的输出都是标准输出,因此可以将其重定向到log中。

2>&1 代表的是将标准错误输出和标准输出合并 输入到import_metadata.log

二、gpcopy

实际业务场景如下

升级:16节点的Greenplum 4.3集群迁移到16节点的Greenplum 6.x集群

迁移:8节点的Greenplum4.x集群迁移到16节点的Greenplum 6.x集群

GPCOPY可以迁移整个集群,也可以传输某些数据库、命名空间和表;可以从正则表达式匹配需要传输的数据表;可以略过、追加或者替换目标集群的数据;可以并行传输;可以只迁移数据表的定义信息。GPCOPY利用了Greenplum的COPY…ON SEGMENT特性,基于Segment间直接传输数据获得性能加速。

GPCOPY会在源端和目标端同时执行COPY…ON SEGMENT命令。该命令会被Master下发到每个Segment,在其上执行COPY命令。源端Segment会创建到目标端Segment的连接。当连接创建成功后,源端Segment执行COPY TO命令,将数据表的内容通过连接发送出去,而目标Segment执行COPYFROM命令,从连接上等待接收源端传过来的内容。如果开启了压缩选项,在数据发送前会进行压缩,数据接收后会先进行解压缩。在数据传输过程中,在源端和目标端都各自开启了数据库事务,如果传输中间有错误发生,也可以保证数据的完整性。

GPCOPY的核心功能包括以下几点:

1)Snappy压缩传输。GPCOPY默认打开压缩选项,使用Google的Snappy格式对所传输的数据进行压缩,网络传输压力更小,速度也更快。Snappy对大多数数据的压缩比zlib的最快模式还要快几个数量级。在Core i7的单核64位模式下,Snappy压缩速度可以达到250MB/s或更快,解压缩可以达到大约500MB/s或更快。

2)高效好用的数据校验。判断两个数据库系统的表是否一致不是一个简单的问题,使用哈希校验的话要考虑条目的顺序,使用排序的话又会降低速度。如果这两个数据库系统和Greenplum一样是集群系统,这个问题就更难解决了。而GPCOPY灵活地解决了这个问题,既不需要排序,数据校验的速度又比通过导出csv数据文件进行哈希快几倍。

3)完善的日志记录和错误处理。GPCOPY将数据传输过程中每一步的操作、执行的查询、命令和结果都写到日志文件中,并根据用户指定的级别显示到标准输出。数据迁移操作通过事务块进行保护,发生错误时可以做到表一级的回滚。运行结束时会有详细的成功或失败的总结信息,同时生成和提示用户运行命令去重试所有发生过错误的操作。用户环境如果出现错误,结合GPCOPY和Greenplum的日志文件,可以迅速地定位问题,保障数据迁移顺利进行。

4)GPCOPY用于升级。Greenplum版本升级一般会有catalog变化,只升级可执行文件会导致数据不兼容,利用GPCOPY则可以做到原地升级。另外,因为有了快速好用的数据校验,用户也可以放心地一边迁移数据一边释放空间。对于磁盘空间紧张的用户,不再需要准备双倍空间用于升级,节省了系统资源。

5)支持不同节点数的Greenplum集群间传输。从上图可以看到,当目标集群和源集群节点数不同时,也可以使用GPCOPY进行高效数据迁移

--analyze:数据迁移结束后,是否需要对数据表进行Analyze操作。执行Analyze操作需要花费一些时间,但是会生产准确的统计信息供查询优化器使用,以生成更加高效的查询计划。默认关闭。

--jobs:数据迁移时指定的并行度。数据会分批次迁移,该选项指定每批迁移多少个表。

--metadata-only:只在目标数据库中创建表的定义,不进行实际的数据迁移。

--truncate:如果目标数据库中相同名字的数据库表已经存在,是否在开始迁移前清空目标数据库表的数据。

--append:如果目标数据库中相同表名字的数据库表已经存在,是否保留之前的数据。该选项与--truncate互斥。

gpcopy实战操作

相关推荐

面试问了解Linux内存管理吗?10张图给你安排的明明白白!

来源:https://www.cnblogs.com/NanoDragon/p/12736887.html今天来带大家研究一下Linux内存管理。对于精通CURD的业务同学,内存管理好像离我们很远...

Linux Kernel 6.12震撼发布:实时性能飙升,开启全新计算时代!

概述LinusTorvalds在邮件列表中宣布推出LinuxKernel6.12,该版本带来了多项重要的更新和功能增强。更新亮点PREEMPT_RT支持主要内容:LinuxKernel...

linux Grub2功能、常见配置及使用方式

Grub2(GrandUnifiedBootloaderversion2)是一款功能强大的引导加载程序,提供了以下功能和常见配置:多操作系统支持:Grub2可以加载和引导多个操作系统,包括不同...

Linux内核必备知识点-platform总线详解

platform总线是学习linux驱动必须要掌握的一个知识点。本文参考已发布:Linux3.14内核一、概念嵌入式系统中有很多的物理总线:I2c、SPI、USB、uart、PCIE、APB、AHB...

linux kernel内核的头文件获取、安装等方法

交叉编译时经常会用到这些头文件。下载合适版本的linux地址:https://mirrors.aliyun.com/linux-kernel/https://mirrors.edge.kernel.o...

600个常用 Linux 命令,收藏备用!

本文为Linux命令大全,从A到Z都有总结,建议大家收藏以便查用,或者查漏补缺!A命令描述access用于检查调用程序是否可以访问指定的文件,用于检查文件是否存在accton用于打开或关闭记帐进程或...

Linux 中 `/proc/cpuinfo`文件中最常见的标志

/proc/cpuinfo是一个虚拟文件系统,在Linux系统中提供有关CPU(中央处理器)的信息。通过读取该文件,您可以获取有关处理器的详细信息,如型号、频率、核心数、缓存大小等。本文将介绍...

600个Linux命令大全,从A到Z,2023年收藏大吉!

本文为Linux命令大全(有PDF),从A到Z都有总结,建议大家收藏以便查用,或者查漏补缺!A命令描述access用于检查调用程序是否可以访问指定的文件,用于检查文件是否存在accton用于打开或关闭...

Linux下如何查看硬件信息?

我们在Linux下进行开发时,有时也需要知道当前的硬件信息,比如:CPU几核?使用情况?内存大小及使用情况?USB设备是否被识别?等等类似此类问题。下面良许介绍一些常用的硬件查看命令。lshwls...

从PXE到GRUB到VHD文件启动

今天玩点花活儿,之前的文章再探从VHD文件中启动Windows及Grub双启动VHD文件+TinyCoreLinux中研了一下GRUB和VHD文件的关联应用,那么结合PXE又会是怎么样的呢?...

bootra1n教学:Windows用户用U盘Linux实现checkra1n越狱方法

checkra1n越狱工具在前几天推出Linux版本,相信对于Windows用户可能也看得很模糊,甚至要切割硬碟到安装Linux系统太过于繁杂,这篇要来教大家最简易最快速利用U盘Linux...

不了解NUMA,就看不懂Linux内核

哈喽,我是子牙,一个很卷的硬核男人深入研究计算机底层、Windows内核、Linux内核、Hotspot源码……聚焦做那些大家想学没地方学的课程。为了保证课程质量及教学效果,一年磨一剑,三年先后做了这...

Linus Torvalds接受微软Hyper-V升级 下一代Linux启动会更快

虽然Windows的粉丝和Linux的粉丝经常喜欢进行激烈的键盘大战,但操作系统的制造商们自己也了解彼此的优缺点。毫无疑问,微软也明白这一点,事实上,它甚至鼓励用户尝试Linux,尽管是使用...

deepin使用笔记——开机卡LOGO,无法正常关机的解决办法

第一次使用deepin操作系统,很容易遇到几种情况:1,开机卡LOGO,无法进入系统。2,开机可以进入系统,但是进入系统后桌面环境无法正常打开,一直卡着什么都不能用。3,开机后看似一切正常,但关机的时...

如何检查Linux系统硬件信息?从CPU到显卡,一网打尽!

你可能会问:“我为什么要关心硬件信息?”答案很简单:硬件是Linux系统的根基,了解它可以帮你解决很多实际问题。比如:性能调优:知道CPU核心数和内存大小,才能更好地调整程序运行参数。故障排查:系统卡...