当mysql中某张表数据量很大时,和客户沟通可以进行归档(将XX天之前的数据备份后删除)。可以使用此文档。
目录
一、PT工具安装
#下载:
#wget https://downloads.percona.com/downloads/percona-toolkit/3.3.1/binary/tarball/percona-toolkit-3.3.1_x86_64.tar.gz --no-check-certificate
#安装:
# tar xvf percona-toolkit-3.3.1_x86_64.tar.gz
# cd percona-toolkit-3.3.1
# yum install perl-ExtUtils-MakeMaker perl-DBD-MySQL perl-Digest-MD5
# perl Makefile.PL
# make
# make install
二、使用说明
pt-archiver命令分为四部分
第一部分:利用--source指定源地址
第二部分:利用--dest指定目标地址
dest为互斥选项:
至少需指定选项–dest、–file或–purge其中之一
第三部分:利用--where指定条件
第四部分:其它参数
source部分:
一般为如下,指定源IP,端口,账号,密码,库名,要归档的大表名:
--source h=192.168.217.143,P=3306,u=root,p=123456,D=copm_n,t=np_dt_park_stay
dest部分:
一般为如下,指定目标IP,端口,账号,密码,库名,要归档到的大表名(此表要先创建好: create table np_dt_park_stay_arch1 like np_dt_park_stay;):
--dest h=192.168.217.143,P=3306,u=root,p=123456,D=copm_n,t=np_dt_park_stay_arch1
where部分:
可以理解为delete语句中的where部分
此处用如下语句,表示IN_TIME列小于90天的数据(即90天之前)
in_time < DATE_SUB(NOW(),INTERVAL 90 DAY)
其他参数:
--limit 5000 --commit-each --charset=utf8 --no-version-check --statistics --bulk-insert --bulk-delete --progress 5000
参数解释
--limit:默认值:1,指定每条语句获取表和归档表的行数
--commit-each: 对于每一批记录,只会 COMMIT 一次
--charset=utf8: 指定连接字符集
--no-version-check: 默认值:yes;检查Percona Toolkit、MySQL和其他程序的最新版本
--statistics: 指定工具收集并打印操作的时间统计信息
--bulk-insert: 归档数据以 LOAD DATA INFILE 的方式导入到归档库中
--bulk-delete: 批量删除
--progress 5000: 指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档
正式使用:
pt-archiver --source h=192.168.217.143,P=3306,u=root,p=123456,D=copm_n,t=np_dt_park_stay --dest h=192.168.217.143,P=3306,u=root,p=123456,D=copm_n,t=np_dt_park_stay_arch1 --where 'IN_TIME < DATE_SUB(now(),INTERVAL 90 DAY)' --limit 5000 --commit-each --charset=utf8 --no-version-check --statistics --bulk-insert --bulk-delete --progress 5000
语句将会备份np_dt_park_stay表90天前的数据到np_dt_park_stay_arch1,并删除np_dt_park_stay表90天前的数据。
三、file和purge使用:
之前说到dest为互斥选项
其中除了dest外,还有--file或--purge
下面是purge的用法
--purge 代表只删除,不归档,例子如下:
# 1. 同时指定--purge --dry-run 输出清理的sql,不真正删除数据
pt-archiver \
--source h=127.0.0.1,u=root,p=Abc123654,P=33106,D=destination,t=user \
--progress 20 --where 'id<=200' \
--statistics --charset=UTF8 --limit=20 --txn-size 20 --purge --dry-run
# 输出
SELECT /*!40001 SQL_NO_CACHE */ `id`,`name`,`age`,`address`,`create_time` FROM `destination`.`user` FORCE INDEX(`PRIMARY`) WHERE (id<=200) ORDER BY `id` LIMIT 20
SELECT /*!40001 SQL_NO_CACHE */ `id`,`name`,`age`,`address`,`create_time` FROM `destination`.`user` FORCE INDEX(`PRIMARY`) WHERE (id<=200) AND ((`id` >= ?)) ORDER BY `id` LIMIT 20
DELETE FROM `destination`.`user` WHERE (`id` = ?)
# 2. 仅指定--purge,真正删除数据,也可以使用选项--bulk-delete进行批量清除
pt-archiver \
--source h=127.0.0.1,u=root,p=Abc123654,P=33106,D=destination,t=user \
--progress 20 --where 'id<=200' \
--statistics --charset=UTF8 --limit=20 --txn-size 20 --purge --bulk-delete
下面是--file用法
数据除了能归档到数据库,也可归档到文件中。
具体命令如下:
pt-archiver –source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --file '/tmp/%Y-%m-%d-%D.%t'
指定的是 --file ,而不是 --dest。
文件名使用了日期格式化符号,支持的符号及含义如下:
%d Day of the month, numeric (01..31)
%H Hour (00..23)
%i Minutes, numeric (00..59)
%m Month, numeric (01..12)
%s Seconds (00..59)
%Y Year, numeric, four digits
%D Database name
%t Table name
生成的文件是 CSV 格式,后续可通过 LOAD DATA INFILE 命令加载到数据库中。
四、其他参数
选项 | 说明 |
--analyze | 指定工具执行完成后对表的优化,如’–analyze=ds’,s代表源端表,d代表目标端表,也可以单独指定。 |
–ask-pass | 命令行提示密码输入,保护密码安全,前提需安装模块 perl-TermReadKey |
–buffer | 指定缓冲区数据刷新到选项’–file’指定的文件并且在提交时刷新。只有当事务提交时禁用自动刷新到’–file’指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。性能可以提升5%~15% |
–bulk-delete | 指定单个语句删除chunk的方式来批量删除行,会隐式执行选项’–commit-each’。 使用单个DELETE语句删除每个chunk对应的表行,通常的做法是通过主键进行 逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的’WHERE’条件 就可能会更慢。注意:搭配–purge和 --bulk-insert 一起使用生效!!! |
–[no]bulk-delete-limit | 默认值:yes,指定添加选项’–bulk-delete’和’–limit’到进行归档的语句中 |
–bulk-insert | 使用LOAD DATA LOCAL INFILE的方法,通过批量插入chunk的方式来插入行 (隐式指定选项’–bulk-delete’和’–commit-each’)而不是通过逐行单独插入的方式 进行,它比单行执行INSERT语句插入的速度要快。通过隐式创建临时表来存储 需要批量插入的行(chunk),而不是直接进行批量插入操作,当临时表中完成每 个chunk之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用 选项’–bulk-delete’,这样能够有效保证删除是在插入完全成功之后进行的 。 –low-priority-insert, --replace, 和 --ignore 与此选项共同使用 |
–channel | channel的名称。指定当主从复制环境是多源复制时需要进行归档哪个主库的数 据,适用于多源复制中多个主库对应一个从库的情形 |
–charset | string类型;指定连接字符集,连接MySQL之后通过执行SET NAMES UTF8 命 令实现。只能是MySQL识别的字符编码 |
–[no]check-charset | 默认值:yes。指定检查确保数据库连接时字符集和表字符集相同。需要做编码转 换是需要使用此选项。 |
–[no]check-columns | 默认值:yes。指定检查确保选项’–source’指定的源端表和’–dest’指定的目标表具 有相同的字段。不检查字段在表的排序和字段类型,只检查字段是否在源端表和 目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用 该检查,则指定’–no-check-columns’ |
–check-interval | 时间类型,默认是1s;若添加了--check-slave-lag选项,则当前选项定义了每一 次工具发现从库延迟之后所暂停的时间,每100行执行一次 |
–check-slave-lag | 指定主从复制延迟大于选项’–max-lag’指定值之后暂停归档操作。默认情况下, 工具会检查所有的从库,但该选项只作用于指定的从库(通过DSN连接方式) |
–columns | 指定需要归档的字段,如有多个则用’,’(逗号)分隔 |
–commit-each | 指定按每次获取和归档的行数进行提交,该选项会禁用选项’–txn-size’。在每次 获取表数据并进行归档之后,在获取下一次数据和选项’–sleep’指定的休眠时间 之前,进行事务提交和刷新选项’–file’指定的文件,通过选项’–limit’控制事务的 大小。 |
–config | 指定配置文件,如有多个则用’,’(逗号)分隔,必须是命令行的第一个参数 |
–host | 指定连接的数据库IP地址 |
–port | 指定连接的数据库Port端口 |
–user | 指定连接的数据库用户 |
–password | 指定连接的数据库用户密码 |
–socket | 指定使用的SOCKET套接字 |
–databases | 指定连接的数据库 |
–source | 必须项,指定需要进行归档操作的表,使用DSN方式表示 |
–dest | 指定要归档到的目标端表,使用DSN方式表示。如果该选项没有指定的话,则 默认与选项’–source’指定源端表为相同表。 |
–where | 指定通过WHERE条件语句指定需要归档的数据,该选项是必须指定的选项。不 需要加上’WHERE’关键字,如果确实不需要WHERE条件进行限制,则指 定’–where 1=1’ |
–for-update | 指定为每次归档执行的SELECT语句添加FOR UPDATE子句 |
–share-lock | 指定为每次归档执行的SELECT语句添加LOCK IN SHARE MODE子句 |
–ignore | 指定为INSERT语句添加IGNORE选项 |
–limit | 默认值:1,指定每条语句获取表和归档表的行数 |
–local | 不将OPTIMIZE和ANALYZE语句写入binlog |
–max-lag | 默认值:1s;指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取 行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为 选项’–check-interval’指定的值。待休眠时间结束之后再次检查主从延迟时长, 检查方法是通过从库查询的’Seconds_Behind_Master’值来确定。如果主从复 制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库 重新启动并且延迟小于该参数指定值 |
–no-delete | 不删除已被归档的表数据 |
–optimize | 指定工具完成数据归档后对表执行’OPTIMIZE TABLE’操作。指定方法如 ’–analyze=ds’,s代表源端表,d代表目标端表,也可以单独指定 |
–primary-key-only | 指定只归档主键字段,是选项’–columns=主键’的简写。如果工具归档的操作是 进行DELETE清除时最有效,因为只需读取主键一个字段而无需读取行所有字段 |
–progress | 指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档 |
–purge | 执行清除操作而不是归档操作。允许忽略选项’–dest’和’–file’进行操作,如果只是 清除操作可以结合选项’–primary-key-only’会更高效。注意:和–bulk-delete的区 别,这才是真正删除源表数据的选项!!! |
–quiet | 指定工具静默执行,不输出任何的执行信息 |
–replace | 指定写入选项’–dest’指定目标端表时改写INSERT语句为REPLACE语句 |
–retries | 默认值:1;指定归档操作遇死锁或超时的重试次数。当重试次数超过该选项指定 的值时,工具将报错退出 |
–[no]safe-auto-increment | 默认值:yes;指定不使用自增列(AUTO_INCREMENT)最大值对应的行进行归档。 该选项在进行归档清除时会额外添加一条WHERE子句以防止工具删除单列升序字 段具有的AUTO_INCREMENT属性最大值的数据行,为了在数据库重启之后还能使 用到AUTO_INCREMENT对应的值,但这会引起无法归档或清除字段对应最大值的 行 |
–set-vars | 默认:wait_timeout=10000 innodb_lock_wait_timeout=1 lock_wait_timeout=60; 工具归档时指定参数值,如有多个用’,’(逗号)分隔。 如’–set-vars=wait_timeout=5000’ |
–skip-foreign-key-checks | 指定使用语句SET FOREIGN_KEY_CHECKS = 0禁用外键检查 |
–sleep | 指定工具在通过SELECT语句获取归档数据需要休眠的时间,默认值是不 进行休眠。在休眠之前事务并不会提交,并且选项’–file’指定的文件不会被 刷新。如果指定选项’–commit-each’,则在休眠之前会进行事务提交和文 件刷新 |
–statistics | 指定工具收集并打印操作的时间统计信息 |
–txn-size | 默认:1;指定每个事务处理的行数。如果是0则禁用事务功能 |
–version | 显示工具的版本并退出 |
–[no]version-check | 默认值:yes;检查Percona Toolkit、MySQL和其他程序的最新版本 |
–why-quit | 指定工具打印当非因完成归档行数退出的原因。在执行一个自动归档任务时该 选项与选项’–run-time’一起使用非常方便,这样可以确定归档任务是否在指定 的时间内完成。如果同时指定了选项’–statistics’,则会打印所有退出的原因。 |
五、脚本例子
#!/bin/bash
db_name="$1"
table_name="$2"
db_port="3306"
username="root"
passwd="123456"
master="192.168.217.143"
source_str="--source h=${master},P=${db_port},u=${username},p=${passwd},D=${db_name}"
dest_str="--dest h=${master},P=${db_port},u=${username},p=${passwd},D=${db_name}"
#repl_str="--max-lag=1 --check-interval=5 --check-slave-lag h=${repl},P=${db_port},u=${username},p=${passwd},D=${db_name}"
pt_str="--limit 5000 --commit-each --charset=utf8 --no-version-check --statistics --bulk-insert --bulk-delete --progress 5000"
pt_log="/root/${db_name}_${table_name}_`date +%Y%m%d`.log"
pt_where="IN_TIME < DATE_SUB(now(),INTERVAL 90 DAY)"
#pt-archiver 部分
pt-archiver ${source_str},t=${table_name} ${dest_str},t=${table_name}_arch1 --where "${pt_where}" ${pt_str} ${repl_str} >> ${pt_log}
if [ $? != 0 ]; then
echo "Failed archiver this database!"
exit 100
fi
sql_str1="
alter table ${table_name}_arch1 rename to ${table_name}_arch1_bak;
create table ${table_name}_arch1 like ${table_name};
"
mysql -h${master} -u${username} -p${passwd} ${db_name} -e "${sql_str1}"
sleep 1m
dump_opt="--single-transaction --skip-add-drop-table --set-gtid-purged=OFF -R"
mysqldump -h${master} -u${username} -p${passwd} ${db_name} ${table_name}_arch1_bak ${dump_opt} >>/root/${db_name}_${table_name}_arch1_bak_`date +%Y%m%d`.sql
dumpfile="/root/${db_name}_${table_name}_arch1_bak_`date +%Y%m%d`.sql"
dumpresult=`tail -n 1 ${dumpfile}|grep -w "Dump completed on"|wc -l`
if [ ${dumpresult} != 1 ]; then
echo "Failed dumping this database!"
exit 200
else
echo "Dumped successfullly!"
fi
sql_str2="
drop table ${table_name}_arch1_bak;
"
mysql -h${master} -u${username} -p${passwd} ${db_name} -e "${sql_str2}"
执行脚本后会把表中90天前的数据给备份到本地,删除生产中90天前的数据
执行时需要注意需要修改处:
db_port="3306"
username="root"
passwd="123456"
master="192.168.217.143"
pt_where="IN_TIME < DATE_SUB(now(),INTERVAL 90 DAY)"
(这里表示IN_TIME列小于90天的数据(即90天之前))
其余路径可按需更改
执行脚本时,需传参
#脚本我命名为pttest.sh,需要传入第一个参数:库名,第二个参数:表名
sh pttest.sh comp_n np_dt_park_stay