一、 MySQL慢查询
1. 相关参数
MySQL有三个参数与慢查询相关,需要先在/etc/my.cnf中设置,才能记录慢查询。
- slow_query_log 慢查询开启状态
- slow_query_log_file 慢查询日志存放的位置(这个位置需要MySQL运行帐号可写权限)
- long_query_time 查询超过多少秒才记录
另外慢查询记录是在查询执行完之后才会记入,如果设置 long_query_time为10s,查询执行了20s但还没执行完,慢查询日志里是不会有的。
2. 参数查看
mysql> show variables like 'slow_query%';
+---------------------------+----------------------------------+
| Variable_name | Value |
+---------------------------+----------------------------------+
| slow_query_log | OFF |
| slow_query_log_file | /mysql/data/localhost-slow.log |
+---------------------------+----------------------------------+
mysql> show variables like 'long_query_time';
+-----------------+-----------+
| Variable_name | Value |
+-----------------+-----------+
| long_query_time | 10.000000 |
+-----------------+-----------+
3. 参数设置
- 方法一:全局变量设置
set global slow_query_log='ON';
set global slow_query_log_file='/usr/local/mysql/data/slow.log';
set global long_query_time=1; -- 1s
- 方法二:参数文件设置
修改my.cnf,在[mysqld]下的下方加入以下内容,重启MySQL服务即可
[mysqld]
slow_query_log = ON
slow_query_log_file = /usr/local/mysql/data/slow.log
long_query_time = 1
- 查看设置后的参数
mysql> show variables like 'slow_query%';
+---------------------+--------------------------------+
| Variable_name | Value |
+---------------------+--------------------------------+
| slow_query_log | ON |
| slow_query_log_file | /usr/local/mysql/data/slow.log |
+---------------------+--------------------------------+
mysql> show variables like 'long_query_time';
+-----------------+----------+
| Variable_name | Value |
+-----------------+----------+
| long_query_time | 1.000000 |
+-----------------+----------+
二、 pt-query-digest安装
pt-query-digest是分析mysql慢查询工具,可以分析binlog、General log、slowlog,也可以通过SHOW PROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析,可以把分析结果输出到文件中。分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题sql进行优化。
1. 下载
2. perl 模块安装
yum install -y perl-CPAN perl-Time-HiRes
3. 安装步骤
- 方法一:rpm安装
cd /usr/local/src
wget percona.com/get/percona-toolkit.rpm
yum install -y percona-toolkit.rpm
工具安装目录在:/usr/bin
- 方法二:源码安装
cd /usr/local/src
wget percona.com/get/percona-toolkit.tar.gz
tar zxf percona-toolkit.tar.gz
cd percona-toolkit-2.2.19
perl Makefile.PL PREFIX=/usr/local/percona-toolkit
make && make install
工具安装目录在:/usr/local/percona-toolkit/bin
三、 pt-query-digest使用简介
PT工具用法官方文档参考 Percona Toolkit Documentation — Percona Toolkit Documentation
pt-query-digest 参考 pt-query-digest — Percona Toolkit Documentation
1. 常用参数
pt-query-digest [OPTIONS] [FILES] [DSN]
- --host mysql服务器地址
- --user mysql用户名
- --password mysql用户密码
- --history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询相同CHECKSUM来比较某类型查询的历史变化。
- --review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
- --output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,便于阅读。
- --since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
- --until 截止时间,配合since可以分析一段时间内的慢查询。
- --limit 限制输出结果百分比或数量,默认值是20,即输出最慢的20条语句,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
- --filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
- --create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
- --create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
2. 用法示例
- 直接分析慢查询文件
pt-query-digest slow.log > slow_report.log
- 分析最近12小时内的慢查询,aws RDS不支持
pt-query-digest --since=12h slow.log > slow_report2.log
pt-query-digest --report --since 3600s slow.log
- 分析指定时间范围内的慢查询,aws RDS不支持
pt-query-digest slow.log --since '2017-01-07 09:30:00' --until '2017-01-07 10:00:00' >> slow_report3.log
- 按关键字过滤慢查询,下面仅分析含有select关键字的慢查询
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log
- 按用户过滤慢查询,下面仅分析root用户的慢查询
pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log
- 按扫描/关联方式过滤慢查询,下面仅分析“全表扫描或full join”的慢查询
pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log
- 把查询保存到query_review表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review--create-review-table slow.log
- 把查询保存到query_history表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_history--create-review-table slow.log_0001
- 通过tcpdump抓取mysql的tcp协议数据,然后再分析
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
- 分析binlog
mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest --type=binlog mysql-bin000093.sql > slow_report10.log
- 分析general log
pt-query-digest --type=genlog localhost.log > slow_report11.log
四、 pt-query-digest输出报告分析
整个输出分为三大部分:
1. 整体概要(Overall)
- Overall:总共有多少条查询
- Time range:查询执行的时间范围
- unique:唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询
- total:总计 min:最小 max:最大 avg:平均
- 95%:把所有值从小到大排列,位于95%的那个数,一般最具有参考价值
- median:中位数,把所有值从小到大排列,位于中间那个数
# 该工具执行日志分析的用户时间,系统时间,物理内存占用大小,虚拟内存占用大小
# 340ms user time, 140ms system time, 23.99M rss, 203.11M vsz
# 工具执行时间
# Current date: Fri Nov 25 02:37:18 2016
# 运行分析工具的主机名
# Hostname: localhost.localdomain
# 被分析的文件名
# Files: slow.log
# 语句总数量,唯一的语句数量,QPS,并发数
# Overall: 2 total, 2 unique, 0.01 QPS, 0.01x concurrency ________________
# 日志记录的时间范围
# Time range: 2016-11-22 06:06:18 to 06:11:40
# 属性 总计 最小 最大 平均 95% 标准 中等
# Attribute total min max avg 95% stddev median
# ============ ======= ======= ======= ======= ======= ======= =======
# 语句执行时间
# Exec time 3s 640ms 2s 1s 2s 999ms 1s
# 锁占用时间
# Lock time 1ms 0 1ms 723us 1ms 1ms 723us
# 发送到客户端的行数
# Rows sent 5 1 4 2.50 4 2.12 2.50
# select语句扫描行数
# Rows examine 186.17k 0 186.17k 93.09k 186.17k 131.64k 93.09k
# 查询的字符数
# Query size 455 15 440 227.50 440 300.52 227.50
2. 查询的汇总信息(Profile)
慢查询一览表,类似AWR中按时间排序部分
- Rank:所有语句的排名,默认按查询时间降序排列,通过--order-by指定
- Query ID:语句的ID,去掉多余空格和文本字符,计算hash值得到
- Response:总的响应时间
- time:该查询在本次分析中总的时间占比
- calls:执行次数
- R/Call:平均每次执行的响应时间
- V/M:响应时间Variance-to-mean(方差对平均值比)的比率
- Item:查询对象
# Profile
# Rank Query ID Response time Calls R/Call V/M Item
# ==== ================== ============= ===== ====== ===== ===============
# 1 0xF9A57DD5A41825CA 2.0529 76.2% 1 2.0529 0.00 SELECT
# 2 0x4194D8F83F4F9365 0.6401 23.8% 1 0.6401 0.00 SELECT wx_member_base
3. 详细信息
列出Profile部分每个查询的详细信息
- ID:同Profile部分的Query ID
- Query_time distribution:查询时间分布直方图,本例中慢查询位于1s-10s之间
- Explain:SQL语句
# Query 1: 0 QPS, 0x concurrency, ID 0xF9A57DD5A41825CA at byte 802 ______
# This item is included in the report because it matches --limit.
# Scores: V/M = 0.00
# Time range: all events occurred at 2016-11-22 06:11:40
# Attribute pct total min max avg 95% stddev median
# ============ === ======= ======= ======= ======= ======= ======= =======
# Count 50 1
# Exec time 76 2s 2s 2s 2s 2s 0 2s
# Lock time 0 0 0 0 0 0 0 0
# Rows sent 20 1 1 1 1 1 0 1
# Rows examine 0 0 0 0 0 0 0 0
# Query size 3 15 15 15 15 15 0 15
# String:
# Databases test
# Hosts 192.168.8.1
# Users mysql
# Query_time distribution
# 1us
# 10us
# 100us
# 1ms
# 10ms
# 100ms
# 1s ################################################################
# 10s+
# EXPLAIN /*!50100 PARTITIONS*/
select sleep(2)\G
三、云上RDS MySQL慢查询分析
1. aws 分析RDS 慢SQL
使用 sql 脚本获取 slow log
mysql> show variables like 'log_output';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_output | TABLE |
+---------------+-------+
1 row in set (0.03 sec)
[root@myhost ~]# mysql -h mysql.xxxxxxxxxxxx.amazonaws.com.cn -u root -p -P3306 -D mysql -s -r -e "SELECT CONCAT( '# Time: ', DATE_FORMAT(start_time, '%y%m%d %H%i%s'), '\n', '# User@Host: ', user_host, '\n', '# Query_time: ', TIME_TO_SEC(query_time), ' Lock_time: ', TIME_TO_SEC(lock_time), ' Rows_sent: ', rows_sent, ' Rows_examined: ', rows_examined, '\n', sql_text, ';' ) FROM mysql.slow_log" > /tmp/mysql_slow_log.log
Enter password:
也可以获取指定时间段的 slow log
[root@myhost ~]# mysql -h mysql.xxxxxxxxxxxx.rds.cn-northwest-1.amazonaws.com.cn -u root -p -P13306 -D mysql -s -r -e "SELECT CONCAT( '# Time: ', DATE_FORMAT(start_time, '%y%m%d %H%i%s'), '\n', '# User@Host: ', user_host, '\n', '# Query_time: ', TIME_TO_SEC(query_time), ' Lock_time: ', TIME_TO_SEC(lock_time), ' Rows_sent: ', rows_sent, ' Rows_examined: ', rows_examined, '\n', sql_text, ';' ) FROM mysql.slow_log where DATE_FORMAT(start_time, '%Y%m%d %H:%i:%s') between '20190328 10:00:00' and '20190328 11:00:00' " > /tmp/slow.log.10-11.log
Enter password:
查看慢查询文件
[root@myhost ~]# more /tmp/mysql_slow_log.log
# Time: 190130 145734
# User@Host: root[root] @ [192.168.22.16]
# Query_time: 20 Lock_time: 0 Rows_sent: 0 Rows_examined: 48413563
select * from unit_value where FT121_SET <> null
LIMIT 0, 10000;
# Time: 190130 153530
# User@Host: root[root] @ [192.168.28.26]
# Query_time: 96 Lock_time: 0 Rows_sent: 20099504 Rows_examined: 68517265
select PT111_VALUE from unit_value WHERE PT111_VALUE <> 0 and PT111_VALUE < 1.3 ORDER by UNITNAME DESC;
# Time: 190130 153802
# User@Host: root[root] @ [192.168.28.26]
# Query_time: 31 Lock_time: 0 Rows_sent: 579105 Rows_examined: 49576551
select DISTINCT UNITNAME,PT111_VALUE from unit_value WHERE PT111_VALUE <> 0 and PT111_VALUE < 1.3 ORDER by UNITNAME DESC;
# Time: 190130 154215
# User@Host: root[root] @ [192.168.22.16]
# Query_time: 45 Lock_time: 0 Rows_sent: 1580250 Rows_examined: 50026401
select UNITNAME,first_value(PT111_VALUE) over (partition by UNITNAME order by UNITTIME) from unit_value;
2. 阿里云 分析RDS 慢SQL
mysql> show variables like 'log_output';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_output | TABLE |
+---------------+-------+
1 row in set (0.03 sec)
虽然查询output是显示在表中的,但是mysql.slow_log表的空的
select count(*) from slow_log_view;
select count(*) from slow_log;
需要在阿里云RDS界面的“日志管理->慢日志明细”分析
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' /tmp/slowquery.log> /tmp/slow_report1.log
四、 mysqldumpslow
mysqldumpslow 是自带的工具,不需另外安装,但功能较弱,不能按时间分析slowlog中的部分内容,只能分析整个slowlog,得到的统计也不够详细。
输出结果可以获得这条语句在慢日志中出现的次数、平均执行时间、总共执行时间、Lock time、row sends等。默认的输出结果会使用N和S代替SQL中出现的数字和字符串,如果想禁用可以使用-a 参数
1. 常用参数
- -s t 按总query time排序 -s at 按平均query time排序
- -s l 按总locktime排序 -s al 按平均lock time排序
- -s s 按总row send排序 -s ar 按平均row send排序
- -s c 按count排序
- -r 倒序
- -a 不将数字和字符串抽象成N和S
- -g 仅仅分析相匹配的query,跟正则表达式 mysqldumpslow -s t -t 10 -g 'left join' 按照时间排序的前10条里面含有左连接的查询语句
- -t top n,跟上数字就是算出top多少条
2. 常见用法
- 按执行次数排序,记录所有sql
mysqldumpslow -s c slow.log > slow_report
- 得到返回记录最多的20个sql
mysqldumpslow -s r -t 20 sqlslow.log
- 得到平均访问次数最多的20条sql
mysqldumpslow -s ar -t 20 sqlslow.log
- 得到平均访问次数最多,并且里面含有ttt字符的20条sql
mysqldumpslow -s ar -t 20 -g "ttt" sqldlow.log
3. aws RDS 分析慢日志的方法
分析某个用户最近一天top 10的慢日志,分析出来套用HTML模板,以表格的形式发送给业务方
mysql -h mysql.xxxxxxxxxxxx.amazonaws.com.cn -u root -p -P3306 -D mysql -s -r -e "select left(sql_text,1000) as sql_text from slow_log where user_host like 'app%' and start_time > date_sub(now(),interval 1 day) " > /tmp/slow.log.10-11.log
mysqldumpslow slow.log.10-11.log |sort |sed '/^$/d'|uniq -c |sort -nr|sed '$d'|head -n 10 > slow_report
参考:
https://aws.amazon.com/cn/blogs/china/pt-query-digest-rds-mysql-slow-searchnew/
https://www.percona.com/doc/percona-toolkit/LATEST/pt-query-digest.html
https://dev.mysql.com/doc/refman/5.7/en/mysqldumpslow.html
h