一、 MySQL慢查询

1. 相关参数

MySQL有三个参数与慢查询相关,需要先在/etc/my.cnf中设置,才能记录慢查询。

  • slow_query_log 慢查询开启状态
  • slow_query_log_file 慢查询日志存放的位置(这个位置需要MySQL运行帐号可写权限)
  • long_query_time 查询超过多少秒才记录

另外慢查询记录是在查询执行完之后才会记入,如果设置 long_query_time为10s,查询执行了20s但还没执行完,慢查询日志里是不会有的。

2. 参数查看

mysql> show variables like 'slow_query%';
+---------------------------+----------------------------------+
| Variable_name             | Value                            |
+---------------------------+----------------------------------+
| slow_query_log            | OFF                              |
| slow_query_log_file       | /mysql/data/localhost-slow.log   |
+---------------------------+----------------------------------+

mysql> show variables like 'long_query_time';
+-----------------+-----------+
| Variable_name   | Value     |
+-----------------+-----------+
| long_query_time | 10.000000 |
+-----------------+-----------+

3. 参数设置

  • 方法一:全局变量设置
set global slow_query_log='ON'; 
set global slow_query_log_file='/usr/local/mysql/data/slow.log';
set global long_query_time=1; -- 1s
  • 方法二:参数文件设置

修改my.cnf,在[mysqld]下的下方加入以下内容,重启MySQL服务即可

[mysqld]
slow_query_log = ON
slow_query_log_file = /usr/local/mysql/data/slow.log
long_query_time = 1
  • 查看设置后的参数
mysql> show variables like 'slow_query%';
+---------------------+--------------------------------+
| Variable_name       | Value                          |
+---------------------+--------------------------------+
| slow_query_log      | ON                             |
| slow_query_log_file | /usr/local/mysql/data/slow.log |
+---------------------+--------------------------------+

mysql> show variables like 'long_query_time';
+-----------------+----------+
| Variable_name   | Value    |
+-----------------+----------+
| long_query_time | 1.000000 |
+-----------------+----------+

二、 pt-query-digest安装

pt-query-digest是分析mysql慢查询工具,可以分析binlog、General log、slowlog,也可以通过SHOW PROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析,可以把分析结果输出到文件中。分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题sql进行优化。

1. 下载

2. perl 模块安装

yum install -y perl-CPAN perl-Time-HiRes

3. 安装步骤

  • 方法一:rpm安装
cd /usr/local/src
wget percona.com/get/percona-toolkit.rpm
yum install -y percona-toolkit.rpm

工具安装目录在:/usr/bin

  • 方法二:源码安装
cd /usr/local/src
wget percona.com/get/percona-toolkit.tar.gz
tar zxf percona-toolkit.tar.gz
cd percona-toolkit-2.2.19
perl Makefile.PL PREFIX=/usr/local/percona-toolkit
make && make install

工具安装目录在:/usr/local/percona-toolkit/bin

三、 pt-query-digest使用简介

PT工具用法官方文档参考  Percona Toolkit Documentation — Percona Toolkit Documentation

pt-query-digest 参考  pt-query-digest — Percona Toolkit Documentation

1. 常用参数

pt-query-digest [OPTIONS] [FILES] [DSN]

  • --host   mysql服务器地址     
  • --user  mysql用户名      
  • --password   mysql用户密码
  • --history  将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询相同CHECKSUM来比较某类型查询的历史变化。
  • --review   将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
  • --output   分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,便于阅读。
  • --since    从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
  • --until    截止时间,配合since可以分析一段时间内的慢查询。
  • --limit    限制输出结果百分比或数量,默认值是20,即输出最慢的20条语句,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
  • --filter  对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
  • --create-history-table  当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
  • --create-review-table  当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。

2. 用法示例

  • 直接分析慢查询文件
pt-query-digest  slow.log > slow_report.log
  • 分析最近12小时内的慢查询,aws RDS不支持
pt-query-digest --since=12h  slow.log > slow_report2.log
pt-query-digest --report --since 3600s slow.log
  • 分析指定时间范围内的慢查询,aws RDS不支持
pt-query-digest slow.log --since '2017-01-07 09:30:00' --until '2017-01-07 10:00:00' >> slow_report3.log
  • 按关键字过滤慢查询,下面仅分析含有select关键字的慢查询
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log
  • 按用户过滤慢查询,下面仅分析root用户的慢查询
pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log
  • 按扫描/关联方式过滤慢查询,下面仅分析“全表扫描或full join”的慢查询
pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log
  • 把查询保存到query_review表
pt-query-digest --user=root –password=abc123 --review  h=localhost,D=test,t=query_review--create-review-table  slow.log
  • 把查询保存到query_history表
pt-query-digest  --user=root –password=abc123 --review  h=localhost,D=test,t=query_history--create-review-table  slow.log_0001
  • 通过tcpdump抓取mysql的tcp协议数据,然后再分析
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
  • 分析binlog
mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest  --type=binlog  mysql-bin000093.sql > slow_report10.log
  • 分析general log
pt-query-digest  --type=genlog  localhost.log > slow_report11.log

四、 pt-query-digest输出报告分析

整个输出分为三大部分:

1. 整体概要(Overall)

  • Overall:总共有多少条查询
  • Time range:查询执行的时间范围
  • unique:唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询
  • total:总计   min:最小   max:最大  avg:平均
  • 95%:把所有值从小到大排列,位于95%的那个数,一般最具有参考价值
  • median:中位数,把所有值从小到大排列,位于中间那个数
# 该工具执行日志分析的用户时间,系统时间,物理内存占用大小,虚拟内存占用大小
# 340ms user time, 140ms system time, 23.99M rss, 203.11M vsz
# 工具执行时间
# Current date: Fri Nov 25 02:37:18 2016
# 运行分析工具的主机名
# Hostname: localhost.localdomain
# 被分析的文件名
# Files: slow.log
# 语句总数量,唯一的语句数量,QPS,并发数
# Overall: 2 total, 2 unique, 0.01 QPS, 0.01x concurrency ________________
# 日志记录的时间范围
# Time range: 2016-11-22 06:06:18 to 06:11:40
# 属性               总计      最小    最大    平均    95%  标准    中等
# Attribute          total     min     max     avg     95%  stddev  median
# ============     ======= ======= ======= ======= ======= ======= =======
# 语句执行时间
# Exec time             3s   640ms      2s      1s      2s   999ms      1s
# 锁占用时间
# Lock time            1ms       0     1ms   723us     1ms     1ms   723us
# 发送到客户端的行数
# Rows sent              5       1       4    2.50       4    2.12    2.50
# select语句扫描行数
# Rows examine     186.17k       0 186.17k  93.09k 186.17k 131.64k  93.09k
# 查询的字符数
# Query size           455      15     440  227.50     440  300.52  227.50

2. 查询的汇总信息(Profile)

慢查询一览表,类似AWR中按时间排序部分

  • Rank:所有语句的排名,默认按查询时间降序排列,通过--order-by指定
  • Query ID:语句的ID,去掉多余空格和文本字符,计算hash值得到
  • Response:总的响应时间
  • time:该查询在本次分析中总的时间占比
  • calls:执行次数
  • R/Call:平均每次执行的响应时间
  • V/M:响应时间Variance-to-mean(方差对平均值比)的比率
  • Item:查询对象
# Profile
# Rank Query ID           Response time Calls R/Call V/M   Item
# ==== ================== ============= ===== ====== ===== ===============
#    1 0xF9A57DD5A41825CA  2.0529 76.2%     1 2.0529  0.00 SELECT
#    2 0x4194D8F83F4F9365  0.6401 23.8%     1 0.6401  0.00 SELECT wx_member_base

3. 详细信息

列出Profile部分每个查询的详细信息

  • ID:同Profile部分的Query ID
  • Query_time distribution:查询时间分布直方图,本例中慢查询位于1s-10s之间
  • Explain:SQL语句
# Query 1: 0 QPS, 0x concurrency, ID 0xF9A57DD5A41825CA at byte 802 ______
# This item is included in the report because it matches --limit.
# Scores: V/M = 0.00
# Time range: all events occurred at 2016-11-22 06:11:40
# Attribute    pct   total     min     max     avg     95%  stddev  median
# ============ === ======= ======= ======= ======= ======= ======= =======
# Count         50       1
# Exec time     76      2s      2s      2s      2s      2s       0      2s
# Lock time      0       0       0       0       0       0       0       0
# Rows sent     20       1       1       1       1       1       0       1
# Rows examine   0       0       0       0       0       0       0       0
# Query size     3      15      15      15      15      15       0      15
# String:
# Databases    test
# Hosts        192.168.8.1
# Users        mysql
# Query_time distribution
#   1us
#  10us
# 100us
#   1ms
#  10ms
# 100ms
#    1s  ################################################################
#  10s+
# EXPLAIN /*!50100 PARTITIONS*/
select sleep(2)\G

三、云上RDS MySQL慢查询分析

1. aws 分析RDS 慢SQL

使用 sql 脚本获取 slow log

mysql> show variables like 'log_output';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_output  | TABLE |
+---------------+-------+
1 row in set (0.03 sec)

[root@myhost ~]# mysql -h mysql.xxxxxxxxxxxx.amazonaws.com.cn -u root -p -P3306 -D mysql -s -r -e "SELECT CONCAT( '# Time: ', DATE_FORMAT(start_time, '%y%m%d %H%i%s'), '\n', '# User@Host: ', user_host, '\n', '# Query_time: ', TIME_TO_SEC(query_time), ' Lock_time: ', TIME_TO_SEC(lock_time), ' Rows_sent: ', rows_sent, ' Rows_examined: ', rows_examined, '\n', sql_text, ';' ) FROM mysql.slow_log" > /tmp/mysql_slow_log.log
Enter password:

也可以获取指定时间段的 slow log

[root@myhost ~]# mysql -h mysql.xxxxxxxxxxxx.rds.cn-northwest-1.amazonaws.com.cn -u root -p -P13306 -D mysql -s -r -e "SELECT CONCAT( '# Time: ', DATE_FORMAT(start_time, '%y%m%d %H%i%s'), '\n', '# User@Host: ', user_host, '\n', '# Query_time: ', TIME_TO_SEC(query_time), ' Lock_time: ', TIME_TO_SEC(lock_time), ' Rows_sent: ', rows_sent, ' Rows_examined: ', rows_examined, '\n', sql_text, ';' ) FROM mysql.slow_log where DATE_FORMAT(start_time, '%Y%m%d %H:%i:%s') between '20190328 10:00:00' and '20190328 11:00:00' " > /tmp/slow.log.10-11.log
Enter password:

查看慢查询文件

[root@myhost ~]# more /tmp/mysql_slow_log.log
# Time: 190130 145734
# User@Host: root[root] @ [192.168.22.16]
# Query_time: 20 Lock_time: 0 Rows_sent: 0 Rows_examined: 48413563
select * from unit_value where FT121_SET <> null
LIMIT 0, 10000;
# Time: 190130 153530
# User@Host: root[root] @ [192.168.28.26]
# Query_time: 96 Lock_time: 0 Rows_sent: 20099504 Rows_examined: 68517265
select PT111_VALUE from unit_value WHERE PT111_VALUE <> 0 and PT111_VALUE < 1.3 ORDER by UNITNAME DESC;
# Time: 190130 153802
# User@Host: root[root] @ [192.168.28.26]
# Query_time: 31 Lock_time: 0 Rows_sent: 579105 Rows_examined: 49576551
select DISTINCT UNITNAME,PT111_VALUE from unit_value WHERE PT111_VALUE <> 0 and PT111_VALUE < 1.3 ORDER by UNITNAME DESC;
# Time: 190130 154215
# User@Host: root[root] @ [192.168.22.16]
# Query_time: 45 Lock_time: 0 Rows_sent: 1580250 Rows_examined: 50026401
select UNITNAME,first_value(PT111_VALUE) over (partition by UNITNAME order by UNITTIME) from unit_value;

2. 阿里云 分析RDS 慢SQL

mysql> show variables like 'log_output';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_output    | TABLE |
+---------------+-------+
1 row in set (0.03 sec)

虽然查询output是显示在表中的,但是mysql.slow_log表的空的

select count(*) from slow_log_view;
select count(*) from slow_log;

需要在阿里云RDS界面的“日志管理->慢日志明细”分析

pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i'  /tmp/slowquery.log> /tmp/slow_report1.log

四、 mysqldumpslow

mysqldumpslow 是自带的工具,不需另外安装,但功能较弱,不能按时间分析slowlog中的部分内容,只能分析整个slowlog,得到的统计也不够详细。

输出结果可以获得这条语句在慢日志中出现的次数、平均执行时间、总共执行时间、Lock time、row sends等。默认的输出结果会使用N和S代替SQL中出现的数字和字符串,如果想禁用可以使用-a 参数

1. 常用参数

  • -s t    按总query time排序    -s at    按平均query time排序
  • -s l    按总locktime排序    -s al    按平均lock time排序
  • -s s    按总row send排序    -s ar    按平均row send排序
  • -s c    按count排序        
  • -r    倒序
  • -a    不将数字和字符串抽象成N和S
  • -g    仅仅分析相匹配的query,跟正则表达式  mysqldumpslow -s t -t 10 -g 'left join' 按照时间排序的前10条里面含有左连接的查询语句
  • -t  top n,跟上数字就是算出top多少条

2. 常见用法

  • 按执行次数排序,记录所有sql
mysqldumpslow -s c slow.log > slow_report
  • 得到返回记录最多的20个sql
mysqldumpslow -s r -t 20 sqlslow.log
  • 得到平均访问次数最多的20条sql
mysqldumpslow -s ar -t 20 sqlslow.log
  • 得到平均访问次数最多,并且里面含有ttt字符的20条sql
mysqldumpslow -s ar -t 20 -g "ttt" sqldlow.log

3. aws RDS 分析慢日志的方法

分析某个用户最近一天top 10的慢日志,分析出来套用HTML模板,以表格的形式发送给业务方

mysql -h mysql.xxxxxxxxxxxx.amazonaws.com.cn -u root -p -P3306 -D mysql -s -r -e "select left(sql_text,1000) as sql_text from slow_log where user_host like 'app%' and start_time > date_sub(now(),interval 1 day) " > /tmp/slow.log.10-11.log

mysqldumpslow slow.log.10-11.log |sort |sed '/^$/d'|uniq -c |sort -nr|sed '$d'|head -n 10 > slow_report

参考:

https://aws.amazon.com/cn/blogs/china/pt-query-digest-rds-mysql-slow-searchnew/
https://www.percona.com/doc/percona-toolkit/LATEST/pt-query-digest.html
https://dev.mysql.com/doc/refman/5.7/en/mysqldumpslow.html
h