众所周知,数据库很容易成为应用系统的瓶颈。单机数据库的资源和处理能力有限,在高并发的分布式系统中,可采用分库分表突破单机局限。当一家公司的业务量不停上涨,最后可能都不可避免的走上分库分表的道路。今天这一篇,我们不聊分库分表的具体做法,我们来聊聊分库分表的扩展方案。分库分表的扩容真的是一件很头疼的问题!那是否有方案,既可以快速扩展,又不降低可用性? 水平分库扩展问题为了增加db的并发能力,
数据库架构的演变在业务数据量比较少的时代,我们使用单机数据库就能满足业务使用,随着业务请求量越来越多,数据库中的数据量快速增加,这时单机数据库已经不能满足业务的性能要求,数据库主从复制架构随之应运而生。 主从复制是将数据库写操作和读操作进行分离,使用多个只读实例(slaver replication)负责处理读请求,主实例(master)负责处理写请求,只读实例通过复制主实例的数据来保持
定义:将数据分成多个位置存放,可以是同一磁盘,也可以是不同机器;分区后,表面上还是一张表,但数据散列到多个位置了。app读写的时候操作的还是大表名字,db自动去组织分区数据。1、分区类型根据所使用的不同分区规则可以分成几大分区类型。RANGE 分区:基于属于一个给定连续区间的列值,把多行分配给分区。LIST 分区:类似于按RANGE分区,区别在于LIST分区是基于列值匹配一个离散值集合中的某个值
转载 2024-03-30 22:01:50
66阅读
分享一个zabbix数据库的优化脚本,适合2.0版本。对history,hostory_uint按日分区,trends,trends_uint按月分区;关闭Houserkeeper:vim zabbix_server.confDisableHousekeeper=1对history,hostory_uint每日建立第二天的分区并删除45天前的分区对trends,trends_uint每月20号建立
原创 2014-05-07 23:45:19
1152阅读
文档内
1) 查询zabbix数据库中各种表存储的大小和行数: mysql> select table_name, (data_length + index_length)/1024/1024 as total_mb, table_rows from information_schema.tables wh ...
转载 2021-09-17 21:45:00
1268阅读
2评论
本文根据官网简单介绍了zabbix数据库分区方式。
原创 2021-09-10 17:27:02
1941阅读
1点赞
在说数据库分表之前,先随便聊聊Zabbix的一些参数的优化吧,其实我也不是很懂,只是机器上了1500+,楞着头皮去调一下参数首先是几个Poller的调整:### Option: StartPollers (处理监控项的东西)### Option: StartIPMIPollers (母鸡干什么用的,暂时没用,设为0)### Option: StartPollersUnreachable (获取数据
推荐 原创 2014-10-08 14:55:53
10000+阅读
8点赞
8评论
参考:https://www.zabbix.org/wiki/Docs/howto/mysql_partition(官网)当zabbix监控的服务器数量越来越多,就会报“Zabbix housekeeper processes more than 75% busy”这个错误机器数量多的时候,mysql里面的history表就会越来越大,虽然zabbix本身有删除功能(就是那个housekeeper
原创 精选 2017-12-28 10:34:28
10000+阅读
3点赞
3评论
线上zabbix数据库重建表分区发表于:2015-03-50 条评论当前线上zabbix数据按月分区单个分区文件过大,现重新按天分区。注意事项:1,“truncate table history;”时先停掉web server和zabbix server再操作数据库,不然“optimize table history;”会很慢。2,“alter table `history` partition
转载 精选 2015-03-12 08:47:00
1181阅读
#!/bin/bash#sadoc.blog.51cto.com#备份zabbix数据库,不备份监控历史数据HOST=127.0.0.1SQL_PORT=3306SQL_USER=zabbixSQL_PASS=123456DATABASE_NAME=zabbixDUMP_PATH=/backup/mysql_backupDATE=$(date '+%Y-%m-%d:%H:%M:%S')DATED=
原创 2017-03-10 09:25:33
4025阅读
一、linux环境下监控MySQLZabbix Server自带了MySQL插件来监控mysql数据库的模板,只需要配置好agent客户端,然后在web端给主机增加模板就行了监控项目:Com_update:     mysql执行的更新个数Com_select:     mysql执行的查询个数Com_insert:     mysql执
篇文章讲完《zabbix安装》,发现漏掉了zabbix数据库硬盘容量的计算方法的讲解,我想看完本节大家就可以知道自己的zabbix到底要多大的硬盘。本次案例:100台服务器,每台服务器有30个监控项,每个监控项60秒刷新一次,需要多大的硬盘呢?众所周知,zabbix基本都是通过web配置,这些配置数据也是存放到数据库里的,但是它对硬盘容量的要求基本可以忽略不计,zabbix对硬盘的决定性因素有4个
转载 2024-03-15 05:02:50
162阅读
一、zabbix数据库占用磁盘空间较大的处理方法 du -h /* |sort -nr 使用此命令一步步排查发现/var/lib/mysql/zabbix/这个目录占用磁盘空间较大 发现history_log.ibd这个文件最大,达到了38G,此文件对应的是zabbix库里的history_log表
转载 2021-04-14 15:04:04
1290阅读
需求:按天备份,保留一周,zabbix数据库不备份历史数据MySQL版本:5.7.17脚本:需要提前建立路径 mkdir -pv /opt/mysql_backup/auto_backup cat /opt/mysql_backup/mysqlback.sh#!/bin/bash # 0 3 * * * ba
原创 2017-03-06 15:35:55
1878阅读
                                使用shell脚本结合zabbix监控mysql这里举个典例,用过zabbix的应该知道,监控一些应用是需要自己写脚本的。以下脚本比较直白简单,将每个需要监控的项写成函数,执行的时候调用就好了。结尾$1实际是为了接受脚本第一个参数,可以用在zabbix中填写监控项。#!/bin/bash uptime() { mysqladmin s
原创 2019-06-27 21:06:18
1635阅读
 概述   数据分区主要目的是为了在特定的SQL操作中减少数据读写的总量以缩减响应时间。当表中的数据量不断增大,查询数据的速度就会变慢,应用程序的性能就会下降,这时就应该考虑对表进行分区。表进行分区后,逻辑上表仍然是一张完整的表,只是将表中的数据在物理上存放到多个表空间(物理文件上),这样查询数据时,不至于每次都扫描整张表。 orcale的分区  1.range分区
转载 2023-12-09 13:04:59
97阅读
一 应用场景描述 前面介绍了两种处理Zabbix历史数据的解决办法,但是如果当监控数据继续增长的话是不足以解决问题的。 处理Zabbix历史数据库办法二---使用MySQL表分区 处理Zabbix历史数据库办法一  办法一适合在没有做表分区的情况下,只保留一段时间的数据,比如一个月,然后把老的数据删除再使用方法二,这种操作执行时间长。 办
依赖:        1. PHP(强依赖,自行安装)        2. Nginx或者Apache(二选一,本文选择Nginx)1.下载:    zabbix: https://www.zabbix.com/download_sourc
转载 2024-04-25 20:28:26
185阅读
  一、zabbix数据库单机备份问题1、备份脚本[root@zabbix mysql]# pwd/var/lib/mysql [root@zabbix mysql]# ls ##好奇下面的日志文件是什么东西? aria_log.00000001 ibdata1 ib_logfile1 mysql.sock test aria_log
转载 2024-05-22 16:39:03
168阅读
  • 1
  • 2
  • 3
  • 4
  • 5