一个100多G的sql文件导入时,大概1个多小时就会自动断了,报错:
mysql lost connection during query
日志中发现,mysql有重启的痕迹。 找了半天cron之类的,并没有发现什么问题,而去期间也并没有人去手动重启mysqld服务。
一开始怀疑是某些参数设置不当,比如 max_allowed_packet 或者 connection_timeout 等参数设置的太小,都调整后,问题依旧。最后偶然发现 swap 竟然用完了,但是内存剩余还很多。
这说明,mysql的配置文件中某些参数设置不当,最后调整了
innodb_buffer_pool_size 这个参数,问题解决。
因为这台服务器上跑着两个mysql,内存一共为32G, 其中一个我设置
innodb_buffer_pool_size = 16G
另一个设置
innodb_buffer_pool_size = 28G
这俩加一起远远超出了32G,所以服务器开始使用swap了,当swap用尽后,就会自动重启mysql了。
mysql 导入超级大的sql文件时mysql服务重启
原创1415699306 博主文章分类:mysql/oracle ©著作权
©著作权归作者所有:来自51CTO博客作者1415699306的原创作品,请联系作者获取转载授权,否则将追究法律责任
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
MySQL数据库导入 source mysql source 导入数据太慢
(给ImportNew加星标,提高Java技能) 前言 随着系统的运行,数据量变得越来越大,单纯的将数据存储在mysql中,已然不能满足查询要求了,此时我们引入Redis作为查询的缓存层,将业务中的热数据保存到Redis,扩展传统关系型数据库的服务能力,用户通过应用直接从Redis中快速获取常用数据,或者在交互式应用中使用Redis保存活跃用户的会话,都可以极大地降低后端关系型
MySQL数据库导入 source mysql source 导入数据太慢 mysql导入txt数据 mysql批量insert无视错误