目录

环境  

文档用途  

详细信息  

 

环境

系统平台:       Linux x86-64 Red Hat Enterprise Linux 7      

版本:       4.3.4.8      

 

文档用途

在日常工作中,我们经常会碰到数据信息迁移备份或者恢复的情况,由于editplus和node++等文档查看工具大于2G以上几乎就打不开了,而记事本在sql文件大小超过本机的内存大小之后也无法在打开,就出现了大sql文件无法打开,导入速度慢的情况,所以在此分享一个将文件切割开来的方法,将文件按照行数或者大小进行切分,并且保证数据的完整性,从而解决导入数据慢,文件打不开的情况。

 详细信息

 一、纯数据切割方法:

 

1. 将sql文件放置虚拟机上,如test.sql。

2. 然后打开终端,输入命令:
   sed "s/insert/\n&/g" test.sql > b.sql
   这样是检索test.sql这个文件,检索完成之后生成一个新的b.sql的文件,目的为了根据insert分行。

3. 分行完成之后,继续输入命令:
   cat b.sql | head -n 30 > test1.sql
   按照分好行的b.sql文件进行分行,分前30行数据,生成一个新的sql文件,为test1.sql文件。

4. 打开分割好的文件可以看到每一个文件都是30行纯insert语句,最后一个文件不足30行数据则显示实际数据行数,

   此分割方法只建议按照纯insert语句或者纯数据类语句,多种类型的语句此方法无法满足。





二、按照大小切割方法:

  

1. 将sql文件放置虚拟机上,如test.sql,test.sql文件大小为13.2MB。