当前位置:
首页
文章
前端
详情

Linux系统下大sql文件根据行进行分割方法(APP)

目录

环境

文档用途

详细信息

环境

系统平台: Linux x86-64 Red Hat Enterprise Linux 7

版本: 4.3.4.8

文档用途

在日常工作中,我们经常会碰到数据信息迁移备份或者恢复的情况,由于editplus和node++等文档查看工具大于2G以上几乎就打不开了,而记事本在sql文件大小超过本机的内存大小之后也无法在打开,就出现了大sql文件无法打开,导入速度慢的情况,所以在此分享一个将文件切割开来的方法,将文件按照行数或者大小进行切分,并且保证数据的完整性,从而解决导入数据慢,文件打不开的情况。

详细信息

一、纯数据切割方法:

1. 将sql文件放置虚拟机上,如test.sql。

2. 然后打开终端,输入命令:
   sed "s/insert/\n&/g" test.sql > b.sql
   这样是检索test.sql这个文件,检索完成之后生成一个新的b.sql的文件,目的为了根据insert分行。

3. 分行完成之后,继续输入命令:
   cat b.sql | head -n 30 > test1.sql
   按照分好行的b.sql文件进行分行,分前30行数据,生成一个新的sql文件,为test1.sql文件。

4. 打开分割好的文件可以看到每一个文件都是30行纯insert语句,最后一个文件不足30行数据则显示实际数据行数,

此分割方法只建议按照纯insert语句或者纯数据类语句,多种类型的语句此方法无法满足。

二、按照大小切割方法:

1. 将sql文件放置虚拟机上,如test.sql,test.sql文件大小为13.2MB。

更多详细信息请登录【瀚高技术支持平台】查看 https://support.highgo.com/#/index/docContentHighgo/7b5646f90413abd2

免责申明:本站发布的内容(图片、视频和文字)以转载和分享为主,文章观点不代表本站立场,如涉及侵权请联系站长邮箱:xbc-online@qq.com进行反馈,一经查实,将立刻删除涉嫌侵权内容。