用Navicat导入SQL文件,导入不全

Nathan_f 2018-07-11 09:45:09
php的数据库文件一个g多一点,每个运行中运行多个查询,这个选项去掉也试过了,还是没用。查询了2000多 ,成功的只有100多
...全文
3245 12 打赏 收藏 转发到动态 举报
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
KerryZXC 2020-06-18
  • 打赏
  • 举报
回复 1
引用 10 楼 江湖小小虾米 的回复:

把红色框的选项去除即可
你试试看行不行



老哥我是按你这样执行的,但我速度很慢,而且我文件放在桌面或根目录下了
码的 2019-11-28
  • 打赏
  • 举报
回复
@江湖小小虾米 老哥稳
江湖小小虾米 2019-05-10
  • 打赏
  • 举报
回复 5
把红色框的选项去除即可 你试试看行不行
Nathan_f 2018-07-13
  • 打赏
  • 举报
回复
引用 5 楼 qq_31362105 的回复:
你好,我正好遇到过你说的这样类似问题。总体来开,楼主你就是想通过.sql文件插入批量数据对吗?,我说一下我解决的过程,你可以参考一下。
我当时是导入4M的sql文件时,出现这个问题。(1)然后我按照网站的操作既楼上帅哥的设置了,有效果。(2)但是在文件超过10M后,点击导入文件直接回出现卡死现象,在文件可能是我配置的问题吧。所以我换了一种解决方式,既然10M数量过多,可以直接把文件分割开进行插入。一批一批的。(3)但是,越来越多的数据,人工处理太麻烦了,最终我选择了写了个小程序获取sql文件,一条条导入数据库。
什么小程序啊
Nathan_f 2018-07-13
  • 打赏
  • 举报
回复
引用 4 楼 Liqinghai058 的回复:
你好,进入mysql设置:
set global max_allowed_packet=1000000000; 
set global net_buffer_length=1000000;
这两项
没用啊大哥
小迟丶 2018-07-13
  • 打赏
  • 举报
回复
就是在自己项目里,写一个方法类。处理数据。读取.sql文件中的插入语句,并执行到目标数据库。
李庆海 2018-07-13
  • 打赏
  • 举报
回复
引用 6 楼 Nathan_f 的回复:
[quote=引用 4 楼 Liqinghai058 的回复:]
你好,进入mysql设置:
set global max_allowed_packet=1000000000; 
set global net_buffer_length=1000000;
这两项
没用啊大哥[/quote]
如果这样还是不起作用,文件比较大,那就建议你用命令行导入
小迟丶 2018-07-12
  • 打赏
  • 举报
回复
你好,我正好遇到过你说的这样类似问题。总体来开,楼主你就是想通过.sql文件插入批量数据对吗?,我说一下我解决的过程,你可以参考一下。
我当时是导入4M的sql文件时,出现这个问题。(1)然后我按照网站的操作既楼上帅哥的设置了,有效果。(2)但是在文件超过10M后,点击导入文件直接回出现卡死现象,在文件可能是我配置的问题吧。所以我换了一种解决方式,既然10M数量过多,可以直接把文件分割开进行插入。一批一批的。(3)但是,越来越多的数据,人工处理太麻烦了,最终我选择了写了个小程序获取sql文件,一条条导入数据库。
Nathan_f 2018-07-11
  • 打赏
  • 举报
回复
有人在吗
Nathan_f 2018-07-11
  • 打赏
  • 举报
回复
报这个错[Err] 2006 - MySQL server has gone away,然后我在my.ini文件里加了max_allowed_packet = 64M 还是没用
李庆海 2018-07-11
  • 打赏
  • 举报
回复
你好,进入mysql设置:
set global max_allowed_packet=1000000000; 
set global net_buffer_length=1000000;
这两项
podd 2018-07-11
  • 打赏
  • 举报
回复
http://www.583idc.com/news/?p=388

56,679

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧