txt文件导入mysql,数据量过大导致超时如何解决?

qq_36850154 2018-08-09 01:45:35
通过shell脚本将oracle数据每天定时导出的txt文件内,在导入mysql,
十万条以内的数据还行,超过十万条就会超时,百度好久了,不知道怎么解决,求详细的解决方法,重谢!

mysql -h$mdbip -P$mdbport -u${mdbusr} -p${mdbpwd} ${mdbname} -e "

load data local infile '${dir}/file/share_order_oracleToMysql_${b}.txt' into table wys_bsstomysql_all_trade(order_id,bss_trade_id,bss_subscribe_id,bss_trade_type_code,bss_net_type_code,user_id,serial_number,bss_accept_date,bss_finish_date,sys_type) ;
...全文
1817 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
cqyy725 2018-09-13
  • 打赏
  • 举报
回复
请用mysqldump
zclinux_ 2018-08-22
  • 打赏
  • 举报
回复
可以做一个oracle goldgate 支持异构数据库oracle和mysql的数据同步
qq_36850154 2018-08-10
  • 打赏
  • 举报
回复
引用 4 楼 zssazrael 的回复:
可以试试用 oracle 的 dblink 连接到 mysql,直接把数据写入 mysql,省下导出 txt 的时间。
老项目,只是修改需求,出现的数据量太大的问题,只能在原有的shell中修改,。。。
幽饮烛 2018-08-10
  • 打赏
  • 举报
回复
可以试试用 oracle 的 dblink 连接到 mysql,直接把数据写入 mysql,省下导出 txt 的时间。
qq_36850154 2018-08-09
  • 打赏
  • 举报
回复
我想过这个方法,但是没有实现出来,,,这方面的知识比较差,能提供详细的代码供参考么
qq_36850154 2018-08-09
  • 打赏
  • 举报
回复
引用 1 楼 ojc8882003 的回复:
分割txt文件,再部份导入不行?
我想过这个方法,但是没有实现出来,,,这方面的知识比较差,能提供详细的代码供参考么
aabbabababaa 2018-08-09
  • 打赏
  • 举报
回复
分割txt文件,再部份导入不行?

23,116

社区成员

发帖
与我相关
我的任务
社区描述
Linux/Unix社区 应用程序开发区
社区管理员
  • 应用程序开发区社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧