mysql写入数据速度慢的问题

超人不会飞25 2019-01-12 04:26:09
数据库小白一个,由于最近工作需要,要求把原来在csv里的数据拆分写入数据库中。所用的环境的mysql5.6以及Python3.6的pymysql。

现在有两张表,result和context,result存放结果相关的数据,context存放设置相关的数据。现在需要从csv中读取一行,把其中有关结果相关数据写入result表中。这两个表通过result_id来对应。

一个csv里的数据有几千行,目前自己测试的方案是,往result写一条,由于result中的主键result_id是自增的,所以用select last_insert_id()获取得到result_id,然后往context写一条,这样速度很慢,2000条数据要1分多钟,有什么方法可以提高这个速度呢?

求大神指点迷津

...全文
1316 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
weixin_40784365 2019-01-14
  • 打赏
  • 举报
回复
把两张表生成好,按以下做
https://blog.csdn.net/quiet_girl/article/details/71436108
吉普赛的歌 2019-01-13
  • 打赏
  • 举报
回复
如果此时 result 表目前最大 result_id 为 3000, 此时准备 1000 条数据(result 和 content 各 1000), 一次性往表中插入 1000 条数据, 自增列可以强制插入的, 所以 其 result_id 为 3001 到 4000 即可。

56,687

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧