Mysql大数据的处理,求大神指导

浪中云 2014-03-04 10:48:24
小弟要从1.4G的文件中提取大约2000W条数据(不一样)
1.现在如果每次提取数据插入数据库的话,要现在数据库中判断数据是否存在在决定是否插入,这样的话,时间非常的慢!
2. 如果我把每条数据的放在hash表中,每次插入的过程,在hash表中进行查找,但是这样比较吃内存,我程序跑了7个小时之后就outofmemory了。

现在小弟不知道咋弄了,在想数据库怎么优化,求大神指导!

...全文
366 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
浪中云 2014-03-22
  • 打赏
  • 举报
回复
已解决,把mysql的数据引擎换了,谢谢各位
代码誊写工 2014-03-07
  • 打赏
  • 举报
回复
内存不够那就把hash表建立在数据库的文件系统引擎上。虽然慢一点儿,但比程序崩溃了强。 PS:你的hash表是指你在程序里的hashtable,还是指memroy engine的hash索引?
浪中云 2014-03-05
  • 打赏
  • 举报
回复
引用 1 楼 rucypli 的回复:
用ignore intert into
我刚才试了一下,如果用ignore insert into插入一条数据的话,非常的慢,如果用ignore insert into批处理插入1000条数据的话,会报错(主键唯一,但是插入了重复的数据项)。那现在该怎么处理呢?
浪中云 2014-03-05
  • 打赏
  • 举报
回复
求指导啊,求交流啊!
rucypli 2014-03-05
  • 打赏
  • 举报
回复
用ignore intert into
haha_321 2014-03-05
  • 打赏
  • 举报
回复
建议把数据的引擎设置成MyISAM
浪中云 2014-03-05
  • 打赏
  • 举报
回复
求指导啊!!!

56,677

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧