如何将大量数据写入数据库

小付同学 2014-01-09 07:17:36
本人遇到一个问题,大致描述如下:一个项目中,有大约300多个频道,每一个频道都有一个采集程序每隔2秒(很关键啊)把数据发送至Redis服务器,我需要全部订阅这些频道,并把这些频道中的所有数据点都保存到Ihistorian数据库中。现在的做法是写一个专门接受频道数据的程序,先保存到本地文件,然后另外一个程序读取这些文件并写入到数据库中。
好问题开始出现了----如果有很多的频道的数据点有3000~4000个的话且都每隔2秒发送一次,那么写数据库的程序根本处理不过来,导致大量数据积压,有可能不到5分钟写满1G的本地文件,该如何处理?
有没有大大知道啊。本人想到的唯一的方法即多启动几个写数据库的程序。
或者应该怎么优化处理,怎么不通过本地文件这一块进行处理??
...全文
469 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
小付同学 2014-02-22
  • 打赏
  • 举报
回复
引用 4 楼 spoilkite 的回复:
是只做INSERT,有没有UPDATE?
谢谢了,已经完成了。
spoilkite 2014-02-19
  • 打赏
  • 举报
回复
是只做INSERT,有没有UPDATE?
futao875296303 2014-01-11
  • 打赏
  • 举报
回复
哪位前辈赐教卡 想学习
小付同学 2014-01-09
  • 打赏
  • 举报
回复
没有人吗
小付同学 2014-01-09
  • 打赏
  • 举报
回复
有没有人遇到这样的问题

8,028

社区成员

发帖
与我相关
我的任务
社区描述
高性能数据库开发
社区管理员
  • 高性能数据库开发社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧