本人遇到一个问题
,大致描述如下
:一个项目中,有大约300多个频道,每一个频道都有一个采集程序每隔2秒
(很关键啊)把数据发送至Redis服务器,我需要全部订阅这些频道,并把这些频道中的所有数据点都保存到Ihistorian数据库中。现在的做法是写一个专门接受频道数据的程序,先保存到本地文件,然后另外一个程序读取这些文件并写入到数据库中。
好问题开始出现了----如果有很多的频道的数据点有3000~4000个的话且都每隔2秒发送一次,那么写数据库的程序根本处理不过来,导致大量数据积压,有可能不到5分钟写满1G的本地文件,该如何处理?
有没有大大知道啊。本人想到的唯一的方法即多启动几个写数据库的程序。
或者应该怎么优化处理,怎么不通过本地文件这一块进行处理??