社区
Oracle 高级技术
帖子详情
超大数据量的实时处理
xuwj2000
2007-03-14 11:17:24
手上有一个项目,是车辆监控的!
需要监控6万辆车,每车15秒发一次定位数据,每条约100字节
也就是服务器这端每秒钟要接收4000条数据,数据量为每秒4M,而且还要承受几十个客户端的访问!
应该怎么设计这个数据库啊?
我们这边的只有双CPU的服务器,但是有很多台(在同一局)!
oracle有没有把一个数据库(或者某张表)分布到不同服务器上,并且能均衡各服务器之间的负载的功能啊?
...全文
175
3
打赏
收藏
超大数据量的实时处理
手上有一个项目,是车辆监控的! 需要监控6万辆车,每车15秒发一次定位数据,每条约100字节 也就是服务器这端每秒钟要接收4000条数据,数据量为每秒4M,而且还要承受几十个客户端的访问! 应该怎么设计这个数据库啊? 我们这边的只有双CPU的服务器,但是有很多台(在同一局)! oracle有没有把一个数据库(或者某张表)分布到不同服务器上,并且能均衡各服务器之间的负载的功能啊?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
3 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
AFIC
2007-03-14
打赏
举报
回复
http://www.google.cn/search?complete=1&hl=zh-CN&q=oracle+rac&meta=lr%3Dlang_zh-CN&aq=t&oq=oracle+ra
xuwj2000
2007-03-14
打赏
举报
回复
顺便说一下,是每秒400K的数据,每小时有1.4G的数据。,不好意思刚好算错了,
并且 这些数据都是车辆定位数据,放在同一张表中!入库前,还要进行大量的判定,
xuwj2000
2007-03-14
打赏
举报
回复
请大家多发表意见,先在这里谢谢了
python csv文件数据写入和读取(适用于
超
大数据
量
)
文章目录python csv文件数据写入和读取(适用于
超
大数据
量
) python csv文件数据写入和读取(适用于
超
大数据
量
) 一般情况下由于我们使用的数据
量
比较小,因此可以将数据一次性整体读入或者写入,而且可以一次性对...
Spark
超
大数据
量
下OOM的解决
Spark
超
大数据
量
下OOM的解决
Excel
超
大数据
量
如何进行处理?这个BI工具帮你轻松脱困
想要处理
超
大的数据
量
,Smartbi一站式数据分析平台来帮你。
jvm性能调优实战 - 47
超
大数据
量
处理系统是如何OOM的
还记得
超
大数据
量
的计算引擎系统么? 之前就用这个系统案例给大家分析过GC问题,但是因为他处理的数据
量
实在是很大,负载也过高,所以除了GC问题以外,还有OOM问题。 首先用最最简化的一张图给大家解释系统的工
java项目——
大数据
量
的处理
java项目——
大数据
量
的处理 转载:https://blog.csdn.net/zhangzijiejiayou/article/details/50616520 1. 给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url? ...
Oracle 高级技术
3,491
社区成员
18,714
社区内容
发帖
与我相关
我的任务
Oracle 高级技术
Oracle 高级技术相关讨论专区
复制链接
扫一扫
分享
社区描述
Oracle 高级技术相关讨论专区
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章