社区
Java SE
帖子详情
同步数据库,求每秒万条的高效方法。或注意事项。
xplinhui
2006-12-08 12:48:23
现需要从mysql、oracle、db2等数据库中,按照用户的条件使用代码高效的导出满足条件的记录,因为数据量大,所以要求每秒达到万条。
大哥大姐们,有好的方法嘛?或者有没有注意事项指引一下小弟啊。
...全文
398
13
打赏
收藏
同步数据库,求每秒万条的高效方法。或注意事项。
现需要从mysql、oracle、db2等数据库中,按照用户的条件使用代码高效的导出满足条件的记录,因为数据量大,所以要求每秒达到万条。 大哥大姐们,有好的方法嘛?或者有没有注意事项指引一下小弟啊。
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
13 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
wy158457
2006-12-11
打赏
举报
回复
jf
lzj34
2006-12-11
打赏
举报
回复
这是一个时期问题还是一个时点问题
你的两台服务器是内网还是外网+内网,还是全在
rumlee
2006-12-11
打赏
举报
回复
如果没有索引,估计插入会快一点。和你数据库的设计也会有很大的关系的。
DelphiStudy
2006-12-11
打赏
举报
回复
记错了,好像是3000条/分钟,包含blob字段的,数据量小的话5000/分钟能达到
DelphiStudy
2006-12-11
打赏
举报
回复
一般也就是3000条/秒,不过,若是向mysql写,1万条/秒应该没问题
hdhmail2000
2006-12-11
打赏
举报
回复
这种要求不可能在java程序上面能达到了
只能从数据库本身到倒入功能来做
比如我以前做了ms sql的用bcp来导入就很快
别的数据库我想应该有相应工具的
楼主找找看了
这方面我想最好去数据库的板块去找
bluesmile979
2006-12-11
打赏
举报
回复
我想知道的是在写代码的时候有没有什么优化的方法,比如是用 perparedStatement 还是 statement 在查询数据库和写数据库的时候有没有什么更快的方法,和传统不一样的方法或概念呢?
如果是传统的方法,用 statement.execUpdate('insert') 这样也太慢了吧,能够达到要求吗?
----------------------------------------------
针对以上,我知道最快的应该是在数据库里写存储过程,然后在程序中调用。其他的可能跟你的数据库设计等等都有关系,你可以到数据库版去问问看,那里有几位很牛的老大。
pdvv
2006-12-11
打赏
举报
回复
原来你是要通过代码进行读取写入操作,oracle、db2等大型数据库系统本身就有数据库同步功能。
如果通过代码来作,应该很难达到你的要求。
strawbingo
2006-12-11
打赏
举报
回复
如过是找优化的方法,建议用 perparedStatement
如果是你上面的问题,还是不知道要干什么
xplinhui
2006-12-11
打赏
举报
回复
我想知道的是在写代码的时候有没有什么优化的方法,比如是用 perparedStatement 还是 statement 在查询数据库和写数据库的时候有没有什么更快的方法,和传统不一样的方法或概念呢?
如果是传统的方法,用 statement.execUpdate('insert') 这样也太慢了吧,能够达到要求吗?
fool_leave
2006-12-08
打赏
举报
回复
条件判断是不是主键?
数据库大致结构怎么样,数据库可以重新设定吗?
碧海情天-赵亮
2006-12-08
打赏
举报
回复
说得过于含糊,原因也让人难以理解:就算数据量大,但是对于导出时间又规定是多久?为什么非要那么久?
楼主有自己尝试那么一两种方式去完成自己应该完成的工作吗?有的话,可以列举一些困难疑惑。只等现成的,能有进步吗?
strawbingo
2006-12-08
打赏
举报
回复
总体数据量有多大
硬件环境怎么样
每条记录的大小是多少
不过我看很难达到万条的要求,万/秒,也就是60万/分,3600万/小时,10亿/天。
有点过分了
Python
数据库
迁移实战:两种
高效
方法
对比与实践指南
数据库
迁移是数字化转型的关键环节,但传统手动方式面临重复劳动、易出错和效率低下的痛点。本文提出两种Python迁移方案:基于原生驱动的手动迁移和自动化工具迁移。手动迁移方案通过分步骤处理表结构转换和数据类型映射,精准解决跨
数据库
兼容性问题,但需开发者具备多
数据库
知识。实现步骤包括环境准备、
数据库
连接配置、表结构定义转换和数据迁移。核心代码解析了数据读取模块的闭环流程和资源安全保障,强调字典游标和fetchall()
方法
的优势。该方案适合需要深度定制的场景,为
高效
可靠的
数据库
迁移提供清晰指南。
瀚高
数据库
抽取工具:数据迁移与
同步
解决方案
瀚高
数据库
抽取工具(以下简称“瀚高工具”)是一种专门用于
数据库
数据迁移和
同步
的软件解决方案。它具备一系列功能,从抽取、转换到加载(ETL)操作,瀚高工具通过提供强大的数据处理能力来满足企业级应用对于数据集成和迁移的需
求
。对于希望在不同
数据库
系统间进行无缝数据交换的组织,瀚高工具提供了一种
高效
而可靠的途径。数据迁移是将数据从一个存储环境迁移到另一个存储环境的过程。它涉及数据格式的转换、数据结构的调整以及数据的物理传输。
Excel与
数据库
对比全攻略:3种
方法
秒级定位百万行差异
数据核对还在逐行比对?财务小王用传统
方法
核对10万行数据耗时3天,出错率高达15%!本文揭秘金融级数据对比方案:通过VBA+SQL双引擎驱动,实现Excel与
数据库
实时
同步
对比,自动高亮差异单元格并生成可视化报告,某银行实施后数据核对效率提升92%,错误率归零!
4.建索引的
注意事项
建索引的
注意事项
,MySQL 优化
消息队列:秒杀时如何处理
每秒
上万次的下单请
求
?
消息队列:秒杀时如何处理
每秒
上万次的下单请
求
?我所理解的消息队列削去秒杀场景下的峰值写流量通过异步处理简化秒杀请
求
中的业务流程解耦实现秒杀系统模块之间松耦合总结 我们了解了高并发系统设计的三个目标:性能、可用性和可扩展性,而在提升系统性能方面,我们一直关注的是系统的查询性能。也学习了
数据库
的分布式改造,各类缓存的原理和使用技巧。究其原因在于,我们遇到的大部分场景都是读多写少,尤其是在一个系统的初级阶段。 比如说,一个社区的系统初期一定是只有少量的种子用户在生产内容,而大部分的用户都 在“围观”别人在说什么。
Java SE
62,623
社区成员
307,257
社区内容
发帖
与我相关
我的任务
Java SE
Java 2 Standard Edition
复制链接
扫一扫
分享
社区描述
Java 2 Standard Edition
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章