社区
数据库及相关技术
帖子详情
数据量太大,应如何读取?
sam200401
2003-06-28 05:00:48
我的数据库记录上万条,我不可以一次用ADOQuery全读出来,这样太慢了.但可惜我要浏览数据库.那我应该如何做?
ADOQuery1->BlockReadSize =ADOQuery1->RecordCount +1;这一句该如何用?
...全文
55
9
打赏
收藏
数据量太大,应如何读取?
我的数据库记录上万条,我不可以一次用ADOQuery全读出来,这样太慢了.但可惜我要浏览数据库.那我应该如何做? ADOQuery1->BlockReadSize =ADOQuery1->RecordCount +1;这一句该如何用?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
9 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
WeiXuBin
2003-07-30
打赏
举报
回复
写成视图,
如果做成三层应当datasetprovider有packesize可以设一下
sam200401
2003-07-30
打赏
举报
回复
晕,这问题是太难还是分数太少?
sam200401
2003-07-02
打赏
举报
回复
顶
sam200401
2003-06-30
打赏
举报
回复
那我可用什么方法读出这些数据?(可能有上万条.不可能一次性读出啊)
gfh_79_0
2003-06-29
打赏
举报
回复
同意hong668(心情不错)
mee123456
2003-06-29
打赏
举报
回复
SQLServer没有limit可以这样实现
查询第10-20条记录
select top 10 from (select top 20 from stu order by num) order by num desc
hong668
2003-06-28
打赏
举报
回复
合理索引数据库,
条件查询
分页显视
thp
2003-06-28
打赏
举报
回复
条件查询呀
binbin
2003-06-28
打赏
举报
回复
先查询记录总数,然后用象web编程那样的分页显示的方法,每次读一段看看.很多数据库支持从结果集中取一段返回的.如Mysql中的Limit index,length子句.
Flink
读取
Kafka数据保存到Redis的解决方案教程
数据量
较大,要求高吞吐低延迟的场景;需要进行状态管理或窗口统计的场景,建议使用flink 针对以上知识我们通过flink
读取
kafka保存到redis方式快速让大家学习flink如何使用,以及我们如果搭建高性能的flink
应
用,这...
csv
数据量
很大怎么处理?-----分片处理技巧
问题:对于一个
数据量
很大的csv文件进行操作时,一次性全部
读取
出来再出来可以很耗时间和资源; 解决方法:1、可以考虑分片
读取
(一片500或1000或者视情况而定),按照片数依次处理; 2、考虑多线程,将数据一次...
长文图解:单张表
数据量
太大
问题怎么解决?请记住这六个字
在业务发展初期单表完全可以满足业务需求,在阿里巴巴开发手册也建议:单表行数超过500万行或者单表容量超过2GB才推荐进行分库分表,如果预计三年后
数据量
根本达不到这个级别,请不要在创建表时就分库分表。...
python
数据量
太大
如何解决_Python 如何处理大文件
Python作为一门程序设计语言,在易读、易维护方面有独特优势,越来越多的人使用 Python 进行数据分析和处理,而 Pandas 正是为了解决数据分析任务而创建的,其包含大量能便捷处理数据的函数和方法,使得数据处理变得...
JDBC mysql大
数据量
流式
读取
总结下这周帮助客户解决报表生成...
读取
操作开始遇到的问题是当sql查询
数据量
比较大时候基本读不出来。开始以为是server端处理太慢。但是在控制台是可以立即返回数据的。于是在
应
用这边抓包,发现也是发送sql后立即有数
数据库及相关技术
1,178
社区成员
18,939
社区内容
发帖
与我相关
我的任务
数据库及相关技术
C++ Builder 数据库及相关技术
复制链接
扫一扫
分享
社区描述
C++ Builder 数据库及相关技术
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章