CSDN论坛 > C++ Builder > 数据库及相关技术

请教:数据库选择(对于速度和10万条左右数据量的考虑) [问题点数:100分,结帖人TLFLY]

Bbs1
本版专家分:45
结帖率 100%
CSDN今日推荐
Bbs1
本版专家分:96
Bbs8
本版专家分:45184
Blank
红花 2011年12月 C/C++大版内专家分月排行榜第一
2011年11月 C/C++大版内专家分月排行榜第一
2011年10月 C/C++大版内专家分月排行榜第一
2010年4月 C++ Builder大版内专家分月排行榜第一
2008年9月 C++ Builder大版内专家分月排行榜第一
2008年8月 C++ Builder大版内专家分月排行榜第一
2007年1月 C++ Builder大版内专家分月排行榜第一
2004年3月 C/C++大版内专家分月排行榜第一
2006年12月 C++ Builder大版内专家分月排行榜第一
Blank
黄花 2010年4月 Delphi大版内专家分月排行榜第二
2010年3月 C++ Builder大版内专家分月排行榜第二
2009年9月 C++ Builder大版内专家分月排行榜第二
2005年10月 Java大版内专家分月排行榜第二
2006年11月 C++ Builder大版内专家分月排行榜第二
2006年10月 C++ Builder大版内专家分月排行榜第二
2006年9月 C++ Builder大版内专家分月排行榜第二
2006年7月 C++ Builder大版内专家分月排行榜第二
2004年1月 C++ Builder大版内专家分月排行榜第二
2006年1月 Delphi大版内专家分月排行榜第二
Blank
蓝花 2010年5月 C++ Builder大版内专家分月排行榜第三
2006年8月 C++ Builder大版内专家分月排行榜第三
2004年2月 C++ Builder大版内专家分月排行榜第三
2003年8月 C++ Builder大版内专家分月排行榜第三
2006年4月 Delphi大版内专家分月排行榜第三
2005年12月 Delphi大版内专家分月排行榜第三
Bbs7
本版专家分:10939
Bbs5
本版专家分:2595
Bbs7
本版专家分:17059
Blank
红花 2001年3月 C++ Builder大版内专家分月排行榜第一
2001年2月 C++ Builder大版内专家分月排行榜第一
Bbs9
本版专家分:51725
Blank
红花 2004年2月 C++ Builder大版内专家分月排行榜第一
2004年1月 C++ Builder大版内专家分月排行榜第一
Blank
黄花 2004年3月 C++ Builder大版内专家分月排行榜第二
2003年12月 C++ Builder大版内专家分月排行榜第二
2003年11月 C++ Builder大版内专家分月排行榜第二
2003年9月 C++ Builder大版内专家分月排行榜第二
2003年8月 C++ Builder大版内专家分月排行榜第二
2003年7月 C++ Builder大版内专家分月排行榜第二
2006年1月 专题开发/技术/项目大版内专家分月排行榜第二
2004年12月 专题开发/技术/项目大版内专家分月排行榜第二
2004年8月 专题开发/技术/项目大版内专家分月排行榜第二
2004年6月 专题开发/技术/项目大版内专家分月排行榜第二
2004年2月 专题开发/技术/项目大版内专家分月排行榜第二
2003年10月 专题开发/技术/项目大版内专家分月排行榜第二
Blank
蓝花 2006年4月 C++ Builder大版内专家分月排行榜第三
2005年12月 C++ Builder大版内专家分月排行榜第三
2003年6月 C++ Builder大版内专家分月排行榜第三
2006年4月 专题开发/技术/项目大版内专家分月排行榜第三
2004年9月 专题开发/技术/项目大版内专家分月排行榜第三
2004年1月 专题开发/技术/项目大版内专家分月排行榜第三
Bbs5
本版专家分:4749
匿名用户不能发表回复!
其他相关推荐
如何2秒批量插入10万数据到数据表中
注:此例子是基于我们开发平台的基础上进行java 上的实现。 ---------------
大规模数据运行时,可以考虑使用多线程处理!
今年3月份测试了一段代码,数据库中有300万条数据,抽出处理后写入文件中。   大规模数据执行时,希望24小时内执行完毕,但是实际测试中,时间达到了27个小时之多。 --------------------------- ---------------------------   今天又看到了这段代码,发现他们应该已经解决了这个问题。   他们解决的方式是才有多线程进行处理。(以下
java 导入 十万级excel数据
java 导入excel,我导的10万的数据,没试过更大的,应该是没有问题
for循环与foreach循环 10万次性能测试[php] 带花括号与不带花括号四种情况
for和foreach的性能测试结果 那么今天给大家谈谈的也是性能问题,只不过单单讨论的是 for和foreach的性能测试结果:不说太多, 小二先上图: 1.测试结果图(其中四张)
如何处理千万级以上的数据
大数据处理是一个头疼的问题,特别当达不到专业DBA的技术水准时,对一些数据库方面的问题感到无赖。所以还是有必要了解一些数据库方面的技巧,当然,每个人都有自己的数据库方面的技巧,只是八仙过海,所用的武功不同而已。我把我最常用的几种方式总结来与大家分享,大家还有更多的数据库设计和优化的技巧,尽量的追加到评论中,有时一篇完整的博客评论比主题更为精彩。 方法1:采用表分区技术。    第一次听
如何优化操作大数据量数据库(几十万以上数据)(一。建立索引)
<br />首先,为了建立一个测试环境,我们来往数据库中添加1000万条数据:<br /><br /> declare @i int<br /><br /> set @i=1<br /><br /> while @i<=250000<br /><br /> begin<br /><br /> insert into Tgongwen(fariqi,neibuyonghu,reader,title) values('2004-2-5','通信科','通信科,办公室,王局长,刘局长,张局长
插入大量数据速度慢的解决方法:批量插入
场景: 项目需要导入案件2200条。其中导入的excel每个行案件的信息上包含大约15个联系方式。那么总的联系方式一共用30000条左右 这里优化之前的速度是16-20分钟之间。太慢了。找了好久优化的方法。最后确定了使用mysql批量插入的方法去进行插入操作 慢的原因及解决思路: 这里慢的原因是针对本项目: 插入方式为程序遍历循环逐条插入。在mysql上检测插入一条的速度在0.0
poi导出大量数据(15万条没有问题)
1pom文件 dependency> groupId>org.apache.poigroupId> artifactId>poi-ooxmlartifactId> version>3.8version> dependency> 2try { String filename=new String("客户表.xlsx".getBytes(),"ISO-8859-1"); r
数据库 SQL千万级数据规模处理概要
我在前年遇到过过亿条的数据。以至于一个处理过程要几个小时的。后面慢慢优化,查找一些经验文章。才学到了一些基本方法。综合叙之,与君探讨之。 1. 数据太多。放在一个表肯定不行。 比如月周期表。一个月1000万,一年就1.2亿,如此累计下去肯定不行的。所以都是基于一个周期数据一个表。甚至一个周期数据就要分几个分表。主要是考虑实际的数据量而定。当你创建一个新表时,可能这个表需要有索引,
php导出超过10万行数据到excel
数据量超过10万,用php_excel导出很慢而且数据导入不全,还占空间,用csv格式导出,很快还不出错. set_time_limit(0); header('Content-Type: application/vnd.ms-excel'); header('Content-Disposition: attachment;filename="amazon_product_quantity.
关闭