社区
MySQL
帖子详情
大数据量查询慢的问题
昆泽
2011-07-26 06:10:22
select * from tablea where post_date>"XXXXXX"
类似这样的条件查询语句,当数据库表的量比较大以后(比如几百万),执行速度会非常慢。
有什么办法改进吗?
数据库是mysql 引擎是myisam
加索引没有用,已经试过。
...全文
337
11
打赏
收藏
大数据量查询慢的问题
select * from tablea where post_date>"XXXXXX" 类似这样的条件查询语句,当数据库表的量比较大以后(比如几百万),执行速度会非常慢。 有什么办法改进吗? 数据库是mysql 引擎是myisam 加索引没有用,已经试过。
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
11 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
zuoxingyu
2011-07-28
打赏
举报
回复
1:post_date上加索引
2:查询时,通过索引,可以直接定位到最后一行的INDEX位置(你用的是>),然后通过索引,去对应的磁盘位置把数据找出来,拼装。如果数据存的都是有序的,那么磁盘扫描是顺序扫描,速度很快。如果数据是无序的,比如(1,4,6100,2,13,1,34324,0),那么磁盘扫描是随机的,就会比较慢。这时候可以试试
13.5.2.5. OPTIMIZE TABLE语法
OPTIMIZE [LOCAL | NO_WRITE_TO_BINLOG] TABLE tbl_name [, tbl_name] ...
如果您已经删除了表的一大部分,或者如果您已经对含有可变长度行的表(含有VARCHAR, BLOB或TEXT列的表)进行了很多更改,则应使用OPTIMIZE TABLE。被删除的记录被保持在链接清单中,后续的INSERT操作会重新使用旧的记录位置。您可以使用OPTIMIZE TABLE来重新利用未使用的空间,并整理数据文件的碎片。
昆泽
2011-07-28
打赏
举报
回复
[Quote=引用 8 楼 m582445672 的回复:]
当你查询大量数据时,index是没用的.
[/Quote]
是指查询的结果很多,还是指需要查询的表的行数太多呢?
昆泽
2011-07-28
打赏
举报
回复
[Quote=引用 7 楼 zjsqq 的回复:]
引用 6 楼 lzcwxc1986 的回复:
引用 1 楼 zjsqq 的回复:
象你这样的语句,本身就有些问题。
select * from tablea where post_date>"XXXXXX"
就算对post_date建立了索引,用explain观察type最多也是range级别。如果不建立索引,type是ALL。
当MySQL估计检查的行数可能会”太多”,范……
[/Quote]
是指查询的结果很多,还是指需要查询的表的行数太多呢?
zjsQQ
2011-07-27
打赏
举报
回复
[Quote=引用 6 楼 lzcwxc1986 的回复:]
引用 1 楼 zjsqq 的回复:
象你这样的语句,本身就有些问题。
select * from tablea where post_date>"XXXXXX"
就算对post_date建立了索引,用explain观察type最多也是range级别。如果不建立索引,type是ALL。
当MySQL估计检查的行数可能会”太多”,范围查找优化将不会被使用。尤其是上百万比较明显。
建……
[/Quote]
第一种办法是:
如:
获取2011-07-27之前的数据,那么,你可以先获取前几天的数据出来,没必要用大于或小于号,直接用等号。
这样的话,查询速度应该极大提升。也会带来一点的问题。如逻辑要求会更加高。
第二种办法是:
分区。分区有好多种。我没记错,应该可以按时间分区。你可以去了解下。
昆泽
2011-07-27
打赏
举报
回复
[Quote=引用 1 楼 zjsqq 的回复:]
象你这样的语句,本身就有些问题。
select * from tablea where post_date>"XXXXXX"
就算对post_date建立了索引,用explain观察type最多也是range级别。如果不建立索引,type是ALL。
当MySQL估计检查的行数可能会”太多”,范围查找优化将不会被使用。尤其是上百万比较明显。
建议换种思路。
[/Quote]
那如果对于这样大数据量的表,我想得到插入时间大于某一个时间的所有行的行数,应该怎么来做呢。
沉沦
2011-07-27
打赏
举报
回复
当你查询大量数据时,index是没用的.
ACMAIN_CHM
2011-07-26
打赏
举报
回复
先添加post_date索引吧。
setail
2011-07-26
打赏
举报
回复
如果所得到结果的数据量大的话加不加索引效果都一样,查询的时候都不会使用索引。
liuxinran819
2011-07-26
打赏
举报
回复
对这个语句唯一能做的就是给post_date加索引。
但是你确定你的应用程序需要所有这么多条数据吗?建议从应用程序入手,减少获取的行数~
rucypli
2011-07-26
打赏
举报
回复
post_date加索引
zjsQQ
2011-07-26
打赏
举报
回复
象你这样的语句,本身就有些问题。
select * from tablea where post_date>"XXXXXX"
就算对post_date建立了索引,用explain观察type最多也是range级别。如果不建立索引,type是ALL。
当MySQL估计检查的行数可能会”太多”,范围查找优化将不会被使用。尤其是上百万比较明显。
建议换种思路。
MyBatis Plus 解决
大数据
量
查询
慢
问题
在实际工作中当指定
查询
数据过大时,我们一般使用分页
查询
的方式一页一页的将数据放到内存处理。但有些情况不需要分页的方式
查询
数据或分很大一页
查询
数据时,如果一下子将数据全部加载出来到内存中,很可能会发生 OOM(内存溢出);而且
查询
会很
慢
,因为框架耗费大
量
的时间和内存去把数据库
查询
的结果封装成我们想要的对象(实体类)。在业务系统需要从 MySQL 数据库里读取 100w 数据行进行处理,应该怎么做?
mysql进行
大数据
量
查询
,速度
慢
及解决方式
自述 在项目开发中我们经常会使用左连接进行
查询
,可能库表中的数据
量
并不大,所以在
查询
时感觉不到,如果表中的数据达到了十万条乃至百万条,并且
查询
的时候列的数据重复
量
也较大,这个时候进行左连接
查询
,时间可能达到死亡时间(即前端请求超时时间);这个时候造成的原因可能有: 1、没有索引或者没有用到索引(这是
查询
慢
最常见的
问题
,是程序设计的缺陷) 2、项目的吞吐
量
达不到,形成了瓶颈效应 3、
查询
出的数据
量
过...
解决数据
量
大
查询
慢
问题
首先检查你的代码,是否有全文
查询
的代码。 第一步,先优化自己的代码,能一次拿到数据的不要俩次去拿,数据
量
本来就大,会严重影响效率。将代码优化如下(限制
查询
前1000,太多会导致页面崩溃): //设置分页 Map<String, Object> map = new HashMap<>(); //如果page为空或为0,设置默认值为0 ...
Oracle千万级以上数据
量
查询
速度
慢
问题
解决
Oracle千万级以上数据
量
查询
速度
慢
问题
解决,生产环境
查询
优化
解决mongodb
大数据
量
分页
查询
效率
问题
最常见的分页采用的是skip+limit这种组合方式,这种方式对付小数据倒也可以,但是对付上几百上千万的
大数据
,只能力不从心,skip如果跳过大
量
的数据会很
慢
,并且会越查越
慢
,针对这一情况,可以通过条件
查询
+排序+限制返回记录,即 边
查询
,边排序,排序之后,抽取上一页中的最后一条记录,作为当前分页的
查询
条件,从而避免了skip效率低下的
问题
。 代码如下: /** *
大数据
量
排序...
MySQL
56,681
社区成员
56,709
社区内容
发帖
与我相关
我的任务
MySQL
MySQL相关内容讨论专区
复制链接
扫一扫
分享
社区描述
MySQL相关内容讨论专区
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章