社区
MySQL
帖子详情
数据库有几百w条数据~
醤油様
2019-07-16 12:44:02
数据库有几百w条数据,按条件查询出数据时很快~但是按条件没有数据时很慢~请问有大佬知道这是什么情况吗?
...全文
183
4
打赏
收藏
数据库有几百w条数据~
数据库有几百w条数据,按条件查询出数据时很快~但是按条件没有数据时很慢~请问有大佬知道这是什么情况吗?
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
4 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
醤油様
2019-07-23
打赏
举报
回复
引用 2 楼 的回复:
可以用explain看一下是否用到了索引
引用 3 楼 待续_1006 的回复:
可以用explain看一下是否用到了索引
引用 1 楼 受了伤风的星辰 的回复:
可以看下具体的SQL么,这种情况有多种原因,需要看下具体SQL。
explain查看是用上索引的,最后终于找到原因了~气哭~应该创建int的给我创建成varchar了 代码中传过去的是int数据,如果没数据就全表了,有数据很快能返回~ 把类型改了,就正常了~
待续_1006
2019-07-17
打赏
举报
回复
可以用explain看一下是否用到了索引
TamoR.
2019-07-16
打赏
举报
回复
可以用explain看一下是否用到了索引
遇星
2019-07-16
打赏
举报
回复
可以看下具体的SQL么,这种情况有多种原因,需要看下具体SQL。
当
数据
库
一张表中有百万
条
数据
怎么办
后台有个定时任务,每5秒钟生成6
条
数据
存储到
数据
库
中,那么一个月就会有 3110400
条
数据
存储到
数据
库
中。显然
数据
量达到了百万级,
数据
量越大后期的性能就开始下降。 解决: 手动为以后创建多张表,表名后面...
仅用时一分半对
数据
库
一百多万
条
数据
进行全部读取写入(基于python对
数据
库
进行操作)
我将
数据
库
中的一百二十一万一千二百五十六
条
数据
的时间格式转换成时间戳用时1分半 hold on 气质这一块还没跟上 现在我只想说一句话!!!! 最近一直在做
数据
整理这一块的工作(就是将公司之前放在文档中的
数据
...
从
数据
库
中查出400万
条
数据
,放到list中内存溢出这样的问题怎么处理。
今天要完成一个业务:
数据
库
中有450万
条
数据
,有一个字段是空的。要访问一个api,获取到值后填上。 常规思路,是把所有的
数据
查询出来,循环
数据
,挨个请求接口,请求完接口,获得到返回值,修改
数据
库
中这
条
记录。 ...
如何快速的向
数据
库
中插入已知的1000万
条
数据
假设这1000W
条
数据
在同一个集合里,那么将这个集合进行遍历,循环1000W次,结合
数据
库
编程技术,如JDBC,就可以插入
数据
库
,这么简单的操作,显然不是正确答案....... 这样做的缺陷: 1.应用服务器(程序运行所在...
mysql批量修改100万
数据
库
_
数据
库
批量插入100W
条
数据
,你学废了吗?
答:在
数据
里做插入操作的时候,整体时间的分配是这样的:1、多链接耗时 (30%)2、多发送query到服务器 (20%)3、多解析query (20%)4、多插入操作 (10% * 词
条
数目)5、多插入index (10% * Index的数目)6、多关闭链接 ...
MySQL
56,923
社区成员
56,755
社区内容
发帖
与我相关
我的任务
MySQL
MySQL相关内容讨论专区
复制链接
扫一扫
分享
社区描述
MySQL相关内容讨论专区
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章