300多万条数据检测某字段是否重复要多久

sinat_30015057 2015-08-13 03:36:10
用group by 会死掉么
...全文
650 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
zjcxc 2015-10-30
  • 打赏
  • 举报
回复
主要的影响因素: 1. 字段长度 , 越长肯定越慢,因为越长章法着越大的 IO 开销,在内存中,越长的也章法着内存开销越大 2. 有没有索引,如果有索引,数据已经是有序的,处理起来肯定快很多 3. 重复值的多少,重复值多,比如每个值重复一次,那就有 150万结果,这个肯定比全部都是相同值,只有一条结果的处理速度慢(单纯考虑传输结果到客户端的开销就差很多了)
huguangshanse00 2015-09-12
  • 打赏
  • 举报
回复
不会(除非极端情况),也可以用select count(distinct column_name) ...试下如果和select count( column) from table数值一样则说明没有重复。

974

社区成员

发帖
与我相关
我的任务
社区描述
PostgreSQL相关内容讨论
sql数据库数据库架构 技术论坛(原bbs)
社区管理员
  • PostgreSQL社区
  • yang_z_1
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧