mysql大数量处理

kill8108 2007-11-10 01:35:42
大家好,请问一个MYSQL大数据量处理问题:
每天一张表数据最少有3000W数据,mysql处理过1000W级数据就有问题,不知如何是好,请大家帮帮我,给个主意吧,谢谢!
...全文
199 4 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
「已注销」 2007-11-14
  • 打赏
  • 举报
回复
另,楼主的所谓3000W数据,这个描述不准确。插入,查询的速度还取决于单条记录长度,有什么索引等。这方面是否经过仔细考虑?
如果是记录定长切很短的MYISAM表,3000W,主键或短的唯一键索引查询也不慢:P

呵呵,不要见到千万级就老套的以为MYSQL不行了,要相信技术是在发展的。曾经的那些MYSQL无法支持大数据量的言论早就过时了,一些简单应用都是没有问题的。
kill8108 2007-11-12
  • 打赏
  • 举报
回复
同步时间可以通过参数master-connect-retry=60设置的,但不知每天那么多数据应怎么处理会更好呢,各位大侠指点!
谢谢
懒得去死 2007-11-11
  • 打赏
  • 举报
回复
见过MYSQL的MERGE表和PARTITION吗?看看手册上详细介绍。
kill8108 2007-11-10
  • 打赏
  • 举报
回复
每天一张表的话,MYSQL也无法支持到3000W了,对查询等的操作起来很慢,请求各位大侠帮个忙!
这个使用了主从数据库同步了,

在这里在问下,MYSQL主从数据库同步是多少时间同步一次的呢!

56,940

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧