求一个mysql集群技术的解决方案

Three_stone_0312 2009-04-20 11:21:28
只有90分了不好意思。现在要做一个数据量读写比较大的网站(每秒可能要处理3k条以上的数据量),要求网站的稳定性要高,不能随便的当机。
目前可以做到:
分成多表。
master-slave 结构,读取多个从服务器,增删在主服务器(此方法可能要在原有的程序上做较大改动)。来分担压力,但此方法在主服务器当机后,会出现问题。
同时也在研究mysql-proxy和mysql-cluster的结构,前者好像尚处于beta阶段,且网上的案例较少,mysql-cluster看资料讲处理速度并不快。

请问有什么合适的解决方案吗?
...全文
621 11 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
11 条回复
切换为时间正序
请发表友善的回复…
发表回复
wangmaostar 2010-06-21
  • 打赏
  • 举报
回复
谢谢了 收藏 哈哈
sunshinexrain 2010-01-17
  • 打赏
  • 举报
回复
如果是mysql-proxy,数据同步是如何处理的?
sunshinexrain 2010-01-17
  • 打赏
  • 举报
回复
读写分离,那么主服务器用几台?
1台能处理那么高的并发数吗?
多台的话又是如何保持数据同步的?
希望懂的人来解释一下
ljf_ljf 2009-07-30
  • 打赏
  • 举报
回复
每天都二亿数据量 对任何数据库来说都是一个极大挑战。稍有不慎,这个项目会弄得很惨。
kill8108 2009-07-30
  • 打赏
  • 举报
回复
数据库集群能解决稳定性问题,但是否能解决到性问题么?
需要考虑清楚了....最好能针对性的测试下了....
vinsonshen 2009-07-30
  • 打赏
  • 举报
回复
入二亿数据,这个不是什么问题
问题的关键是这些数据要作什么用,相关的业务逻辑处理有什么需求
瓶颈会在应用这些数据过程中产生的
ljf_ljf 2009-07-29
  • 打赏
  • 举报
回复
1、 一般采用master-slave 结构,进行读写分离。

2、“每秒可能要处理3k条以上的数据量” 数据挺多的,每天都二亿数据量。 普通的master-slave 结构应该承受不了。

3、还是建议用群集比较稳妥。
vinsonshen 2009-07-29
  • 打赏
  • 举报
回复
那么久的贴啦?呵呵

分布式
或主从、读写分离
javagxc 2009-07-29
  • 打赏
  • 举报
回复
phoenix_pj 2009-04-21
  • 打赏
  • 举报
回复
我认为不要有个主服务器,每个服务器有个标示,比如你有10台服务器,那么每个服务器的标示为1到10个数字,然后用随机数来决定在哪个服务器上来处理当前的请求,这样当其中一台当机了,就重新生成随机数,然后到另一台服务器来处理请求
Three_stone_0312 2009-04-21
  • 打赏
  • 举报
回复
自己顶下

56,912

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧