gluster分布式存储系统 如何重建 brick

skyfly2008 2018-11-13 03:05:59
最近在研究ovirt搭建私有云平台,添加三个主机node1,node2,node3,同时三个主机组成glusterfs存储的三个brick节点,在gluster上建立存储卷之后,建立数据域,然后上传ISO,跑虚拟机,在虚拟机保持运行的情况下,将node1的网线拔掉,剩余node2,node3能让分布式存储系统正常运行,ovirt平台虽然有一台主机下线,虚拟机依然正常在跑;
拔掉网线的node1主机,将操作系统重新安装,在ovirt中重新安装,接下来出问题了:
重装系统的node1添加主机最终无法改为Up状态,结局总是NonOperational,在主机的操作系统中,
在node2或node3上
gluster peer status 显示 node1 State: Peer Rejected,用 gluster peer probe node1,又显示 node 已在 peer list 中

gluster volume 卷名
只列出 node2和node3的 brick,如下:
Status of volume: LV1
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick 192.168.10.21:/opt/brick1 49152 0 Y 10762
Brick 192.168.10.23:/opt/brick1 49152 0 Y 2155
Self-heal Daemon on localhost N/A N/A Y 13368
Self-heal Daemon on 192.168.10.23 N/A N/A Y 2206

Task Status of Volume LV1
------------------------------------------------------------------------------
There are no active volume tasks

在 node1 上
gluster peer probe node2 或 node3,显示 node2 or node3 already part of another cluster or having volumes configured

gluster volume status 显示 当前 没有 卷存在

这就比较麻烦了, 当初 node1,node2,node3三个主机 建立的 副本数为3 的 volume 显示 node1 的 brick 已经 离线, 但 现在 如何 在保持 虚拟机 继续正常运行的情况下, 将 当初的 node1 brick 重建 和 恢复?

到此,没辙了,哪位大侠指点一下迷津?
...全文
123 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

932

社区成员

发帖
与我相关
我的任务
社区描述
云计算 云存储相关讨论
社区管理员
  • 云存储
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧