社区
云存储
帖子详情
有关ceph块设备io瓶颈问题?
小小白杨123
2016-11-29 03:09:08
现在在ceph集群上创建了一个块设备,在一个集群节点上对该块设备进行写操作,但是平均每秒只能写30多M,并且写一会就写不进去了,如何确认瓶颈在哪里呢?
...全文
1718
2
打赏
收藏
有关ceph块设备io瓶颈问题?
现在在ceph集群上创建了一个块设备,在一个集群节点上对该块设备进行写操作,但是平均每秒只能写30多M,并且写一会就写不进去了,如何确认瓶颈在哪里呢?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
2 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
小小白杨123
2020-04-23
打赏
举报
回复
引用 1 楼 lzf222 的回复:
我的也是和你一样的情况,刚开始写入速度还可以,几十兆,后来变成几兆,上不去,物理机io延迟大
升级一下内核。
lzf222
2020-03-30
打赏
举报
回复
我的也是和你一样的情况,刚开始写入速度还可以,几十兆,后来变成几兆,上不去,物理机io延迟大
解决重装系统后有磁盘被
ceph
占用
问题
一、
问题
说明 有一个集群原理装过
ceph
,后来应为系统崩溃,重装了系统,所以
ceph
已经不存在了。我查看了/var/lib目录,/etc目录,确实没用
ceph
的文件(重装了当然没有)。 现在的
问题
是查看
块设备
lsblk 发现有磁盘被占用,和正常装
ceph
时候一样,要重新使用这块硬盘需解决此
问题
。 lsblk -f命令可以查看
块设备
的文件系统,如图,被占用的sdb没用文件系统。 lsblk -l可以查看
块设备
的类型。 NAME:
块设备
名 MAJ:MIN:本栏显示主要和次要设备号 RM:显示可移动设备。0表
openstack 管理 四十四 - cinder qos 限制
前提 centos7 + qemu-2.x ( centos 默认版本) openstack icehourse (其他版本同理)
ceph
后端存储 目的 假如不限制
ceph
io
, 则一两个用户进行无限制数据
IO
压测使用, 则可以打爆整个
CEPH
集群 避免资源抢夺, 充分合理使用
IO
资源 QOS 限制方法 cgrloup cgroups blk
io
控制器支持
块设备
...
YY虚拟存储特点
YY云平台的云硬盘基于
Ceph
打造,具有如下本地存储所不具有的特性:+高可靠性, 3个副本分布不同机架和TOR的架构使数据99.999999%具有可靠性容量和性能线性扩容,可以通过增加机器方便的进行线性扩容
IO
并行性高,单
IO
延时高,随机写
IO
PS达3000,顺序写达200MB/s统一存储,云平台的OS镜像和VM
块设备
都存储在
Ceph
集群上快速备份,通过
Ceph
的快照功能可以快速备份
块设备
数据VM...
3.
ceph
进阶
ceph
进阶 文章目录
ceph
进阶
ceph
集群应用基础
块设备
RBD创建RBD创建并验证img客户端使用块存储文件存储
ceph
-fs(单节点)部署和添加MDS服务客户端挂载测试客户端安装
ceph
-common创建客户端挂载客户端数据写入测试常用的命令总结
ceph
集群维护通过套接字进行单机管理node节点:mon&mgr节点(我这边是复用了)
ceph
集群的停止或重启关闭顺序启动顺序
ceph
添加数据服务器
ceph
下线数据服务器
ceph
配置文件存储池,PG 和CRUSH副本池
IO
纠删码
IO
纠删码写纠删码
ceph
ceph
ceph
是一个分布式存储系统
Ceph
提供了三种存储类型:块存储、文件存储和对象存储,本文主要介绍对象存储的RGW基本原理和应用场景。 CRUSH算法 一般的分布式系统都会采用一个或者多个中心服务用来控制数据的分布,这种机制使得每次
IO
操作都会先去一个地方查询数据在集群中的元数据信息。当集群的规模变大或者系统的workload比较大时,这些中心服务器必然会成为性能上的
瓶颈
。
Ceph
...
云存储
933
社区成员
653
社区内容
发帖
与我相关
我的任务
云存储
云计算 云存储相关讨论
复制链接
扫一扫
分享
社区描述
云计算 云存储相关讨论
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章