Ceph客户端删除2000M的数据,为何Ceph df显示的已用容量没有变化呢?

jhx_hz 2017-11-01 09:40:04
背景:已搭好Ceph集群(1Mon+ 2OSD),共有两个pool(rbd和test-pool),每个POOL的容量均为40G,如下图:


1.在Ceph-Client端基于test-pool创建test_image镜像,并map成功:


2.对test-image镜像进行文件系统格式化:


3.挂载块设备:


4.利用dd命令进行写操作(向/dev/rbd0写入2000M数据):
dd if=/dev/zero of=hello7.txt bs=2000M count=1


5.在Mon节点上查看test-pool的使用情况,表明已经写入了2000M:


6.最后在ceph-client端删除之前dd写入的hello7.txt,但是ceph df显示test-pool的容量还是2000M:



Ceph客户端删除2000M的数据,为何Ceph df显示的已用容量没有变化呢? 望各位大神指教!

...全文
2100 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
jhx_hz 2017-11-01
  • 打赏
  • 举报
回复
已解决!文件系统挂载的时候要加上 -o discard选项
jhx_hz 2017-11-01
  • 打赏
  • 举报
回复
Ceph是一个可靠的、数据自动重均衡、自动恢复的SDS(软件定义存储)分布式存储系统,功能主要有三大块:块存储、对象存储、文件系统。Ceph不但是提供了统一存储,并且同时还充分利用了客户端的计算能力,在存储每一个数据时,都会通过计算得出该数据存储的位置,尽量将数据分布均衡,同时由于Ceph的设计,采用了CRUSH算法、HASH环等方法,使得它不存在传统的单点故障的问题,且随着规模的扩大性能并不会受到影响。不管是私有云还是公有云,随着云架构的发展,Ceph 成为了OpenStack、Proxmox标配的后端存储,不光如此,就连目前最火的容器编排 Kubernetes 持久存储也都支持 Ceph ,让 Ceph 成为当前主流的存储系统,而对 Ceph 存储的学习也就变的刻不容缓。 该课程属于比较基础的 Ceph 存储课程,旨在让大家能快速上手对 Ceph 集群的部署以及操作,主要讲解以下几个方面: 1.     架构的介绍2.     集群的多种部署方式3.     块存储部署,客户端使用及快照、克隆和镜像4.     对象存储的部署及简单使用5.     Ceph FS 文件系统的部署、客户端使用及导出为NFS6.     集群的操作和管理,包括服务,集群扩展,缩减和集群维护7.     Ceph 基础知识的介绍,包括集群map,PG和身份验证8.     Ceph 集群的监控

933

社区成员

发帖
与我相关
我的任务
社区描述
云计算 云存储相关讨论
社区管理员
  • 云存储
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧