hdf上删除一个文件其中一个block以及其备份 如何保留剩余内容可用

曹宇 2014-10-31 02:48:47
如题:
如果丢失了一些block以及block的备份
那么这个文件经过我测试是不可用的

无论是cat 还是get都报错说找不到block

假设这个文件是文本文件
请问有没有办法让没有丢失的部分可用

意思就是 假设我丢失了20% 那就让剩下的80%继续可以读 可以用
而不是丢失了20% 剩下80%也完蛋了.

请问有解决办法吗?多谢了...
...全文
325 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
引用 3 楼 ProgrammingPower 的回复:
[quote=引用 2 楼 sky_walker85 的回复:] 楼主试试fsck一下,然后再度文件
fsck看了 显示文件损坏 丢失一个块 fsck不是检查工具吗? 怎么用它来修复呢?[/quote] hadoop fsck -delete
曹宇 2014-10-31
  • 打赏
  • 举报
回复
引用 1 楼 wulinshishen 的回复:
获取到文件所有块的信息,读取块的内容,和hadoop 读取一个文件操作一样。
恩 多谢,我查看了一下 本地文件系统存放的block是可读的 多谢了......
曹宇 2014-10-31
  • 打赏
  • 举报
回复
引用 2 楼 sky_walker85 的回复:
楼主试试fsck一下,然后再度文件
fsck看了 显示文件损坏 丢失一个块 fsck不是检查工具吗? 怎么用它来修复呢?
skyWalker_ONLY 2014-10-31
  • 打赏
  • 举报
回复
楼主试试fsck一下,然后再度文件
  • 打赏
  • 举报
回复
获取到文件所有块的信息,读取块的内容,和hadoop 读取一个文件操作一样。

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧