为什么hdfs-site.xml文件始终读不到这一条配置

NaNyaNyaNyan 2014-05-29 03:28:43
最近为了项目,在自己机器上配了hadoop的环境,做文件append操作时出的问题
Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try. (Nodes: current=[192.168.4.111:50010], original=[192.168.4.111:50010]). The current failed datanode replacement policy is DEFAULT, and a client may configure this via 'dfs.client.block.write.replace-datanode-on-failure.policy' in its configuration.
以下是两条相关配置,写在hdfs-site.xml里面了
<property>
<name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
<value>true</value>
</property>
<property>
<name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
<value>NEVER</value>
</property>
...全文
2100 6 打赏 收藏 转发到动态 举报
写回复
用AI写文章
6 条回复
切换为时间正序
请发表友善的回复…
发表回复
HeiampDan 2016-10-31
  • 打赏
  • 举报
回复
谢谢你们,方法非常有效
gmmmn0 2016-03-04
  • 打赏
  • 举报
回复
借楼主的帖子,在hdfs-site配之后,要在java代码中设置才行! 解决方法: configuration = new Configuration(); //hdfs追加文件配置 configuration.setBoolean("dfs.support.append", true); configuration.set("dfs.client.block.write.replace-datanode-on-failure.policy", "NEVER"); configuration.set("dfs.client.block.write.replace-datanode-on-failure.enable", "true");
tan___5 2015-05-31
  • 打赏
  • 举报
回复
楼主写下来啊。这个问题折腾好久了
chen820655096 2014-07-29
  • 打赏
  • 举报
回复
楼主应该把解决的方法写下来。。。
tan8888 2014-06-18
  • 打赏
  • 举报
回复
引用 1 楼 u011846292 的回复:
总之自己搞定了,csdn怎么越来越冷了
怎么搞定的,我也遇到 了
NaNyaNyaNyan 2014-05-30
  • 打赏
  • 举报
回复
总之自己搞定了,csdn怎么越来越冷了

1,092

社区成员

发帖
与我相关
我的任务
社区描述
云计算服务器、网络、虚拟化相关讨论
社区管理员
  • 服务器
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧