HDFS中的文件支持close后再次打开,然后接着在其后边增加内容吗?

hjdongxuxu 2013-03-06 04:15:13
请教一个问题,现在有一个需求,期望每天往HDFS中的同一个文件写入数据。

问题是:
HDFS中的文件支持close后再次打开,然后接着在其后边增加内容吗?

hadoop的版本是Hadoop 1.0.3,不支持append操作

另外问下:
append和sync的作用是不是都是在文件未关闭的情况下将文件内容刷新至HDFS中,使得其他访问者可见?

对于要在一个文件结尾进行追加的需求是不是没有现成的API可以实现?
...全文
75 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
纯净水呐 2013-03-25
  • 打赏
  • 举报
回复
可以看下public FSDataOutputStream append(path f )throws IOException 它允许一个write打开文件后在访问该文件的最后偏移量处追加数据

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧