mapreduce结果文件_SUCCESS怎么不让它生成?

大数据技术派 2018-05-19 11:25:53
mapreduce结果文件_SUCCESS,_SUCCESS.crc,怎么不让它生成?
...全文
1832 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
gnn_explorer 2019-10-22
  • 打赏
  • 举报
回复
conf.set(“mapreduce.fileoutputcommitter.marksuccessfuljobs”, “false”)
A宇 2018-06-12
  • 打赏
  • 举报
回复
用多路径输出咯,这样在自目录中就看不到了
_路人_ 2018-06-12
  • 打赏
  • 举报
回复
_SUCCESS文件是判断一次MapReduce作业是否成功的标志,这是一种惯例,为什么要删掉呢?

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧