hadoop 如何自动清理产生的大量日志文件呢?

working6 2014-07-31 10:37:17
如题,我们公司的hadoop集群运行了一个月左右,产生了大量的.log和.out之类的日志问题,请问hadoop可以自动清理这些日志文件吗,我试图修改hadoop.logfile.size和hadoop.logfile.count,但是没有用,大家有什么好的办法呢 ?
...全文
626 4 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
working6 2014-08-05
  • 打赏
  • 举报
回复
3楼的 能详细说说具体怎么配置吗 为什么我配置hadoop.logfile.size和hadoop.logfile.count都没有生效呢?
qingyuan18 2014-08-02
  • 打赏
  • 举报
回复
默认是两个月清理一次,可以配置
working6 2014-08-02
  • 打赏
  • 举报
回复
1楼的 除了编写shell脚本自动删除外 hadoop自身没有保留一段时间日志的功能吗?
xutao_2008_2000 2014-07-31
  • 打赏
  • 举报
回复
写个脚本按日期删除?

20,848

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧