spark yarn cluster模式下hadoop.tmp.dir指定目录磁盘99%,导致spark任务无法正常运行,请问这种情况怎么处理?
磁盘情况:
/data/apps/hadoop-3.2.2/data/tmp磁盘占用情况,基本都被这个目录占用了
配置情况:
hadoop下的core-site.xml配置如下
hadoop下的hdfs-site.xml配置如下
1,261
社区成员
1,169
社区内容
加载中
试试用AI创作助手写篇文章吧