spark yarn cluster模式下hadoop.tmp.dir指定目录磁盘99%,导致spark任务无法正常运行

Leon232 2022-05-05 12:25:53

spark yarn cluster模式下hadoop.tmp.dir指定目录磁盘99%,导致spark任务无法正常运行,请问这种情况怎么处理?

磁盘情况:

/data/apps/hadoop-3.2.2/data/tmp磁盘占用情况,基本都被这个目录占用了

配置情况:

hadoop下的core-site.xml配置如下

 hadoop下的hdfs-site.xml配置如下

 

 

...全文
201 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧