RDD 的缓存 Fraction cached 大于100%的问题,哪位大神遇到过

DREAMTALE_3 2016-08-09 06:00:27
见spark issues
https://issues.apache.org/jira/browse/SPARK-4049

但是到现在社区还没有解决,问题是当一个被cache的RDD被重复使用很多次时,Fraction cached会大于100%,正常情况下是不可能超过100%的,最后导致的结果是内存被不停的消耗,任务越来越慢,不知哪位遇到过这个问题,有没有解决或规避的方法?
...全文
576 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧