如何计算spark中某个文件的内存占用情况?

mumumuyanyanyan 2017-10-27 09:43:47
通过spark读取文件,如何计算或者查看该文件内存占用情况?
比如
val memory = sc.textFile("part-all0")

我想知道这个文件占用多大内存
...全文
780 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
1. 这个语句不会直接占用内存,在后面时才会加载进来,是惰性的 2. 集群环境中,会分散到多个节点上分摊使用内存,追踪的话需要看你时spark on yarn还是standalone不同的模式有不同的方式

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧