spark streaming 输出采用gzip压缩,导致direct memory 内存泄漏

qq_19917081 2017-03-06 02:11:04
spark streaming 对接kafka ,然后自定义输出,保存到hdfs,按文件内容,一小时为一批文件,实现文件追加,采用gzip压缩输出文件,但是运行起来后,发现executor 过几个小时就被yarn kill掉,然后启动新的,追踪发线是因为压缩导致的direct memory 内存泄漏,因为压缩使用java的NIO,会使用direct memory,求解决方法!!
...全文
335 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧