程序在IDEA上本地运行没有问题,一放到集群上就出现内存溢出错误

yunxufusheng 2016-11-25 12:06:03
小白写了一个队号码活跃度评分的模型,在IDEA上跑是没有问题的,跑100条号码大概几十秒。但是一放到集群上面,代码便一直运行半小时左右,最后就运行失败,查看日志显示就是内存溢出。请问有大神遇到过这个问题吗?求解决,已经困惑两天了,以前练习mlib的时,里面有两个方法也存在这种问题,本地能跑,集群上内存溢出。
网上查看说浭水spark-defaults.conf里面的spark.driver.extraJavaOptions -XX:PermSize=128M -XX:MaxPermSize=256M ,我改了可还是错。
日志内容如下:

...全文
817 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
squall1900 2016-12-16
  • 打赏
  • 举报
回复
集群上每个节点分配的内存空间是多少,一般默认是1g。另外需要检查driver memory设置的大小
LinkSe7en 2016-12-16
  • 打赏
  • 举报
回复
driver一般是512M-1G,executor有公式可以计算。一般是核心数:内存是1:2或1:4。单个Worker节点可以分配多个Worker实例,一般是核心数/4。这些在spark-env.sh里面配置 另外你这是什么复杂模型?100条可以跑那么久。。。考虑下优化代码吧
_明月 2016-11-25
  • 打赏
  • 举报
回复
抱歉,由于个人能力有限,帮不了你。

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧