spark资源分配

小猴子emo 2019-07-01 12:00:48
在spark-env.sh文件中配置了一下参数;
export SPARK_WORKER_MEMORY=4g
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=12

但是现在我想恢复到原来的默认分配的资源该怎么恢复呢
怎么只显示最后俩个,请大家帮帮忙。
...全文
93 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
月~枫 2019-10-22
  • 打赏
  • 举报
回复
提交后集群还有空余资源可以同时提交另外一个程序吗
  • 打赏
  • 举报
回复
spark-submit提交时候
--class cn.spark.sparktest.core.WordCountCluster \

--num-executors 3 \ 配置executor的数量

--executor-memory 100m \ 配置每个executor的内存大小

--executor-cores 3 \ 配置每个executor的cpu core数量

--driver-memory 100m \ 配置driver的内存(影响很大)

/usr/local/SparkTest-0.0.1-SNAPSHOT-jar-with-dependencies.jar \
可以手动指定

87,904

社区成员

发帖
与我相关
我的任务
社区描述
Web 开发 JavaScript
社区管理员
  • JavaScript
  • 无·法
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧