关于MASTER=spark://SparkMaster:7077 ./spark-shell问题

小白鸽 2014-11-26 02:38:56
在运行MASTER=spark://SparkMaster:7077 ./spark-shell时候

出现scala了,但是后面紧接着出现了。

14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]
14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]
14/11/25 06:02:28 ERROR cluster.SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
14/11/25 06:02:28 ERROR scheduler.TaskSchedulerImpl: Exiting due to error from cluster scheduler: All masters are unresponsive! Giving up.


在错误日志中发现

14/11/25 21:51:40 ERROR remote.EndpointWriter: AssociationError [akka.tcp://sparkMaster@SparkMaster:7077] -> [akka.tcp://spark@SparkMaster:34726]: Error [Association failed with [akka.tcp://spark@SparkMaster:34726]] [
akka.remote.EndpointAssociationException: Association failed with [akka.tcp://spark@SparkMaster:34726]
Caused by: akka.remote.transport.netty.NettyTransport$$anonfun$associate$1$$anon$2: Connection refused: SparkMaster/192.168.64.129:34726
]
这条语句
也不知道到底怎么弄。

然后我对比和别人的运行,我的是akka.tcp://sparkMaster@SparkMaster:7070:
而别人是akka.tcp://spark@SparkMaster:7070:配置都一样,是不是这个原因。


比较有意思的是,如果直接在bin文件夹下启动spark shell,倒能运行成功。

然后我把MASTER=spark://SparkMaster:7077 ./spark-shell中的SparkMaster直接改成主节点Ip,倒不出现14/11/25 06:02:08 WARN client.AppClient$ClientActor: Could not connect to akka.tcp://sparkMaster@SparkMaster:7070: akka.remote.EndpointAssociationException: Association failed with [akka.tcp://sparkMaster@SparkMaster:7070]这句话了,还是出现14/11/25 06:02:28 ERROR scheduler.TaskSchedulerImpl: Exiting due to error from cluster scheduler: All masters are unresponsive! Giving up.错误。
...全文
35262 15 打赏 收藏 转发到动态 举报
写回复
用AI写文章
15 条回复
切换为时间正序
请发表友善的回复…
发表回复
apcheng 2017-03-20
  • 打赏
  • 举报
回复
果然,把MASTER改成小写的master,就好了。。。。
luguanghui55 2016-12-05
  • 打赏
  • 举报
回复
在日志里有没有master关闭了?我出现同样的情况,是master出错关闭了导致
SummerChillCoder 2016-07-22
  • 打赏
  • 举报
回复
我也出现这个问题了.....使用集群standalone模式的时候用大写的MASTER可以正常的启动(MASTER=spark://192.168.1.99:7077 ./spark-shell). 但是启动HA之后必须把MASTER变成小写的....否则报(ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.ERROR OneForOneStrategy: java.lang.NullPointerException)错误... 改为master=spark://192.168.1.99:7077 ./spark-shell
晚秋_梦依在 2016-01-07
  • 打赏
  • 举报
回复
引用 4 楼 baifanwudi 的回复:
[quote=引用 3 楼 wulinshishen 的回复:] 挺怪异,我试了一下master=spark://centos.host1:7077 ./spark-shell 没有问题。楼主把MASTER改成小写试试,服务重启在执行试试。
好吧,你赢了。果然用master小写就没问题。原因有点蛋疼。。。[/quote] 还有,进入spark-shell,为什么不直接用./spark-shell,而是在前面加上master=spark://Mster:7077呢?
晚秋_梦依在 2016-01-07
  • 打赏
  • 举报
回复
引用 3 楼 wulinshishen 的回复:
挺怪异,我试了一下master=spark://centos.host1:7077 ./spark-shell 没有问题。楼主把MASTER改成小写试试,服务重启在执行试试。

为什么我的还是错误呢?我尝试了master=spark://Master:7077 ./spark-shell和Master=spark://Master:7077都是和楼主同样的错误呢?
晚秋_梦依在 2016-01-07
  • 打赏
  • 举报
回复
引用 4 楼 baifanwudi 的回复:
[quote=引用 3 楼 wulinshishen 的回复:] 挺怪异,我试了一下master=spark://centos.host1:7077 ./spark-shell 没有问题。楼主把MASTER改成小写试试,服务重启在执行试试。
好吧,你赢了。果然用master小写就没问题。原因有点蛋疼。。。[/quote] 请问楼主,你的spark-env.sh是怎么配置的?
zhenmie366 2015-09-22
  • 打赏
  • 举报
回复
好搞笑,我都是将MASTER改为master就行了。
小白鸽 2015-06-27
  • 打赏
  • 举报
回复
@zhouyanligong 在终端中,敲的命令。不是文件配置中
zhouyanligong 2015-06-26
  • 打赏
  • 举报
回复
@baifanwudi master=spark://centos.host1:7077是写在spark-env.sh文件里面吗?
sysuhu 2015-05-21
  • 打赏
  • 举报
回复
请问我的是这样的问题,该如何解决啊?求指教,::>_<:: WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient memory ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
cughuhao 2015-03-30
  • 打赏
  • 举报
回复
到底是大写还是小写,应该取决于你的/etc/hostname里面是怎么写的吧
小白鸽 2014-11-27
  • 打赏
  • 举报
回复
引用 3 楼 wulinshishen 的回复:
挺怪异,我试了一下master=spark://centos.host1:7077 ./spark-shell 没有问题。楼主把MASTER改成小写试试,服务重启在执行试试。
好吧,你赢了。果然用master小写就没问题。原因有点蛋疼。。。
  • 打赏
  • 举报
回复
挺怪异,我试了一下master=spark://centos.host1:7077 ./spark-shell 没有问题。楼主把MASTER改成小写试试,服务重启在执行试试。
小白鸽 2014-11-27
  • 打赏
  • 举报
回复
引用 1 楼 wulinshishen 的回复:
spark-env.sh文件中export SPARK_MASTER_IP 配置的是master的IP吗?
我在spark-env.sh中设置SPARK_MASTER_IP =SparkMaster 然后在hosts中设置xxx.xxx.xx.xx SparkMaser hostname中设置SparkMaster.应该是master的ip没什么问题。 如果在bin启动spark shell ,然后跑wordcount程序没什么问题的。 就是MASTER=spark://SparkMaster:7077 ./spark-shell时候,成功启动了shell,紧接着出现了那些异常就自动退出shell了。
  • 打赏
  • 举报
回复
spark-env.sh文件中export SPARK_MASTER_IP 配置的是master的IP吗?
YOLO系列是基于深度学习的端到端实时目标检测方法。 PyTorch版的YOLOv5轻量而高性能,更加灵活和易用,当前非常流行。 本课程将手把手地教大家使用labelImg标注和使用YOLOv5训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。  本课程的YOLOv5使用ultralytics/yolov5,在Windows和Ubuntu系统上分别做项目演示。包括:安装YOLOv5、标注自己的数据集、准备自己的数据集(自动划分训练集和验证集)、修改配置文件、使用wandb训练可视化工具、训练自己的数据集、测试训练出的网络模型和性能统计。 除本课程《YOLOv5实战训练自己的数据集(Windows和Ubuntu演示)》外,本人推出了有关YOLOv5目标检测的系列课程。请持续关注该系列的其它视频课程,包括:《YOLOv5(PyTorch)目标检测:原理与源码解析》课程链接:https://edu.csdn.net/course/detail/31428《YOLOv5目标检测实战:Flask Web部署》课程链接:https://edu.csdn.net/course/detail/31087《YOLOv5(PyTorch)目标检测实战:TensorRT加速部署》课程链接:https://edu.csdn.net/course/detail/32303《YOLOv5目标检测实战:Jetson Nano部署》课程链接:https://edu.csdn.net/course/detail/32451《YOLOv5+DeepSORT多目标跟踪与计数精讲》课程链接:https://edu.csdn.net/course/detail/32669《YOLOv5实战口罩佩戴检测》课程链接:https://edu.csdn.net/course/detail/32744《YOLOv5实战中国交通标志识别》课程链接:https://edu.csdn.net/course/detail/35209 《YOLOv5实战垃圾分类目标检测》课程链接:https://edu.csdn.net/course/detail/35284  

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧