无法加载主类 org.apache.spark.launcher.Main

proware 2015-09-26 10:51:44
请教下:安装spark后,启动失败。log里面记录“无法加载主类 org.apache.spark.launcher.Main”,请问是何故?
环境信息;
Welcome to Scala version 2.10.5 (Java HotSpot(TM) Client VM, Java 1.8.0_45).
spark-1.5.0-bin-hadoop2.6/

PATH:
$ echo $PATH
/usr/local/bin:/usr/bin:/cygdrive/f/JAVA/jdk-8u45-windows-i586/bin:/cygdrive/f/JAVA/apache-tomcat-6.0.44/bin:/cygdrive/f/JAVA/ffmpeg-20150602-git-aede1a1-win32-static/bin:/cygdrive/e/Anaconda:/cygdrive/e/Anaconda/Scripts:/usr/bin:/usr/sbin:/home/Administrator/scala-2.10.5/bin:/home/Administrator/spark-1.5.0-bin-hadoop2.6/bin

...全文
6133 7 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
qq_18252221 2016-06-08
  • 打赏
  • 举报
回复
我的也是,刚刚解决了,原因是JDK装的是1.6,重装了1.7,设好环境变量就可以了 希望能帮到你
夏春伟 2016-03-07
  • 打赏
  • 举报
回复
配置环境变量 vim /etc/profile 加上以下对应内容: export JAVA_HOME=/home/yy/jdk1.8 export SCALA_HOME=/home/yy/scala export SPARK_HOME=/home/yy/spark-1.2.0-bin-hadoop2.4 export PATH=$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin 执行source /etc/profile使配置生效 我一开始也是遇到了和楼主一样的问题,后来配置了SCALA_HOME环境变量之后就好了。 根据我的推测,在spark-shell中用到了这个变量,如果在profile中没有配置就会导致楼主说的错误
proware 2015-11-08
  • 打赏
  • 举报
回复
在spark-class文件中的下面语句中增加cygpath解决路径转换问题,就可以解决找不到类的情况! done < <("$RUNNER" -cp `cygpath -wp "$LAUNCH_CLASSPATH"` org.apache.spark.launcher.Main "$@")
proware 2015-11-07
  • 打赏
  • 举报
回复
这个主要是用了cygwin工具的原因,这个工具对命令的解析等和实际的linux下还是有差别的。直接用window版本的spark了。或者安装下linux系统。 这个问题本身和spark没有关系,和cygwin工具上运行java有关 java -cp 命令在cygwin运行的问题解决了,上面的问题就可以解决,但是java -cp这个命令在cygwin上怎么运行也不是很清楚。 问题没有有效答复,结贴了。
PYQ632112224 2015-11-02
  • 打赏
  • 举报
回复
您好 你的问题解决了嘛
thecapeofgoodhope 2015-10-02
  • 打赏
  • 举报
回复
同求啊,谢谢谢谢
  • 打赏
  • 举报
回复
同遇到这种问题,请问楼主解决了吗?谢谢!

1,270

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧