import spark.implicits._不能导入

weixin_37905272 2018-06-10 07:03:48
新手小白求助~
import spark.implicits._ 不能导入:not found:object spark

编译器:eclipse
版本:spark-2.1.1 hadoop-2.7.3 scala2.1.2.2
...全文
3292 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
shuai7boy 2020-04-01
  • 打赏
  • 举报
回复
引用 6 楼 赫墨拉 的回复:
在创建了SparkSession后,再进行导入即可 官方在Saprk SQL的SparkSession.scala源码中有对这个导入进行说明
多谢大佬
赫墨拉 2018-09-28
  • 打赏
  • 举报
回复
在创建了SparkSession后,再进行导入即可
官方在Saprk SQL的SparkSession.scala源码中有对这个导入进行说明
张某码 2018-09-05
  • 打赏
  • 举报
回复
import spark.implicits._ 这里面的spark是一个变量,你要先定义出这个变量,导入他对应的implicits._。所以这段代码应该不是写在最前面的,应该是写在某个代码块里面。
cocoa2003 2018-08-27
  • 打赏
  • 举报
回复
用scala2.11编译,我之前用scala2.12有问题,也是不能run
hery_csnd168 2018-06-29
  • 打赏
  • 举报
回复
这里的是spark不是某个类里的东西,应该是某个变量,如下:
val spark =SparkSession.builder().getOrCreate();
import spark.implicits._
spark.sql("")
weixin_37905272 2018-06-10
  • 打赏
  • 举报
回复
在eclipse上单机跑,没有打开hadoop和spark,设置conf为local模式
weixin_37905272 2018-06-10
  • 打赏
  • 举报
回复
打错了,scala版本应该是scala-2.12.2

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧