spark怎么开发任务方便

y1006597541 2019-01-29 04:06:40
请教一下大家spark任务都是怎么开发的,现在我是在本地写好任务然后放到集群上测试的,这样子开发速度慢,请教一下大家在开发的时候都用什么手段。
问题一:大家怎么开发spark任务,比如记得有些人提过在大数据集群内网安装ubuntu系统,在上面安装idea;或者idea远程连接大数据集群开发?
问题二:spark-streaming该怎么开发方便,spark任务还能在spark shell里面一步步来,spark-streaming不能debug吗?
...全文
259 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
不知道你所谓的方便是指什么意思,只是单纯说代码变少了,还是说开发起来更简单,如果说开发的话还是在Linux上面最方便,我现在是在ubuntu系统上装了一个idea开发
  • 打赏
  • 举报
回复
Spark任务快速开发的话,Zeppelin了解一下,持久化的SparkContext,直接敲代码运行。

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧