spark streaming 用到mysql数据怎么加载?

Container123 2020-03-11 10:48:01
spark streaming需要用到mysql的数据,将查询到的mysql数据转换成数据集和实时数据进行连接,mysql数据时刻变动,所以不用广播变量

应该怎么做呢?

结合sparksql,用sparksql从mysql中读取?

在dstream的transform/transformToPair中进行jdbc加载,然后再用SparkContext将其parallelize?

还是什么其他方法?

大神们路过请给小弟解答一下。。。。。。



...全文
3676 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
清柿 2021-04-15
  • 打赏
  • 举报
回复
我使用的seq 然后在用sparkContext.makeRDD(seq) 和你大差不差
Container123 2020-10-16
  • 打赏
  • 举报
回复
你好,刚看见,实际需求变化没有很频繁,最后就用的广播变量,更新之前对比了一下是否变化了
已个人 2020-10-08
  • 打赏
  • 举报
回复
大佬,这个需求你是怎么实现的,我也有这种场景的需求,求代码

20,809

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧