社区
Spark
帖子详情
求助 一个spark streaming 的问题
swcj
2016-10-26 05:37:39
在 spark streaming 中我通过 kafka获取数据,(这个部分已经ok)
然后需要和 数据库中的数据进行比较 ,这个数据需要读到内存中,不然每条数据 查库 效率太低
然后缓存每 8条数据进行进行统计
目前没有什么思路 ,请大神指点一下
...全文
495
5
打赏
收藏
求助 一个spark streaming 的问题
在 spark streaming 中我通过 kafka获取数据,(这个部分已经ok) 然后需要和 数据库中的数据进行比较 ,这个数据需要读到内存中,不然每条数据 查库 效率太低 然后缓存每 8条数据进行进行统计 目前没有什么思路 ,请大神指点一下
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
5 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
kxiaozhuk
2016-11-07
打赏
举报
回复
可不可以启动sparkstreaming监听前先把数据一次性load进来内存呢,再去做Kfaka的读取和数据的比较。
火阳邪神
2016-11-01
打赏
举报
回复
可以用redis来做缓存 ,存储大 ,查询速度也比较快
火阳邪神
2016-11-01
打赏
举报
回复
可以用redis来做缓存 ,存储搭 ,查询速度也快
swcj
2016-10-26
打赏
举报
回复
数据库我想缓存在内存中,如果每次去查询效率太低了,而且数据的数据很大有3000w
LinkSe7en
2016-10-26
打赏
举报
回复
数据库可以写一个socket sender和你流的时间间隔相同的频率去对数据库进行查询,然后把socket和kafka的流join起来,就可以进行比较了。但不能说多少条就执行一个batch,只能按时间区间或者窗口滑动
第一章:
Spark
Streaming
实时计算
1.
Spark
Streaming
:大数据实时计算介绍2.
Spark
Streaming
:DStream基本工作原理3.
Spark
Streaming
:
Streaming
Context详解技能点4.
Spark
Streaming
:输入DStream和Receiver详解5.
Spark
Streaming
:DStream的...
【
Spark
】
Spark
streaming
-性能调优
Spark
streaming
-性能调优
Spark
Master at
spark
://node-01:7077
spark
streaming
线程 数量_百度搜索
streaming
中partition里用线程池异步优化 - 曾晓森的博客 - CSDN博客第116课:
Spark
Streaming
性能优化:如何在...
第99讲:使用
spark
Streaming
实战对论坛网站动态行为的多维度分析下
/* * 第99讲,消费者消费
Spark
Streaming
DataManuallyProducerForKafka类中逻辑级别产生的数据,这里pv,uv,注册...package com.dt.
streaming
; import java.util.HashMap; import java.util.HashSet; import java.ut
[
spark
streaming
]生成RDD并执行
Spark
Job源码内幕解密
本博文主要包含以下内容: ...这种常见的DStream包含三种类型,一种是输入的级别的InputDStream,第二种transformationDStream,第三种输出级别的ForeachDStream。 博文主要代码如下: object NetworkWordCoun...
spark
ing
Streaming
version 2.3.2+kafka接收实时流数据找不到hive创建的数据库
问题
关于
spark
ing
Streaming
version 2.3.2+kafka接收实时流数据找不到hive创建的数据库
问题
。 当程序报错遇到bug 的时候 而你又
求助
于论坛的时候 不能着急!!!...这个里
spark
streaming
Context...
Spark
1,258
社区成员
1,168
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章