sparkstreaming和kafka 得到消息自动生成代码

Swe_Turing 2016-03-04 10:32:31
问一下大神,能不能处理日志消息的时候,通过判断接收的消息类型,Spark Streaming能够自动的生成需求的处理代码,所以针对不同的消息类别,只需要修改需求,不需要修改代码了。
...全文
160 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
Swe_Turing 2016-03-16
  • 打赏
  • 举报
回复
引用 3 楼 link0007 的回复:
日志数据是用flume采集的吗?
可以算是的
LinkSe7en 2016-03-15
  • 打赏
  • 举报
回复
日志数据是用flume采集的吗?
Swe_Turing 2016-03-04
  • 打赏
  • 举报
回复
或者有什么日志消息中间件
Swe_Turing 2016-03-04
  • 打赏
  • 举报
回复
大神求助,或者说什么方法

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧