社区
侯勇蛟的课程社区_NO_1
Cloudera实战入门
帖子详情
17.cm添加flume及配置&邮件报警&sparkStreaming拉起kafka的数据指标监控1
bj278595437
2023-01-12 15:00:06
课时名称
课时知识点
17.cm添加flume及配置&邮件报警&sparkStreaming拉起kafka的数据指标监控1
添加flume组件及配置邮件报警等,是很多遇到的问题
...全文
121
回复
打赏
收藏
17.cm添加flume及配置&邮件报警&sparkStreaming拉起kafka的数据指标监控1
课时名称课时知识点17.cm添加flume及配置&邮件报警&sparkStreaming拉起kafka的数据指标监控1添加flume组件及配置邮件报警等,是很多遇到的问题
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
Spark
Streaming
获取
kafka
数据
的两种方式
Spark
Streaming
支持多种实时输入源
数据
的读取,其中包括
Kafka
、
flume
、socket流等等。除了
Kafka
以外的实时输入源,由于我们的业务场景没有涉及,在此将不会讨论。本篇文章主要着眼于我们目前的业务场景,只关注
Spark
Streaming
读取
Kafka
数据
的方式。
Flume
-
Kafka
-
Spark
Streaming
对接案例实操
1.准备工作 ①一个java程序,需要有一些操作能够打印特定log日志,并打成jar包; ②在linux服务器上安装
flume
、zookeeper、
kafka
; 2.案例思路 当我在jar包程序部署在linux服务器上时,每当我访问特定接口,就会产生特定日志文件,这时候
flume
监听该日志文件,然后并且对日志进行过滤,一些springboot应用启动日志需要过滤,然后对接到
kafka
,
kafka
对日志进行格式化清洗,最后对接
Spark
Streaming
就可以进行相关业务处理了 3.案例流程图
spark
streaming
运行
kafka
数据
源
一、
Kafka
的安装和准备工作
Kafka
的安装,请看另外一文,一定要选择和自己电脑上已经安装的scala版本号一致才可以,本教程安装的
Spark
版本号是1.6.2,scala版本号是2.10,所以,一定要选择
Kafka
版本号是2.10开头的。比如,到
Kafka
官网中,可以下载安装文件
Kafka
_2.10-0.10.1.0,前面的2.10就是支持的scala版本号,后面的0.10.1.0是
Kafka
自身的版本号。 下面,我们启动
Kafka
。 请登录Linux系统(本教程统一使用hadoop用户登录),打开一
Spark
Streaming
+
kafka
+
flume
实现日志的实时处理并且将
数据
实时更新
数据
库
Spark
Streaming
+
kafka
+
flume
实现日志的实时处理环境准备项目思路实验环境启动
配置
编写项目代码启动测试 环境准备 1 三台安装Hadoop的虚拟机 2
flume
的安装 参考
flume
的大
数据
集群安装 3
kafka
安装参考
kafka
集群 4 windows +ideal+mysql 项目思路 利用ideal产生实时的日志,利用log4j文件,将日志文件实时采集到
flume
上面,利用
kafka
来进行监听传输,通过
spark
Streaming
对产生的日志文件进行计算,并且实时
Spark
Streaming
使用
Kafka
作为
数据
源
官网:
Spark
Streaming
+
Kafka
Integration Guide由于
kafka
在0.8和1.0之间引入了新版本的Consumer API,所以这儿有两个独立的集成方案。0.8版本的集成方案可以兼容0.9或1.0的
kafka
,而1.0版本的集成方案则不可以兼容1.0以下版本的
kafka
。---------------------------------------------...
侯勇蛟的课程社区_NO_1
1
社区成员
44
社区内容
发帖
与我相关
我的任务
侯勇蛟的课程社区_NO_1
复制链接
扫一扫
分享
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章