社区
Spark
帖子详情
kafka
半疯半癫半痴傻
2017-11-17 02:02:32
为啥通过 sh kafka-avro-console-consumer --zookeeper 192.168.127.120:2181 --topic topic1p10size --from-beginning
读出来有乱码
...全文
626
回复
打赏
收藏
kafka
为啥通过 sh kafka-avro-console-consumer --zookeeper 192.168.127.120:2181 --topic topic1p10size --from-beginning 读出来有乱码
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
一键部署
kafka
2.1.0集群,使用内置 zookeeper部署,对应filebeat7.8进行日志采集
1.
kafka
版本号介绍
kafka
版本号介绍,例如:
kafka
-2.12-2.1.0 前面的2.12 代表scala编译的版本号 后面的2.1.0 代表
kafka
的版本号,大版本号+小版本号+修订版本号 2.
kafka
对应jdk版本号 支持 Java 11,最小版本jdk8,低版本会报错。 3.
kafka
对应zookeeper版本号 4.
kafka
-1 server.properties配置 vi /usr/local/server/
kafka
-1/config/server.properties
Kafka
Tool(
Kafka
可视化工具)安装及使用教程
不同版本的
Kafka
对应不同版本的工具,个人使用的是2.11,所以下载的是最新的2.0.8版本(
Kafka
0.11之后版本就需要用
Kafka
Tool 2)选中某一个message,点击“Message”查看详情,默认是“Text”格式(如果想看到JSON格式,只需要设置下“View Data As”即可)选择一个Topic --> Data,点击查询即可看到数据(但是Key和Message是二进制的,不能直观的看到具体的消息信息,需要设置展示格式)测试通过后,点击“Add”进行添加。
20道常见的
kafka
面试题以及答案
1、
kafka
的消费者是pull(拉)还是push(推)模式,这种模式有什么好处?2、
kafka
维护消息状态的跟踪方法3、zookeeper对于
kafka
的作用是什么?4、
kafka
判断一个节点还活着的有那两个条件?5、讲一讲
kafka
的 ack 的三种机制6、
kafka
分布式(不是单机)的情况下,如何保证消息的顺序消费?7、
kafka
如何不消费重复数据?比如扣款,我们不能重复的扣。8、讲一下
kafka
集群的组成?9.........
【spring-
kafka
】@
Kafka
Listener详解与使用
说明 从2.2.4版开始,您可以直接在注释上指定
Kafka
使用者属性,这些属性将覆盖在使用者工厂中配置的具有相同名称的所有属性。您不能通过这种方式指定group.id和client.id属性。他们将被忽略; 可以使用#{…}或属性占位符(${…})在SpEL上配置注释上的大多数属性。 比如: @
Kafka
Listener(id = "consumer-id",topics = "SHI_TOPIC1",concurrency = "${listen.concurrency:3}",
SpringBoot集成
kafka
全面实战
本文是SpringBoot+
Kafka
的实战讲解,如果对
kafka
的架构原理还不了解的读者,建议先看一下《大白话
kafka
架构原理》、《秒懂
kafka
HA(高可用)》两篇文章。 一、生产者实践 普通生产者 带回调的生产者 自定义分区器
kafka
事务提交 二、消费者实践 简单消费 指定topic、partition、offset消费 ...
Spark
1,258
社区成员
1,168
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章