kafka在使用过程中遇到的一个问题 [问题点数:40分]

Bbs1
本版专家分:0
结帖率 0%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决
关于org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadata after 60000 ms.<em>问题</em>的解决 今天在测试自己编写的<em>kafka</em>消息发送接收小例子时,一直报org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadat...
[Kafka]Error while fetching metadata with correlation id 4192 : {testXX=LEADER_NOT_AVAILABLE} 问题解决方法
今天在搭建<em>kafka</em>集群环境的时候<em>遇到</em>了如下<em>问题</em>: 试了网上的各种方法都没有解决, 最好发现是忘了打开zookeeper客户端的端口9092. 打开之后就OK了. [2018-06-16 17:19:36,560] WARN [Producer clientId=console-producer] Error while fetching metadata with correlati...
go 链接kafka报错
报错错误: producer close, err: <em>kafka</em>: client has run out of available brokers to talk to (Is your cluster reachable?) 原因端口未对外开放; Centos 开启所有端口对外 systemctl stop firewalld.service ...
golang通过SSL链接Kafka遇到问题
<em>问题</em>:项目想用SSL来链接<em>kafka</em>,在<em>使用</em>的<em>过程</em><em>中</em><em>遇到</em>几个特别的坑 现象: 程序在消费和生产的时候出现错误: 2019/04/02 20:02:22 unable to create <em>kafka</em> client: "<em>kafka</em>: client has run out of available brokers to talk to (Is your cluster reachable?)" 然后看...
pykafka的NoBrokersAvailableError原因
py<em>kafka</em> NoBrokersAvailableError <em>kafka</em>
kafka常见报错及解决方法(topic类、生产消费类、启动类)
<em>kafka</em>常见<em>问题</em>及解决方法 启动报错 第一种错误 2017-02-17 17:25:29,224] FATAL Fatal error during KafkaServer startup. Prepare to shutdown (<em>kafka</em>.server.KafkaServer) <em>kafka</em>.common.KafkaException: Failed to acquire lock ...
kafka生产者发消息时无法更新元数据
十万火急,求助 <em>kafka</em>的broker能够正常启动,zookeeper没有<em>问题</em>,<em>使用</em>生产者发送消息失败,提示获取元数据失败 [root@new<em>kafka</em>2 ~]# /root/<em>kafka</em>2/bin/<em>kafka</em>-console-producer.sh -broker-list server2:9092 -topic new<em>kafka</em>2 >111111111111 [2017-10-20 15:42:14,048] ERROR Error when sending message to topic new<em>kafka</em>2 with key: null, value: 12 bytes with error: (org.apache.<em>kafka</em>.clients.producer.internals.ErrorLoggingCallback) org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadata after 60000 ms. >[2017-10-20 15:43:21,289] WARN Connection to node -1 could not be established. Broker may not be available. (org.apache.<em>kafka</em>.clients.NetworkClient) [2017-10-20 15:45:28,516] WARN Connection to node -1 could not be established. Broker may not be available. (org.apache.<em>kafka</em>.clients.NetworkClient) [2017-10-20 15:47:35,876] WARN Connection to node -1 could not be established. Broker may not be available. (org.apache.<em>kafka</em>.clients.NetworkClient) ![图片说明](https://img-ask.csdn.net/upload/201710/20/1508485750_814271.png)
Error while fetching metadata with correlation id : {LEADER_NOT_AVAILABLE} 正确处理姿势
<em>kafka</em>出现: Error while fetching metadata with correlation id   : {LEADER_NOT_AVAILABLE}表示无法识别<em>kafka</em> hostname正确处理姿势1、修改server.properties如下,目的是让<em>kafka</em>监听的到vi   /opt/<em>kafka</em>/<em>kafka</em>/config/server.properties 2  ps...
关于Go搭建kafka client问题
已经搭建了<em>kafka</em>本地的环境,并且测试了<em>kafka</em>自带的console-producer 和 consumer,可以实现收发信息。但是在照着教程搭建Go client的时候,总是报错: produc
一个Timeout expired问题引发的多个问题,求解决方法
1.最近刚写完<em>一个</em>小功能,写完之后,满怀信心的发布,测试,报了个“Timeout expired. The timeout period elapsed prior to completion of
kafaka整合springboot 错误:Failed to update metadata after 60000 ms.
org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 这个<em>问题</em>困扰了我<em>一个</em>下午,总结一下有以下几点原因: 1.未开启<em>kafka</em>服务 2.未配置<em>kafka</em>的server.properties文件 listeners=PLAINTEXT://{内网ip}:9092 ...
kafka向zookeeper注册问题
Connected to X.X.3.30:2181 2017/02/16 15:37:39 structs.go:21: Authenticated: id=97466877104750596, timeout=10000 2017/02/16 15:37:39 structs.go:21: Re-submitting `0` credentials after reconnect 2017/02/16 15:37:39 structs.go:21: Recv loop terminated: err=EOF 2017/02/16 15:37:39 Producer.go:197: [pctest7:9092] 2017/02/16 15:37:39 Producer.go:198: 开始发送消息 2017/02/16 15:37:39 structs.go:21: Send loop terminated: err= 2017/02/16 15:37:57 Producer.go:105: <em>kafka</em>: client has run out of available brokers to talk to (Is your cluster reachable?) exit status 1 请问下这是要配置什么文件呢 求指导!
Fetcher分析
Fetcher: 根据offset从服务器端获取数据,发送FetchRequest请求获取指定的消息集合,处理FetchResponse,更新消息位置   一 比较重要的字段 ConsumerNetworkClient client: 负责网络通信,发送请求 int minBytes:在服务器端收到FetchRequest之后,并不是立即响应,而是当可返回的消息数据积累到至少在minbyt
pykafka常见问题分析与记录
python 操作<em>kafka</em>主要有两个库,py<em>kafka</em>和<em>kafka</em>-python, 网上有些文章说明两者的差异。如果不是特殊的需求,估计基本的操作两者都能满足,因为用过pymysql,所以这里就选择<em>一个</em>py<em>kafka</em>开坑吧。官方文档: http://py<em>kafka</em>.readthedocs.io/en/latest github: https://github.com/Parsely/pyk
kafka.errors.KafkaTimeoutError: KafkaTimeoutError: Failed to update metadata after 60.0 secs.
连接超时 修改<em>kafka</em>的 config/server.properties文件<em>中</em>: advertised.listeners=PLAINTEXT://IP地址:9092 重启<em>kafka</em>服务
关于使用kafka的个人总结
本篇文章算是对几个月工作的<em>一个</em>总结吧,接触了几个月的<em>kafka</em>和flume,感觉自己也只能算是了解<em>kafka</em>的阶段,接下来也打算深入研究下<em>kafka</em>的原理,下面写的算是对工作<em>中</em><em>使用</em>到的<em>kafka</em>方面的东西做个总结吧!       <em>kafka</em>概述 (有空可以浏览一下http://orchome.com)       当前<em>kafka</em>版本为0.10.0.0。       关于Kafka需要了解
KafkaException:Fetching topic metadata with correlation id 0 for topics [Set(test)]
本地链接远程Kafka异常 远程机器fp-bd13搭建最新版Kafka (自带zookeeper),按照文档默认配置启动。远程新建producer和costumer一切正常。 本地spark链接: JavaPairReceiverInputDStream&amp;lt;String, String&amp;gt; <em>kafka</em>Stream =KafkaUtils ...
Kafka LEADER_NOT_AVAILABLE问题解决
[2017-10-30 19:05:18,410] WARN clients.NetworkClient: Error while fetching metadata with correlation id 49 : {BuB=LEADER_NOT_AVAILABLE} [2017-10-30 19:05:18,516] WARN clients.NetworkClient: Error whi
java.net.BindException: Cannot assign requested address 你所不知道的另一个原因
刚刚通过qq帮同事处理了<em>一个</em>客户线程<em>问题</em>,都这么晚了,还在现场部署应用,真实够拼的,客户不能连接外网,不能下载文件,只能通过手机拍照错误日志排查<em>问题</em>;<em>问题</em>现象就是tomcat起不来,上来给我发了好几张错误日志照片,类似下面这样:凭经验,一看就是某些原因导致tomcat启动失败,执行关闭操作报的一堆警告,所以让他去找tomcat启动后第一处异常,拍照如下:这个异常报错是org.apache.cata...
kylin bulid cube 超时问题该如何解决
如图: ![图片说明](https://img-ask.csdn.net/upload/201811/07/1541579752_827015.png) log:org.apache.<em>kafka</em>.common.errors.TimeoutException: Timeout expired while fetching topic metadata 2018-11-07 16:31:52,520 ERROR [http-bio-7070-exec-5] controller.BasicController:61 : org.apache.kylin.rest.exception.InternalErrorException: Timeout expired while fetching topic metadata at org.apache.kylin.rest.controller.CubeController.buildInternal(CubeController.java:396) at org.apache.kylin.rest.controller.CubeController.rebuild2(CubeController.java:377) at org.apache.kylin.rest.controller.CubeController.build2(CubeController.java:368) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.springframework.web.method.support.InvocableHandlerMethod.doInvoke(InvocableHandlerMethod.java:205) at org.springframework.web.method.support.InvocableHandlerMethod.invokeForRequest(InvocableHandlerMethod.java:133) at org.springframework.web.servlet.mvc.method.annotation.ServletInvocableHandlerMethod.invokeAndHandle(ServletInvocableHandlerMethod.java:97) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.invokeHandlerMethod(RequestMappingHandlerAdapter.java:827) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.handleInternal(RequestMappingHandlerAdapter.java:738) at org.springframework.web.servlet.mvc.method.AbstractHandlerMethodAdapter.handle(AbstractHandlerMethodAdapter.java:85) at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:967) at org.springframework.web.servlet.DispatcherServlet.doService(DispatcherServlet.java:901) at org.springframework.web.servlet.FrameworkServlet.processRequest(FrameworkServlet.java:970) at org.springframework.web.servlet.FrameworkServlet.doPut(FrameworkServlet.java:883) at javax.servlet.http.HttpServlet.service(HttpServlet.java:653) at org.springframework.web.servlet.FrameworkServlet.service(FrameworkServlet.java:846) at javax.servlet.http.HttpServlet.service(HttpServlet.java:731) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:303) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.apache.tomcat.websocket.server.WsFilter.doFilter(WsFilter.java:52) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:241) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:317) at org.springframework.security.web.access.intercept.FilterSecurityInterceptor.invoke(FilterSecurityInterceptor.java:127) at org.springframework.security.web.access.intercept.FilterSecurityInterceptor.doFilter(FilterSecurityInterceptor.java:91) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.access.ExceptionTranslationFilter.doFilter(ExceptionTranslationFilter.java:114) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.session.SessionManagementFilter.doFilter(SessionManagementFilter.java:137) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.authentication.AnonymousAuthenticationFilter.doFilter(AnonymousAuthenticationFilter.java:111) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.servletapi.SecurityContextHolderAwareRequestFilter.doFilter(SecurityContextHolderAwareRequestFilter.java:170) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.savedrequest.RequestCacheAwareFilter.doFilter(RequestCacheAwareFilter.java:63) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.authentication.www.BasicAuthenticationFilter.doFilterInternal(BasicAuthenticationFilter.java:158) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.authentication.AbstractAuthenticationProcessingFilter.doFilter(AbstractAuthenticationProcessingFilter.java:200) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.authentication.logout.LogoutFilter.doFilter(LogoutFilter.java:116) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.header.HeaderWriterFilter.doFilterInternal(HeaderWriterFilter.java:64) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.context.request.async.WebAsyncManagerIntegrationFilter.doFilterInternal(WebAsyncManagerIntegrationFilter.java:56) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.context.SecurityContextPersistenceFilter.doFilter(SecurityContextPersistenceFilter.java:105) at org.springframework.security.web.FilterChainProxy$VirtualFilterChain.doFilter(FilterChainProxy.java:331) at org.springframework.security.web.FilterChainProxy.doFilterInternal(FilterChainProxy.java:214) at org.springframework.security.web.FilterChainProxy.doFilter(FilterChainProxy.java:177) at org.springframework.web.filter.DelegatingFilterProxy.invokeDelegate(DelegatingFilterProxy.java:346) at org.springframework.web.filter.DelegatingFilterProxy.doFilter(DelegatingFilterProxy.java:262) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:241) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at com.thetransactioncompany.cors.CORSFilter.doFilter(CORSFilter.java:209) at com.thetransactioncompany.cors.CORSFilter.doFilter(CORSFilter.java:244) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:241) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:219) at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:110) at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:169) at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:103) at org.apache.catalina.valves.AccessLogValve.invoke(AccessLogValve.java:962) at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:116) at org.apache.catalina.connector.CoyoteAdapter.service(CoyoteAdapter.java:445) at org.apache.coyote.http11.AbstractHttp11Processor.process(AbstractHttp11Processor.java:1115) at org.apache.coyote.AbstractProtocol$AbstractConnectionHandler.process(AbstractProtocol.java:637) at org.apache.tomcat.util.net.JIoEndpoint$SocketProcessor.run(JIoEndpoint.java:318) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at org.apache.tomcat.util.threads.TaskThread$WrappingRunnable.run(TaskThread.java:61) at java.lang.Thread.run(Thread.java:745) Caused by: org.apache.<em>kafka</em>.common.errors.TimeoutException: Timeout expired while fetching topic metadata 本集群为信息:ambari kerberos <em>kafka</em>0.10 hadoop2.5 kylin2.3.2 可以正常读取hive 表格 以及执行sql等。但是流式CUBE就出这些<em>问题</em> <em>kafka</em>环境变量已配 请求大家帮忙
Timeout expired. 错误,怎么办?
服务器上的网站出错了,出错信息如下: Timeout expired. The timeout period elapsed prior to completion of the operation
Kafka巨坑:org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.
org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 原因是producer client的Jar包版本与<em>kafka</em>集群版本,不兼容!
kafka failed to update metadata after 60000ms
<em>kafka</em>更新不到元数据会自动断开,查找producer日志是否报Uncaught error in <em>kafka</em> producer I/O thread sender线程是否正常 ,在接着排查异常处理
Kafka遇到的坑-- Error while fetching metadata with correlation id : {LEADER_NOT_AVAILABLE}
1.创建topic<em>中</em>出现出现错误 <em>kafka</em>出现: Error while fetching metadata with correlation id : {LEADER_NOT_AVAILABLE} 表示无法识别<em>kafka</em> hostname 正确处理姿势 1、修改server.properties如下,目的是让<em>kafka</em>监听的到 vi /opt/<em>kafka</em>/<em>kafka</em>/config/se...
Producer可以创建topic却无法send消息
1 <em>问题</em>描述 创建的Java Producer API发送数据,但是consumer的时候却无法看到发送的数据。不过可以成功创建topic。 2 机器简介 我有四台linux集群(不是虚拟机,都是单独的物理机,四台树莓派): hostname broker-list IP地址 power1 broker0 192.168.31.2 slaves1 broker1 192.168...
问题kafka.common.KafkaException: fetching topic metadata for topics
der for Set Flume部署在本地,Kafka集群部署在AWS云上。 解决办法 Consume端服务器配置/etc/hosts文件,其<em>中</em>机器名从要同Kafka服务端私有DNS名称相同(这个名称可以在报错信息<em>中</em>看到) 123.123.123.123 ip-192-168-110-4.cn-north-1.compute.internal ...
kafka Expiring 536 record(s) for ka1-0: 30009 ms has passed since last append
<em>kafka</em> 大批量发送消息时报the producer has a error:Expiring 536 record(s) for ka1-0: 30009 ms has passed since last append Expiring 536 record(s) for ka1-0: 30009 ms has passed since last append有其他网友说可能是topic不是手...
WARN Fetching topic metadata with correlation id 955 for topics [Set(test3)] from broker [BrokerEndP
生产消息 打开消费控制台查看消息命令----- ./bin/<em>kafka</em>-console-consumer.sh --zookeeper zk1:2181 --topic test1 --from-beginning 出现下列错误信息: [2016-03-09 13:51:02,016] WARN Fetching topic metadata with correlation id
【storm kafka】RROR fetching topic metadata for topics [Set(order)] from broker [ArrayBuffer(id:0,host
错误信息如下: 3864318 96724 141 92 0 2014-09-13 7529584 79828 729 31 0 2014-09-13 9052481 95904 236 19 1 2014-09-13 4498600 37499 515 64 0 2014-09-13 1684086 71814 646 8 -1 2014-09-13 9246
org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 问题排查
由于功能开发需要,将<em>kafka</em>的版本由0.9.0.1升级为1.1.0版本。升级完成后,测试producer发送消息功能。 1.首先修改了pom文件<em>中</em><em>kafka</em>相关的jar包,修改为1.1.0版本的。 2.测试发送消息发现失败。 3.最后排查出原因是,topic并没有创建。 4.创建topic之后,测试OK。...
kafka】Error while fetching metadata xxx: {TEST=LEADER_NOT_AVAILABLE}
本人菜鸡一只,该文章会比较短,而且没有比较详细的报错和图片,但是我想解决<em>问题</em>的思路还是可以分享下的! 公司有<em>一个</em><em>kafka</em>集群,我接手做了些文字匹配的东西之后,好久都没人用过了。 然后最近公司想做统一日志的收集,打算开启<em>一个</em>消费者来处理多个项目的日志,结果就发生了如下的<em>问题</em>! 19/06/12 10:25:37 WARN clients.NetworkClient: [Produc...
解决org.apache.kafka.common.errors.TimeoutException: Expiring 1 record(s) for xxx topic
2019独角兽企业重金招聘Python工程师标准&gt;&gt;&gt; ...
SparkStream+kafka报错Fetching topic metadata with correlation id 0 for topics from broker
19/10/22 17:35:44 WARN ClientUtils$: Fetching topic metadata with correlation id 0 for topics [Set(zhaogw)] from broker [id:0,host:dblab-VirtualBox,port:9092] failed java.nio.channels.ClosedChannelEx...
kafka 异常 WARN Error while fetching metadata with correlation id xxx
<em>kafka</em> linux系统上<em>使用</em>时异常: 错误信息: WARN Error while fetching metadata with correlation id xxx 异常截图 解决办法 修改config下的 server.properties 文件 将 listteners=PLAINTEXT://:9092 修改成listteners=PLAINTEXT://ip:9092 ip可以是...
kafka流处理抛错Error while fetching metadata with correlation id 2 : {apache-out=LEADER_NOT}
/atmd/<em>kafka</em>/bin//<em>kafka</em>-console-consumer.sh--bootstrap-serverPLAINTEXT://10.66.0.31:9092--topicapache-out Error while fetching metadata with correlation id 2 : {apache-out=LEADER_NOT} 开始按照网上的一些方法...
kafaka问题:Error while fetching metadata with correlation id 40
<em>kafka</em><em>问题</em> 修改
Kafka Producer send原理及重试机制浅析(retries/acks如何被使用的)
我们在<em>使用</em><em>kafka</em>时会在producer端定义这么两个变量的值:retries 和 ack ack已经介绍过了 retries是<em>kafka</em> producer针对可重试异常自动发起重试的次数 我们在<em>使用</em><em>kafka</em>Template时发现: Spring 提供了<em>一个</em>producerListener接口,在发送成功/失败时会调用这个接口的onSend/onError方法,我们只需要实现这个接口就可以在发...
技术攻关系列(二):Cannot assign requested address问题总结
          通过查找资料、分析后,认为是由于程序对外建立新连接,结果本地端口已经用完导致的异常。2.<em>问题</em>原因为什么会出现这种情况呢?就要从linux的TCP/IP协议栈说起了。 先看一下TCP/IP的状态图:主动关闭连接的一方,连接会处在TIME-WAIT的状态下,需要等2MSL时间后,系统才会回收这条连接,端口才可以继续被<em>使用</em>。我们的项目场景是需要发送大量的短连接。这样在高并发的场景下,...
kafka消息重试
背景 <em>kafka</em>没有重试机制不支持消息重试,也没有死信队列,因此<em>使用</em><em>kafka</em>做消息队列时,如果<em>遇到</em>了消息在业务处理时出现异常,就会很难进行下一步处理。应对这种场景,需要自己实现消息重试的功能。 如果不想自己实现消息重试机制,建议<em>使用</em>RocketMQ作为消息队列,RocketMQ的消息重试机制相当完善,对于开发者<em>使用</em>也非常友好,详见https://help.aliyun.com/document_...
远程连接kafka超时问题
异常一: Failed to send; nested exception is org.apache.<em>kafka</em>.common.errors.TimeoutException: Expiring 1 record(s) for topic1-0: 30025 ms has passed since batch creation plus linger time--出现此异常的原因在于listen...
kafka的生产消费模型报错
## 消费者启动报错,实在不知道哪里错了,求大神。 生产者: ./<em>kafka</em>-console-producer.sh --broker-list S1PA11:9092,S1PA22:9092,S1PA33:9092 --topic AF_3 12 23 44 5 5 576 [2017-11-12 15:32:57,728] ERROR Error when sending message to topic AF_3 with key: null, value: 2 bytes with error: Failed to update metadata after 60000 ms. (org.apache.<em>kafka</em>.clients.producer.internals.ErrorLoggingCallback) [2017-11-12 15:33:57,731] ERROR Error when sending message to topic AF_3 with key: null, value: 2 bytes with error: Failed to update metadata after 60000 ms. (org.apache.<em>kafka</em>.clients.producer.internals.ErrorLoggingCallback) ^Cgeconline@S1PA33:~/<em>kafka</em>/<em>kafka</em>_2.10-0.9.0.0/bin$ [2017-11-12 15:37:14,884] INFO [Group Metadata Manager on Broker 3]: Removed 0 expired offsets in 1 milliseconds. (<em>kafka</em>.coordinator.GroupMetadataManager) 消费者: geconline@S1PA22:~/<em>kafka</em>/<em>kafka</em>_2.10-0.9.0.0/bin$ ./<em>kafka</em>-console-consumer.sh --zookeeper s1pa11:9092,s1pa22:9092,s1pa33:9092 --from-beginning --topic AF_3 No brokers found in ZK.
spring boot 整合kafka报错怎么解决?
整合了一下spring boot跟<em>kafka</em>老是一直报错 ``` 2018-05-20 18:56:26.920 ERROR 4428 --- [ main] o.s.k.support.LoggingProducerListener : Exception thrown when sending a message with key='null' and payload='myTest--------1' to topic myTest: org.apache.<em>kafka</em>.common.errors.TimeoutException: Failed to update metadata after 60000 ms. ``` 请问一下各位大佬怎么解决的? 相应代码如下,也是参考了网上的: ``` org.springframework.boot spring-boot-starter-parent 1.5.9.RELEASE org.springframework.<em>kafka</em> spring-<em>kafka</em> org.apache.<em>kafka</em> <em>kafka</em>-clients 0.10.2.0 ``` <em>kafka</em>版本及配置 <em>kafka</em>_2.11-1.1.0 配置: ``` port = 9092 host.name = 阿里内网ip advertised.host.name = xxx.xxx.xx 阿里外网ip ``` 其他配置默认了 然后spring boot配置 ``` <em>kafka</em>: bootstrap-servers: xxx.xxx.xxx.xxx:9092 listener.concurrency: 3 producer.batch-size: 1000 consumer.group-id: test-consumer-group ``` ``` ``` @Configuration @EnableKafka public class KafkaConfiguration { } ``` @Component public class MsgProducer { private Logger log = LoggerFactory.getLogger(MsgProducer.class); @Autowired private KafkaTemplate <em>kafka</em>Template; public void sendMessage(String topicName, String jsonData) { log.info("向<em>kafka</em>推送数据:[{}]", jsonData); try { <em>kafka</em>Template.send(topicName, jsonData); } catch (Exception e) { System.out.println("发送数据出错!!!"+topicName+","+jsonData); System.out.println("发送数据出错=====>"+e); log.error("发送数据出错!!!{}{}", topicName, jsonData); log.error("发送数据出错=====>", e); } //消息发送的监听器,用于回调返回信息 <em>kafka</em>Template.setProducerListener(new ProducerListener() { @Override public void onSuccess(String topic, Integer partition, String key, String value, RecordMetadata recordMetadata) { System.out.println("topic-----"+topic); } @Override public void onError(String topic, Integer partition, String key, String value, Exception exception) { } @Override public boolean isInterestedInSuccess() { log.info("数据发送完毕"); System.out.println("数据发送完毕"); return false; } }); } } @Component public class MsgConsumer { @KafkaListener(topics = {"myTest"}) public void processMessage(String content) { System.out.println("消息被消费"+content); } } @RunWith(SpringRunner.class) @SpringBootTest public class TestKafka { @Autowired private MsgProducer msgProducer; @Test public void test() throws Exception { msgProducer.sendMessage("myTest", "myTest--------1"); } } ``` 就是这样;运行test老是一直这个错误
kafka代码初步涉猎,用代码发送消息到客户端
服务端发送消息 客户端接收消息: 其<em>中</em>客户端的haloworld 由代码实现发送 直接上代码     public static void main(String[] args) {         Properties props=new Properties();         props.put("zk.connect", "192.16
kafka-node
ProducerProducer(client,[options]) client:和<em>kafka</em>服务保持连接的client对象 options:一些关于producer的属性 { // Configuration for when to consider a message as acknowledged, default 1 requireAcks: 1, /
转:Kafka 客户端TimeoutException问题之坑
原文出自:http://www.jianshu.com/p/2db7abddb9e6各种TimeoutException<em>问题</em>会抛出org.apache.<em>kafka</em>.common.errors.TimeoutException:message可能为各种:Batch ExpiredFailed to update metadata after 60000 ms.ailed to update meta...
Kafka生产者源码解析之一KafkaProducer
KafkaProducer解析程序开始doSend方法功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成<em>一个</em>适合你的列表创建<em>一个</em>表格设定内容居<em>中</em>、居左、居右SmartyPants创建<em>一个</em>自定义列表如何创建<em>一个</em>注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 程序开始 kaf...
Failed to install metadata com.weiwen.common:weiwen-common-core/maven-metadata.xml: Could not parse
maven打包时,报以下错误: [INFO] BUILD FAILURE [INFO] ------------------------------------------------------------------------ [INFO] Total time: 10.908 s [INFO] Finished at: 2019-07-15T10:53:09+08:00 [INFO] Fi...
kafka客户端连接失败
1、远程服务器安装的zookeeper和<em>kafka</em>,在服务器上启动生产者和消费者之间是正常的可以通信 2、<em>使用</em>java写<em>kafka</em>的客户端,一直连接不上远程<em>kafka</em>服务器 2018-08-15 1
kafka报错: Error while fetching metadata with correlation id 121622 : {yqjp-devices-insertOrUpdateDevi
三点<em>kafka</em>集群,正常运行半年后报错:Error while fetching metadata with correlation id 121622 : {xxxxxxxxx=LEADER_NOT_AVAILABLE}排查:    config配置server.properties broker.id 无误解决:    #     listeners = PLAINTEXT://your.ho...
kafka+log4j org.apache.kafka.common.errors.TimeoutException: Failed to update me
<em>kafka</em>:server.properties配置 log4j配置 错误信息 我写了<em>一个</em>demo可以成功将日志保存到<em>kafka</em>,但是加到公司项目<em>中</em>就出现了上面的错误. 192.168.0.109/10
Kafka实际使用过程遇到的一些问题及解决方法
Kafka实际<em>使用</em><em>过程</em><em>中</em><em>遇到</em>的一些<em>问题</em>及解决方法: 1.关于Kafka的分区: 开始<em>使用</em>Kafka的时候,没有分区的概念,以为类似于传统的MQ<em>中</em>间件一样,就直接从程序<em>中</em>获取Kafka<em>中</em>的数据。 后来程序搭建了多套,发现永远只有<em>一个</em>消费者(消费者应用部署在多个tomcat上)会从Kafka<em>中</em>获取数据进行处理,后来才知道有分区这么<em>一个</em>概念。 具体不说了,网上有很多资料,总的概括:Kafka的分区,相当
Hadoop、Spark启动报错Caused by: java.net.BindException: Cannot assign requested
先贴一下错误:之前在本机上搭建的时候是没<em>问题</em>的,今天发现在阿里云上的两个服务器之上重新走一遍流程,结果发现namenode节点就是没有启动起来,后来查看log发现之前以为是50077端口被占用了,结果查看端口根本就没有被占用,重新查看log发现下面的提示Caused by: java.net.BindException: Cannot assign requested address最后查询才发现...
kafka.common.KafkaException:
package com; import java.util.Properties; import java.util.concurrent.TimeUnit; import <em>kafka</em>.javaapi.producer.Producer; import <em>kafka</em>.producer.KeyedMessage; import <em>kafka</em>.producer.ProducerConfig; import <em>kafka</em>.serializer.StringEncoder; public class <em>kafka</em>Producer extends Thread{ private String topic; public <em>kafka</em>Producer(String topic){ super(); this.topic = topic; } @Override public void run() { Producer producer = createProducer(); int i=0; while(true){ producer.send(new KeyedMessage(topic, "message: " + i++)); try { TimeUnit.SECONDS.sleep(1); } catch (InterruptedException e) { e.printStackTrace(); } } } private Producer createProducer() { Properties properties = new Properties(); properties.put("zookeeper.connect", "localhost:2181");//声明zk properties.put("serializer.class", StringEncoder.class.getName()); properties.put("metadata.broker.list", "localhost:9092");// 声明<em>kafka</em> broker return new Producer(new ProducerConfig(properties)); } public static void main(String[] args) { new <em>kafka</em>Producer("test").start();// <em>使用</em><em>kafka</em>集群<em>中</em>创建好的主题 test } } <em>kafka</em>.common.KafkaException: fetching topic metadata for topics [Set(test)] from broker [ArrayBuffer(id:0,host:localhost,port:9092)] failed at <em>kafka</em>.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:72) at <em>kafka</em>.producer.BrokerPartitionInfo.updateInfo(BrokerPartitionInfo.scala:82) at <em>kafka</em>.producer.async.DefaultEventHandler$$anonfun$handle$1.apply$mcV$sp(DefaultEventHandler.scala:67) at <em>kafka</em>.utils.Utils$.swallow(Utils.scala:172) at <em>kafka</em>.utils.Logging$class.swallowError(Logging.scala:106) at <em>kafka</em>.utils.Utils$.swallowError(Utils.scala:45) at <em>kafka</em>.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:67) at <em>kafka</em>.producer.Producer.send(Producer.scala:77) at <em>kafka</em>.javaapi.producer.Producer.send(Producer.scala:33) at com.<em>kafka</em>Producer.run(<em>kafka</em>Producer.java:29) Caused by: java.nio.channels.ClosedChannelException at <em>kafka</em>.network.BlockingChannel.send(BlockingChannel.scala:100) at <em>kafka</em>.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:73) at <em>kafka</em>.producer.SyncProducer.<em>kafka</em>$producer$SyncProducer$$doSend(SyncProducer.scala:72) at <em>kafka</em>.producer.SyncProducer.send(SyncProducer.scala:113) at <em>kafka</em>.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:58) ... 9 more ``` ```
kafka入门1-集群生产消息
./<em>kafka</em>-console-producer.sh --broker-list localhost:9092 --topic topic1,报下面的错 [2014-12-02 14:16:21,565] ERROR Producer connection to localhost:9092 unsuccessful (<em>kafka</em>.producer.SyncProducer) java.
kafka 报错分析
<em>kafka</em> 更新版本之后报错如下:2015-12-02 15:14:12 [ pool-1-thread-2:4217697 ] - [ ERROR ] Failed to collate messages by topic, partition due to: fetching topic metadata for topics [Set(test)] from broker [ArrayBu
kafka副本机制(五):MetadataCache
MetadaCache是Broker用来缓存整个集群<em>中</em>分区状态的组件。KafkaController通过向集群<em>中</em>的broker发送updateMetadataRequest来更新其metadataCache<em>中</em>缓存的数据,每个broker在收到该请求后会异步更新metadatCache的数据。 private[server] class MetadataCache(brokerId: Int...
kafka 启动开始生产数据 WARN Error while fetching metadata with correlation id 39 :
可能的情况: 1. 先启动<em>kafka</em>server  后启动的zookeeper     正确方式,先启动zk ,后启动<em>kafka</em>server 2. 添加配置在<em>kafka</em>-server <em>中</em> listeners=PLAINTEXT://localhost:9092  ############################# Socket Server Settings ############...
kafka总结:命令+错误+配置项说明
概念理解: 消息读取方面 <em>kafka</em><em>中</em>的消息,如果被读取后,可以被重复读取; 如果是被group A的用户读取了,其他组的用户group B组的用户可以读取; 如果被组里user1读取了,组内其他成员B,在从头开始读取时,可以读取到该数据; Consumer group http://www.cnblogs.com/huxi2b/p/6223228.html 个人认为,理解consu...
程序常常出现timeout expired问题
![图片说明](https://img-ask.csdn.net/upload/201512/24/1450964202_346985.jpg) 求教各位,程序是C#程序,数据库mySql。这<em>中</em>情况偶尔发生,当我打开另<em>一个</em>窗口执行查询,并保存后,再操作这个窗口就没<em>问题</em>了。很奇怪的<em>问题</em>。
kafka报错处理集合
docker-<em>kafka</em>启动参照 https://www.jianshu.com/p/9552871bb40a 以下是<em>遇到</em>的一些错误: 命令行运行消费:无topic时 WARN [Consumer clientId=consumer-console-consumer-69322-1, groupId=console-consumer-69322] Error while fetching meta...
Kafka1.0.0 Producer发送消息出现异常 Batch containing 1 record(s) expired
Kafka 1.0.0 Java Client TimeoutException: Batch containing 1 record(s) expired time = 300592...1.最开始去查看server.properties,默认是30 s,修改成50 s,还是不行 //props.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG,&quot;50...
kafka Batch containing 30 record(s) expired due
2019独角兽企业重金招聘Python工程师标准&gt;&gt;&gt; ...
Kafka由于使用clientid字段限速导致发送消息失败问题
服务器上<em>kafka</em>设置了clientid属性"producer_byte_rate":"1024",导致<em>使用</em>该clientid向该服务器发送<em>kafka</em>消息发生大量失败的情况,在不影响clientid限
(转)kafka发布消息报错LEADER_NOT_AVAILABLE
今天居然碰到这个错误,参考以下解决方案: $ bin/<em>kafka</em>-console-producer.sh --broker-list=&quot;192.168.1.100:32785&quot; --topic test ssss [2016-05-11 11:21:42,527] WARN Error while fetching metadata with correlation id 0 : {test=LE...
kafka消费端测试错误怎么解决kafka.common.NotLeaderForPartitionException
WARN , Failed to add leader for partitions ; will retry (<em>kafka</em>.consumer.ConsumerFetcherManager$Leade
kafka发布消息报错LEADER_NOT_AVAILABLE
报错信息$ bin/<em>kafka</em>-console-producer.sh --broker-list="192.168.1.100:32785" --topic test ssss [2016-05-11 11:21:42,527] WARN Error while fetching metadata with correlation id 0 : {test=LEADER_NOT_AVAILABL
Kafka源码深度解析-序列2 -Producer -Metadata的数据结构与读取、更新策略
在上一篇,我们从<em>使用</em>方式和策略上,对消息队列做了<em>一个</em>宏观描述。从本篇开始,我们将深入到源码内部,仔细分析Kafka到底是如何实现<em>一个</em>分布式消息队列。我们的分析将从Producer端开始。从Kafka 0.8.2开始,发布了一套新的Java版的client api, KafkaProducer/KafkaConsumer,替代之前的scala版的api。本系列的分析将只针对这套Java版的api。
Kafka系列2-producer和consumer报错
1. <em>使用</em>127.0.0.1启动生产和消费进程: 1)启动生产者进程: bin/<em>kafka</em>-console-producer.sh --broker-list 127.0.0.1:9092 --topic test 输入消息: this is msg 生产者进程报错: [2016-06-03 11:33:47,934] WARN Bootstrap brok
Timeout expired.请问这是什么错误!
Timeout expired.请问这是什么错误,我被困扰了好久了.help me! thank you! 错误信息如下: Timeout expired. The timeout period el
请问大家在生产环境使用哪个Kafka的Golang客户端?
搜了一下,Star数量大于1k,且一直在迭代的Kafka的Golang客户端有3个: 1. https://github.com/confluentinc/confluent-<em>kafka</em>-go 2.
Prometheus 监控之 kafka
初探 默认情况下, Kafka metrics 所有的 metric 都可以通过 JMX 获取,暴露<em>kafka</em> metrics 支持两种方式 1.在 Kafka Broker 外部, 作为<em>一个</em>独立进程, 通过 JMX 的 RMI 接口读取数据. 这种方式的好处是有任何调整不需要重启 Kafka Broker 进程, 缺点是多维护了<em>一个</em>独立的进程。 2.在 Kafka Broker 进程内部读取 J...
kafka partition数据量过大导致不能正确重启
某台<em>kafka</em>服务器负载过高,机器挂掉一段是时间后,kill掉占用内存的进程,然后重启<em>kafka</em>服务,但是一直不能完成启动和数据同步,日志如下fset 0 to broker BrokerEndPoint(11,192.168.207.79,9092)] ) (<em>kafka</em>.server.ReplicaFetcherManager) [2016-04-26 19:16:33,274] INFO [R
请教kafka集群如何被外网访问?
<em>kafka</em>集群有3个broker,用公网ip做过端口映射后,内网ip和外网ip的关系如下: 内网 外网 10.100.217.213 : 9092 1.2.3.4 : 9092 10.100.217.
Commands out of sync; you can't run this command now?
CREATE PROCEDURE `procUserlogin`( out o_userid int, out o_userstep int, out o_usernichen varchar(50)
Caused by: java.net.BindException: Cannot assign requested address: JVM_Bind问题
Caused by: java.net.BindException: Cannot assign requested address: JVM_Bind 更改这个<em>问题</em>可以从两方面着手: 一:查看ip和端口是否正确(大多数都是这个<em>问题</em>引起的) 二:查看端口是否被占用了
spring boot整合kafka报错
Timeout expired while fetching topic metadata 这种报错应检查 <em>kafka</em>连接<em>问题</em>,服务是否启动,端口是否正确。 Kafka Producer error Expiring 10 record(s) for TOPIC:XXXXXX: xxx ms has passed since batch creation plus linger time 这种报错...
Kafka_2.10-0.10.0.0- LEADER_NOT_AVAILABLE
Kafka_2.10-0.10.0.0- LEADER_NOT_AVAILABLE
Elasticsearch-php添加索引时报错No alive nodes found in your cluster
php<em>使用</em>Elasticsearch收索引擎,在添加数据成功后,<em>使用</em>Elasticsearch为其数据添加索引,报错No alive nodes found in your cluster,实际报错地
java.net.BindException: Cannot assign requested address: bind
在写<em>一个</em>web services接口的时候发现出现如题的异常,刚开始的时候想到<em>一个</em>和这个很类似的异常,java.net.BindException: Address already in use: JVM_Bind,觉得这两个差不多,但是深究起来发现还是不同的,基本上就我<em>遇到</em>的<em>问题</em>:Address already in use是在绑定socket时,由于指定的端口已经被其他的进程占用了,所以出现这个<em>问题</em>。
Failed to send requests for topics mykafka1 with correlation ids in [0,20]
最近写了个<em>kafka</em>_producer测试程序,可是每当程序运行到一定时间后就报错,重新创建新topic也不行: Fetching topic metadata with correlation id
kafka,创建消费者时提示no brokers found in zk.不知道什么原因
<em>kafka</em>,创建消费者时提示no brokers found in zk. 详见: hadoop@master:/usr/local/<em>kafka</em>/bin> ./<em>kafka</em>-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning No brokers found in ZK.
消息队列kafka(二)--与spring整合(kafkaTemplate方式)
一、简介 在这里介绍<em>kafka</em>与spring的整合,这里采用<em>kafka</em>Template方式。 二、生产者开发步骤 1、添加maven依赖(略去spring依赖,请自行添加) org.apache.<em>kafka</em> <em>kafka</em>_2.9.2 0.8.2.1 org.apache.<em>kafka</em> <em>kafka</em>-clients 1.0.0 2、添加
11. kafka重试机制解读
前面对<em>kafka</em>的学习<em>中</em>已经了解到KafkaProducer通过设定参数retries,如果发送消息到broker时抛出异常,且是允许重试的异常,那么就会最大重试retries参数指定的次数。 本片文章主要分析几个<em>问题</em>: - 哪些异常可以重试 - 如何实现重试 接下来通过分析一一解开这些<em>问题</em>的答案。 1.哪些异常可以重试 org.apache.<em>kafka</em>.clients.produ...
KafkaTemplate的使用
&amp;lt;int-<em>kafka</em>:zookeeper-connect id=&quot;zookeeperConnect&quot; zk-connect=&quot;${<em>kafka</em>.zookeeper.connect}&quot; zk-connection-timeout=&quot;6000&quot; zk-session-timeout=&quot;400&quot; zk-sync-time=&quot;200&quot; /&amp;gt; &amp;lt;bean id=&
SSL connect error
curl -v https://www.facebook.com * About to connect() to www.facebook.com port 443 (#0) * Trying 157
实践部署与使用apache kafka框架技术博文资料汇总
本文内容目录ji 1)apache <em>kafka</em>消息服务 2)<em>kafka</em>在zookeeper<em>中</em>存储结构 3)<em>kafka</em> log4j配置 4)<em>kafka</em> replication设计机制 5)apache <em>kafka</em>监控系列-监控指标 6)<em>kafka</em>.common.ConsumerRebalanceFailedException异常解决办法 7)kafak安装与<em>使用</em> 8)apache k
一个kafka创建topic失败的问题
关于<em>kafka</em>创建topic时出现 ERROR <em>kafka</em>.common.KafkaException: Failed to parse the broker info from zookeeper 错误的处理
kafka acl配置
1、环境查看 指令,确认环境无授权信息 [root@zdh167 bin]# ./<em>kafka</em>-acls.sh --list --authorizer-properties zookeeper.connect=localhost:2181/<em>kafka</em>  [root@zdh167 bin]#  2、授权用户集群管理权限 [root@zdh167 bin]# ./<em>kafka</em>-acls.sh -
kafka设置外网消费者
<em>kafka</em> 的默认配置比较简单,但想把其端口暴露给外网(指定端口),则有一些额外的注意情况 <em>kafka</em> 的版本,0.8和0.10 的配置不同,这里以0.10.0.0 为主, 没有用集群,一台机做测试 zookeeper安装与启动 <em>kafka</em> 的安装包里自带有zookeeper,不过这里还是自行下载. 这里采用3.4.8版本 下载及安装请参考 http://zookeeper.ap...
Linux下如何配置Kafka Cluster (Kafka族)
Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站<em>中</em>的所有动作流数据。本文介绍如何在分布式Linux系统<em>中</em>配置Kafka Cluster
kfka学习笔记二:使用Python操作Kafka
1、准备工作 <em>使用</em>python操作<em>kafka</em>目前比较常用的库是python-<em>kafka</em>库,但是在安装这个库的时候需要依赖setuptools库和six库,下面就要分别来下载这几个库 1、下载setuptools 打开这个网址可以下载到setuptools-0.6c11-py2.6.egg 2、下载python-<em>kafka</em> 打开http://pipy.python.org,在搜索框里面
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是<em>一个</em>本地线程副本变量工具类,各个线程都拥有一份线程私有的数
BackTrack3下载
该文档中包含有各种版本的BT3下载地址··· 相关下载链接:[url=//download.csdn.net/download/longcom_quan/4436216?utm_source=bbsseo]//download.csdn.net/download/longcom_quan/4436216?utm_source=bbsseo[/url]
淘宝收藏图片制作代码下载
淘宝收藏图片制作代码 相关下载链接:[url=//download.csdn.net/download/sdytzjh2006/4818643?utm_source=bbsseo]//download.csdn.net/download/sdytzjh2006/4818643?utm_source=bbsseo[/url]
音乐合成大作业下载
音乐合成大作业 相关下载链接:[url=//download.csdn.net/download/u013132545/7943799?utm_source=bbsseo]//download.csdn.net/download/u013132545/7943799?utm_source=bbsseo[/url]
相关热词 c#导入fbx c#中屏蔽键盘某个键 c#正态概率密度 c#和数据库登陆界面设计 c# 高斯消去法 c# codedom c#读取cad文件文本 c# 控制全局鼠标移动 c# temp 目录 bytes初始化 c#
我们是很有底线的