卡夫卡生产者总是重试连接
kafka producer always retry connect
我正在使用 spring-cloud-sleuth-stream 和 spring-cloud-starter-stream-kafka 向 kafka 发送跨度,连接时出现异常。
spring云版Edgware.SR1
spring
cloud:
stream:
kafka:
binder:
brokers: 192.168.1.177:9092
zkNodes: 192.168.1.177:2181
192.168.1.177 是我的本地主机
Initialize connection
retry excepetion
我无法理解为什么 Updated cluster metadata version 2 to Cluster
,主机被更改为 988fffc614b5
,以及如何修复它
spring-cloud-sleuth-stream
模块已弃用。请在类路径上使用标准 starter-zipkin
和 kafka
,并按照文档中的说明进行正确配置。
我正在使用 spring-cloud-sleuth-stream 和 spring-cloud-starter-stream-kafka 向 kafka 发送跨度,连接时出现异常。 spring云版Edgware.SR1
spring
cloud:
stream:
kafka:
binder:
brokers: 192.168.1.177:9092
zkNodes: 192.168.1.177:2181
192.168.1.177 是我的本地主机
Initialize connection
retry excepetion
我无法理解为什么 Updated cluster metadata version 2 to Cluster
,主机被更改为 988fffc614b5
,以及如何修复它
spring-cloud-sleuth-stream
模块已弃用。请在类路径上使用标准 starter-zipkin
和 kafka
,并按照文档中的说明进行正确配置。