Spring 反应式 kafka 接收器总是覆盖 bootstrap 服务器到本地主机
Spring Reactive kafka Receiver always overrides bootstrap server to localhost
我正在尝试使用@EnableKafka 和@KafkaListener 注释为 Reactive Kafka 消费者编写 Spring 启动应用程序。
我已经将我的 kafka 经纪人配置在不同的机器上。当我将 bootstrap-server 提供给 kafka 代理的广告主机时,它总是覆盖本地主机的广告主机 ip 地址。下面是我的代码。
pom.xml 文件:-
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-webflux</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<dependency>
<groupId>io.projectreactor.kafka</groupId>
<artifactId>reactor-kafka</artifactId>
<version>1.0.0.RELEASE</version>
</dependency>
配置:-
@Configuration
@EnableKafka
public class AppConfig {
@Bean
Map consumerProps() {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.12.12.24:9092,192.14.14.28:9092");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "example-group");
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);
props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "100");
props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "15000");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class);
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return props;
}
@Bean
ReceiverOptions receiverOptions() {
ReceiverOptions receiverOptions = ReceiverOptions.create(consumerProps()).subscription(Arrays.asList("hellochange"));
return receiverOptions;
}
@Bean
public KafkaReceiver kafkaReceiver() {
return KafkaReceiver.create(receiverOptions());
}
}
消费者:-
@Service
public class ChangeListener {
@Autowired
KafkaReceiver kafkaReceiver;
@KafkaListener(topics="hellochange",groupId="example-group")
public void receiver() {
kafkaReceiver.receive().subscribe(System.out::println);
}
}
控制台:-
auto.commit.interval.ms = 5000
auto.offset.reset = latest
bootstrap.servers = [localhost:9092]
check.crcs = true
client.id =
connections.max.idle.ms = 540000
enable.auto.commit = true
2018-06-07 19:59:17.640 WARN 23536 --- [ntainer#0-0-C-1] org.apache.kafka.clients.NetworkClient : [Consumer clientId=consumer-1, groupId=example-group] Connection to node -1 could not be established. Broker may not be available.
我已经在 simple consumer 和非反应性 Spring kafka 中验证了没有 spring 配置的情况,对于两者来说,它工作正常。只有带有 EnableKafka 和 KafkaListener 注释的 Reactor kafka 我遇到了这个问题。
我是不是遗漏了什么/做错了什么?
我们可以在 Spring 启动时将 EnableKafka 和 KafkaListener 注释与 Reactor Kafka 一起使用吗?
P.S。我明白,@EnableKafka
和 @KafkaListener
不是反应性的,如果我从 pom.xml 中删除 spring-kafka
,两个注释都不可用。
像 @EnableKafka
和 @KafkaListener
对于非反应性 kafka,是否有任何注释可用于使用 Spring 引导应用程序配置反应性 kafka 消费者?
您不能将 KafkaListener 注释与 Reactor Kafka 一起使用; @KafkaListener
没有反应。
我正在尝试使用@EnableKafka 和@KafkaListener 注释为 Reactive Kafka 消费者编写 Spring 启动应用程序。 我已经将我的 kafka 经纪人配置在不同的机器上。当我将 bootstrap-server 提供给 kafka 代理的广告主机时,它总是覆盖本地主机的广告主机 ip 地址。下面是我的代码。
pom.xml 文件:-
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-webflux</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<dependency>
<groupId>io.projectreactor.kafka</groupId>
<artifactId>reactor-kafka</artifactId>
<version>1.0.0.RELEASE</version>
</dependency>
配置:-
@Configuration
@EnableKafka
public class AppConfig {
@Bean
Map consumerProps() {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.12.12.24:9092,192.14.14.28:9092");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "example-group");
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);
props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "100");
props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "15000");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class);
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return props;
}
@Bean
ReceiverOptions receiverOptions() {
ReceiverOptions receiverOptions = ReceiverOptions.create(consumerProps()).subscription(Arrays.asList("hellochange"));
return receiverOptions;
}
@Bean
public KafkaReceiver kafkaReceiver() {
return KafkaReceiver.create(receiverOptions());
}
}
消费者:-
@Service
public class ChangeListener {
@Autowired
KafkaReceiver kafkaReceiver;
@KafkaListener(topics="hellochange",groupId="example-group")
public void receiver() {
kafkaReceiver.receive().subscribe(System.out::println);
}
}
控制台:-
auto.commit.interval.ms = 5000
auto.offset.reset = latest
bootstrap.servers = [localhost:9092]
check.crcs = true
client.id =
connections.max.idle.ms = 540000
enable.auto.commit = true
2018-06-07 19:59:17.640 WARN 23536 --- [ntainer#0-0-C-1] org.apache.kafka.clients.NetworkClient : [Consumer clientId=consumer-1, groupId=example-group] Connection to node -1 could not be established. Broker may not be available.
我已经在 simple consumer 和非反应性 Spring kafka 中验证了没有 spring 配置的情况,对于两者来说,它工作正常。只有带有 EnableKafka 和 KafkaListener 注释的 Reactor kafka 我遇到了这个问题。
我是不是遗漏了什么/做错了什么? 我们可以在 Spring 启动时将 EnableKafka 和 KafkaListener 注释与 Reactor Kafka 一起使用吗?
P.S。我明白,@EnableKafka
和 @KafkaListener
不是反应性的,如果我从 pom.xml 中删除 spring-kafka
,两个注释都不可用。
像 @EnableKafka
和 @KafkaListener
对于非反应性 kafka,是否有任何注释可用于使用 Spring 引导应用程序配置反应性 kafka 消费者?
您不能将 KafkaListener 注释与 Reactor Kafka 一起使用; @KafkaListener
没有反应。