配置 Spring Kafka 以使用 DeadLetterPublishingRecoverer
Configuring Spring Kafka to use DeadLetterPublishingRecoverer
我正在使用 Spring Boot 2.1.3 并尝试使用 DeadLetterPublishingRecoverer
配置 Spring SeekToCurrentErrorHandler
以将错误记录发送到不同的主题。创建了新的 DLT 队列并插入了一条记录,但消息正文为空。我期待消息正文填充原始 JSON 正文以供将来分析。
这是我目前的配置。知道我哪里出错了吗?不确定它是否与使用 kafkaTemplate<Object, Object>
有关,因为消息生成者使用 kafkaTemplate<String, Message>
.
@Configuration
@EnableKafka
public class ListenerConfig {
@Value("${kafka.bootstrap-servers}")
private String bootstrapServers;
@Autowired
private KafkaTemplate<Object, Object> kafkaTemplate;
@Bean
public Map<String, Object> consumerConfigs() {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, ErrorHandlingDeserializer2.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, ErrorHandlingDeserializer2.class);
props.put(ErrorHandlingDeserializer2.KEY_DESERIALIZER_CLASS, JsonDeserializer.class);
props.put(ErrorHandlingDeserializer2.VALUE_DESERIALIZER_CLASS, JsonDeserializer.class.getName());
props.put(JsonDeserializer.KEY_DEFAULT_TYPE, "java.lang.String");
props.put(JsonDeserializer.VALUE_DEFAULT_TYPE, "com.test.kafka.Message");
props.put(JsonDeserializer.TRUSTED_PACKAGES, "com.test.kafka");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "json");
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return props;
}
@Bean
public ConsumerFactory<String, Message> consumerFactory() {
return new DefaultKafkaConsumerFactory<>(
consumerConfigs());
}
@Bean
public ConcurrentKafkaListenerContainerFactory<String, Message> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, Message> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
factory.setErrorHandler(new SeekToCurrentErrorHandler(new DeadLetterPublishingRecoverer(kafkaTemplate), 3));
return factory;
}
@KafkaListener(topics = "test")
public void receive(@Payload Message data,
@Headers MessageHeaders headers) {
LOG.info("received data='{}'", data);
System.out.println(data.getMessage());
headers.keySet().forEach(key -> {
LOG.info("{}: {}", key, headers.get(key));
});
}
DeadLetterPublishingRecoverer
只是发布传入的 ConsumerRecord
内容。
当ErrorHandlingDeserializer2
检测到反序列化异常时,ConsumerRecord
中没有value()
字段(因为无法反序列化)
相反,失败被放入两个 header 之一:ErrorHandlingDeserializer2.VALUE_DESERIALIZER_EXCEPTION_HEADER
或 ErrorHandlingDeserializer2.KEY_DESERIALIZER_EXCEPTION_HEADER
。
您可以通过
获取详细信息
Header header = record.headers().lastHeader(headerName);
DeserializationException ex = (DeserializationException) new ObjectInputStream(
new ByteArrayInputStream(header.value())).readObject();
使用 ex.getData()
中的原始负载。
当检测到 header 存在并且 value()
是 null
时,我们可能应该增强恢复器来执行此操作。
我正在使用 Spring Boot 2.1.3 并尝试使用 DeadLetterPublishingRecoverer
配置 Spring SeekToCurrentErrorHandler
以将错误记录发送到不同的主题。创建了新的 DLT 队列并插入了一条记录,但消息正文为空。我期待消息正文填充原始 JSON 正文以供将来分析。
这是我目前的配置。知道我哪里出错了吗?不确定它是否与使用 kafkaTemplate<Object, Object>
有关,因为消息生成者使用 kafkaTemplate<String, Message>
.
@Configuration
@EnableKafka
public class ListenerConfig {
@Value("${kafka.bootstrap-servers}")
private String bootstrapServers;
@Autowired
private KafkaTemplate<Object, Object> kafkaTemplate;
@Bean
public Map<String, Object> consumerConfigs() {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, ErrorHandlingDeserializer2.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, ErrorHandlingDeserializer2.class);
props.put(ErrorHandlingDeserializer2.KEY_DESERIALIZER_CLASS, JsonDeserializer.class);
props.put(ErrorHandlingDeserializer2.VALUE_DESERIALIZER_CLASS, JsonDeserializer.class.getName());
props.put(JsonDeserializer.KEY_DEFAULT_TYPE, "java.lang.String");
props.put(JsonDeserializer.VALUE_DEFAULT_TYPE, "com.test.kafka.Message");
props.put(JsonDeserializer.TRUSTED_PACKAGES, "com.test.kafka");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "json");
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return props;
}
@Bean
public ConsumerFactory<String, Message> consumerFactory() {
return new DefaultKafkaConsumerFactory<>(
consumerConfigs());
}
@Bean
public ConcurrentKafkaListenerContainerFactory<String, Message> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, Message> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
factory.setErrorHandler(new SeekToCurrentErrorHandler(new DeadLetterPublishingRecoverer(kafkaTemplate), 3));
return factory;
}
@KafkaListener(topics = "test")
public void receive(@Payload Message data,
@Headers MessageHeaders headers) {
LOG.info("received data='{}'", data);
System.out.println(data.getMessage());
headers.keySet().forEach(key -> {
LOG.info("{}: {}", key, headers.get(key));
});
}
DeadLetterPublishingRecoverer
只是发布传入的 ConsumerRecord
内容。
当ErrorHandlingDeserializer2
检测到反序列化异常时,ConsumerRecord
中没有value()
字段(因为无法反序列化)
相反,失败被放入两个 header 之一:ErrorHandlingDeserializer2.VALUE_DESERIALIZER_EXCEPTION_HEADER
或 ErrorHandlingDeserializer2.KEY_DESERIALIZER_EXCEPTION_HEADER
。
您可以通过
获取详细信息Header header = record.headers().lastHeader(headerName);
DeserializationException ex = (DeserializationException) new ObjectInputStream(
new ByteArrayInputStream(header.value())).readObject();
使用 ex.getData()
中的原始负载。
当检测到 header 存在并且 value()
是 null
时,我们可能应该增强恢复器来执行此操作。