私はカフカが初めてなので、私のグループはSpring-bootアプリケーションでSpring-Integration-kafka:2.0.0.RELEASEを使用しています。この例hereに基づいて、KafkaConsumer で kafka メッセージを消費することができました。
このスプリング ブート アプリケーションには、Application.java があります。
package hello;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import java.util.concurrent.TimeUnit;
import hello.notification.Listener;
@SpringBootApplication
public class Application {
private Listener listener;
public void run(String... args) throws Exception {
this.listener.countDownLatch1.await(60, TimeUnit.SECONDS);
}
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
}
これは私の KafkaConsumerConfig.java です
package hello.notification;
import ....; //different imports
@Configuration
@EnableKafka
public class KafkaConsumerConfig {
@Bean
KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
factory.setConcurrency(1);
factory.getContainerProperties().setPollTimeout(3000);
return factory;
}
@Bean
public ConsumerFactory<String, String> consumerFactory() {
Map<String, Object> propsMap = new HashMap<>();
propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
//propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 100);
propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 6000);
propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
return new DefaultKafkaConsumerFactory<>(propsMap);
}
@Bean
public Listener listener() {
return new Listener();
}
}
そして最後に私の Listener.java
package hello.notification;
import ...; // different imports
public class Listener {
public final CountDownLatch countDownLatch1 = new CountDownLatch(1);
@KafkaListener(topics = "topic1")
public void listen(ConsumerRecord<?, ?> record, Acknowledgment ack) {
System.out.println(record + " and " + ack);
// Place holder for "ack.acknowledge();"
countDownLatch1.countDown();
}
}
私の質問は次のとおりです。
1) ConsumerConfig 設定で、既に "ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG" をfalseに設定し、"ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG" をコメントアウトしましたが、なぜ自動的にコミットするのですか? (スプリング ブートを再起動するとメッセージが表示されなくなるため) app- コミットされるまで再送信を試みると思います)
2) 手動でコミットするには、Listener.listen 内に ack.acknowledge() を追加するだけでよいと思います (プレースホルダーを参照してください)。これが手動コミットであることを確認するために、これ以外に必要なものはありますか?
3) 私は最も単純で最もクリーンな kafkaconsumer を持ちたいと思っています。私が持っているものが最も単純な方法だと思うかどうか疑問に思います。もともと私はシングルスレッドのコンシューマーを探していましたが、そこには多くの例がないので、並行リスナーに固執します.
ご協力いただきありがとうございます。