Kafka Streams では、ストリームを生成/書き込む正規の方法は何ですか? Spark には、任意のデータ ソースから長時間実行されるアダプターとして機能するカスタム レシーバーがあります。Kafka Streams で同等のものは何ですか?
具体的に言うと、あるトピックから別のトピックへの変換方法を尋ねているわけではありません。ドキュメントはそれについて非常に明確です。一連の変換で最初の書き込みを行うワーカーを Kafka に書き込む方法を理解したいです。
できることを期待しています
builder1.<something>(<some intake worker like a spark reciver)
.to(topic1)
.start()
builder2.from(topic1)
.transform(<some transformation function>)
.to(topic2)
.start()
しかし、既存のドキュメントのどれもこれを示していませんか? 何か不足していますか?