内部テスト用に、Confluent Cloud のごく普通のインスタンスを使用しています。これはクラウドベースであるため、月が進むにつれてどのくらいのデータが通過するかに関する統計が得られます. 残念ながら、詳細な統計はありません。インスタンスへのバイト数、インスタンスからのバイト数、およびストレージのみです。そこに保存されている約 2MB のデータを転送しましたが、転送量はかなり過剰で、1 日あたり約 4GB です。多くのコンシューマーはありませんが、それらはすべて最新です。コンシューマーのいずれかがオフセット 0 などから繰り返しクエリを実行している場合、奇妙なことは何もないようです。私の質問は: これは典型的な動作ですか? 世論調査のせい?または、他の何か?
@riferrei さん、コメントありがとうございます。混乱して申し訳ありません。明確にするために、次の画像をご覧ください。
これは私が得るすべてです。私の解釈では、3 月中に少なくとも 390 KB 相当のデータを保存しましたが、それ以上ではありません (390 KB = 1024 * 1024 * 0.2766 GB-時間 / 31 日 / 24 時間)。2MB (0.0021 GB) を転送し、請求書によると、138 GB のデータ、つまり 1 日あたり約 4 GB を転送しました。私はそれがどのように起こり得るかを理解しようとしています。