私はラムダ アーキテクチャを構築しており、Spark をそのバッチ部分として、定期的に、または終了直後に再起動するか、Spark Streaming ジョブによって再起動を呼び出す必要があります。私は物事を見てきましたが、おそらくSparkコンテキストを理解していませんが、Sparkコンテキストをループに入れることができるかどうかはわかりません. 誰でも簡単なガイダンスを提供できますか? もう 1 つの簡単な質問は、Spark がデータを読み取る HBase にデータが継続的に追加されることを考えると、キャッシングの用途はあるのでしょうか? 助けてくれてありがとう。
編集: SparkListener を実装し、ジョブの終了時に収集を呼び出すと、すべての計算がやり直されますか?