KuduRDD でフィルターを実行すると、最初に Spark ジョブが Kudu テーブルからすべてのデータを読み取り、Spark アプリケーション内でフィルター ジョブを実行します。それとも、Kudu サーバーでフィルター処理が行われ、Spark アプリケーションはフィルター処理されたデータのみを受け取りますか?
KuduRDD でフィルターを実行すると、最初に Spark ジョブが Kudu テーブルからすべてのデータを読み取り、Spark アプリケーション内でフィルター ジョブを実行します。それとも、Kudu サーバーでフィルター処理が行われ、Spark アプリケーションはフィルター処理されたデータのみを受け取りますか?