mongo-spark-connector を使用して、spark で単純なデータ エクスポーター ジョブを作成しました。このジョブは、mongo からコレクションを読み取り、S3 に書き込みます。ただし、巨大なサイズのコレクション (2B ドキュメント) の場合、executor と executor コアの数に関係なく、あまりにも多くの接続が開かれます。公式ドキュメントをチェックして、接続数を制限するコネクタ構成があるかどうかを確認してみました。しかし、彼らもそれを持っていません。Spark アプリケーションから生成される接続の数を制御する方法はありますか?