私は Apache Spark を初めて使用し、Spark と共に Scala の学習を開始しました。このコード スニペットでは、Spark はプログラムが終了したときにテキスト ファイルを閉じる処理を行いますか?
val rdd = context.textFile(filePath)
Java では、ファイルを開いたときに、try-catch-finally または try-with-resources で閉じる必要があることを知っています。
この例では、テキスト ファイルについて言及していますが、RDD は複数の異なる種類のデータ セットを取得できるため、完了時に Spark がリソースのクローズを処理するかどうかを知りたいと考えています。