Scala コードで型をハードコーディングせずに SparkDataFrame
から に移行する良い方法はありますか? EdgeRDD
私が見た例では、ケース クラスを使用して の型を定義していEdgeRDD
ます。
DataFrame
SparkにStructField
("dstID", LongType, false)
and("srcID", LongType, false)
と 0 から 22 の間の追加があると仮定しましょうStructField
(TupleN を使用してそれらを表すことができるように、これを制限しています)。EdgeRdd[TupleN]
から型を取得してを定義するきれいな方法はありDataFrame
ますか? 動機として、型情報を含む Parquet ファイルを読み込んでいると考えてください。
私は Spark と Scala に非常に慣れていないので、質問が間違っている可能性があることを認識しています。この場合、この問題についての「正しい」考え方を学んでいただければ幸いです。