1

groupBySpark の RDD の2 つのメソッドは、次のように宣言されています。

def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])]
def groupBy[K](f: T => K, numPartitions: Int)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])]

関数 f を次のように定義します。

def f(x: Int): Int = x % 2

としてf最初に渡すことができました。groupByrdd.groupBy(f)

fなぜ私は2番目のgroupByように渡すことができなかったのrdd.groupBy(f, 10)ですか? rdd.groupBy(f(_), 10)またはを使用する必要がありrdd.groupBy(x => f(x), 10)ます。

4

1 に答える 1