0

Spark 2.0 プレビューで Databricks Community Edition を使用しています。次の(単純な)コードを試しました:

import org.apache.spark.sql.expressions.Aggregator
import org.apache.spark.sql.Encoder
import java.util.Calendar
import spark.implicits._

case class C1(f1: String, f2: String, f3: String, f4:java.sql.Date, f5: Double)
val teams = sc.parallelize(Seq(C1("hash1", "NLC", "Cubs", Java.sql.Date.valueOf("2016-01-23"), 3253.21), C1("hash1", "NLC", "Cubs", java.sql.Date.valueOf("2014-01-23"), 353.88), C1("hash3", "NLW", "Dodgers", java.sql.Date.valueOf("2013-08-15"), 4322.12),C1("hash4", "NLE", "Red Sox", java.sql.Date.valueOf("2010-03-14"), 10283.72))).toDS

object C1Agg extends Aggregator[C1, Seq[C1], Seq[C1]]  {
  def zero: Seq[C1] = Seq.empty[C1] //Nil
  def reduce(b: Seq[C1], a: C1): Seq[C1] = b :+ a
  def merge(b1: Seq[C1], b2: Seq[C1]): Seq[C1] = b1 ++ b2
  def finish(r: Seq[C1]): Seq[C1] = r

  override def bufferEncoder: Encoder[Seq[C1]] = newProductSeqEncoder[C1]
  override def outputEncoder: Encoder[Seq[C1]] = newProductSeqEncoder[C1]
}
val g_c1 = teams.groupByKey(_.f1).agg[Seq[C1]](C1Agg.toColumn).collect

次のエラー メッセージが表示されます。

エラー: タイプが一致しません。
見つかった: org.apache.spark.sql.TypedColumn[C1,Seq[C1]]
必須: org.apache.spark.sql.TypedColumn[C1,Seq[C1]]
val g_c1 = teams.groupByKey(_.f1)。 aggSeq[C1]

私が使うとき

val g_c1 = teams.groupByKey(_.f1).agg(C1Agg.toColumn).collect

私は得る:

エラー: タイプが一致しません。
見つかった: org.apache.spark.sql.TypedColumn[C1,Seq[C1]]
必須: org.apache.spark.sql.TypedColumn[C1,?]
val g_c1 = teams.groupByKey(_.f1).aggSeq[C1 ]

ヒントはありますか?

4

1 に答える 1

0

理由を見つけました: これは、(ノートブックの) 1 つのセルでケース クラスを宣言し、それを後続の別のセルで使用するために発生します。

コード全体を同じセルに配置すると、この問題が解決されます。(残念ながら、今は別の問題MissingRequirementErrorに直面しています)

于 2016-07-01T03:19:57.053 に答える