0

このページ (Scala を使用する Spark) の MLlib の例を試しています: MLlib ページ

すべての例で同じエラー エラーがスローされています。私は線形回帰のために得ているものを与えました:

    scala> val model = LinearRegressionWithSGD.train(parsedData, numIterations)
    java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.spark.rdd.HadoopRDD.getInputFormat(HadoopRDD.scala:123)
    at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:136)
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:207)
    at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:205)

誰かがこのエラーの原因を教えてもらえますか? ありがとうございました。

4

1 に答える 1

0

答えがわかりました...明らかに、bashrc の設定の一部が Spark と競合していました。.bashrc ファイルを削除すると、問題が修正されました。

于 2014-07-08T08:13:20.057 に答える