7

Spark ディストリビューションから R ライブラリに SparkR パッケージをインストールしました。次のコマンドを呼び出すことができ、正しく動作しているようです。library(SparkR)

ただし、次のコードを使用して Spark コンテキストを取得しようとすると、

sc <- sparkR.init(master="local")

しばらくすると失敗し、次のメッセージが表示されます。

Error in sparkR.init(master = "local") :
   JVM is not ready after 10 seconds

JAVA_HOME を設定し、ggplot2 などの他のパッケージにアクセスできる作業中の RStudio を持っています。なぜ機能しないのかわかりません。また、どこで問題を調査すればよいのかもわかりません。

4

4 に答える 4

0

実行権限 C:/sparkpath/bin/spark-submit.cmd を付与してみてください。それは私のために働いた。

于 2015-08-12T19:40:10.757 に答える
0

まったく同じエラーメッセージが表示されました。以前、RStudio で SparkR を正常に実行したことがあるため、私の場合は少し異なります。しかし、数日経つと機能しなくなります。

Shivaram Venkataraman と Prakash Ponshankaarchinnusamy の間の変換を見て、これが実行許可に関係している可能性があることに気付きました。

https://issues.apache.org/jira/browse/SPARK-8603

だから私がやったことは、最終的にはうまくいきます.spark tar.gzを私のC:/フォルダに解凍します(以前はD:/ドライブに保存されていました)そしてSparkRは動作します!!!

作業中の RStudio のスクリーンショット

于 2016-03-18T18:34:37.670 に答える
0

Hadoop をインストールした後、Spark をインストールします。

spark_path <- strsplit(system("brew info apache-spark",intern=T)[4],' ')[[1]][1] # Get your spark path .libPaths(c(file.path(spark_path,"libexec", "R", "lib"), .libPaths())) library(SparkR

于 2016-06-07T17:31:55.177 に答える