0

今日、Spark-1.4.0 をダウンロードし、Linux と Windows の両方の環境で sparkR シェルを起動しようとしました - bin ディレクトリからのコマンドsparkRが機能しません。誰でも sparkR シェルの起動に成功しました。お知らせ下さい。

ありがとうサンジェイ

4

1 に答える 1

0

Windows のセットアップをお手伝いします。残念ながら、Linuxについてはわかりません。私の解決策は次のとおりで、ブログにも投稿しました

このソリューションの 1 つの制限は、コマンド ライン インタープリターでのみ機能することです。つまり、コマンド プロンプトから sparkR を呼び出すことはできますが、RStudio などのフロント エンド IDE を使用して呼び出すことはできません。私はまだ、RStudio で sparkR を動作させる方法を見つけようとしています。秘訣は、環境変数を正しく設定することです。Windows 7 HP エディション 64 ビット OS を使用しています。最初のステップはMaven、SBTをダウンロードすることです

変数名を「JAVA_HOME」に設定します (コンピュータに JAVA がインストールされていない場合は、次の手順に従います)。次に、変数値を JDK PATH として設定します。私の場合は 'C:\Program Files\Java\jdk1.7.0_79\' です (一重引用符なしでパスを入力してください) 同様に、新しいシステム変数を作成し、PYTHON_PATH という名前を付けます。変数の値をコンピューターの Python パスとして設定します。私の場合は「C:\Python27\」です (一重引用符なしでパスを入力してください) 新しいシステム変数を作成し、HADOOP_HOME という名前を付けます。変数の値を C:\winutils として設定します。(注: Hadoop をインストールする必要はありません。spark シェルは Hadoop パスのみを必要とします。この場合は、Windows 環境で spark プログラムをコンパイルできるようにする winutils への値を保持します。新しいシステム変数を作成し、次のように名前を付けます。 SPARK_HOME. 変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\SPARK\BIN」にあります。新しいシステム変数を作成し、SBT_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES (x86)\SBT\」にあります。新しいシステム変数を作成し、MAVEN_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES\APACHE MAVEN 3.3.3\」にあります。これらの変数をすべて作成したら、次に「システム変数」の下の「パス」変数を​​選択し、[編集] ボタンをクリックします。「システム変数の編集」というウィンドウがポップアップします。変数名「Path」はそのままにしておきます。変数値に、指定された次の文字列を追加します \SPARK\BIN' 新しいシステム変数を作成し、SBT_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES (x86)\SBT\」にあります。新しいシステム変数を作成し、MAVEN_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES\APACHE MAVEN 3.3.3\」にあります。これらの変数をすべて作成したら、次に「システム変数」の下の「パス」変数を​​選択し、[編集] ボタンをクリックします。「システム変数の編集」というウィンドウがポップアップします。変数名「Path」はそのままにしておきます。変数値に、指定された次の文字列を追加します \SPARK\BIN' 新しいシステム変数を作成し、SBT_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES (x86)\SBT\」にあります。新しいシステム変数を作成し、MAVEN_HOME という名前を付けます。変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES\APACHE MAVEN 3.3.3\」にあります。これらの変数をすべて作成したら、次に「システム変数」の下の「パス」変数を​​選択し、[編集] ボタンをクリックします。「システム変数の編集」というウィンドウがポップアップします。変数名「Path」はそのままにしておきます。変数値に、指定された次の文字列を追加します 変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES\APACHE MAVEN 3.3.3\」にあります。これらの変数をすべて作成したら、次に「システム変数」の下の「パス」変数を​​選択し、[編集] ボタンをクリックします。「システム変数の編集」というウィンドウがポップアップします。変数名「Path」はそのままにしておきます。変数値に、指定された次の文字列を追加します 変数値を、Spark バイナリの場所へのパスとして割り当てます。私の場合、「C:\PROGRAM FILES\APACHE MAVEN 3.3.3\」にあります。これらの変数をすべて作成したら、次に「システム変数」の下の「パス」変数を​​選択し、[編集] ボタンをクリックします。「システム変数の編集」というウィンドウがポップアップします。変数名「Path」はそのままにしておきます。変数値に、指定された次の文字列を追加します

%Java_HOME%\bin;%PYTHONPATH%;%SPARK_HOME%;%HADOOP_HOME%;

%MAVEN_HOME%\bin;%M3_HOME%\bin; ' [OK] ボタンをクリックして、環境変数ウィンドウを閉じます。

ターミナル (コマンド プロンプト ウィンドウ) を開き、コマンドpysparkを入力して pysparkR を呼び出します。scala を呼び出したい場合、コマンドはspark-shellです

お役に立てれば。

乾杯

于 2015-06-18T05:07:38.710 に答える