22

apache-maven-3.3.3、scala 2.11.6 をインストールしてから実行しました。

$ git clone git://github.com/apache/spark.git -b branch-1.4
$ cd spark
$ build/mvn -DskipTests clean package

ついに:

$ git clone https://github.com/apache/incubator-zeppelin
$ cd incubator-zeppelin/
$ mvn install -DskipTests

次に、サーバーを実行しました。

$ bin/zeppelin-daemon.sh start

で始まる単純なノートブックを実行すると、見つからない%pysparkというエラーが発生しました。py4jちょうどやったpip install py4jref)。

今、私はこのエラーが発生しています:

pyspark is not responding Traceback (most recent call last):
  File "/tmp/zeppelin_pyspark.py", line 22, in <module>
    from pyspark.conf import SparkConf
ImportError: No module named pyspark.conf

私はに設定しようとしましSPARK_HOMEた: /spark/python:/spark/python/lib。変化なし。

4

1 に答える 1

31

2 つの環境変数が必要です。

SPARK_HOME=/spark
PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-VERSION-src.zip:$PYTHONPATH
于 2015-06-14T01:29:26.043 に答える