Spark 1.3.0 を使用しており、 Pysparkを使用してCassandraに接続したいと考えています。
>pyspark --packages com.datastax.spark:spark-cassandra-connector_2.10:1.3.0-M2
依存関係の jar を正常にダウンロードして Pyspark ターミナルに入ることが示されていますが、インポートを行うことができません。
>>> from pyspark_cassandra import CassandraSparkContext, Row <br/>
Tracstrong texteback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: No module named pyspark_cassandra
私も試してみました
sudo -u hdfs pyspark --packages TargetHolding:pyspark-cassandra:0.1.5
また、 を使用して組み立てられた jar を使用し--jars option
ます。まだ同じ。同じことが、scala を使用する spark-shell でもうまく機能します。私はpythonが初めてです。何か不足していますか?