これは、別のフォーラムでの他の人の質問のコピーであり、回答がなかったので、同じ問題を抱えているので、ここで再質問すると思いました. ( http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736を参照)
マシンに Spark が正しくインストールされており、Python インタープリターとして ./bin/pyspark を使用すると、エラーなしで pyspark モジュールを使用して Python プログラムを実行できます。
ただし、通常の Python シェルを実行しようとすると、pyspark モジュールをインポートしようとすると、次のエラーが発生します。
from pyspark import SparkContext
そしてそれは言います
"No module named pyspark".
どうすればこれを修正できますか? Python を pyspark ヘッダー/ライブラリ/などにポイントするために設定する必要がある環境変数はありますか? Spark インストールが /spark/ の場合、どの pyspark パスを含める必要がありますか? または、pyspark プログラムは pyspark インタープリターからのみ実行できますか?