ドキュメントを読みましたが、次の質問に対する答えが見つかりません。
既に実行中の Spark クラスターをセットアップする (つまり、SnappyContext を使用できるように jar を追加する) ことを希望しますか、それともバンドルされた Spark を使用することが必須ですか? 可能であれば、支援してください: SPARK_HOME はランチャーによって実行時に設定されているようです
JAVA_HOME を定義する場所 今のところ、すべてのスナッピーサーバーノードで bin/spark-class で実行しました
scala 2.11 で SnappyData をビルドする
感謝、サイフ