1

ドキュメントを読みましたが、次の質問に対する答えが見つかりません。

  • 既に実行中の Spark クラスターをセットアップする (つまり、SnappyContext を使用できるように jar を追加する) ことを希望しますか、それともバンドルされた Spark を使用することが必須ですか? 可能であれば、支援してください: SPARK_HOME はランチャーによって実行時に設定されているようです

  • JAVA_HOME を定義する場所 今のところ、すべてのスナッピーサーバーノードで bin/spark-class で実行しました

  • scala 2.11 で SnappyData をビルドする

感謝、サイフ

4

1 に答える 1

0

現在、ストック Spark での Snappy の実行はサポートされていませんが、サポートに向けて取り組んでいます。現在、Spark の Snappy バージョンを使用できます。

Q2 では、Snappy サーバーを起動する前に、コマンド ラインで JAVA_HOME を設定できます。

scala 2.11 で Snappy をテストしていません。したがって、どのような問題が発生する可能性があるかはわかりません。

于 2016-03-22T17:44:57.180 に答える