問題タブ [snappydata]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
677 参照

python-2.7 - pyspark.sql.snappyインポートSnappyContextから - ImportError:snappyという名前のモジュールがありません

pyspark と snappydata を再インストールした後でも、以下のコードから pyspark.sql.snappy import SnappyContext をインポートしようとするたびに:

エラーが発生します:

助けてください!

0 投票する
2 に答える
1494 参照

pyspark - pyspark DF から辞書を作成する最速の方法

Snappydata と pyspark を使用して SQL クエリを実行し、出力 DF を辞書に変換して mongo に一括挿入します。Spark DF から Dictionary への変換をテストするために、多くの同様のクエリを実行しました。

現在、このメソッドを使用して、バルクDF を辞書map(lambda row: row.asDict(), x.collect())に変換しています。10K レコードの場合、2 ~ 3 秒かかります。

私は自分の考えをどのように実装するかを以下に述べました:

より速い方法はありますか?

0 投票する
1 に答える
125 参照

apache-spark - SnappyData がサポートする Spark 構造化ストリーミング

私は SnappyData について学びました (そして、それに関するいくつかのビデオを見ました)。主に、パフォーマンスが通常のスパーク ジョブよりも何倍も高速である可能性があると述べている場合に興味深いと思われます。

次のコード (スニペット) は、SnappyData 機能を活用して、ジョブのパフォーマンスを改善し、同じ動作を提供できますか?