問題タブ [apache-spark-encoders]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
apache-spark - javaシリアライゼーションよりもはるかに高速なエンコーダーの使用はどうですか?
java や kryo のシリアライゼーションよりもエンコーダーを使用するほうがはるかに速いのはなぜですか?
scala - 型指定された UDAF を使用してバイナリーとして推測される列の型
複合型を返す型付き UDAF を実装しようとしています。どういうわけか、Spark は結果列の型を推測できずbinary
、シリアル化されたデータをそこに配置します。問題を再現する最小限の例を次に示します
印刷します
java - Apache Spark のコレクションのエンコーダー
Encoders
Apache Spark でコレクション タイプを作成する方法はありますか。以下のアプローチを試しましたが、うまくいきません。
次に、子クラスを作成しました
しかし、以下のようにエンコーダーを作成しようとすると、コンパイルエラーが表示されます
互換性のないタイプ。Encoder> が必要ですが、bean は Encode に推論されました。互換性のない等価制約です。