問題タブ [orc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - ORCファイルを追加する方法
ファイルを追加する必要がある要件がありORC
ます。私はそれをグーグルで試しましたが、結果はありませんでした。またorg.apache.hadoop.hive.ql.io.orc.WriterImpl
、ORC
append API もありません。ORCファイルを追加する方法はありますか? (より具体的にはJAVAを使用)
scala - Spark: データフレームを ORC 形式で保存する
以前のバージョンでは、RDD に 'saveAsOrcFile()' メソッドがありました。これでなくなりました!データフレームのデータを ORC ファイル形式で保存するにはどうすればよいですか?
}
hadoop - Lz4 を使用した ORC でのハイブ圧縮
を使用して圧縮RC
およびORC
ファイル化しようとしていますLZ4
。Hadoop-2.7.1 と Hive-1.2.1 をインストールしました。の場合、問題なくファイルをLZ4
圧縮できます。RC
しかし、をORC
使用してファイルにデータをロードしようとすると、機能しLZ4
ません。ORC
以下のようなテーブルを作成しました。
しかし、データのロード時に次のエラーが発生します。
同じコマンドで and を使用しましたが、正常に動作していSnappy
ます。Zlib
しかし、問題はLZ4
. 理由がわからないのですが?
hadoop - RCファイルの内容の読み方
ORC ファイル形式のファイルをハイブ テーブルにロードしました。
を使用してファイルを読み込もうとすると
また
これでは何の結果も得られません...ハイブ0.14を使用しています
orcfiledump を使用するとエラーが発生します
apache-spark - 私はspark 1.4を使用しており、圧縮スナップでorcfileとして保存しようとしていますが、zlibとして保存されます
ここに私のコードがあります:
ただし、ファイルは ZLIB として保存されます。
hadoop - org.apache.hadoop.hive.ql.io.orc.OrcStruct を期待していましたが、org.apache.hadoop.hive.ql.io.orc.OrcSerde$OrcSerdeRow を受け取りました
orcfile を読み取ってデータを orcfile に書き込むと、次のエラーが発生します。
正しくMapoutputValue.class
ないですか?
hadoop - MRUnit を使用した ORC Mapper 単体テスト
ORC ファイルを処理するマップ プログラムがあります。ドライバーから orcformat を入力フォーマットとして設定しました。
OrcNewInputFormat では、値は OrcStruct です。Map メソッドでは Writable 値がパラメーターとして渡され (value param)、以下のようにマップ内の OrcStruct に型キャストされます。
MRUnit を使用してこのマッパーをテストしたいと考えています。このために、単体テストのセットアップ メソッドで、testFilePath に ORC ファイルを作成します。
次に、テスト メソッドでそれを読み取り、MRUnit 呼び出しマッパーを使用します。以下はコードです
しかし、テストケースの実行中にエラーが発生します
orcserde を見ると、MRUnit が呼び出す write がサポートされていないことがわかります。したがって、テスト ケースのエラーが発生します。
Orc ファイルを処理しているマッパーをどのようにユニット テスト ケースしますか。私がしていることに他の方法や何を変更する必要がありますか?
助けてくれてありがとう。