0

EBCDIC 入力ファイル形式を解析する必要があります。Javaを使用すると、以下のように読むことができます:

InputStreamReader rdr = new InputStreamReader(new FileInputStream("/Users/rr/Documents/workspace/EBCDIC_TO_ASCII/ebcdic.txt"), java.nio.charset.Charset.forName("ibm500"));

しかし、Hadoop Mapreduce では、RecordReaderこれまで機能していなかった via を解析する必要があります。

誰でもこの問題の解決策を提供できますか?

4

3 に答える 3

0

ファイルがEBCDICである理由は??? である必要がありますか ???

ただのテキストデータなら、メインフレーム/AS400からファイルを送受信する際にasciiに変換してみませんか???.

ファイルにバイナリまたは Cobol 数値フィールドが含まれている場合、いくつかのオプションがあります。

  1. メインフレームでファイルを通常のテキストに変換し (メインフレームの Sort ユーティリティはこれに適しています)、ファイルを送信して (ascii に) 変換します。
  2. Cobol ファイルの場合は、 https://github.com/tmalaska/CopybookInputFormatまたはhttps://github.com/ianbuss/CopybookHadoopを参照できるオープン ソース プロジェクトがいくつかあります。
  3. メインフレーム COBOL データを Hadoop にロードするための商用パッケージがあります。
于 2016-01-19T07:14:48.123 に答える