問題タブ [outputformat]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - Hadoop でレデューサーの出力名を設定するにはどうすればよいですか?
900,000 の異なる出力を発行するジョブがあります。それらのそれぞれは、特定の一意の名前で識別される必要があります...これは、mapOutputKey にある「名前」です。map-reduce でこれを行うにはどうすればよいですか?
java - Hadoop カスタム出力形式、すべてのレデューサーはいつ終了しますか?
Hadoop 用のカスタム出力形式を構築していますが、すべてのレデューサー (RecordWriters) がいつ完了するかを出力形式で知る方法があるかどうか疑問に思っていました。
1 つの RecordWriter が完了したことを知るには、RecordWriter の close メソッドを使用できますが、すべての RecordWriter が完了したときに何らかのクリーンアップを実行するのはどうでしょうか。
java - h:outputFormat で f:convertNumber を使用できますか
複合コンポーネントがあり、これはその一部です。
を使用して value3 をフォーマットしたい場合<f:convertNumber>、どうすればよいですか?
xslt-1.0 - XSLTCompiled 変換がテキスト ファイルの XSLT フォーマットを考慮しない
XSLT Compiled Transform を使用する場合、出力をフォーマットすることができません。常にすべてのスペースが取り除かれ、人間が判読できる形式ではありません。
ただし、Visual Studio XSLT Debugger を使用して同じ変換を実行すると、出力はきれいにインデントされます。私のコードは次のようになります。
変換によりテキスト ファイルが作成されますが、Visual Studio の XSLT Debugger は、出力の書式設定を保持するために何が異なるのでしょうか?
私はすでにこのリンクを見てきました: XSLT Transform not indenting correctly
テキストに出力するので、これは私には当てはまりません。Stream 以外のものを使用する必要がありますか?
私のサンプル XSLT :
期待される出力:
XSLT コンパイル済み変換を使用した出力:
{Start:Value1value2End:}
Visual Studio XSLT デバッガーは予想される出力形式を提供しますが、XSLT Compiled 変換はすべてのスペースと改行を取り除きます。
awk - AWK - 選択した列の値を置き換えると出力形式が破壊される
次の形式の .csv ファイルがあります。
id|name|date
次の Awk コマンドを使用して、行の特定の列を変更していますが、機能します。
awk -F "|" '{$"'"$col"'"="'"$val"'";}1' filename.csv
出力を保存したいのですが、フォーマットが壊れています。
私が欲しいもの: 100|James|2015
私が得るもの:100 James 2015
2番目のものを避けて最初のものを取得するにはどうすればよいですか?
python - Hadoop ストリーミング ジョブで Parquet 出力を書き込む
Python を使用して Hadoop ストリーミングでテキスト データを寄木細工のファイルに書き込む方法はありますか。
基本的に、寄木細工のファイルとして保存したい IdentityMapper から出力される文字列があります。
入力または例は本当に役に立ちます
hadoop - Spark データフレームを使用してシーケンス ファイルを作成できますか?
シーケンス ファイルを作成する必要があるという要件があります。現在、hadoop api の上にカスタム api を作成していますが、spark に移行しているため、spark を使用して同じことを達成する必要があります。これは、spark データフレームを使用して達成できますか? ?