Hadoop mapreduce で分析する csv ファイルがあります。Hadoop が行ごとに解析するかどうか疑問に思っていますか? はいの場合、コンマで区切られた文字列を使用して、分析したいフィールドを取得します。またはcsvを解析してhadoopにフィードする他のより良い方法はありますか? ファイルは 10 GB で、カンマ区切りです。Hadoop で Java を使用したい。以下の map() メソッドの Tex 型のパラメーター「値」には、Map/Reduce? によって解析される各行が含まれます。――ここが一番迷っています。
これは私のコードです:
public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
try {
String[] tokens = value.toString().split(",");
String crimeType = tokens[5].trim();
int year = Integer.parseInt(tokens[17].trim());
context.write(crimeType, year);
} catch (Exception e) {...}
}