5

ApachePigで1回のパスでテーブルをピボットできるかどうか疑問に思います。

入力:

Id    Column1 Column2 Column3
1      Row11    Row12   Row13
2      Row21    Row22   Row23

出力:

Id    Name     Value
1     Column1  Row11
1     Column2  Row12
1     Column3  Row13
2     Column1  Row21
2     Column2  Row22
2     Column3  Row23

実際のデータには数十の列があります。

これは、awkを1回のパスで実行してから、Hadoopストリーミングで実行できます。しかし、私のコードの大部分はApache Pigであるため、Pigで効率的に実行できるかどうか疑問に思います。

4

2 に答える 2

7

2つの方法でそれを行うことができます:1。タプルのバッグを返すUDFを作成します。これは最も柔軟なソリューションですが、Javaコードが必要です。2.次のような厳密なスクリプトを記述します。

inpt = load '/pig_fun/input/pivot.txt' as (Id, Column1, Column2, Column3);
bagged = foreach inpt generate Id, TOBAG(TOTUPLE('Column1', Column1), TOTUPLE('Column2', Column2), TOTUPLE('Column3', Column3)) as toPivot;
pivoted_1 = foreach bagged generate Id, FLATTEN(toPivot) as t_value;
pivoted = foreach pivoted_1 generate Id, FLATTEN(t_value);
dump pivoted;

このスクリプトを実行すると、次の結果が得られました。

(1,Column1,11)
(1,Column2,12)
(1,Column3,13)
(2,Column1,21)
(2,Column2,22)
(2,Column3,23)
(3,Column1,31)
(3,Column2,32)
(3,Column3,33)
于 2012-06-27T14:27:59.480 に答える
3

オプションの(NULL)データを処理する方法を示すために、ID1からcol3を削除しました

ID名値1Column1Row11 1 Column2 Row12 2 Column1 Row21 2 Column2 Row22 2 Column3 Row23

--pigscript.pig

data1       = load 'data.txt' using PigStorage() as (id:int, key:chararray, value:chararray);
grped       = group data1 by id;
pvt         = foreach grped {
    col1        = filter data1 by key =='Column1';
    col2        =filter data1  by key =='Column2';
    col3        =filter data1  by key =='Column3';
    generate flatten(group) as id,
        flatten(col1.value) as col1, 
        flatten(col2.value) as col2, 
        flatten((IsEmpty(col3.value) ? {('NULL')} : col3.value)) as col3; --HANDLE NULL
};
dump pvt;

結果:

(1、Row11、Row12、NULL)

(2、Row21、Row22、Row23)

于 2012-12-06T20:40:38.237 に答える