26

多くの列を持つデータ テーブルの row_numbers の完全なリストを生成する必要があります。

SQL では、これは次のようになります。

select
   key_value,
   col1,
   col2,
   col3,
   row_number() over (partition by key_value order by col1, col2 desc, col3)
from
   temp
;

ここで、Spark に (K, V) という形式の RDD があるとしましょう。V=(col1, col2, col3) の場合、私のエントリは次のようになります。

(key1, (1,2,3))
(key1, (1,4,7))
(key1, (2,2,3))
(key2, (5,5,5))
(key2, (5,5,9))
(key2, (7,5,5))
etc.

sortBy()、sortWith()、sortByKey()、zipWithIndexなどのコマンドを使用してこれらを注文し、正しいrow_numberを持つ新しいRDDを作成したい

(key1, (1,2,3), 2)
(key1, (1,4,7), 1)
(key1, (2,2,3), 3)
(key2, (5,5,5), 1)
(key2, (5,5,9), 2)
(key2, (7,5,5), 3)
etc.

(かっこは気にしないので、代わりに (K, (col1,col2,col3,rownum)) の形式にすることもできます)

どうすればいいですか?

これが私の最初の試みです:

val sample_data = Seq(((3,4),5,5,5),((3,4),5,5,9),((3,4),7,5,5),((1,2),1,2,3),((1,2),1,4,7),((1,2),2,2,3))

val temp1 = sc.parallelize(sample_data)

temp1.collect().foreach(println)

// ((3,4),5,5,5)
// ((3,4),5,5,9)
// ((3,4),7,5,5)
// ((1,2),1,2,3)
// ((1,2),1,4,7)
// ((1,2),2,2,3)

temp1.map(x => (x, 1)).sortByKey().zipWithIndex.collect().foreach(println)

// ((((1,2),1,2,3),1),0)
// ((((1,2),1,4,7),1),1)
// ((((1,2),2,2,3),1),2)
// ((((3,4),5,5,5),1),3)
// ((((3,4),5,5,9),1),4)
// ((((3,4),7,5,5),1),5)

// note that this isn't ordering with a partition on key value K!

val temp2 = temp1.???

また、関数 sortBy を RDD に直接適用することはできませんが、最初に collect() を実行する必要があることに注意してください。その後、出力も RDD ではなく、配列になります。

temp1.collect().sortBy(a => a._2 -> -a._3 -> a._4).foreach(println)

// ((1,2),1,4,7)
// ((1,2),1,2,3)
// ((1,2),2,2,3)
// ((3,4),5,5,5)
// ((3,4),5,5,9)
// ((3,4),7,5,5)

もう少し進行状況がありますが、まだ分割されていません。

val temp2 = sc.parallelize(temp1.map(a => (a._1,(a._2, a._3, a._4))).collect().sortBy(a => a._2._1 -> -a._2._2 -> a._2._3)).zipWithIndex.map(a => (a._1._1, a._1._2._1, a._1._2._2, a._1._2._3, a._2 + 1))

temp2.collect().foreach(println)

// ((1,2),1,4,7,1)
// ((1,2),1,2,3,2)
// ((1,2),2,2,3,3)
// ((3,4),5,5,5,4)
// ((3,4),5,5,9,5)
// ((3,4),7,5,5,6)
4

4 に答える 4

27

このrow_number() over (partition by ... order by ...)機能は Spark 1.4 に追加されました。この回答では、PySpark/DataFrames を使用しています。

テスト DataFrame を作成します。

from pyspark.sql import Row, functions as F

testDF = sc.parallelize(
    (Row(k="key1", v=(1,2,3)),
     Row(k="key1", v=(1,4,7)),
     Row(k="key1", v=(2,2,3)),
     Row(k="key2", v=(5,5,5)),
     Row(k="key2", v=(5,5,9)),
     Row(k="key2", v=(7,5,5))
    )
).toDF()

分割された行番号を追加します。

from pyspark.sql.window import Window

(testDF
 .select("k", "v",
         F.rowNumber()
         .over(Window
               .partitionBy("k")
               .orderBy("k")
              )
         .alias("rowNum")
        )
 .show()
)

+----+-------+------+
|   k|      v|rowNum|
+----+-------+------+
|key1|[1,2,3]|     1|
|key1|[1,4,7]|     2|
|key1|[2,2,3]|     3|
|key2|[5,5,5]|     1|
|key2|[5,5,9]|     2|
|key2|[7,5,5]|     3|
+----+-------+------+
于 2015-06-26T16:13:44.080 に答える
5

これはあなたが提起している興味深い問題です。Pythonでお答えしますが、シームレスにScalaに翻訳できると思います。

これが私がそれに取り組む方法です:

1- データを単純化します。

temp2 = temp1.map(lambda x: (x[0],(x[1],x[2],x[3])))

temp2 は「実際の」キーと値のペアになりました。次のようになります。

[
((3, 4), (5, 5, 5)),  
((3, 4), (5, 5, 9)),   
((3, 4), (7, 5, 5)),   
((1, 2), (1, 2, 3)),  
((1, 2), (1, 4, 7)),   
((1, 2), (2, 2, 3))

]

2- 次に、group-by 関数を使用して、PARTITION BY の効果を再現します。

temp3 = temp2.groupByKey()

temp3 は 2 行の RDD になりました。

[((1, 2), <pyspark.resultiterable.ResultIterable object at 0x15e08d0>),  
 ((3, 4), <pyspark.resultiterable.ResultIterable object at 0x15e0290>)]

3- ここで、RDD の各値にランク関数を適用する必要があります。Python では、単純な並べ替え関数を使用します (enumerate によって row_number 列が作成されます)。

 temp4 = temp3.flatMap(lambda x: tuple([(x[0],(i[1],i[0])) for i in enumerate(sorted(x[1]))])).take(10)

特定の順序を実装するには、正しい「キー」引数を供給する必要があることに注意してください(Pythonでは、次のようなラムダ関数を作成するだけです:

lambda tuple : (tuple[0],-tuple[1],tuple[2])

最後に(キー引数関数なしでは、次のようになります):

[
((1, 2), ((1, 2, 3), 0)), 
((1, 2), ((1, 4, 7), 1)), 
((1, 2), ((2, 2, 3), 2)), 
((3, 4), ((5, 5, 5), 0)), 
((3, 4), ((5, 5, 9), 1)), 
((3, 4), ((7, 5, 5), 2))

]

それが役立つことを願っています!

幸運を。

于 2014-11-21T12:52:08.557 に答える