sparkR に 100 個の DataFrame があります。
us = filter(pg, pg$user_id==1)
us = filter(pg, pg$user_id==2)
....
us = filter(pg, pg$user_id == 100)
それらを新しい DataFrame に集めたいと思います。これを行う1つの方法はこの方法です
for(i in 1:100){
us=filter(pg, pg$user_id==i)
all=unionAll(all, us)
}
現在、「all」は DataFrame であり、これらの他の DataFrame が 100 個含まれています。これをSparkRで実行するには時間がかかりますが、これを行うためのより良い方法があるのだろうか?