13

私はこれと同じくらい単純なdata.frameを持っています:

id group idu  value
1  1     1_1  34
2  1     2_1  23
3  1     3_1  67
4  2     4_2  6
5  2     5_2  24
6  2     6_2  45
1  3     1_3  34
2  3     2_3  67
3  3     3_3  76

各グループの最初のエントリを含むサブセットを取得する場所から。何かのようなもの:

id group idu value
1  1     1_1 34
4  2     4_2 6
1  3     1_3 34

idは一意ではないため、アプローチはそれに依存しないでください。

ループを回避してこれを達成できますか?

dput()データの:

structure(list(id = c(1L, 2L, 3L, 4L, 5L, 6L, 1L, 2L, 3L), group = c(1L, 
1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L), idu = structure(c(1L, 3L, 5L, 
7L, 8L, 9L, 2L, 4L, 6L), .Label = c("1_1", "1_3", "2_1", "2_3", 
"3_1", "3_3", "4_2", "5_2", "6_2"), class = "factor"), value = c(34L, 
23L, 67L, 6L, 24L, 45L, 34L, 67L, 76L)), .Names = c("id", "group", 
"idu", "value"), class = "data.frame", row.names = c(NA, -9L))
4

4 に答える 4

10

Gavinの100万行のdfを使用する:

DF3 <- data.frame(id = sample(1000, 1000000, replace = TRUE),
                  group = factor(rep(1:1000, each = 1000)),
                  value = runif(1000000))
DF3 <- within(DF3, idu <- factor(paste(id, group, sep = "_")))

最速の方法は、データフレームを並べ替えてから、次を使用することだと思いますduplicated

system.time({
  DF4 <- DF3[order(DF3$group), ]
  out2 <- DF4[!duplicated(DF4$group), ]
})
# user  system elapsed 
# 0.335   0.107   0.441

これは、私のコンピューターでのGavinのfastet lapply+splitメソッドの7秒に相当します。

一般に、データフレームを操作する場合、最も速いアプローチは通常、すべてのインデックスを生成してから単一のサブセットを実行することです。

于 2011-04-28T14:37:25.837 に答える
5

OPのコメントに照らして更新

100万以上の行でこれを行うと、このように提供されるすべてのオプションが遅くなります。100,000行のダミーデータセットの比較タイミングは次のとおりです。

set.seed(12)
DF3 <- data.frame(id = sample(1000, 100000, replace = TRUE),
                  group = factor(rep(1:100, each = 1000)),
                  value = runif(100000))
DF3 <- within(DF3, idu <- factor(paste(id, group, sep = "_")))

> system.time(out1 <- do.call(rbind, lapply(split(DF3, DF3["group"]), `[`, 1, )))
   user  system elapsed 
 19.594   0.053  19.984 
> system.time(out3 <- aggregate(DF3[,-2], DF3["group"], function (x) x[1]))
   user  system elapsed 
 12.419   0.141  12.788 

私は百万行でそれらをやることをあきらめました。信じられないかもしれませんが、はるかに高速です。

out2 <- matrix(unlist(lapply(split(DF3[, -4], DF3["group"]), `[`, 1,)),
               byrow = TRUE, nrow = (lev <- length(levels(DF3$group))))
colnames(out2) <- names(DF3)[-4]
rownames(out2) <- seq_len(lev)
out2 <- as.data.frame(out2)
out2$group <- factor(out2$group)
out2$idu <- factor(paste(out2$id, out2$group, sep = "_"),
                   levels = levels(DF3$idu))

出力は(事実上)同じです:

> all.equal(out1, out2)
[1] TRUE
> all.equal(out1, out3[, c(2,1,3,4)])
[1] "Attributes: < Component 2: Modes: character, numeric >"              
[2] "Attributes: < Component 2: target is character, current is numeric >"

out1( (またはout2)とout3(バージョン)の違いaggregate()は、コンポーネントの行名だけです。)

タイミング:

   user  system elapsed 
  0.163   0.001   0.168

100,000行の問題、およびこの100万行の問題について:

set.seed(12)
DF3 <- data.frame(id = sample(1000, 1000000, replace = TRUE),
                  group = factor(rep(1:1000, each = 1000)),
                  value = runif(1000000))
DF3 <- within(DF3, idu <- factor(paste(id, group, sep = "_")))

のタイミングで

   user  system elapsed 
 11.916   0.000  11.925

マトリックスバージョン(を生成するout2)での作業は、他のバージョンが100,000行の問題を実行する場合よりも100万行を実行する方が高速です。これは、マトリックスの操作が実際に非常に高速であることを示しています。私のdo.call()バージョンのボトルネックはrbind()、結果をまとめることです。

百万行の問題のタイミングは次のように行われました。

system.time({out4 <- matrix(unlist(lapply(split(DF3[, -4], DF3["group"]),
                                          `[`, 1,)),
                            byrow = TRUE,
                            nrow = (lev <- length(levels(DF3$group))))
             colnames(out4) <- names(DF3)[-4]
             rownames(out4) <- seq_len(lev)
             out4 <- as.data.frame(out4)
             out4$group <- factor(out4$group)
             out4$idu <- factor(paste(out4$id, out4$group, sep = "_"),
                                levels = levels(DF3$idu))})

オリジナル

たとえば、データが次のようになっている場合はDF、次のようになります。

do.call(rbind, lapply(with(DF, split(DF, group)), head, 1))

あなたが望むことをします:

> do.call(rbind, lapply(with(DF, split(DF, group)), head, 1))
  idu group
1   1     1
2   4     2
3   7     3

新しいデータが入っている場合は、次のDF2ようになります。

> do.call(rbind, lapply(with(DF2, split(DF2, group)), head, 1))
  id group idu value
1  1     1 1_1    34
2  4     2 4_2     6
3  1     3 1_3    34

ただし、速度を上げるために、使用する代わりにサブセット化することをお勧めします。head()使用しないことで少し利益を得ることができますwith()。例:

do.call(rbind, lapply(split(DF2, DF2$group), `[`, 1, ))

> system.time(replicate(1000, do.call(rbind, lapply(split(DF2, DF2$group), `[`, 1, ))))
   user  system elapsed 
  3.847   0.040   4.044
> system.time(replicate(1000, do.call(rbind, lapply(split(DF2, DF2$group), head, 1))))
   user  system elapsed 
  4.058   0.038   4.111
> system.time(replicate(1000, aggregate(DF2[,-2], DF2["group"], function (x) x[1])))
   user  system elapsed 
  3.902   0.042   4.106
于 2011-04-27T14:00:20.483 に答える
1

私はこれがトリックを行うと思います:

aggregate(data["idu"], data["group"], function (x) x[1])

更新された質問については、パッケージddplyから使用することをお勧めします。plyr

ddply(data, .(group), function (x) x[1,])
于 2011-04-27T13:58:05.963 に答える
1

plyrデータが次の名前のオブジェクトにあると仮定して、を使用する1つのソリューションzzz

ddply(zzz, "group", function(x) x[1 ,])

行間の違いを取り、より速く証明する必要があるが、事前に順序付けられているオブジェクトに依存する別のオプション。これは、グループ値が0でないことも前提としています。

zzz <- zzz[order(zzz$group) ,]

zzz[ diff(c(0,zzz$group)) != 0, ]
于 2011-04-27T14:07:25.177 に答える