ログファイルからいくつかのデータがあり、エントリを1分ごとにグループ化したいと思います。
def gen(date, count=10):
while count > 0:
yield date, "event{}".format(randint(1,9)), "source{}".format(randint(1,3))
count -= 1
date += DateOffset(seconds=randint(40))
df = DataFrame.from_records(list(gen(datetime(2012,1,1,12, 30))), index='Time', columns=['Time', 'Event', 'Source'])
df:
Event Source
2012-01-01 12:30:00 event3 source1
2012-01-01 12:30:12 event2 source2
2012-01-01 12:30:12 event2 source2
2012-01-01 12:30:29 event6 source1
2012-01-01 12:30:38 event1 source1
2012-01-01 12:31:05 event4 source2
2012-01-01 12:31:38 event4 source1
2012-01-01 12:31:44 event5 source1
2012-01-01 12:31:48 event5 source2
2012-01-01 12:32:23 event6 source1
私はこれらのオプションを試しました:
df.resample('Min')
レベルが高すぎて、集計したい。df.groupby(date_range(datetime(2012,1,1,12, 30), freq='Min', periods=4))
例外で失敗します。df.groupby(TimeGrouper(freq='Min'))
正常に動作し、さらに処理するためにオブジェクトを返しますDataFrameGroupBy
。例:grouped = df.groupby(TimeGrouper(freq='Min')) grouped.Source.value_counts() 2012-01-01 12:30:00 source1 1 2012-01-01 12:31:00 source2 2 source1 2 2012-01-01 12:32:00 source2 2 source1 2 2012-01-01 12:33:00 source1 1
ただし、TimeGrouper
クラスは文書化されていません。
期間ごとにグループ化する正しい方法は何ですか?データを1分ごとおよび[ソース]列ごとにグループ化するにはどうすればよいgroupby([TimeGrouper(freq='Min'), df.Source])
ですか。