![](/img/trans.png)
[英]Calculate percentiles/quantiles for a timeseries with resample or groupby - pandas
[英]Pandas: resample timeseries with groupby
鉴于以下熊猫数据帧:
In [115]: times = pd.to_datetime(pd.Series(['2014-08-25 21:00:00','2014-08-25 21:04:00',
'2014-08-25 22:07:00','2014-08-25 22:09:00']))
locations = ['HK', 'LDN', 'LDN', 'LDN']
event = ['foo', 'bar', 'baz', 'qux']
df = pd.DataFrame({'Location': locations,
'Event': event}, index=times)
df
Out[115]:
Event Location
2014-08-25 21:00:00 foo HK
2014-08-25 21:04:00 bar LDN
2014-08-25 22:07:00 baz LDN
2014-08-25 22:09:00 qux LDN
我想重新采样数据以按计数每小时聚合一次,同时按位置分组以生成如下所示的数据框:
Out[115]:
HK LDN
2014-08-25 21:00:00 1 1
2014-08-25 22:00:00 0 2
我尝试了 resample() 和 groupby() 的各种组合,但没有运气。 我该怎么办?
在我原来的帖子中,我建议使用pd.TimeGrouper
。 现在,使用pd.Grouper
而不是pd.TimeGrouper
。 语法基本相同,但TimeGrouper
现在已被弃用,取而代之的是pd.Grouper
。
此外,虽然pd.TimeGrouper
只能通过DatetimeIndex,组pd.Grouper
罐组,通过它可以通过指定datetime列key
参数。
您可以使用 pd.Grouper 按小时对 DatetimeIndex 的pd.Grouper
进行分组:
grouper = df.groupby([pd.Grouper(freq='1H'), 'Location'])
使用count
来统计每组中的事件数:
grouper['Event'].count()
# Location
# 2014-08-25 21:00:00 HK 1
# LDN 1
# 2014-08-25 22:00:00 LDN 2
# Name: Event, dtype: int64
使用unstack
将Location
索引级别移动到列级别:
grouper['Event'].count().unstack()
# Out[49]:
# Location HK LDN
# 2014-08-25 21:00:00 1 1
# 2014-08-25 22:00:00 NaN 2
然后使用fillna
将 NaN 更改为零。
把这一切放在一起,
grouper = df.groupby([pd.Grouper(freq='1H'), 'Location'])
result = grouper['Event'].count().unstack('Location').fillna(0)
产量
Location HK LDN
2014-08-25 21:00:00 1 1
2014-08-25 22:00:00 0 2
执行此操作有两种选择。 他们实际上可以根据您的数据给出不同的结果。 第一个选项按位置分组,在位置组内按小时分组。 第二个选项同时按位置和小时分组。
选项 1 :使用groupby + resample
grouped = df.groupby('Location').resample('H')['Event'].count()
选项 2 :将位置和日期时间groupby(pd.Grouper)
与groupby(pd.Grouper)
组合在一起
grouped = df.groupby(['Location', pd.Grouper(freq='H')])['Event'].count()
它们都将导致以下结果:
Location
HK 2014-08-25 21:00:00 1
LDN 2014-08-25 21:00:00 1
2014-08-25 22:00:00 2
Name: Event, dtype: int64
然后重塑:
grouped.unstack('Location', fill_value=0)
会输出
Location HK LDN
2014-08-25 21:00:00 1 1
2014-08-25 22:00:00 0 2
untubu 对他的回答很到位,但我想补充一下,如果你有第三列,比如Cost
并想像上面那样聚合它,你可以做什么。 正是通过将 unutbu 的答案和这个答案相结合,我发现了如何做到这一点,并认为我会为未来的用户分享。
创建一个带有Cost
列的数据帧:
In[1]:
import pandas as pd
import numpy as np
times = pd.to_datetime([
"2014-08-25 21:00:00", "2014-08-25 21:04:00",
"2014-08-25 22:07:00", "2014-08-25 22:09:00"
])
df = pd.DataFrame({
"Location": ["HK", "LDN", "LDN", "LDN"],
"Event": ["foo", "bar", "baz", "qux"],
"Cost": [20, 24, 34, 52]
}, index = times)
df
Out[1]:
Location Event Cost
2014-08-25 21:00:00 HK foo 20
2014-08-25 21:04:00 LDN bar 24
2014-08-25 22:07:00 LDN baz 34
2014-08-25 22:09:00 LDN qux 52
现在我们通过使用agg
函数进行分组,指定每列的聚合方法,例如计数、均值、总和等。
In[2]:
grp = df.groupby([pd.Grouper(freq = "1H"), "Location"]) \
.agg({"Event": np.size, "Cost": np.mean})
grp
Out[2]:
Event Cost
Location
2014-08-25 21:00:00 HK 1 20
LDN 1 24
2014-08-25 22:00:00 LDN 2 43
那么最终unstack
与填充NaN
用零而显示为int
,因为它的漂亮。
In[3]:
grp.unstack().fillna(0).astype(int)
Out[3]:
Event Cost
Location HK LDN HK LDN
2014-08-25 21:00:00 1 1 20 24
2014-08-25 22:00:00 0 2 0 43
这可以在不使用resample
或Grouper
情况下完成,如下所示:
df.groupby([df.index.floor("1H"), "Location"]).count()
df = (df.groupby("Location")
.resample("H", on="date")
.last()
.reset_index(drop=True))
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.