![](/img/trans.png)
[英]How to iterate over unique values in pandas and count frequency of associated values
[英]Frequency count unique values Pandas
我有一個熊貓系列如下:
2014-05-24 23:59:49 1.3
2014-05-24 23:59:50 2.17
2014-05-24 23:59:50 1.28
2014-05-24 23:59:51 1.30
2014-05-24 23:59:51 2.17
2014-05-24 23:59:53 2.17
2014-05-24 23:59:58 2.17
Name: api_id, Length: 483677
我正在嘗試為每個id每天計數一次。 現在,我正在這樣做:
count = {}
for x in apis.unique():
count[x] = apis[apis == x].resample('D','count')
count_df = pd.DataFrame(count)
這給了我我想要的是:
... 2.13 2.17 2.4 2.6 2.7 3.5(user) 3.9 4.2 5.1 5.6
timestamp ...
2014-05-22 ... 391 49962 3727 161 2 444 113 90 1398 90
2014-05-23 ... 450 49918 3861 187 1 450 170 90 629 90
2014-05-24 ... 396 46359 3603 172 3 513 171 89 622 90
但是,有沒有辦法不用for循環呢?
您可以為此( docs )使用value_counts
函數,在groupby之后應用此函數(這類似於您所做的resample('D')
,但是resample期望獲得匯總輸出,因此我們必須在此使用更通用的groupby案件)。 舉一個小例子:
In [16]: s = pd.Series([1,1,2,2,1,2,5,6,2,5,4,1], index=pd.date_range('2012-01-01', periods=12, freq='8H'))
In [17]: counts = s.groupby(pd.Grouper(freq='D')).value_counts()
In [18]: counts
Out[18]:
2012-01-01 1 2
2 1
2012-01-02 2 2
1 1
2012-01-03 2 1
6 1
5 1
2012-01-04 1 1
5 1
4 1
dtype: int64
要以所需的格式獲取它,您只需將其拆棧(將第二級行索引移至各列):
In [19]: counts.unstack()
Out[19]:
1 2 4 5 6
2012-01-01 2 1 NaN NaN NaN
2012-01-02 1 2 NaN NaN NaN
2012-01-03 NaN 1 NaN 1 1
2012-01-04 1 NaN 1 1 NaN
注意:要使用groupby(pd.Grouper(freq='D'))
您需要熊貓0.14。 如果您使用的是舊版本,則可以使用groupby(pd.TimeGrouper(freq='D'))
獲得完全相同的版本。 這也類似於groupby(s.index.date)
(區別在於索引中有datetime.date
對象)。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.