![](/img/trans.png)
[英]How to use multiple conditions based on 2 columns to create the new column in pandas?
[英]Pandas: Create New Column Based on Conditions of Multiple Columns
我有以下數據集:
ID AAA BBB CCC DDD
1234 {'2015-01-01': 1} {'2016-01-01': 1, {'2015-01-02': 1} {'2016-01-02': 1}
'2016-02-15': 2}
1235 {'2017-11-05': 1, {'2018-01-05': 1} NaN {'2017-01-06': 1}
'2018-06-05': 1}
在單元格中,“key”是某人住院的日期,“value”是天數。
我需要為住院創建一個新列(“是”或“否”)。
“是”的條件:
例如,如果 [AAA 或 BBB] 的日期為 2020 年 1 月 1 日。如果選擇“是”,則 [CCC 或 DDD] 中的日期應為 2020 年 1 月 2 日。
所需的 output:
ID AAA BBB CCC DDD Hospitalized
1234 {'2015-01-01': 1} {'2016-01-01': 1, {'2015-01-02': 1} {'2016-01-02': 1} Yes
'2016-02-15': 2}
1235 {'2017-11-05': 1, {'2018-01-05': 1} NaN NaN No
'2018-06-05': 1}
1236 {'2017-11-05': 1, {'2018-01-05': 1} NaN {'2018-01-06': 1} Yes
'2018-06-05': 1}
我嘗試了以下代碼,但這會捕獲日期是否存在但不捕獲時間戳。
df['hospitalized'] = (df
.apply(lambda r: 'yes' if (1 if pd.notna(r.loc[['AAA', 'BBB']]).any() else 0) +
(1 if pd.notna(r.loc[['CCC', 'DDD']]).any() else 0) > 1
else 'no', axis=1))
任何建議,將不勝感激。 謝謝!
東風:
df = pd.DataFrame([[1234, {'2015-01-01': 1}, {'2016-01-01': 1, '2016-02-15': 2}, {'2015-01-02': 1}, {'2016-01-02': 1}], [1235, {'2017-11-05': 1,'2018-06-05': 1}, {'2018-01-05': 1}, np.nan, np.nan]], columns= ['ID', 'AAA', 'BBB', 'CCC', 'DDD'])
嘗試:
import itertools
from dateutil import parser
import datetime
def func(x):
A_B_dates = list(map(parser.parse,list(itertools.chain(*[x['AAA'].keys()] + [x['BBB'].keys()]))))
C_D_dates = list(map(parser.parse,list(itertools.chain(*[x['CCC'].keys()] + [x['DDD'].keys()]))))
for date1 in A_B_dates:
if date1+datetime.timedelta(days=1) in C_D_dates:
return 'yes'
return 'no'
df = df.where(df.notna(), lambda x: [{}])
df['Hospitalised'] = df.apply(func, axis=1)
東風:
ID AAA BBB CCC DDD Hospitalised
0 1234 {'2015-01-01': 1} {'2016-01-01': 1, '2016-02-15': 2} {'2015-01-02': 1} {'2016-01-02': 1} yes
1 1235 {'2017-11-05': 1, '2018-06-05': 1} {'2018-01-05': 1} {} {'2017-01-06': 1} no
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.