[英]How can I groupby over multiple files in a folder in Python?
我有一个包含 30 个 csvs 的文件夹。 除了一个“UNITID”列之外,它们都具有彼此唯一的列。 我希望在所有 csv 的 UNITID 列上做一个 groupby function。
最终,我想要一个 dataframe,每个 UNITID 的所有列都彼此相邻。
关于我如何做到这一点的任何想法?
提前致谢。
也许您可以一次一个地将数据框合并在一起? 像这样的东西:
# get a list of your csv paths somehow
list_of_csvs = get_filenames_of_csvs()
# load the first csv file into a DF to start with
big_df = pd.read_csv(list_of_csvs[0])
# merge to other csvs into the first, one at a time
for csv in list_of_csvs[1:]:
df = pd.read_csv(csv)
big_df = big_df.merge(df, how="outer", on="UNITID")
所有 csv 将根据 UNITID 合并在一起,保留所有列的并集。
dustin 解决方案的另一种替代方案是结合 functool 的 reduce function 和 DataFrame.merge()
像这样,
from functools import reduce # standard library, no need to pip it
from pandas import DataFrame
# make some dfs
df1
id col_one col_two
0 0 a d
1 1 b e
2 2 c f
df2
id col_three col_four
0 0 A D
1 1 B E
2 2 C F
df3
id col_five col_six
0 0 1 4
1 1 2 5
2 2 3 6
单线:
reduce(lambda x,y: x.merge(y, on= "id"), [df1, df2, df3])
id col_one col_two col_three col_four col_five col_six
0 0 a d A D 1 4
1 1 b e B E 2 5
2 2 c f C F 3 6
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.