[英]Python pandas - impossible to delete duplicates
我有一个 csv 文件,其中包含仅在名为“文件”的列中的重复项。 我写了以下行:
df = pd.read_csv(path_to_file, encoding='utf-8', sep=',')
df.drop_duplicates(subset="Fichier",keep='first',inplace=True)
但它不起作用。 我什至尝试通过 Excell 来做,但它也不起作用..
提前谢谢了!!
你可以试试这个,它对我有用:
#In my case
metadata = pd.read_csv('CSV/data_full.csv', low_memory=False)
myresult = pd.Series(metadata.index, index=metadata['Fichier']).drop_duplicates()
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.