[英]How to fix TypeError: cannot concatenate object of type '<class 'pandas.io.parsers.TextFileReader'>'; only Series and DataFrame objs are valid?
[英]Write output of pandas.io.parsers.TextFileReader to pandas.DataFrame
我有一个大型 CSV 文件,我正在使用用户定义的输入“num_rows”(行数)在部分块中读取该文件,使用“chunksize”参数,该参数返回“pandas.io.parsers.TextFileReader”ZA8CFDE69AC31BD466696 如下
num_rows = int(input("Enter number of rows to be processed
chunk = pd.read_csv("large_file.csv", chunksize = number_of_rows)
for data_chunk in chunk:
# some processing
# Finally, write back results to Pandas DataFrame-
data_chunk["new_column"] = some_precalculated_value
但是,这种方法显然行不通。 我如何 go 关于将块的结果写回原始 Pandas DataFrame,在我的情况下恰好是“large_file.csv”?
谢谢!
您所做的不会修改 csv 因为每个data_chunk
都没有链接到原始数据。
您可以将每个data_chunk
写入单独的 csv 文件
reader = pd.read_csv("large_file.csv", chunksize = number_of_rows)
for i, data_chunk in enumerate(reader):
data_chunk["new_column"] = some_precalculated_value
data_chunk.to_csv("large_file_part{}.csv".format(i))
要使用大于 memory 的数据,例如 dataframe,您可以使用dask 。 如果您执行了上述操作,那么您只需要执行以下操作:
import dask.dataframe as dd
ddf = dd.read_csv("large_file_part*.csv")
ddf.to_csv("large_file.csv", single_file=True)
或者,您可以最初使用 dask 加载 dataframe,并使用它执行计算。
它会自动将您的 dataframe 拆分为多个分区,并像普通的 pandas dataframe 一样以懒惰的方式执行操作。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.