[英]uploading large file to AWS aurora postgres serverless
I have been trying for days to copy a large CSV file to a table in PostgreSQL I am using PGadmin4 to access the database.我一直在尝试将大型 CSV 文件复制到 PostgreSQL 中的表中,我正在使用 PGadmin4 访问数据库。 I have a file on my system the file is 10 GB so I am getting starting error when trying to upload it via UI or \\copy command.我的系统上有一个文件,该文件为 10 GB,因此在尝试通过 UI 或 \\copy 命令上传它时出现启动错误。
When talking about 10 GB CSV file, then you may use as well different options在谈论 10 GB CSV 文件时,您也可以使用不同的选项
I believe \\copy
should work, you did not provide any more information about the issue我相信\\copy
应该可以工作,您没有提供有关该问题的更多信息
I'd personally use the AWS Glue - an ETL service which could read from an S3 file我个人会使用 AWS Glue - 一种可以从 S3 文件中读取的 ETL 服务
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.