[英]XML to Postgres via python/psycopg2
我有一個現有的python腳本,該腳本遍歷XML文件目錄,使用etree解析每個文件,然后使用psycopg2模塊將不同點的數據插入Postgres數據庫架構。 這個被黑的腳本工作得很好,但是現在數據量(XML文件的數量和大小)正在迅速增長,而INSERT語句的數量卻無法擴展。 我最終數據庫中最大的表已從約200,000個XML文件增長到約5000萬條記錄。 所以我的問題是,最有效的方法是:
將所有數據以正確的格式寫入CSV,然后使用COPY_FROM命令將最終CSV表批量加載到Postgres,會更快嗎?
否則,我正在考慮在內存中填充某種臨時數據結構,一旦達到一定大小,便可以將其插入數據庫中? 我只是很難確定其工作方式的細節。
感謝您對本主題的任何見解,如果需要更多信息來回答我的問題,請告訴我。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.