[英]Export all the tables in the database into a single csv file in python
我一直在尝试将数据库中的所有表导出到单个csv文件中。
import MySQLdb as dbapi
import sys
import csv
import time
dbname = 'site-local'
user = 'root'
host = '127.0.0.1'
password = ''
date = time.strftime("%d-%m-%Y")
file_name = date+'-portal'
query='SELECT * FROM site-local;' //<---- I'm stuck here
db=dbapi.connect(host=host,user=user,passwd=password)
cur=db.cursor()
cur.execute(query)
result=cur.fetchall()
c = csv.writer(open(file_name+'.csv','wb'))
c.writerow(result)
我现在有些困惑,希望有人能为我的知识打下基础。
使用python并不是解决这个问题的方法。 最简单的解决方案是使用SELECT INTO OUTFILE 。 这样可以将非常大的表快速转储为CSV格式,而无需在python代码中打扰CSV编写器。
从您的其他问题中,我知道您进行转储的原因是重新导入到postgresql中。 如果不是这样,则可以只使用mysqldump
命令立即转储整个数据库。
如果要以CSV格式转储每个表,则确实需要一些代码。 创建一个python循环以遍历所有表,然后对每个表执行SELECT INTO查询。
考虑以迭代方式导出所有数据库表的SHOW CREATE TABLE
(txt文件)和SELECT * FROM
(csv文件)输出。 从先前的相关问题中,由于需要迁移数据库,因此您可以运行create table语句(将MySQL调整为Postgre语法,例如ENGINE=InnoDB
行),然后使用PostgreSQL的COPY
命令通过csv导入数据。 下面的csv文件包含fetchall()
未包含的表列标题。
db = dbapi.connect(host=host,user=user,passwd=password)
cur = db.cursor()
# RETRIEVE TABLES
cur.execute("SHOW TABLES")
tables = []
for row in cur.fetchall():
tables.append(row[0])
for t in tables:
# CREATE TABLES STATEMENTS
cur.execute("SHOW CREATE TABLE `{}`".format(t))
temptxt = '{}_table.txt'.format(t)
with open(temptxt, 'w', newline='') as txtfile:
txtfile.write(cur.fetchone()[1]) # ONE RECORD FETCH
txtfile.close()
# SELECT STATEMENTS
cur.execute("SELECT * FROM `{}`".format(t))
tempcsv = '{}_data.csv'.format(t)
with open(tempcsv, 'w', newline='') as csvfile:
writer = csv.writer(csvfile)
writer.writerow([i[0] for i in cur.description]) # COLUMN HEADERS
for row in cur.fetchall():
writer.writerow(row)
csvfile.close()
cur.close()
db.close()
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.