[英]Execute multiple scripts in Python by passing the scripts names
我总共有 25-30 个脚本来更新服务器上的数据。 由于每天都会生成新数据,因此每天我都必须按顺序手动运行这些脚本并使用新数据更新数据库。 所有这些脚本都包含 300 多行 SQL 查询。
现在我想用 Python 自动化这个任务,但不确定如何做到这一点。 我过去使用过一些库连接到 SQL 服务器,然后定义一个游标来执行某些查询 - cur.execute(select * from abc)
但现在我想自动化这个任务并通过只传递脚本名称来运行所有脚本。 喜欢
cur.execute(sql_script_1)
cur.execute(sql_script_2)
cur.execute(sql_script_3)
.
.
.
cur.execute(sql_script_25)
这样,最后,我只需要运行这个 .py 文件,它就会按照给定的顺序自动运行所有脚本。 这可以以某种方式完成吗? 以这种方式或其他方式。
主要动机是通过传递名称来自动化运行所有脚本的任务。
您的问题可能是一个糟糕的问题,有点模糊,并且在研究或自己实施方面没有表现出任何努力。 但我可能有类似的用例,所以我会分享。
在我的情况下,我需要将数据作为熊猫 df 提取。 您的情况可能会有所不同,但我想基本结构将保持不变。
无论如何,这就是我所做的:
您将每个 sql 脚本作为字符串变量存储在项目目录中某处的 python 文件(或多个文件)中。
您定义了一个管理连接的函数,并将一个 sql 脚本作为参数传递。
您可以根据需要为每个脚本调用该函数。
所以你的python文件合二为一:
sql_script_1 = 'select....from...where...'
sql_script_2 = 'select....from...where...'
sql_script_3 = 'select....from...where...'
然后你定义两个函数来管理连接。
就像是
import pandas as pd
import pyodbc
def query_passer(query:str, conn_db):
conn = pyodbc.connect(conn_db)
df = pd.read_sql(query, conn)
conn.close()
return df
然后在三个中调用该函数,对数据执行您要执行的任何操作,然后对每个查询重复此操作。
下面的代码假设 query_passer 函数保存在子文件夹“resources”中名为“functions.py”的 python 文件中,并且查询存储在子文件夹“resources.queries”中名为“query1.py”的文件中。 根据需要整理您自己的文件,或者将它们全部保存在一个大文件中。
from resources.functions import query_passer
from resources.queries.query1 import sql_script_1, sql_script_2, sql_script_3
import pandas as pd
# define the connection
conn_db = (
"Driver={stuff};"
"Server=stuff;"
"Database=stuff;"
".....;"
)
# run queries
df = query_passer(sql_script_1, conn_db)
df.to_csv('sql_script_1.csv')
df = query_passer(sql_script_2, conn_db)
df.to_csv('sql_script_2.csv')
df = query_passer(sql_script_3, conn_db)
df.to_csv('sql_script_3.csv')
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.