[英]How can i make SQLAlchemy engine and upload the DataFrame from within Airflow Docker container?
基本上我使用puckel/docker- airflow Docker 圖像修改為使用 pyodbc 和 cx_oracle 驅動程序和 PythonVirtualenvOperator,但是當我嘗試創建 sqlalchemy 引擎時
db_engine = sqlalchemy.create_engine('mssql+pyodbc://SK-BI-02/DWH?driver=/opt/microsoft/msodbcsql17/lib64/libmsodbcsql-17.7.so.1.1&domain=domain&password={}&login=user&port=1433'.format(_pass))
target_frame.to_sql('some_path',db_engine,'scheme',index=False,if_exists='append')
它繼續給出這樣的回溯
sqlalchemy.exc.DBAPIError: (pyodbc.Error) ('HY000', '[HY000] [Microsoft][ODBC Driver 17 for SQL Server]SSPI Provider: No Kerberos credentials available (default cache: FILE:/tmp/krb5cc_0) (851968) (SQLDriverConnect)')
(Background on this error at: http://sqlalche.me/e/dbapi)
如何使其工作,或者是否有另一種方法可以在容器中從 airflow 上傳 DataFrame?
經過數小時的痛苦后,唯一對我有用的是使用 FreeTDS 驅動程序而不是 Microsft ODBC 一個,下面是這個問題的答案。 不確定,但我猜它與 MSSQL 的 Microsoft Auth 及其安全配置有關......
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.