簡體   English   中英

我如何制作 SQLAlchemy 引擎並從 Airflow ZC5FD214CDD302B3B42Z72B7 容器中上傳 DataFrame?

[英]How can i make SQLAlchemy engine and upload the DataFrame from within Airflow Docker container?

基本上我使用puckel/docker- airflow Docker 圖像修改為使用 pyodbc 和 cx_oracle 驅動程序和 PythonVirtualenvOperator,但是當我嘗試創建 sqlalchemy 引擎時

db_engine = sqlalchemy.create_engine('mssql+pyodbc://SK-BI-02/DWH?driver=/opt/microsoft/msodbcsql17/lib64/libmsodbcsql-17.7.so.1.1&domain=domain&password={}&login=user&port=1433'.format(_pass))
target_frame.to_sql('some_path',db_engine,'scheme',index=False,if_exists='append')

它繼續給出這樣的回溯

sqlalchemy.exc.DBAPIError: (pyodbc.Error) ('HY000', '[HY000] [Microsoft][ODBC Driver 17 for SQL Server]SSPI Provider: No Kerberos credentials available (default cache: FILE:/tmp/krb5cc_0) (851968) (SQLDriverConnect)')
(Background on this error at: http://sqlalche.me/e/dbapi)

如何使其工作,或者是否有另一種方法可以在容器中從 airflow 上傳 DataFrame?

經過數小時的痛苦后,唯一對我有用的是使用 FreeTDS 驅動程序而不是 Microsft ODBC 一個,下面是這個問題的答案。 不確定,但我猜它與 MSSQL 的 Microsoft Auth 及其安全配置有關......

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM