我如何制作 SQLAlchemy 引擎并从 Airflow Docker 容器中上传 DataFrame?

How can i make SQLAlchemy engine and upload the DataFrame from within Airflow Docker container?

基本上我使用 puckel/docker-airflow Docker 图像修改为使用 pyodbc 和 cx_oracle 驱动程序和 PythonVirtualenvOperator,但是当我尝试创建 sqlalchemy 引擎时

db_engine = sqlalchemy.create_engine('mssql+pyodbc://SK-BI-02/DWH?driver=/opt/microsoft/msodbcsql17/lib64/libmsodbcsql-17.7.so.1.1&domain=domain&password={}&login=user&port=1433'.format(_pass))
target_frame.to_sql('some_path',db_engine,'scheme',index=False,if_exists='append')

它继续给出这样的回溯

sqlalchemy.exc.DBAPIError: (pyodbc.Error) ('HY000', '[HY000] [Microsoft][ODBC Driver 17 for SQL Server]SSPI Provider: No Kerberos credentials available (default cache: FILE:/tmp/krb5cc_0) (851968) (SQLDriverConnect)')
(Background on this error at: http://sqlalche.me/e/dbapi)

如何让它工作或者是否有另一种方法可以从容器中的气流上传 DataFrame?

经过几个小时的痛苦之后,唯一对我有用的是使用 FreeTDS 驱动程序而不是 Microsft ODBC 驱动程序,遵循这个 的答案。 不确定,但我猜它在某种程度上与 MSSQL 的 Microsoft Auth 及其安全配置有关...