繁体   English   中英

Pandas read_sql 和 pyodbc 来处理损坏的数据

[英]Pandas read_sql with pyodbc to handle corrupt data

我正在与一个拥有 4D 数据库的客户合作。 Tableau 不会连接到它。 (这是另一个问题,如果你知道答案,请告诉我。)我们决定做的基本上是保留数据的两个副本。 我正在用 Python 构建一个工具,它将从他们的数据库中获取任意表并将其副本存储在 MySQL 数据库中。 然后它将定期运行并在添加新数据时更新数据。

我更喜欢使用 SqlAlchemy,但它不支持 4D。 所以,我将 pyodbc 与熊猫一起使用。 我正在使用

data_chunks = pandas.read_sql("SELECT * FROM table_name", con=pyodbc_connection, chunksize=100000)

然后我转身使用

chunk_df.to_sql("table_name", con=sqlalchemy_mysql_connection, index=False, if_exists="append")

将其写入 MySQL 数据库。

不幸的是,在我正在阅读的某些表上,数据已损坏,并且我收到一个ValueError指出The year xxxxx超出范围。

跟踪中调用的最后一个函数是data = cursor.fetchmany(chunksize) ,我相信它来自 pyodbc。

如何从任意表中读取数据并能够优雅地处理损坏的数据并继续?

您可以想象使用 pyodbc 输出转换器函数来拦截损坏的日期值并使用类似于以下的代码“修复”它们:

def unpack_sql_type_timestamp(raw_bytes):
    y, m, d, h, n, s, f = struct.unpack("<h5HI", raw_bytes)
    if y > 9999:
        y = 9999
    elif y < 1:
        y = 1
    return datetime.datetime(y, m, d, h, n, s, f)

pyodbc_connection = pyodbc.connect(connection_string)

pyodbc_connection.add_output_converter(
    pyodbc.SQL_TYPE_TIMESTAMP, 
    unpack_sql_type_timestamp
)

data_chunks = pandas.read_sql_query(
    "SELECT * FROM table_name", 
    con=pyodbc_connection, 
    chunksize=100000
)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM