[英]Airflow mysql to google cloud storage, byte-like object required error
我正在研究查询MySQL数据库,提取数据并将其加载到Google Cloud Storage的DAG。
我尝试导出的表包括文本,整型,浮点型,varchar(20)和varchar(32)数据。
我正在使用气流v1.8.0。
default_args = {
'owner' : 'tia',
'start_date' : datetime(2018, 1, 4),
'depends_on_past' : False,
'retries' : 1,
'retry_delay':timedelta(minutes=5),
}
dag = DAG('mysql_to_gcs', default_args=default_args)
export_waybills = MySqlToGoogleCloudStorageOperator(
task_id='extract_waybills',
mysql_conn_id = 'podiotestmySQL',
sql = 'SELECT * FROM podiodb.logistics_waybills',
bucket='podio-reader-storage',
filename= 'podio-data/waybills{}.json',
schema_filename='podio-data/schema/waybills.json',
dag=dag)
我凸轮遇到以下错误,这似乎类似于此Airflow mysql to gcp Dag错误
[2018-01-04 11:12:23,372] {models.py:1342}信息-在2018-01-04 00:00:00执行
[2018-01-04 11:12:23,400] {base_hook.py:67}信息-使用连接到:35.189.207.140
[2018-01-04 11:12:24,903] {models.py:1417}错误-需要类似字节的对象,而不是'str'
追溯(最近一次通话):
运行中的文件“ /home/hyperli/.local/lib/python3.5/site-packages/airflow/models.py”,行1374
结果= task_copy.execute(context = context)
执行中的文件“ /home/hyperli/.local/lib/python3.5/site-packages/airflow/contrib/operators/mysql_to_gcs.py”,第91行
files_to_upload = self._write_local_data_files(光标)
_write_local_data_files中的文件“ /home/hyperli/.local/lib/python3.5/site-packages/airflow/contrib/operators/mysql_to_gcs.py”,第136行
json.dump(row_dict,tmp_file_handle)
转储文件fp.write(chunk)中的文件“ /usr/lib/python3.5/json/ init .py”,行179
在func_wrapper中的文件“ /usr/lib/python3.5/tempfile.py”,第622行,返回func(* args,** kwargs)
TypeError:需要一个类似字节的对象,而不是'str'
[2018-01-04 11:12:24,907] {models.py:1433}信息-将任务标记为UP_FOR_RETRY
[2018-01-04 11:12:25,037] {models.py:1462}错误-需要类似字节的对象,而不是'str'
有谁知道为什么会引发异常?
您在使用python 3吗? 因为它接缝了最新版本(1.90)的mysql_to_gcs与python不兼容,所以它接缝了。
似乎在此更改了该运算符以使mysql_to_gcs py3兼容。 但是最新版本(1.90)不包含此更改
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.