[英]How to convert timestamps to hive format in a pyspark dataframe?
我在 pyspark dataframe 中有 2 列時間戳。如何根據 hive 表標准轉換這些時間戳
時間戳A | 時間戳B |
---|---|
2022:10:11:08:07:22 | 2022:10:11:08:07:22 |
2022:11:11:08:07:22 | 2022:10:11:08:07:22 |
Hive standards 2022-10-11 08:07:22 動態的怎么做。
任何想法如何實現它?
您可以使用to_timestamp
function 並傳遞源時間戳格式來解析它。
spark.sparkContext.parallelize([('2022:10:11:08:07:22', )]).toDF(['ts_str']). \
withColumn('ts', func.to_timestamp('ts_str', 'yyyy:MM:dd:HH:mm:ss')). \
show(truncate=False)
# +-------------------+-------------------+
# |ts_str |ts |
# +-------------------+-------------------+
# |2022:10:11:08:07:22|2022-10-11 08:07:22|
# +-------------------+-------------------+
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.