簡體   English   中英

如何在pyspark dataframe中將時間戳轉換為hive格式?

[英]How to convert timestamps to hive format in a pyspark dataframe?

我在 pyspark dataframe 中有 2 列時間戳。如何根據 hive 表標准轉換這些時間戳

時間戳A 時間戳B
2022:10:11:08:07:22 2022:10:11:08:07:22
2022:11:11:08:07:22 2022:10:11:08:07:22

Hive standards 2022-10-11 08:07:22 動態的怎么做。

任何想法如何實現它?

您可以使用to_timestamp function 並傳遞源時間戳格式來解析它。

spark.sparkContext.parallelize([('2022:10:11:08:07:22', )]).toDF(['ts_str']). \
    withColumn('ts', func.to_timestamp('ts_str', 'yyyy:MM:dd:HH:mm:ss')). \
    show(truncate=False)

# +-------------------+-------------------+
# |ts_str             |ts                 |
# +-------------------+-------------------+
# |2022:10:11:08:07:22|2022-10-11 08:07:22|
# +-------------------+-------------------+

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM