簡體   English   中英

如何刪除 Pyspark Dataframe 中的列中的逗號

[英]How to remove commas in a column within a Pyspark Dataframe

大家好,感謝您花時間幫助我,

現在我已經將 csv 上傳到 spark 中,dataframe 的類型是pyspark.sql.dataframe.DataFrame

我有一列數字(雖然在這種情況下是字符串)。 它們是像6,000這樣的數字,我只想從這些數字中刪除所有逗號。 我試過df.select("col").replace(',', '')df.withColumn('col', regexp_replace('col', ',', '')但似乎出現錯誤“DataFrame Object 不支持項目分配”

有任何想法嗎? 我對 Spark 很陌生

你應該真正投射它:

from pyspark.sql.types import IntegerType
df = df.withColumn("col", df["col"].cast(IntegerType()))

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM