[英]How to remove commas in a column within a Pyspark Dataframe
大家好,感謝您花時間幫助我,
現在我已經將 csv 上傳到 spark 中,dataframe 的類型是pyspark.sql.dataframe.DataFrame
我有一列數字(雖然在這種情況下是字符串)。 它們是像6,000
這樣的數字,我只想從這些數字中刪除所有逗號。 我試過df.select("col").replace(',', '')
和df.withColumn('col', regexp_replace('col', ',', '')
但似乎出現錯誤“DataFrame Object 不支持項目分配”
有任何想法嗎? 我對 Spark 很陌生
你應該真正投射它:
from pyspark.sql.types import IntegerType
df = df.withColumn("col", df["col"].cast(IntegerType()))
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.