[英]Pandas: concat multiple new columns to an existing data-frame based on the value of one of the columns
[英]how to concat to columns to one in spark data frame
如何将 Spark 中数据帧的 2 列合并为 python 中的一列? 我在 web 中找到了这个,但我得到了错误:
df4.select(concat(col("originaltitle"),lit(','),
col("title"),lit(','),col("lname")).as("FullName")).show(false)
错误:
文件“”,第 2 行 col("title"),lit(','),col("lname")).as("FullName"))
^
SyntaxError:无效的语法
错误很明显,由于as
关键字,您的语法无效。 在 Pyspark 中,您应该使用alias
代替as
:
df4.select(
concat(col("originaltitle"),lit(','), col("title"),lit(','), col("lname")
).alias("FullName")
).show(truncate=False)
除了修复语法错误(使用alias
而不是as
),您还可以使用concat_ws
,它代表与分隔符连接。 这使您不必多次指定逗号。
df4.select(
concat_ws(
',',
col("originaltitle"),
col("title"),
col("lname")
).alias("FullName")
).show(truncate=False)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.