[英]aggregate function Spark SQL
我正在使用 Pyspark 2.2 rn,我的代碼被這個函數崩潰了,我不明白為什么它會崩潰->
代碼
import Pyspark.sql.functions as F
t.withColumns('column_name',
F.expr("aggregate(column, '', (acc, x) -> acc || concat(x, 4) ','))"))
錯誤,例如 - “外部輸入 '>' 期望 '所有 sql 函數'”
求你的幫助
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.