[英]Spark: can I convert a Scala set to a DataType in spark SQL?
例如,Scala數組對應於Spark SQL中的ArrayType,可在架構定義中使用。 對於Map,有MapType。
Set怎么樣?
一組受支持的類型(無雙關語)受限制且不可擴展。 您可以在《 Spark SQL,數據框架和數據集指南》中找到受支持類型的完整列表,因為您可以檢查Set
是否沒有類型。
最好的辦法是使用ArrayType
映射到scala.collection.Seq
並自己處理特定於集合的操作。
可以使用二進制Encoders
( 如何在數據集中存儲自定義對象? ),但這些二進制Encoders
用於強類型數據集,並且與DataFrames
使用時具有有限的應用程序。
空無一人。 詳盡的清單在這里: http : //spark.apache.org/docs/latest/sql-programming-guide.html#data-types
在Spark存儲庫中的“ examples/src/main/scala/org/apache/spark/examples/sql/SparkSQLExample.scala
”中找到完整的示例代碼。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.