[英]What are the mandatory options for loading Excel file?
我已經使用以下語法從 S3 加載了一個 excel 文件,但我想知道需要在此處設置的選項。
為什么必須設置以下所有選項以加載 excel 文件? 這些選項都不是加載其他文件類型(如 csv、del、json、avro 等)所必需的。
val data = sqlContext.read.
format("com.crealytics.spark.excel").
option("location", s3path).
option("useHeader", "true").
option("treatEmptyValuesAsNulls", "true").
option("inferSchema","true").
option("addColorColumns", "true").
load(path)
如果未設置上述任何選項(位置除外),我會收到以下錯誤:
sqlContext.read.format("com.crealytics.spark.excel").option("location", s3path).load(s3path)
錯誤信息:
Name: java.lang.IllegalArgumentException
Message: Parameter "useHeader" is missing in options.
StackTrace: at com.crealytics.spark.excel.DefaultSource.checkParameter(DefaultSource.scala:37)
at com.crealytics.spark.excel.DefaultSource.createRelation(DefaultSource.scala:19)
at com.crealytics.spark.excel.DefaultSource.createRelation(DefaultSource.scala:7)
at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:345)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:149)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:132)
at $anonfun$1.apply(<console>:47)
at $anonfun$1.apply(<console>:47)
at time(<console>:36)
除了userSchema
和sheetName
之外, spark-excel
大多數選項都是強制性的。
您始終可以在此處找到的 DataSource 源代碼中進行檢查。
您必須記住,此數據源或數據連接器包是在 spark 項目之外實現的,並且每個包都帶有其規則和參數。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.