[英]How to write dataframe to csv file with sheetname using spark scala
我正在嘗試使用選項 sheetName 將 dataframe 寫入 csv 文件,但它不適用於我。
df13.coalesce(1).write.option("delimiter",",").mode(SaveMode.Overwrite).option("sheetName","Info").option("header","true").option("escape","").option("quote","").csv("path")
任何人都可以幫助我嗎
我不認為在 CSV 文件中您實際上有工作表名稱,理想情況下,文件名是 CSV 文件中的工作表名稱。 您可以嘗試更改為 excel 並嘗試..
Spark 在寫為csv
時無法直接執行此操作,沒有 sheetName 選項, sheetName
路徑是您提到的路徑 as.csv("path")。
Spark使用hadoops文件格式,分區為output路徑下的多個part文件,在你的情況下1個part文件。 除非你真的需要它,否則不要重新分區到 1。
您可以做的一件事是在不重新分區的情況下編寫 dataframe 並使用 HADOOP API 將那些小的許多零件文件合並為單個文件。
這是更多詳細信息使用 spark-csv 編寫單個 CSV 文件
We can only 1 default sheet in csv file if we want multiple sheet then we should write the dataframe to excel format instead of csv file format.
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.