[英]Apply UTF8 encoding when writing Scala Dataframe into CSV file
將 dataframe 寫入 Spark2-Scala 中的 CSV 文件時,如何正確應用 UTF8 編碼? 我正在使用這個:
df.repartition(1).write.mode(SaveMode.Overwrite)
.format("csv").option("header", true).option("delimiter", "|")
.save(Path)
而且它不起作用:例如:將 é 替換為奇怪的字符串。
謝謝你。
因此,正如@Hristo Iliev 建議的那樣,我需要強制使用 UTF 編碼:
df.repartition(1).write.mode(SaveMode.Overwrite)
.format("csv").option("header", true).option("encoding", "UTF-8").option("delimiter", "|")
.save(Path)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.