簡體   English   中英

Spark Scala將文本文件讀入DataFrame

[英]Spark Scala read text file into DataFrame

我希望讀取一個文件並將其存儲到DataFrame中。 我正在讀取一個文本文件,並將其存儲到RDD [Array [String]]中。

val file = sc.textFile("/mockSmall.txt").map(line => line.split(",").map(_.trim))
case class record(eventName: String, date: String, counter: String)
val solrDF: DataFrame = file.map{case Array(s0, s1, s2) => record(s0, s1, s2)}.toDF()

但是,出現以下編譯問題:

值DF不是RDD [record]的成員

我該如何解決? 注意:我使用的是spark 1.6,因此沒有sparkSession。

您必須導入spark.implicits._一切都會好起來的

編輯:

對於1.6.1用戶,請導入sqlContext.implicits._

要么 :

改用sqlContext.createDataFrame instead

請參考官方的SQL和DataFrames指南以獲取更多信息

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM