[英]Spark_Apply For TM library is throwing an error
我想在sparklyr
使用TM庫的sparklyr
。 我同樣使用了函數spark_apply()
。 但是我收到以下錯誤
錯誤:無法從類data.frame的對象中檢索spark_connection
當我運行我的代碼時。 以下是我的代碼段
myFunction <- function(sparkdataframe){
inputdf<-collect(sparkdataframe)
inputdf<-as.matrix(inputdf)
inputdf1<-t(inputdf)
doc<-Corpus(VectorSource(inputdf1))
doc<-tm_map(doc,removePunctuation)
data.frame(doc = sapply(doc, as.character), stringsAsFactors = FALSE)
return(doc)
}
# Use spark_apply to run function in Spark
spark_apply(sparkdataframe,function(e) (myFunction(e)))
那是因為您嘗試在閉包中collect
:
inputdf<-collect(sparkdataframe)
您的函數接收的對象是普通的R data.frame
。 完全刪除此行,然后將以下行替換為:
inputdf<-as.matrix(sparkdataframe)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.