簡體   English   中英

Scala可以加載SparkR保存的模型嗎?

[英]Can Scala load SparkR-saved model?

我是數據分析師。 我想訓練一個模型(例如randomforest),並且該模型可以由Scala保存和加載。 由於Scala和R都使用MLlib進行機器學習,Scala是否還可以加載經過訓練並保存在SparkR中的模型?

我發現一篇文章說它不兼容: https : //databricks.com/blog/2016/05/31/apache-spark-2-0-preview-machine-learning-model-persistence.html

但這是差不多一年前寫的。 SparkR的最新甚至開發版本是否支持這種模型的交叉兼容性?

代碼 :在Spark中保存和加載模型

 val model = pipeline.fit(training)

 // Now we can optionally save the fitted pipeline to disk
 model.write.overwrite().save("/tmp/spark-logistic-regression-model")

 // We can also save this unfit pipeline to disk
 pipeline.write.overwrite().save("/tmp/unfit-lr-model")

 // And load it back in during production
 val sameModel = PipelineModel.load("/tmp/spark-logistic-regression-model")

有關更多詳細信息,請參閱

https://spark.apache.org/docs/latest/ml-pipeline.html#example-pipeline

希望這可以幫助!!!...

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM