[英]compile scala-spark file to jar file
我正在處理頻繁項目集的項目,並且我使用的是FP-Growth算法,我依賴於Scala-Spark中開發的版本
我需要修改此代碼並將其重新編譯為一個jar文件,可以將其包含到Spark-shell中,並在spark中調用其功能
問題是spark-shell是un解釋器,它在此文件中發現錯誤,我已經用eclipse嘗試了Sbt,但是沒有成功。 我需要的是可以使用最新版本的scala和spark-shel庫將該文件編譯為jar文件的編譯器。
現在有您的問題!
您需要做的就是針對要使用自己的jar的計算機添加依賴項jar(scala,java等)。 稍后將罐子添加到spark-shell中,您可以像下面那樣使用它,
spark-shell --jars your_jar.jar
請按照以下步驟操作:
./dev/make-distribution.sh
腳本,該腳本位於Spark存儲庫中
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.