[英]SPARK: Perforf linear/logistic regression from spark-glmnet package
我是Spark的新手,最近幾周我正在學習其中實現的方法。 這次,我想使用在spark-glmnet
軟件包中實現的功能: spark-glmnet 。 我對進行logistic regression
最感興趣。
我下載了源文件並使用以下命令創建了一個胖JAR
:
sbt assembly
完成該過程后,我將JAR
文件復制到服務器並運行Spark Shell。
export HADOOP_CONF_DIR=/opt/etc-hadoop/;
/opt/spark-1.5.0-bin-hadoop2.4/bin/spark-shell \
--master yarn-client \
--num-executors 5 \
--executor-cores 6 \
--executor-memory 8g \
--jars /opt/spark-glmnet-assembly-1.5.jar,some_other_jars \
--driver-class-path /usr/share/hadoop-2.2.0/share/hadoop/common/lib/mysql-connector-java-5.1.30.jar
但是我不知道如何在Spark中運行此包中的函數。 例如,如何通過坐標下降進行邏輯回歸?
答案非常簡單:
sc.addJar("path_to_my_jar")
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.