我遵循了那个指导并安装了spark-1.6.1和hadoop,但是当我运行它时,它挂在这里。 (我抱怨JVM没有在10秒内启动之前我必须重启机器)

sc < - sparkR.init(master =“local”)使用spark-submit命令启动java C:/spark-1.6.1/bin/spark-submit.cmd“--packages”“com.databricks:spark-csv_2。 11:1.2.0“”sparkr-shell“C:\\ Users \\ i50194 \\ AppData \\ Local \\ Temp \\ RtmpUnK05t \\ backend_portff47fcb7e27

  ask by Yucheng Song translate from so

本文未有回复,本站智能推荐: