[英]spark-shell throws error in Apache spark
我已經安裝上的虛擬盒Ubuntu的(主機操作系統Windows 7)。我也安裝了Apache的火花,配置Hadoop的SPARK_HOME
中.bashrc
並添加HADOOP_CONF_DIR
到spark-env.sh
。 現在,當我啟動spark-shell
它將引發錯誤,並且不初始化spark上下文,sql上下文。 我是否在安裝中缺少某些東西,並且也想在群集上運行(設置了hadoop 3節點群集)。
嘗試在Windows 7上安裝Spark local時遇到相同的問題。請確保以下路徑正確,並且我確定會與您一起工作。 我在此鏈接中回答了同樣的問題,因此,您可以按照以下說明進行操作。
現在您可以運行cmd並編寫spark-shell它將起作用。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.