繁体   English   中英

在 Windows 中从 ubuntu wsl 运行 pyspark,错误:找不到 cmd

[英]pyspark running from ubuntu wsl in windows, error: cmd not found

我在 Windows 10 的 ubuntu wsl 中安装 pyspark。这些是我从 Microsoft Store 安装 wsl 后使用的命令。

#install Java runtime environment (JRE)
sudo apt-get install openjdk-8-jre-headless
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64/jre
#download spark, visit https://spark.apache.org/downloads.html if you want a different version
wget https://apache.osuosl.org/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz
#untar and set a symlink
sudo tar -xvzf spark-2.4.7-bin-hadoop2.7.tgz -C /opt
sudo ln -s spark-2.4.7-bin-hadoop2.7 /opt/spark
ln -s /usr/bin/python3.8.5 python
/opt/spark/bin/pyspark

错误:


/mnt/c/Users/akash/.pyenv/pyenv-win/bin/pyenv: 3: cmd: not found
/mnt/c/Users/akash/.pyenv/pyenv-win/bin/pyenv: 3: cmd: not found

我不明白为什么它在 C 驱动器中查找。 如何解决这个问题? 任何帮助表示赞赏。

不要创建符号链接,而是尝试将解压后的目录 spark-3.0.1-bin-hadoop2.7 移动到 opt/spark 目录:

sudo mv spark-3.0.1-bin-hadoop2.7 /opt/spark

另外,请使用带有 Hadoop 2.7 的 Spark 3.0.1 的最新版本。

您可以阅读这篇在线文章以了解更多详细信息。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM