繁体   English   中英

如何访问HDFS头节点群集中安装的pyspark

[英]How can I access pyspark installed inside hdfs headnode cluster

我有一个由hadoop集群组成的头节点。我看到pyspark安装在hdfs集群中,即我可以在hdfs用户中使用pyspark shell。但是在用户headnode中没有安装pyspark。 因此,我无法从hdfs访问文件并将其带到pyspark。如何在jupyter笔记本的hdfs内使用pyspark。我在用户头节点中安装了pyspark,但无法访问hdfs文件。 jupyter无法使用hdfs中安装的spark。如何启用它,以便可以在jupyter中访问hdfs文件。

现在,当我在jupyter中访问hdfs文件时,

It says 'Spark is not installed'

我知道它的广泛性,如果我强调不足或过分强调,请在评论中让我知道

头节点是另一个Linux帐户还是另一个Linux主机?

如果只是不同的帐户,则比较两个帐户上的环境变量。 登录到hdfs并运行“ env | sort”,然后在头节点上执行相同的操作。

主要检查环境变量PATH和某些SPARK变量是否存在差异

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM