[英]How can I access pyspark installed inside hdfs headnode cluster
我有一个由hadoop集群组成的头节点。我看到pyspark安装在hdfs集群中,即我可以在hdfs用户中使用pyspark shell。但是在用户headnode中没有安装pyspark。 因此,我无法从hdfs访问文件并将其带到pyspark。如何在jupyter笔记本的hdfs内使用pyspark。我在用户头节点中安装了pyspark,但无法访问hdfs文件。 jupyter无法使用hdfs中安装的spark。如何启用它,以便可以在jupyter中访问hdfs文件。
现在,当我在jupyter中访问hdfs文件时,
It says 'Spark is not installed'
我知道它的广泛性,如果我强调不足或过分强调,请在评论中让我知道
头节点是另一个Linux帐户还是另一个Linux主机?
如果只是不同的帐户,则比较两个帐户上的环境变量。 登录到hdfs并运行“ env | sort”,然后在头节点上执行相同的操作。
主要检查环境变量PATH和某些SPARK变量是否存在差异
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.