簡體   English   中英

無法在Ambari Hadoop集群上啟動HUE

[英]failed to start HUE on Ambari Hadoop cluster

我是大數據,Hadoop和Linux的新手。 我們有一個小型的4節點集群,1個主節點和3個節點,分別在Ambari 2.1和Hadoop 2.2.6上運行。所有計算機都在Ubuntu Server 12.04上運行。 所有配置正確,一切正常。 包括DNS,SSH,NTP等。但是,當我嘗試在其上安裝HUE 3.8.1時,請遵循此指南: http : //gethue.com/hadoop-hue-3-on-hdp-installation-教程/安裝成功,我可以在瀏覽器中打開它並登錄。 但隨后向我顯示了3個配置錯誤:

  1. 文件系統根目錄“ /”應歸hdfs所有。
  2. 密鑰應配置為隨機字符串。 重新啟動后,所有會話都將丟失...但是我從未設置過任何kerberos或其他安全性。
  3. 如果沒有運行Livy Spark服務器,該應用將無法運行。

文件夾/ home / user / hue及其所有內容均由hdfs用戶擁有,並屬於hdfs組。 首次登錄HUE時,我已經創建了ADMIN用戶。 如果需要,我是否需要將此管理員用戶添加到某個組? 另外,Spark是作為Ambari軟件包的一部分安裝並運行的。 我需要單獨安裝Livy Spark還是再次進行某些配置? 現在太困惑了……我已經仔細檢查了所有配置文件,它對我來說一切正常,可以在任何地方查看,甚至可以在哪里進行挖掘。 遵循配置指南中的所有步驟,並用正確的端口,主機和地址替換。 任何想法有什么問題,以及如何啟動HUE? 提前致謝。

  1. 警告HDFS的/路徑不屬於默認的“ hdfs”。 如果所有者是別人並且很正常,則可以在此處更新Hue https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L60

  2. 您應該在此處https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L21輸入“ secret_key”的隨機文本字符串,這樣沒人可以破解您的用戶密碼

  3. 如果您不使用Spark應用程序http://gethue.com/spark-notebook-and-livy-rest-job-server-improvements/,則可以忘記此警告。 它需要運行Livy Spark Server

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM