[英]spark container manual configuration
當Spark將作業提交給YARN資源管理器時,它會根據數據大小,分區,數據位置以及相應的執行者數量來制定邏輯和物理執行計划,並且這些計划都會自動發生。 您仍然可以配置必需的執行程序編號,但是可以在單個節點中運行,也可以在群集中的不同節點中運行,也可以在特定節點中運行它們,這取決於您提交的數據位置和作業類型。 您不能指示YARN在群集中所有節點上運行所有執行程序,但是如果您有非常大的數據集和復雜的轉換,它將自動使用節點中的所有群集。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.