![](/img/trans.png)
[英]Hadoop Yarn: How to limit dynamic self allocation of resources with Spark?
[英]Hadoop YARN - how to limit requestedMemory?
嘗試從hadoop-mapreduce-examples-2.2.0.jar
運行PI示例,出現以下異常:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.yarn.exceptions.InvalidResourceRequestException): Invalid resource request, requested memory < 0, or requested memory > max configured, requestedMemory=1536, maxMemory=512
不確定1536的來源,但是512是我在mapred-site.xml
設置給子任務的最大堆大小:
<property>
<name>mapreduce.map.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx410m</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx410m</value>
</property>
確定映射/縮小任務大小的正確方法是什么?
yarn-site.xml
的yarn.scheduler.maximum-allocation-mb
的默認值是yarn.app.mapreduce.am.resource.mb
,而mapred-site.xml
中yarn.app.mapreduce.am.resource.mb
參數的默認值是1536。
確保app.mapreduce.am.resource.mb
allocation-mb
> app.mapreduce.am.resource.mb
可以。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.