我们在使用CDH集群的时候,经常会跑一些spark、flink等任务,通常会占用集群较高的内存;

随着业务进展,数据量增加,可能会并行跑一些任务,或者是给历史任务分配的内存不足以运行现在的场景,就要给任务多分配内存,可能会遇到资源不够的情况,这时候先不要忙着加机器,看看有个参数调整了没!!

 

来看实例,举个三台服务器集群的例子,每台服务器的规格完全一样,来看下单台服务器的内存资源

单台内存有187G,这么看来三台服务器可利用总资源是 187*3=561G

然后我们去对比一下我们在CDH中给yarn分配的内存,路径如下

 

 

 

 

 

这里资源占用显示的451G(这是我调整之后的了,之前的没截图,调整前是270G)

下面就是调整的方法,点击上图的配置

 

然后点那个451G字节内存

 

 

 

在这里可以进行资源分配(我之前每台只分配了90G左右,现在改为每台150G)

在查看服务器单台内存之后,可以在这里按照需要合理的分配yarn管理的内存,当然core也是可以在上图配置中调整~~

因为我们一般hadoop集群运行都是基于yarn分配的内存的,所以这里可以合理地调高一些,这样是不是不用新增节点了~提高了集群地利用率~跑任务地时候分配内存也不用那么紧巴巴的了~~

 

 

 

 

原文地址:http://www.cnblogs.com/ycycycycyc/p/16876803.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性