1. 首页 > 娱乐 > 生活科普

ON Spark Yarn的资源分配图解

任务提交脚本

脚本模板

当我们提交一个Spark作业到YARN上,通常情况下会使用如下的脚本模板:

参数解读

具体参数的含义如下图所示:

每个executor的最大核数

每个node的executor数 = 总核数 / 每个executor的最大cup核数,具体是通过参数

yarn.nodemanager.resource.cpu-vcores进行配置,比如该值配置为:33,参数executor-cores的值为:5,那么每个node的executor数= (33 - 1[操作系统预留])/ 5 = 6,假设集群节点为10,那么num-executors = 6 * 10 =60

该参数的值依赖于:yarn-nodemanager.reaource.memory-mb,该参数限定了每个节点的container的最大内存值。

该参数的值=yarn-nodemanager.reaource.memory-mb / 每个节点的executor数量,如果yarn的参数配置为160,那么

yarn-nodemanager.reaource.memory-mb / 每个节点的executor数量 = 160 / 6 ≈ 26GB

Spark程序提交运行过程

内存管理图解

Spark2.X的内存管理模型如下图所示:

Spark中的内存使用大致包括两种类型:执行和存储。

执行内存是指用于用于shuffle、join、排序、聚合等计算的内存

存储内存是指用于在集群中持久化和广播内部数据的内存。

在Spark中,执行内存和存储内存共享一个统一的区域。当没有使用执行内存时,存储内存可以获取所有可用内存,反之亦然。如有必要,执行内存可以占用存储存储,但仅限于总存储内存使用量低于某个阈值。

该设计确保了几种理想的特性。首先,不使用缓存的应用程序可以使用整个空间执行,从而避免不必要的磁盘溢出。其次,使用缓存的应用程序可以保留最小存储空间。最后,这种方法为各种工作负载提供了合理的开箱即用性能,而无需用户内部划分内存的专业知识。

虽然有两种相关配置,但一般情况下不需要调整它们,因为默认值适用于大多数工作负载:

spark.memory.fraction默认大小为(JVM堆内存 -300MB)的一小部分(默认值为0.6)。剩下的空间(40%)保留用于用户数据结构,Spark中的内部元数据,以及在稀疏和异常大的记录的情况下防止OOM错误。spark.memory.storageFraction默认大小为(JVM堆内存- 300MB)0.60.5。

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://www.jmbhsh.com/shenghuokepu/36472.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息