大会预告
导读
01 计算任务的特征
1.1 计算任务的时间和空间特征
短期型任务指的是,任务开始执行,会在一定的时间内运行完成,结束后会释放计算资源。
常驻型任务指的是,没有外部强制关闭的话,任务会一直处于执行状态,不会结束。
1.2 计算的两种形态
第一种,一台硬件服务器处理很多件计算任务。
第二种,很多台硬件服务器处理一件计算任务。
1.3 分布式解构
IB高性能网络+内存一致性硬件加速。计算任务之间完全紧耦合,通常采用超级计算(HPC)模式。超算的各个节点之间主流是通过IB网络连接,但会在其上构建高效的内存一致性协议加速处理,从而使得整个超算连成一台计算机。
IB高性能网络。计算任务之间,联系紧密,数据量大,延迟敏感。计算机集群,通过IB网络连接。本质上仍然是多台计算机组成的计算集群,计算任务间靠点对点通信交互数据。典型案例如AI大模型训练。
RoCEv2高性能网络。计算任务之间延迟敏感,但联系紧密程度再低一些,通常可以选用RoCEv2的方式。RoCEv2在高性能、兼容性和低成本方面达成一个均衡。典型案例如EBS高性能块存储和分布式文件存储。
标准Ethernet网络。计算任务之间完全解耦,则通常采用标准以太网的方式。传统的云计算下,微服务解构的互联网业务通常采取此网络方式。
02 理想化的算力调度
短期的小尺寸计算任务。这是通常大家理解的算力调度,也是算力调度最简单的情况。
短期的大尺寸计算任务。超算或AI大模型训练的计算模式。
常驻的小尺寸计算任务。云计算常见的业务组织方式,是常驻的小尺寸计算任务。
长期的大尺寸计算任务。实际的互联网型业务系统。
一个是,计算任务的解构(计算任务的弹性)。大尺寸的计算任务,可以拆分成若干个小尺寸的计算任务。从而使得计算任务能够匹配单个裸机的计算主机(裸机、虚拟机、容器等);
另一个,计算资源的池化(虚拟化)和再组合(计算主机的弹性)。计算主机可以从1/N个处理器核、扩展到多个处理器核,甚至扩展到M个计算节点。因为计算主机的弹性,从而使得计算主机既可以适配小尺寸的计算任务,也可以适配大尺寸的计算任务。
两者相向而行,并且均具有一定的(尺寸)弹性,从而能够尽可能的适配对方。
03 实际算力调度中的问题
3.1 问题一:静态调度和动态调度
初始的时候,车辆由驾驶员驾驶。此刻,其他乘车人员,可以在车上玩游戏、看电影、听音乐、刷短视频等等。这些计算任务都运行在车辆终端本地。
当开启自动驾驶时,本地算力不够。游戏、电影、音乐、短视频等计算任务,由于优先级较低,统一调度到边缘侧甚至云侧。而自动驾驶的计算任务,由于尺寸较大,通常也是由解构的若干微服务组成。其中优先级较高的少量微服务,运行在车辆终端本地;而优先级较低的大部分微服务,也和游戏等其他计算任务一样,运行在边缘侧甚至云侧。
解除自动驾驶后,自动驾驶相关微服务(计算任务)退出,并且释放本地和边缘、云端的算力资源。而游戏等其他计算任务再从边缘、云端,重新调度(迁移)到车辆终端本地。
3.2 问题二:任务的状态
无状态计算任务
有状态计算任务
3.3 任务间的关联性
第一层,是全局算力调度。为这个大任务,或者用户的若干大任务分配一个独立的计算集群,可以是跨数据中心、跨云边端的算力资源所组成的“虚拟”的集群。
另一层,则是用户在自己的集群内部,进行业务层次的算力再调度。
3.4 任务的计算平台要求
CPU处理器。CPU是图灵完备的,可以自运行。
内存。计算数据暂存和数据共享的区域。
存储I/O。本地的存储通过片间总线,如PCIe;远程的存储需要通过网络。
网络I/O。网络主要用于外部通信。在集群计算和计算存储分离的场景下,网络的功能主主要是三个:
访问内网,东西向网络,作为集群内部不同节点间的网络通信,目前主要是IB;
访问远程存储,目前主要使用RoCEv2;
访问外网,南北向网络,作为集群外部的访问端口,目前主要是Ethernet。
一个或多个加速处理器:
从整个架构看,加速处理器是和CPU功能类似的计算部件。
其他加速处理器是非图灵完备的,均需要组成CPU+xPU的异构计算架构。从CPU软件视角看,加速处理器是跟网络和存储I/O类似的部件。
加速处理器,目前常用可以分为两类:GPU,通用的并行计算加速平台。DSA。领域专用加速器,DSA是完全专用(ASIC)向通用可编程性的微调。
CPU架构的差异性。CPU是x86、ARM还是其他架构;
网络和存储接口是否一致;
加速处理器的类型和架构是否一致。
04 宏观视角:多租户多系统的算力调度
业务从全局调度系统获取自己的资源(第一层调度),组成自己的“虚拟”集群;
然后,业务的计算任务,在这“虚拟”集群里再进行调度。
全局调度为计算实例分配好资源之后,仍然可以动态调度(迁移),以保证计算实例的高可用。
业务从全局调度系统获取资源也是动态的,可增加,可减少。
05 算力调度的分层
第一层,资源抽象层。通过计算机虚拟化,对资源进行抽象和封装,以及资源的池化和弹性切分。目前,业界一些先进的解决方案,可以通过DPU的加持,实现虚拟化的零损耗,以及裸机和虚拟机的统一,既有裸机的性能又有虚机的高可用和弹性。因此,裸机和虚拟主机的相关劣势已经“不复存在”。此外,通过虚拟化,可以实现接口的抽象统一,从而减少多元异构算力带来架构/接口兼容性的问题。
第二层,算力调度层。容器化及云原生的核心优势,是以应用为中心:一次打包,到处运行。因此,通常是以容器为载体,以容器为基础调度粒度,从而实现算力的高效调度。
-----正文完-----
观看《智算中心融合算力调度》公开课回放:
—END—
点击下方名片
即刻关注我们