公开课预告:智算中心 AI Scale-Up 网络技术|益思芯科技解决方案副总裁唐杰主讲

科技   2024-11-26 12:26   新加坡  

10月起,智猩猩芯片与算力教研组全新策划推出「智猩猩智算集群公开课」,聚焦集群构建、互联网络、算力调度、存储等关键技术。


目前,「智猩猩智算集群公开课」前三期已顺利完结。腾讯专有云首席架构师方天戟、矩向科技CEO黄朝波、云脉芯联产品总监孙伟三位主讲人,分别以《智算集群技术概述》、《智算中心融合算力调度》、《智算集群网络互连技术创新应用与展望》为主题,进行了直播讲解。


11月28日19:30,「智猩猩智算集群公开课」第4期将开讲,由益思芯科技解决方案副总裁唐杰主讲,主题为《智算中心 AI Scale-Up 网络技术》。


智算集群的规模越来越大,从最初的千卡、万卡到今天的十万卡。智算集群规模飞速增长的同时,大家也开始关注如何保证超大规模的卡间高效协同,是充分发挥集群计算性能的关键。这使得人们进一步认识到,对超大规模智算集群的构建来说,智算网络已经成为与计算芯片同等甚至更重要的关键技术之一。


Scale-Out、Scale-Up是目前广受关注的两大智算网络技术。Scale-Out通过以太网或Infiniband,实现GPU之间的RDMA功能,即所谓的前端网络。Scale-Up则用于GPU之间高速互连,可以实现跨GPU的内存读写,也称后端网络。从本质上来看,Scale-Out、Scale-Up都是为了实现GPU之间内存方面的数据传输,那么二者的本质区别是什么?为什么不能将二者合而为一呢?


本次公开课,唐杰老师首先会阐述AI智算网络为何要有Scale-Up/Out之分,之后会着重讲解益思芯StarLink互联技术要解决的问题,以及StarLink实现的技术特点和在智算中心实现StarLink互联的技术路径。



第4期信息


 主 题 

《智算中心 AI Scale-Up 网络技术》

 提 纲 


1、AI智算网络为什么要有Scale-Up/Out之分

2、StarLink互联技术要解决的问题

3、StarLink实现的技术特点

4、在智算中心实现StarLink互联的技术路径


 主 讲 人 


唐杰,益思芯科技解决方案副总裁,华东理工大学工学硕士,目前就职于益思芯科技上海有限公司,负责产品方案;主要构建以益思芯自主产权的P4为中心的数据中心虚拟网络加速加速方案,NVMe-oF 以及virtio-BLK/NVMe益思芯存储方案的设计和验证, Resnics自主开发的高速RDMA 网卡在算力网络的应用。在2022年加入益思芯之前,在FPGA厂商Xilinx主要负责数据中心的方案,积极投身软硬件结合的方案设计和推广。


 直 播 时 间 


11月28日19:30-20:30


报名方式


有公开课直播观看需求的朋友,可以添加小助手“瑞秋”进行报名。已添加过“瑞秋”的老朋友,可以给“瑞秋”私信,发送“智算集群04”进行报名。对于通过报名的朋友,之后将邀请入群进行观看和交流。


芯东西
芯东西专注报道芯片、半导体产业创新,尤其是以芯片设计创新引领的计算新革命和国产替代浪潮;我们是一群追“芯”人,带你一起遨游“芯”辰大海。
 最新文章