您现在的位置是:热点 >>正文
"千亿参数"大模型再卷风云,成功实现CPU通用服务器上运行
热点168人已围观
简介北京2024年7月26日 /美通社/ -- 生成式AI快速发展,AI算力作为人工智能发展的重要支撑,正以惊人的速度渗透至每一个计算设备。一切计算皆AI,为了支撑千行百业最广泛的场景,通用服务器也在&q ...
北京2024年7月26日 /美通社/ -- 生成式AI快速发展,千亿参数AI算力作为人工智能发展的大模重要支撑,正以惊人的型再现速度渗透至每一个计算设备。一切计算皆AI,卷风为了支撑千行百业最广泛的云成运行场景,通用服务器也在"智变"。功实
不久前,通用浪潮信息的服务研发工程师基于2U4路旗舰通用服务器NF8260G7,采用领先的器上张量并行、NF4模型量化等技术,千亿参数实现服务器仅依靠4颗CPU即可运行千亿参数 "源2.0" 大模型,大模成为通用AI算力的型再现新标杆。
NF8260G7在2U空间搭载4颗32核英特尔至强处理器,卷风主频2.4GHz,云成运行支持8个内存通道,功实3路UPI总线互联,采用32根32G的DDR5内存,内存容量1024GB,实测内存读带宽995GB/s,运行效率82.94%。框架和算法方面,NF8260G7支持PyTorch、TensorFlow等主流AI框架和DeepSpeed等流行开发工具,满足用户更成熟、易部署、更便捷的开放生态需求。浪潮信息算法工程师还基于Yuan2.0千亿参数大模型的研发积累,为NF8260G7部署张量并行环境,提升4倍计算效率,并通过NF4等量化技术,将1026亿参数的Yuan2.0大模型容量缩小至1/4,首次实现单机通用服务器,即可运行千亿参数大模型,为千亿参数AI大模型在通用服务器的推理部署,提供了性能更强,成本更经济的选择。
【出题】算力智变:通用服务器挑战「千亿参数」大模型
科技的进步,最终目的是"落入凡间"。AIGC正以超乎想象的速度渗透进千行百业,对企业的算力基础设施也提出了更高的要求。为了满足最广泛的通用业务与新兴AI业务融合的需求,目前金融、医疗等许多行业用户正在基于通用算力构建AI业务,实现了通用算力的"AI进化"。从效果来看,目前通用服务器单机已能够承载几十到几百亿参数规模的AI模型应用。
但算力需求仍在爆发式增长,随着大模型技术的不断发展,模型参数量不断攀升,千亿级参数是智能涌现的门槛,通用算力能否运行千亿参数AI大模型,是衡量其能否支撑千行百业智能涌现的关键。
千亿参数大模型要在单台服务器中高效运行,对计算、内存、通信等硬件资源需求量非常大,如果使用以GPU为主的异构加速计算方式,千亿参数大约需要200~300GB的显存空间才放得下,这已经远超过当前业界主流的AI加速芯片的显存大小。放得下只是基础,千亿参数大模型在运行过程中,对数据计算、计算单元之间及计算单元与内存之间通信的带宽要求也非常高。千亿参数大模型按照BF16的精度计算,运行时延要小于100ms,内存与计算单元之间的通信带宽至少要在2TB/s以上。
不同参数规模服务器硬件资源需求对比
参数规模 | 100亿 | 1000亿 |
显存空间 | 20~30GB | 200~300GB |
内存带宽 (BF16精度 时延100ms) | 200~300GB/s | 2~3TB/s |
除了硬件资源的挑战,为了让通用服务器运行千亿大模型,软硬协同优化也是一大难题。比如AI大模型一般基于擅长大规模并行计算的AI加速卡设计,通用服务器的处理器虽然拥有高通用性和高性能的计算核心,但没有并行工作的环境。AI大模型需要频繁地在内存和CPU之间搬运算法权重,但通用服务器默认模型权重只能传输给一个CPU的内存,由该CPU串联其他CPU进行权重数据的传输。这就导致CPU与内存之间的带宽利用率不高,通信开销大。
通用服务器要运行千亿参数大模型面临重重挑战。要填补这一空白,浪潮信息研发工程师亟需提升通用服务器AI计算性能,优化CPU之间、CPU与内存之间的通信效率,建立通用服务器的大规模并行计算的算法环境等软硬协同技术,系统释放通用服务器的AI能力。
【解题】软硬协同创新,释放通用服务器的智算力
首先,硬件资源方面,为支撑大规模并行计算,浪潮信息研发工程师采用2U4路旗舰通用服务器NF8260G7,对服务器处理器、内存、互连以及框架和算法的适配性等方面进行了全面优化。
本次运行千亿参数大模型的通用服务器NF8260G7采用如下配置:
NF8260G7在2U空间搭载4颗英特尔至强处理器6448H,具有AMX(高级矩阵扩展)AI加速功能,核心数达到了32核心,基准主频2.4GHz,L3 Cache 60MB,支持8个内存通道,3路UPI总线互联,功耗250W。内存方面,NF8260G7配置32根32G DDR5 4800MHZ的内存,内存带宽实测值分别为995GB/s(读带宽)、423GB/s(写带宽)、437GB/s(读写带宽),为满足千亿大模型低延时和多处理器的并发推理计算打下基础。
在高速信号互连方面,浪潮信息研发工程师优化了CPU之间,CPU和内存之间的走线路径和阻抗连续性,依据三维仿真结果调整过孔排列方式,将信号串扰降低到-60dB以下,较上一代降低50%,通过DOE矩阵式有源仿真找到通道所有corner的组合最优解,充分发挥算力性能。框架和算法方面,浪潮信息通用服务器也支持PyTorch、TensorFlow等主流AI框架和DeepSpeed等流行开发工具,满足用户更成熟、易部署、更便捷的开放生态需求。
仅依靠硬件创新还远远不够。算法层面,浪潮信息算法工程师基于Yuan2.0的算法研发积累,将1026亿参数的Yuan2.0大模型卷积算子进行张量切分,把大模型中的注意力层和前馈层的矩阵计算的权重分别拆分到多个处理器的内存中,为通用服务器进行高效的张量并行计算提供了可能。这种权重的拆分改变了传统CPU串联传输的模式,4颗CPU可以与内存实时传输获取算法权重,协同并行工作,计算效率提升4倍。
同时,千亿参数大模型在张量并行计算过程中,参数权重需要200-300GB的内存空间进行存储和计算,在100ms的时间内,完成CPU与内存数据的通信,内存带宽需求至少在2T/s。而4路通用服务器的内存带宽极限值为1200GB/s,还差一半左右。面对巨大的内存带宽瓶颈,浪潮信息算法工程师需要在不影响模型精度的情况下对模型进行量化"瘦身"。浪潮信息研发工程师们尝试了不同精度int8、int4、NF4等先进量化技术,最终选择了更高数据精度的NF4量化方案,将模型尺寸瘦身到原来的1/4,在满足精度需求的条件下,大幅度降低大规模并行计算的访存数据量,从而达到实时推理的解码需求。
【交卷】填补行业空白,树立AI算力新标杆
通过系统优化,浪潮信息NF8260G7在业界首次实现仅基于通用处理器,支持千亿参数大模型的运行,让通用算力可支持的AI大模型参数规模突破千亿,填补了行业空白,成为企业拥有AI的新起点。
人工智能的发展,是算力、算法和数据三要素系统突破的结果。浪潮信息研发工程师基于通用服务器NF8260G7的软硬件协同创新,为千亿参数AI大模型在通用服务器的推理部署,提供了性能更强,成本更经济的选择,让AI大模型应用可以与云、大数据、数据库等应用能够实现更紧密的融合,从而充分释放人工智能在千行百业中的创新活力,让人工智能真正"落入凡间",推动社会和经济的发展。
Tags:
相关文章
中方:一直在积极推动缅甸有关相关各方切实落实达成的共识
热点中新网北京12月21日电 (记者 李京泽)中国外交部发言人汪文斌12月21日主持例行记者会。有记者就缅北局势提问。汪文斌:我们一直在积极推动缅甸有关相关各方切实落实达成的共识,保持最大的克制,主动缓和 ...
【热点】
阅读更多分手后,这样说话最能撩回他 -
热点在人际交往中,懂得说话的人往往更讨人喜欢,这点想必大家都会认同。同样的,在挽回前任的过程中,如果你善用说话的技巧与前任聊天,那么复合成功也将变得不再困难。不少情侣在分手后仍会留着对方的微信,既然微信 ...
【热点】
阅读更多挽回时这样交流,让你们的复合迅速提上日程! -
热点当你经过努力,终于获得前任的认可,他不再那么抵触你,愿意保持耐心跟你交流…那么恭喜你,你的挽回已经成功一大半。但这也不代表你的挽回就已板上钉钉。行百里者半九十,很多姑娘往往就是在最后一步,觉得他终于 ...
【热点】
阅读更多
热门文章
最新文章
友情链接
- 群晖PB级高密度存储,满足海量数据存储、备份与存档
- 阿曼和比利时通过全新里程碑式协议加强绿色氢能合作伙伴关系
- 中车集团在唐山投资百亿开建生态智能装备产业园
- 别愁了!企业上市、投资融资有困难,8万美元其实就能搞定!
- 未来已来,您该如何解决您的企业危机
- 环保产业:“十三五”瞄准“专业化”、“精细化”
- 国电濮阳热电:超低排放改造的艰难与荣耀
- 东江环保发布2015年报 外延式并购快马加鞭
- 英国移民勿犹豫不决,政策即将收紧
- 一批退役纯血马经文锦渡口岸顺利入境
- 英国移民勿犹豫不决,政策即将收紧
- 东江环保发布2015年报 外延式并购快马加鞭
- 东软与国开行签署开发性金融合作协议 40亿授信将助力医疗健康与汽车业务发展
- 武汉国际赛马节开幕 汗血宝马有点高冷有点萌
- 钢铁行业节能环保:如何进行工艺流程优化和再造?