破局,强强携手激活CPU AI算力
近日,紫光股份旗下新华三集团携手英特尔,推出基于第四代英特尔®至强®可扩展处理器的H3C UniServer R6900 G6大模型微调及推理解决方案,充分释放CPU的AI算力,降低了AI训练及推理场景所需的基础设施总体拥有成本,使中小企业能够迅速融入AGI的革新潮流。
该方案可满足7B、13B、30B、34B等大模型微调和推理的不同参数量级,通过检索增强生成技术(Retrieval-Augmented Generation,RAG),可达到与通用大模型接近的理想效果,从而快速实现面向特定领域的AI应用落地部署。
革新,四大技术开辟AGI新天地
H3C UniServer R6900 G6服务器大模型微调及推理解决方案,成功展示了基于中等参数量级(34B及以下)大模型的微调和推理能力。其得益于四大重要技术突 破:
-
英特尔第四代至强平台加速大模型的训练和推理能力
第四代英特尔®至强®可扩展处理器内置的英特尔®AMX加速引擎是面向深度学习工作负载的新一代技术。该技术不仅延续了上一代英特尔至强可扩展处理器的内置AI加速技术,还带来性能提升,非常适合自然语言处理、推荐系统和图像识别等工作负载。英特尔®AMX可提高平铺乘法性能,提升吞吐量,使用PyTorch进行实时推理和训练,相比上一代处理器提升了3-10倍的推理和训练性能。
-
新华三集团四路服务器突破单机算力瓶颈
在微调场景下,部署NVMe硬盘的数量决定了应用性能的高低。H3C UniServer R6900 G6四路服务器单机可部署32块NVMe硬盘,采用高带宽低延迟的UPI互联方案,能够实现CPU算力的高速横向倍增。这意味着可在一个节点上完成所有的计算任务,从而完全避免了分布式训练带来的各种问题,助力客户的微调应用。
-
微调场景下CPU突破显存限制
以Llama-2 30B模型为例,在进行16位浮点数训练时,如果训练批量大小被设定为16并且使用Adam优化器,估算需要600GB左右的显存才能成功完成30B模型的LoRA微调。传统GPU的方案无论是成本还是供应能力,都给中小企业带来了挑战。H3C UniServer R6900 G6服务器可提供高达16TB的内存容量,相比于GPU方案,能够减少显存压缩和多卡间数据通信的消耗,从而完成微调训练任务,打破显存限制。
-
突破现有生态的限制
此外,英特尔还提供了一系列基于PyTorch框架的软件优化措施。这些优化被集成在英特尔的IPEX(Intel® Extension for PyTorch)开源软件库中,旨在进一步提升模型的性能和效率。生态体系层面,IPEX配合PyTorch,支持PyTorch框架下90%的主流模型,其中深度优化模型有50个以上。客户只要通过简单几步即可完成BF16混合精度转换,模型即可在保持精度的同时在CPU上部署。
得益于成功的生态合作和技术突破,H3C UniServer R6900 G6大模型微调及推理解决方案已在多种尺寸的模型中进行了性能测试,充分验证了性能实力。
数字定义世界,AI定义未来。随着数实融合趋势的不断加速,新华三集团将秉持“精耕务实,为时代赋智慧”的理念,持续携手包括英特尔在内的合作伙伴,为百行百业客户提供多样化的智算产品与方案,以“一体·两中枢”的智慧计算体系,不断推进AI产业的变革升级。