在AI领域,HPE早有布局——HPE携手英伟达,将AI技术、专业服务和灵活的部署选项相结合,助力用户握紧人工智能的风口,将其快速转化为业务成果。
AI产业窗口期,企业如何把握智能红利?
当人工智能回归到企业级应用,几乎可以渗透到所有的业务类型中——从制造业的智能工厂到零售业的推荐引擎,再到金融服务业的欺诈检测——来达到提高生产力的目的。IDC预测,到2024年,全球60%的2000强企业都将在生产中使用人工智能。可以说,绝大多数企业已经认识到人工智能的优势。但是,搭建支持人工智能的应用程序,并将其从原型推向生产仍然非常困难。
为降低企业使用人工智能的门槛,HPE携手英伟达推出了专门面向人工智能的解决方案。在往期的文章《人工智能风很大?小企业也能“秒”入局》中,我们对该解决方案有过详细介绍。该解决方案基于双方的技术——HPE ProLiant Gen11计算、NVIDIA® GPU和HPE超 级计算技术打造,能帮助企业以更快、更经济地方式构建和训练人工智能模型。
其中,HPE ProLiant DL380a Gen11服务器凭借便捷的云运维体验、可靠的安全设计和优化的性能,尤其适用于人工智能工作负载。HPE ProLiant DL380a Gen11服务器支持四个双宽GPU,能提供比单个GPU更高的处理能力,使组织能够运行更大、更复杂的模型,且能够处理更具挑战性的人工智能任务。与此同时,GPU之间充足的互连带宽确保多GPU训练和并行处理的顺畅数据传输,缩短了人工智能模型的训练时间。此外,这款行业标准服务器还具有轻松添加或删除双宽GPU的特点,使组织能够根据需求变化来扩展其人工智能基础架构。
作为HPE在HPC和AI领域突破性的解决方案,HPE Apollo 6500 Gen10 Plus System在GPU密集型工作负载方面提供了性价比,每个服务器可配备高达8个NVIDIA Tensor Core GPU、NVLink互连技术以及10个AMD Instinct™ ,提供经济实惠的人工智能和深度学习能力。该系统具有企业级的可靠性、可用性和可维护性,并提供了多种“构建块”选择以适配各种工作负载,包括复杂的模拟和建模等深度学习和高性能计算工作负载。
在有了硬件后,AI应用还需要什么?
NVIDIA AI Enterprise
随着AI模型在规模、复杂性和多样性等方面的快速发展,一个能够支持多种AI模型架构的AI平台至关重要。这一过程中,企业人工智能操作系统比不可少。为此,英伟达推出了NVIDIA AI Enterprise ,这是一款端到端、安全、云原生的AI软件套件,可以作为操作系统使用。在集成到HPE的AI解决方案后,NVIDIA AI Enterprise可以加速数据科学管道,简化预测性AI模型的开发和部署,并自动化的执行基本流程,从而让企业加速从数据中获得洞察。
HPE Ezmeral Data Fabric
数据是人工智能/机器学习工作负载的基础。要想部署生产级AI,企业需要具备强大的数据管理、保护、治理和分析能力,以此来安全地获取、处理、存储、访问和分析海 量数据。为此,HPE推出了HPE Ezmeral Data Fabric数据管理解决方案,其适用于NVIDIA AI Enterprise 工作负载,专门针对混合的数据进行了优化,结合了文件、对象、表格和流数据,能提供一目了然的可见性和直接的数据访问。测试显示,HPE Ezmeral Data Fabric已通过NVIDIA GPU Direct Storage验证 ,能进一步提高GPU和存储层之间的I/O吞吐量。
HPE GreenLake
对于采用混合云来运行AI工作负载的用户来说,HPE GreenLake在性能、延迟、数据治理和GPU资源利用率上有优势。HPE GreenLake允许客户以即服务的模式使用基础设施,从而实现了在本地部署人工智能/机器学习工作负载,为用户带了类云的体验。HPE GreenLake具有按需扩展,管理统一且便捷,部署迅速,成本效益高等特点,让技术力量和资金有限的小企业也能快速入局人工智能,且能适应未来发展所需。
来源:HPE中国