来自HPE和Dell等主要供应商的服务器已通过认证,可提供优化的AI性能。
Nvidia正在提供一个认证计划,引导客户和合作伙伴购买专门为顶级OEM和ODM的人工智能(AI)工作负载定制的GPU服务器。
这个名为Nvidia认证系统的程序与英特尔和AMD提供的程序类似。它告诉客户,这些具有这些配置的服务器最适合以最高性能和大规模部署运行AI工作负载。
阅读更多:人工智能如何创建自动驾驶数据中心
Nvidia推出了14个认证的GPU服务器,这些服务器来自Hewlett-Packard Enterprise、Dell Technologies、Gigabyte、Supermicro和浪潮。所有系统均采用100安培GPU和Mellanox smartNICs,用于移动大量数据。
这只是个开始。该公司表示,共有来自11家系统制造商的70套系统参与了该项目。原始设备制造商和其他合作伙伴参与认证计划不需要任何费用。
为了获得认证,服务器必须通过深度学习培训和推理、机器学习算法、智能视频分析、网络和存储卸载等测试,所有这些都基于Nvidia的NGC目录中的软件。
Nvidia认证系统配备多达八个A100 GPU和高速InfiniBand或以太网网络适配器。另一些则是为在企业网络边缘运行人工智能而定制的主流人工智能系统。
原始设备制造商使用Nvidia Mellanox电缆、交换机和网卡(如ConnectX-6 InfiniBand或以太网适配器和BlueField-2 DPU)认证系统。除了低延迟下的高吞吐量之外,这些适配器还支持多个安全层,从启动时的硬件信任根到应用程序的连接跟踪。
所有经Nvidia认证的系统都提供了跨整个软件栈的企业级支持,包括对开放源代码的支持。
什么样的小企业需要远程高效地工作
当涉及到使员工能够以高性能远程工作,同时保护公司数据和业务连续性时,小企业应该考虑什么?