英伟达详细介绍了将数据中心转变为AI工厂的计划

人工智能2022-07-01 14:47:34
最佳答案 我们很高兴能在 7 月 19 日和 7 月 20 日至 28 日亲自带回 Transform 2022。加入 AI 和数据领导者的行列,进行富有洞察力的

通往更强大的人工智能数据中心和超级计算机的道路将由更强大的硅铺平。如果英伟达有了自己的方式,那么大部分硅创新将是它开发的技术。

在今天于台北举行的台北国际电脑展上,英伟达宣布了一系列硬件里程碑和新的创新,以帮助推进公司的愿望。一个关键主题是增强性能,以便为用例提供更多的数据智能和人工智能。

“人工智能正在通过将智能注入每个客户参与来改变每个行业,”英伟达产品管理高级总监Paresh Kharya在媒体吹风会上表示。“数据中心正在转变为人工智能工厂。

格雷斯超级芯片是AI工厂的基石

有助于实现英伟达愿景的关键技术之一是该公司的Grace超级芯片。在Computex上,英伟达宣布,包括华硕、富士康工业互联网、技嘉、QCT、Supermicro和Wiwynn在内的多家硬件供应商将构建Grace基础系统,该系统将于2023年上半年开始出货。英伟达于2021年首次宣布推出Grace处理器(CPU)超级芯片,作为基于ARM的架构,用于AI和高性能计算工作负载。

加入我们于 7 月 19 日和 7 月 20 日至 28 日亲自参加面向企业业务和技术决策者的应用 AI 的领先活动。

Kharya表示,Grace超级芯片将提供多种不同的配置:一种选择是双芯片架构,与Nvidia的NVLink互连连接。该配置将启用多达 144 个 ARM v9 计算内核。第二种方法被称为Grace Hopper Superchip,它将Grace CPU与Nvidia Hopper GPU相结合。

“Grace Hopper旨在加速最大的AI,HPC,云和超大规模工作负载,”Kharya说。

作为其Computex公告的一部分,Nvidia还详细介绍了2U(2机架单元)大小的服务器架构,旨在帮助数据中心采用。

其中一个参考设计是CGX,旨在帮助加速云图形和游戏用例。CGX包括Grace超级芯片以及Nvidia a16 GPU和BlueField-3数据处理单元(DPU)。另一个参考设计是新的OVX系统,该系统旨在实现AI数字孪生和Nvidia Omniverse工作负载。OVX还使用Grace Superchip和BlueField-3,同时为供应商提供了使用一系列不同的Nvidia GPU的选项。最后,HGX Grace 和 HGX Grace Hopper 2U 参考设计提供了针对 AI 训练和推理进行优化的系统。

英伟达还宣布了新的液冷GPU,从A100开始。Kharya将这种方法描述为第一个使用直接到芯片液体冷却技术的数据中心PCIe GPU。用于直接芯片液体冷却的新型PCIe GPU将于今年第三季度开始出货。

“使用这项技术可以降低高达30%的功耗,”他说。

更多 Nvidia AI Enterprise 合作伙伴

英伟达还利用其在Computex的时间,为其Nvidia AI Enterprise软件套件在亚太地区引入更多行业上市合作伙伴,该套件可帮助组织构建和支持端到端数据科学工作流程。该软件于2021年8月首次正式发布。新的亚太地区合作伙伴包括ADG,BayNex,Leadteck和ZeroOne。

“解决人工智能的挑战需要全栈解决方案。我们平台的基础是构建AI工厂所需的基础设施组件,包括我们的CPU,GPU和DPU,“Kharya说。“最重要的是我们的软件堆栈,它可以运行这些AI工厂并以最佳方式运行它们。

免责声明:本文由用户上传,如有侵权请联系删除!