Nvidia发表超大规模推理平台瞄準大规模AI推理应用需求

人工智能2021-02-27 12:04:34
最佳答案

Nvidia推出用于语音、影片、图片以及推荐服务的TensorRT超大规模推理平台(TensorRT Hyperscale Inference Platform),其使用的Tesla GPU提供高速处理深度学习工作负载的能力,而推理最佳化引擎TensorRT则可以充分利用Tesla GPU的效能,处理影片串流、语音和推荐系统等应用,并为Nvidia DeepStream SDK提供运算基础。

Nvidia提到,现在大规模资料中心可以借助超大规模推理平台的能力,使用增强的自然语言互动,并直接获取查询的答案,而非只是一些预存的可能候选答案。

超大规模推理平台由三个主要部分组成,Tesla T4 GPU、TensorRT 5以及TensorRT推理伺服器。Tesla T4 GPU拥有320个Turing Tensor Cores以及2,560个CUDA核心,提供灵活的FP32、FP16、INT8和INT4的多精度运算,其推测速度是相同耗能CPU的40倍。

而TensorRT 5则是推理最佳化程式和Runtime引擎,TensorRT 5支援Turing Tensor Core,针对多精度工作负载扩展了神经网路最佳化,能低延迟提供推荐系统、语音辨识和机器翻译等高吞吐量的应用服务,并且TensorRT还能将使用32或是16位元资料训练的模型,为Tesla T4和P4上最佳化成INT8操作,以及在Tesla V100上最佳化为FP16。同时还赋予DeepStream SDK利用Tesla GPU,同时解码和分析影片串流。

TensorRT推理伺服器是容器化的微服务软体,可以在资料中心环境让应用程式使用人工智慧模型。TensorRT推测伺服器是一个可以立即执行的容器,其提供的微服务可以让使用者透过API,在一个或是多个GPU上,使用Caffe2、TensorRT和TensorFlow等任何支援ONNX标準的框架进行推测。

免责声明:本文由用户上传,如有侵权请联系删除!