TensorRT 7.2.1开发初步
TensorRT 7.2.1开发人员指南演示了如何使用C ++和Python API来实现最常见的深度学习层。它显示了如何采用深度学习框架构建现有模型,并使用该模型通过提供的解析器构建TensorRT引擎。开发人员指南还提供了针对常见用户任务的分步说明,例如创建TensorRT网络定义,调用TensorRT构建器,序列化和反序列化以及如何向引擎提供数据和执行推理;同时使用C ++或Python API。
有关先前发布的TensorRT开发人员文档,请参见TensorRT存档。
NVIDIA的核心 TensorRT是有助于在NVIDIA图形处理单元(GPU)的高性能推理一个C ++库。它旨在与TensorFlow,Caffe,PyTorch,MXNet等训练框架以互补的方式工作。它专门致力于在GPU上快速有效地运行已经受过训练的网络,以生成结果(过程在各个地方都称为评估,检测,回归或推断)。
一些训练框架(例如TensorFlow)已经集成了TensorRT,因此可以将其用于加速框架内的推理。另外, TensorRT可以用作用户应用程序中的库。它包括用于从Caffe,ONNX或TensorFlow导入现有模型的解析器,以及用于以编程方式构建模型的C ++和Python API。
图1. TensorRT是用于生产部署的高性能神经网络推理优化器和运行时引擎。
TensorRT通过融合层和优化内核选择来优化网络,以改善延迟,吞吐量,能效和内存消耗。如果应用程序指定,将另外优化网络以使其以较低的精度运行,从而进一步提高性能并减少内存需求。
下图显示TensorRT定义为部分高性能推理优化器和部分运行时引擎。它可以吸收在这些流行框架上训练过的神经网络,优化神经网络计算,生成轻量级运行时引擎(这是唯一需要部署到生产环境中的东西),然后它将使吞吐量,延迟最大化以及这些GPU平台上的性能。
图2. TensorRT是可编程的推理加速器。
TensorRT API包括最常见的深度学习层实现。有关图层的更多信息,请参见TensorRT图层。还可以使用C ++插件API或Python插件API为TensorRT不立即支持的,不常用或更具创新性的层提供实现。
在训练了神经网络之后,TensorRT使网络可以作为运行时进行压缩,优化和部署,而无需框架开销。
TensorRT根据指定的精度(FP32,FP16或INT8)组合各层,优化内核选择,并执行规范化和转换为优化的矩阵数学运算,以改善延迟,吞吐量和效率。
对于深度学习推理,有五个用于衡量软件的关键因素:
吞吐量
给定时间段内的产出量。每台服务器的吞吐量通常以推断/秒,或样本/秒来衡量,对于数据中心的经济高效扩展至关重要。
效率
每单位功率交付的吞吐量量,通常表示为性能/瓦特。效率是经济高效地扩展数据中心的另一个关键因素,因为服务器,服务器机架和整个数据中心必须在固定的功率预算内运行。
推理时间
执行推理的时间,通常以毫秒为单位。低延迟对于提供快速增长的实时基于推理的服务至关重要。
准确性
受过训练的神经网络提供正确答案的能力。对于基于图像分类的用法,关键指标表示为前5个或前1个百分比。
内存使用情况
需要保留以在网络上进行推理的主机和设备内存取决于所使用的算法。这限制了哪些网络以及网络的哪些组合可以在给定的推理平台上运行。这对于需要多个网络且内存资源有限的系统尤其重要,例如在智能视频分析和多摄像机,多网络自动驾驶系统中使用的级联多级检测网络。
使用TensorRT的替代方法包括:
使用训练框架执行推理很容易,但是与使用TensorRT之类的优化解决方案相比,给定GPU上的性能往往低得多。训练框架倾向于实施强调通用性的通用代码,优化往往集中在有效的训练上。
编写仅用于执行神经网络的自定义应用程序,可以获得更高的效率。但是,这可能会非常费力,并且需要大量专业知识才能在现代GPU上达到较高的性能水平。此外,在一个GPU上进行的优化可能无法完全转换为同一系列中的其他GPU,并且每一代GPU都可能引入只能通过编写新代码来利用的新功能。
TensorRT通过结合抽象出特定硬件细节的高级API和优化推理的实现来解决这些问题,以实现高吞吐量,低延迟和低设备内存占用。
TensorRT供负责基于新的或现有的深度学习模型,构建功能和应用程序,或将模型部署到生产环境中的工程师使用。这些部署可能会在数据中心或云中的服务器,嵌入式设备,机器人/车辆,或将在工作站上运行的应用程序软件中。
TensorRT已在各种场景中成功使用,包括:
机器人
使用TensorRT的机器人来运行各种计算机视觉模型,以自动引导在动态环境中飞行的无人机系统。
自动驾驶汽车
TensorRT用于支持NVIDIA Drive产品中的计算机视觉。
科技计算
TensorRT嵌入了一种流行的技术计算软件包,可实现神经网络模型的高吞吐量执行。
深度学习训练和部署框架
TensorRT包含在几种流行的深度学习框架中,包括TensorFlow和MXNet。有关TensorFlow和MXNet容器发行说明,请参见TensorFlow发行说明和 MXNet发行说明。
视频分析
TensorRT在使用NVIDIA的DeepStream产品成熟的视频分析解决方案都在1- 16种摄像头资料,并在数据中心,其中视频资料的大量数据集。
自动语音识别
TensorRT用于在小型台式/台式设备上支持语音识别。设备上支持有限的词汇表,而云中提供了更大的词汇表语音识别系统。
通常,用于开发和部署深度学习模型的工作流经历三个阶段。
阶段1:训练
在训练阶段,数据科学家和开发人员将首先描述要解决的问题,并决定将使用的精确输入,输出和损失函数。还将收集,整理,扩充并可能标记训练,测试和验证数据集。然后将设计网络结构并训练模型。在训练期间,监视学习过程,该过程可能会提供反馈,这将导致损失函数修改,获取或增加训练数据。此过程结束时,将验证模型性能并保存经过训练的模型。DGX-1 ,Titan或Tesla数据中心GPU。
在训练阶段的任何阶段通常都不会使用TensorRT。
阶段2:开发部署解决方案
在第二阶段,数据科学家和开发人员将从成熟模型开始,并使用该成熟的模型创建和验证部署解决方案。将这一阶段分解为若干步骤,将获得:
确定优先事项。考虑到可以实现的不同系统的多样性,在设计和实现部署体系结构时可能需要考虑很多因素。
TensorRT提供了一个快速,模块化,紧凑,健壮,可靠的推理引擎,可以支持部署架构内的推理需求。
图__3. ONNX Workflow V1
解析网络后,考虑优化选项-批处理大小,工作空间大小,混合精度以及动态形状上的边界这些选项是在TensorRT构建步骤中选择和指定的,可以在其中基于网络构建优化的推理引擎。本文的后续部分提供了详细的说明和工作流这一部分的许多示例,将模型解析为TensorRT并选择了优化参数(请参见图3)。
阶段3:部署解决方案
该TensorRT库将被链接到部署应用程序,将调用推断结果的库。要初始化推理引擎,应用程序将首先将模型从调度文件中反序列化为推理引擎。
TensorRT通常异步使用,因此,当输入数据到达时,程序将使用输入缓冲区和TensorRT,将结果放入其中的缓冲区调输入函数。
手机扫一扫
移动阅读更方便
你可能感兴趣的文章