
ONNX-TensorRT:ONNX的TensorRT后端
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
ONNX-TensorRT是将ONNX模型转换为高性能推理代码的TensorRT后端,专为深度学习应用加速而设计。
适用于ONNX的TensorRT后端可以解析ONNX模型以进行执行。有关最近更改的列表,请参见相关文档。有关常见问题解答,请参考相应的FAQ。
支持的TensorRT版本:在Master分支上,开发工作基于最新版本,并提供完整尺寸和动态形状的支持。对于早期版本的TensorRT,请查阅其各自的分支。
在具有动态形状支持的全尺寸模式下构建INetwork对象时需要调用以下API:
C++代码示例:
```cpp
const auto explicitBatch = 1U < static_cast<int>(nvinfer1::NetworkDefinitionCreationFlags::kEXPLICIT_BATCH);
```
该代码片段用于创建具有明确批次大小的网络定义。
全部评论 (0)
还没有任何评论哟~


