PaddleInference模型部署 Linux编译(支持加密)指南 Windows编译(支持加密)指南 ONNX模型部署 Paddle的模型除了直接通过PaddleInference部署外,还可以通过Paddle2ONNX转为ONNX后使用第三方推理引擎进行部署,在本目录下,我们提供了基于OpenVINO、Triton和TensorRT三个引擎的部署支持。 OpenVINO部署 Triton部署 TensorRT部署