OpenVINO部署简介

PaddleX支持将训练好的Paddle模型通过OpenVINO实现模型的预测加速,OpenVINO详细资料与安装流程请参考OpenVINO,本文档使用OpenVINO 2020.4与2021.1测试通过。注意

  • 由于PaddleX分割模型使用了ReSize-11 Op,OpenVINO 2021.1版本开始支持支持Resize-11 ,CPU下请务必下载OpenVINO 2021.1+版本
  • 由于VPU在OpenVINO 2021.1版本下转换的分类模型会出现Range layer不支持的情况,VPU下请务必下载OpenVINO 2020.4版本
  • 安装OpenVINO过程中请务必参考OpenVINO官网教程,初始化OpenVINO使用环境,以及安装OpenVINO相关依赖

部署支持情况

下表提供了PaddleX在不同环境下对使用OpenVINO加速的支持情况

硬件平台 Linux Windows Raspbian OS c++ python 分类 检测 分割
CPU 支持 支持 不支持 支持 支持 支持 支持 支持
VPU 支持 支持 支持 支持 支持 支持 不支持 不支持

注意:其中Raspbian OS为树莓派操作系统。检测模型仅支持YOLOv3

部署流程

PaddleX到OpenVINO的部署流程可以分为如下两步

  • 模型转换:将Paddle的模型转换为OpenVINO的Inference Engine
  • 预测部署:使用Inference Engine进行预测

模型转换

模型转换请参考文档模型转换说明:由于不同软硬件平台下OpenVINO模型转换方法一致,故如何转换模型后续文档中不再赘述。

预测部署

由于不同软硬下部署OpenVINO实现预测的方式不完全一致,具体请参考:

Linux:介绍了PaddleX在操作系统为Linux或者Raspbian OS,编程语言为C++,硬件平台为 CPU或者VPU的情况下使用OpenVINO进行预测加速

Windows:介绍了PaddleX在操作系统为Window,编程语言为C++,硬件平台为CPU或者VPU的情况下使用OpenVINO进行预测加速

Python:介绍了PaddleX在python下使用OpenVINO进行预测加速

部署常见问题:介绍了部署过程中遇到的常见问题以及其解决方案