从Pytorch 的ONNX到OpenVINO中IR中间层

gloomyfish
博客专家认证
2020-10-12 11:47:59
Pytorch ONNX格式支持
ONNX是一种深度学习权重模型的表示格式,ONNX格式可以让AI开发者在不同框架之间相互转换模型,实现调用上的通用性。当前PyTorch*, Caffe2*, Apache MXNet*, Microsoft Cognitive Toolkit* 、百度飞桨都支持ONNX格式。OpenVINO的模型优化器支持把ONNX格式的模型转换IR中间层文件。

当前OpenVINO官方支持的ONNX模型主要包括:bert_large,bvlc_alexnet,bvlc_googlenet,bvlc_reference_caffenet,bvlc_reference_rcnn_ilsvrc13 model,inception_v1,inception_v2,resnet50,squeezenet,densenet121,emotion_ferplus,mnist,shufflenet,VGG19,zfnet512。需要注意的是这些模型升级版本并不被支持。

从OpenVINO的2019R04版本开始支持所有公开的Pytorch模型,支持的模型列表如下:


Pytorch ONNX到OpenVINO IR转换
下面的例子演示了如何从torchvision的公开模型中转换为ONNX,然后再转换为IR,使用OpenVINO完成调用的完整过程。我们将以resnet18为例来演示。

下载模型与转ONNX格式
要下载与使用torchvision的预训练模型,首选需要安装好pytorch,然后执行下面的代码就可以下载相关支持模型:
 1 import torchvision.models as models
2 resnet18 = models.resnet18(pretrained=True)
3 alexnet = models.alexnet(pretrained=True)
4 squeezenet = models.squeezenet1_0(pretrained=True)
5 vgg16 = models.vgg16(pretrained=True)
6 densenet = models.densenet161(pretrained=True)
7 inception = models.inception_v3(pretrained=True)
8 googlenet = models.googlenet(pretrained=True)
9 shufflenet = models.shufflenet_v2_x1_0(pretrained=True)
10 mobilenet = models.mobilenet_v2(pretrained=True)
11 resnext50_32x4d = models.resnext50_32x4d(pretrained=True)
12 wide_resnet50_2 = models.wide_resnet50_2(pretrained=True)
13 mnasnet = models.mnasnet1_0(pretrained=True)


这里,我们只需要执行resnet18 = models.resnet18(pretrained=True)就可以下载resnet18的模型。这些模型的输入格式要求如下:
大小都是224x224,
RGB三通道图像,
mean = [0.485, 0.456, 0.406]
std = [0.229, 0.224, 0.225]

下载与转为为ONNX的代码如下:
model = torchvision.models.resnet18(pretrained=True).eval()
dummy_input = torch.randn((1, 3, 224, 224))
torch.onnx.export(model, dummy_input, "resnet18.onnx")


转为IR格式
Cmd至打开安装好的OpenVINO:
deployment_tools\model_optimizer
目录下,执行下面的命令行语句:
python mo_onnx.py --input_model D:\python\pytorch_tutorial\resnet18.onnx


可以看到resnet18模型已经成功转好!

OpenVINO SDK调用
对转换好的IR模型,就可以首先通过OpenVINO202R3的Python版本SDK完成加速推理预测,完整的代码实现如下:
from __future__ import print_function
import cv2
import numpy as np
import logging as log
from openvino.inference_engine import IECore

with open('imagenet_classes.txt') as f:
labels = [line.strip() for line in f.readlines()]


def image_classification():
model_xml = "resnet18.xml"
model_bin = "resnet18.bin"

# Plugin initialization for specified device and load extensions library if specified
log.info("Creating Inference Engine")
ie = IECore()
# Read IR
log.info("Loading network files:\n\t{}\n\t{}".format(model_xml, model_bin))
net = ie.read_network(model=model_xml, weights=model_bin)

log.info("Preparing input blobs")
input_blob = next(iter(net.inputs))
out_blob = next(iter(net.outputs))

# Read and pre-process input images
n, c, h, w = net.inputs[input_blob].shape
images = np.ndarray(shape=(n, c, h, w))

src = cv2.imread("D:/images/messi.jpg")
image = cv2.resize(src, (w, h))
image = np.float32(image) / 255.0
image[:, :, ] -= (np.float32(0.485), np.float32(0.456), np.float32(0.406))
image[:, :, ] /= (np.float32(0.229), np.float32(0.224), np.float32(0.225))
image = image.transpose((2, 0, 1))

# Loading model to the plugin
log.info("Loading model to the plugin")
exec_net = ie.load_network(network=net, device_name="CPU")

# Start sync inference
log.info("Starting inference in synchronous mode")
res = exec_net.infer(inputs={input_blob: [image]})

# Processing output blob
log.info("Processing output blob")
res = res[out_blob]
label_index = np.argmax(res, 1)
label_txt = labels[label_index[0]]
cv2.putText(src, label_txt, (10, 50), cv2.FONT_HERSHEY_SIMPLEX, 1.0, (255, 0, 255), 2, 8)
cv2.imshow("ResNet18-from Pytorch image classification", src)
cv2.waitKey(0)
cv2.destroyAllWindows()


if __name__ == '__main__':
image_classification()


运行结果如下:

...全文
2634 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
PyTorch版的YOLOv8是先进的高性能实时目标检测方法。 TensorRT是针对英伟达GPU的加速工具。ONNXOpen Neural Network Exchange) 作为一个开放的网络模型间表示(IR)格式,提供了跨框架兼容性。可以方便不同的框架轻松地交换模型,有助于框架之间的互操作性。本课程讲述如何对YOLOv8目标检测的PyTorch权重文件转成ONNX格式并进行TensorRT加速部署。相比与直接使用TensorRT API构建推理引擎,本方法更具灵活性,可用于YOLOv8网络架构修改后的模型部署。课程内容包括:YOLOv8目标检测的PyTorch权重文件转成ONNX格式,再转成TensorRT 推理引擎支持在GPU上端到端TensorRT加速部署,包括预处理(图像resize, 归一化)、网络推理、后处理(非极大抑制) 均在GPU上执行支持FP16加速提供C++和Python的TensorRT加速命令接口分别在Windows和Ubuntu系统上做YOLOv8的ONNX转换及TensorRT部署演示支持图片、图片文件夹、视频文件的TensorRT的加速推理提供YOLOv8的ONNX转换及TensorRT加速部署代码和代码解析文档实测推理速度提高2倍以上。课程内容包括:原理篇(YOLOv8网络架构与组件、TensorRT基础、ONNX基础、CUDA编程方法)实践篇(Windows和Ubuntu系统上的ONNX模型转换及TensorRT加速部署流程演示)代码解析篇(YOLOv8的ONNX模型转换及TensorRT加速的代码解析) 

566

社区成员

发帖
与我相关
我的任务
社区描述
英特尔® 边缘计算,聚焦于边缘计算、AI、IoT等领域,为开发者提供丰富的开发资源、创新技术、解决方案与行业活动。
社区管理员
  • 英特尔技术社区
  • shere_lin
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧