admin管理员组文章数量:1654381
以下亲测可用。
(一)发现问题
基础环境为torch1.13在使用自带的torch.onnx.export函数转onnx模型时出现identify的op,并且卷积的名称也变为了onnx::Conv_***,虽然不影响onnx模型直接推理使用,但是如果是在ncnn等推理框架中是不支持该op的。
查询资料有些博客说identify就是f(x)=x的算子op,其实不尽然,上面转的模型是直接作为输入了,本模型中没有其他的输入,只有img。
(二)分析问题
点击模型输入input的graph,可以看到使用的torch版本信息,这里是torch1.13,对应onnx是v13,解释一下onnx显示的v13版本是 torch.onnx.export函数中opset_version对应的输出版本。13对应onnxv7,11对应onnxv6。
在官网模型发现其版本中本有identify的op,但应版本为pytorch1.2,opset_version为9。
(三)解决问题
创建新的虚拟环境,安装历史版本torch1.2,转换模型只需要安装cpu版本的torch即可 。
conda install pytorch pytorch==1.2.0 torchvision==0.4.0 cpuonly -c pytorch
还有就是注意1.2版本torch.onnx.export的部分参数和1.13不一样,修改一下即可。最后导出来没有了identify op以及op名称没有了onnx::。
(四)思考
为什么新版本torch,onnx转换的结构中会出现identify,并且把identify识别为input,只能去看源码了,有了解的可以在评论区说科普下。
版权声明:本文标题:模型部署之——解决pytorch转onnx模型出现identify 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/xitong/1729648983a1208811.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论