1.训练好的pt模型首先需要转换成onnx,
2.将onnx转换成openvino格式(可以直接拉取oepnvino的docker容器进行转换)
3.进行模型量化成int8
openvino inference 支持的是*xml 和 *bin 模型
1.训练好的pt模型首先需要转换成onnx,
2.将onnx转换成openvino格式(可以直接拉取oepnvino的docker容器进行转换)
3.进行模型量化成int8
openvino inference 支持的是*xml 和 *bin 模型
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M