1.训练好的pt模型首先需要转换成onnx,
 2.将onnx转换成openvino格式(可以直接拉取oepnvino的docker容器进行转换)
 3.进行模型量化成int8
 openvino inference 支持的是*xml 和 *bin 模型