model = rt.InferenceSession("tmp.onnx",providers=['CUDAExecutionProvider'])
model = rt.InferenceSession("tmp.onnx",providers=['CUDAExecutionProvider'])
上一篇:linux编译C++代码
pytorch,CUDA是否可用,查看显卡显存剩余容量
C# OnnxRuntime 推理 常用前处理方法
配置onnxruntime你可以下载vgg16模型加代码运行这个项目代码在gitvgg16模型链
libtorch cuda c++推理配置
onnxruntime技术文档
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M