- 博客(4)
- 收藏
- 关注
原创 深度学习模型C++部署的常见方法(一)
本篇采用OpencvDNN模块推理onnx模型以及Libtorch部署推理pytorch模型,后续将会出Openvino在Inter的U上加速推理方式和TensorRT在Nvidia架构下GPU上加速推理的深度学习模型C++部署方式。
2022-07-13 15:05:09 3684
原创 人机互动唤醒项目动态链接工具使用说明(Opencv DNN-cpu C++部署)
Opencv DNN模块推理onnx模型,相比Libtorch更加方便,cpu推理占用较低,可多线程部署推理。
2022-07-13 14:59:43 270
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人