【导语】本文为大家介绍了一个caffe部署yolov5模型的教程,并开源了全部代码。主要是教你如何搭建caffe推理环境,对yolov5模型做onnx格式转换,onnx模型转caffe模型,实测在1070显卡做到了11ms一帧!
如果说目标检测落地最广的是哪个算法,yolo系列肯定有一席之地,本文为大家介绍模型如何转换为caffe模型并推理,据我所知,华为海思NNIE只支持caffe模型的转换,所以yolov5模型要想在海思芯片上部署,转换为caffe模型是有必要的(在我的1070显卡上,的模型inference做到了11ms一帧!)
推理速度截图
ubuntu:18.04
cuda:10.0
cudnn:7.6.5
caffe:1.0
OpenCV:3.4.2
Anaconda3:5.2.0
cuda和cudnn的安装
可以参考我的TensorRT量化部署yolov5模型的文章()
Anaconda安装
按ENTER,然后按q调至结尾
接受协议yes
安装路径使用默认路径
执行安装
在使用的用户.bashrc上添加anaconda路径,比如
exportPATH=/home/willer/anaconda3/bin:$PATH
caffe安装
gitclone
cdyolov5_caffe
命令行输入如下内容:
exportCPLUS_INCLUDE_PATH=/home/你的用户名/anaconda3/include/
makeall-j8
makepycaffe-j8
vim~/.bashrc
exportPYTHONPATH=/home/你的用户名/yolov5_caffe/python:$PYTHONPATH
source~/.bashrc
libstdc++.:version`GLIBCXX_3.4.21'notfound
解决方案:;depth_1-utm_source=__param_isCfyolov5#,想把caffe模型部署到海思芯片,建议把yolov5的focus层替换为conv层(stride为2),upsample层替换为deconv层,如下图所示修改:
修改后的模型配置yaml文件
预测效果展示
本文仅做学术分享,如有侵权,请联系删文。
版权声明:本站所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,不声明或保证其内容的正确性,如发现本站有涉嫌抄袭侵权/违法违规的内容。请举报,一经查实,本站将立刻删除。