基于Caffe格式部署YOLOV5模型

【导语】本文为大家介绍了一个caffe部署yolov5模型的教程,并开源了全部代码。主要是教你如何搭建caffe推理环境,对yolov5模型做onnx格式转换,onnx模型转caffe模型,实测在1070显卡做到了11ms一帧!

部署简介

如果说目标检测落地最广的是哪个算法,yolo系列肯定有一席之地,本文为大家介绍模型如何转换为caffe模型并推理,据我所知,华为海思NNIE只支持caffe模型的转换,所以yolov5模型要想在海思芯片上部署,转换为caffe模型是有必要的(在我的1070显卡上,的模型inference做到了11ms一帧!)

推理速度截图

环境配置

ubuntu:18.04

cuda:10.0

cudnn:7.6.5

caffe:1.0

OpenCV:3.4.2

Anaconda3:5.2.0

cuda和cudnn的安装

可以参考我的TensorRT量化部署yolov5模型的文章()

Anaconda安装

按ENTER,然后按q调至结尾

接受协议yes

安装路径使用默认路径

执行安装

在使用的用户.bashrc上添加anaconda路径,比如

exportPATH=/home/willer/anaconda3/bin:$PATH

caffe安装

gitclone

cdyolov5_caffe

命令行输入如下内容:

exportCPLUS_INCLUDE_PATH=/home/你的用户名/anaconda3/include/

makeall-j8

makepycaffe-j8

vim~/.bashrc

exportPYTHONPATH=/home/你的用户名/yolov5_caffe/python:$PYTHONPATH

source~/.bashrc

编译过程踩过的坑

libstdc++.:version`GLIBCXX_3.4.21'notfound

解决方案:;depth_1-utm_source=__param_isCfyolov5#,想把caffe模型部署到海思芯片,建议把yolov5的focus层替换为conv层(stride为2),upsample层替换为deconv层,如下图所示修改:

修改后的模型配置yaml文件

预测图片展示

预测效果展示

本文仅做学术分享,如有侵权,请联系删文。

版权声明:本站所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,不声明或保证其内容的正确性,如发现本站有涉嫌抄袭侵权/违法违规的内容。请举报,一经查实,本站将立刻删除。

相关推荐