yolo5目标识别教程

酥酥 发布于 2022-04-18 91 次阅读


yolo的原理部分https://zhuanlan.zhihu.com/p/25236464

我们今天把目光着重在他的使用上

源码下载:https://github.com/ultralytics/yolov5

依赖库安装pip install -r requirements.txt

1.文件讲解与基本使用

一、detect.py

内部管理了非常多的配置信息如gpu、默认文件路径等等,我们一般只需要变动gpu的相关配置即可

一般情况的使用方法是以命令行的形式去调用:

				
					python detect.py --source 0  # webcam
                          img.jpg  # image
                          vid.mp4  # video
                          path/  # directory
                          path/*.jpg  # glob
                          'https://youtu.be/Zgi9g1ksQHc'  # YouTube
                          'rtsp://example.com/media.mp4'  # RTSP, RTMP, HTTP stream --weights 
				
			

调用detect.py就意味着要对指定的图片、摄像头的内容、视频进行检测啦,指定weights可以使用特定的权值(pt文件),若不存在则会自动下载

				
					 # 检测摄像头
 python detect.py  --weights runs/train/exp_yolov5s/weights/best.pt --source 0  # webcam
 # 检测图片文件
  python detect.py  --weights runs/train/exp_yolov5s/weights/best.pt --source file.jpg  # image 
 # 检测视频文件
   python detect.py --weights runs/train/exp_yolov5s/weights/best.pt --source file.mp4  # video
 # 检测一个目录下的文件
  python detect.py --weights runs/train/exp_yolov5s/weights/best.pt path/  # directory
 # 检测网络视频
  python detect.py --weights runs/train/exp_yolov5s/weights/best.pt --source 'https://youtu.be/NUsoVlDFqZg'  # YouTube video
 # 检测流媒体
  python detect.py --weights runs/train/exp_yolov5s/weights/best.pt --source 'rtsp://example.com/media.mp4'  # RTSP, RTMP, HTTP stream       
				
			

检测结果放在runs目录下

二、yaml文件

我们着重看重两个yaml文件 用于训练

一个是我们在data目录下自建的yaml文件 如data.yaml 指定train和val文件的路径 分类的个数,类名等问题。

				
					# Custom data for safety helmet


# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ./data_set/images/train
val: ./data_set/images/val

# number of classes
nc: 10

# class names
names: ['hero', 'tower','soldier','monster','red_buff','bird','spirit','lizard','blue_buff','wolf']

				
			

一个是我们在通过拷贝对应模型的yaml文件来自建在models中建立的文件,比如我们需要使用yolo5s那我们就可以拷贝yolo5s.yaml并重命名为yolo5s_train.yaml等方便记忆的文件改一下nc即可

				
					# YOLOv5 🚀 by Ultralytics, GPL-3.0 license

# Parameters
nc: 10  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

				
			

三、train.py

				
					python train.py --data data.yaml --cfg yolo5s_train.yaml --weights '.pt' --batch-size 128
                                       			yolov5n                               64
                                       			yolov5m                               40
                                       			yolov5l                               24
                                      			yolov5x   						      16
                                                yolov5s								 
yolo5s_train对应第一个yaml yolov5s_train.yaml对应第二个yaml
				
			

执行下列代码运行程序即可:

python train.py –data data.yaml –cfg train_yolov5s.yaml –weights pretrained/yolov5s.pt –epoch 100 –batch-size 4

cpu版:python train.py –data data.yaml –cfg train_yolov5s.yaml –weights pretrained/yolov5s.pt –epoch 100 –batch-size 4 –device cpu

注意这里使用的是yolov5s自带的预训练模型

在train/runs/exp的目录下可以找到训练得到的模型和日志文件

这个模型在detect.py的调用过程中就可以使用这个模型文件

TIPS:

无论是torch和tensorflow在从文件夹读取时都需要遵从一定的命名规律,yolo也不例外

data_set
└─ score
├─ images
│ ├─ test # 下面放测试集图片
│ ├─ train # 下面放训练集图片
│ └─ val # 下面放验证集图片
└─ labels
├─ test # 下面放测试集标签
├─ train # 下面放训练集标签
├─ val # 下面放验证集标签

四、数据标定

如何让我们自己的数据能够顺利进入系统呢,我们需要把我们的数据按照一定的格式排进data_set

我们需要labelimg工具来进行数据标定 pip install labelimg

终端输入labelimg打开标定框

打开图片-创建框-定义框名(与上述的第一个yaml文件中需要一一对应)-选择txt保存

完成以后会在文件夹中出现许多txt与img一一对应 打开txt文件查看 每一个字段其实是每个框与类名的一一对应

我们把图片images放进train,val,test中 把对应的txt也放进响应的labels文件夹中的位置即可

五、可视化界面

大佬使用pyqt5和yolo构建了可视化界面https://blog.csdn.net/ECHOSON/article/details/121939535

基本上可以说成是用预训练模型训练训练集得到pt文件,在window.py中导入pt,然后运行window.py文件即可。

可视化界面的工作原理堪比python电路板,可视化背后的模型就像是烧录的过程(炼丹炉),与可视化界面是独立的,需要先训练好(练成丹),而可视化界面主要是运用之前训练好的模型参数(练好的丹)直接对输入进行训练