1.下载
下载项目框架git克隆下载权重分别下载yolov3.weights权重。放置在项目根目录下DarkNet的.将weights文件转换为Keras。通过查看H5文件python convert . py-w yolo v3 . CFG yolo v3 . weight smodel _ data可以查看模型结构
这次使用的数据集来自牛津大学Arpit Mittal、Andrew Zisserman和Phil Torr
下载资料:
使用的数据集是VOC格式。只需下载evalua(13.8M)。
将下载的数据集复制到项目路径下:(事实是数据集有400+图片,我训练起来太累了,容易过拟合,这里只用了009985-010028共40+张图片进行训练)
运行script目录下获取标签:
- voc标签格式:voc_anno
- yolo标签格式:yolo_anno
3.训练
- 修改中训练轮速、路径(可选步骤)
- 训练 (50轮和100轮,各保存一次)保存在logs目录下
神经网络可视化,在根目录下运行:tensorboard --logdir=logs\
会将运行记录打印到浏览器中 打开浏览器查看:http://localhost:6006/
可视化查看神经网络loss:
- 项目目录下运行: tensorboard --logdir=logs\
- 浏览器查看:http://localhost:6006/
4.测试
参考tf2-keras-yolo3,可以直接对图片和视频进行检测。
我另外封装了一下检测部分的代码:识别部分keras-yolo3-recognize
运行或者:
# 图片检测
python yolo_video.py --image
再输入图片路径
# 视频检测
python yolo_video.py --input img\