基于改进YOLOv4模型的全景图像苹果识别

TP391.4; 苹果果园由于密植栽培模式,果树之间相互遮挡,导致苹果果实识别效果差,并且普通的图像采集方式存在图像中果实重复采集的问题,使得果实计数不准确.针对此类问题,该研究采用全景拍摄的方式采集苹果果树图像,并提出了一种基于改进YOLOv4和基于阈值的边界框匹配合并算法的全景图像苹果识别方法.首先在YOLOv4主干特征提取网络的Resblock模块中加入scSE注意力机制,将PANet模块中的部分卷积替换为深度可分离卷积,且增加深度可分离卷积的输出通道数,以增强特征提取能力,降低模型参数量与计算量.将全景图像分割为子图像,采用改进的YOLOv4模型进行识别,通过对比Faster R-CN...

Full description

Saved in:
Bibliographic Details
Published in农业工程学报 Vol. 38; no. 21; pp. 159 - 168
Main Authors 周桂红, 马帅, 梁芳芳
Format Journal Article
LanguageChinese
Published 河北农业大学信息科学与技术学院,保定 071001%河北省农业大数据重点实验室,保定 071001 01.11.2022
Subjects
Online AccessGet full text
ISSN1002-6819
DOI10.11975/j.issn.1002-6819.2022.21.019

Cover

More Information
Summary:TP391.4; 苹果果园由于密植栽培模式,果树之间相互遮挡,导致苹果果实识别效果差,并且普通的图像采集方式存在图像中果实重复采集的问题,使得果实计数不准确.针对此类问题,该研究采用全景拍摄的方式采集苹果果树图像,并提出了一种基于改进YOLOv4和基于阈值的边界框匹配合并算法的全景图像苹果识别方法.首先在YOLOv4主干特征提取网络的Resblock模块中加入scSE注意力机制,将PANet模块中的部分卷积替换为深度可分离卷积,且增加深度可分离卷积的输出通道数,以增强特征提取能力,降低模型参数量与计算量.将全景图像分割为子图像,采用改进的YOLOv4模型进行识别,通过对比Faster R-CNN、CenterNet、YOLOv4系列算法和YOLOv5系列算法等不同网络模型对全景图像的苹果识别效果,改进后的YOLOv4网络模型精确率达到96.19%,召回率达到了95.47%,平均精度达到97.27%,比原YOLOv4模型分别提高了1.07、2.59、2.02个百分点.采用基于阈值的边界框匹配合并算法,将识别后子图像的边界框进行匹配与合并,实现全景图像的识别,合并后的结果其精确率达到96.17%,召回率达到95.63%,F1分数达到0.96,平均精度达到95.06%,高于直接对全景图像苹果进行识别的各评价指标.该方法对自然条件下全景图像的苹果识别具有较好的识别效果.
ISSN:1002-6819
DOI:10.11975/j.issn.1002-6819.2022.21.019