棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,该研究提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络...棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,该研究提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。展开更多
针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max poolin...针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max pooling-attention),使得模型更加关注小目标的特征,提高小目标检测精度。为了加强对小目标的细节感知能力,使用DCNv3(deformable convolution network v3)替换骨干网络中的二维卷积,以此构建新的层聚合模块ELAN-D。为网络设计新的小目标检测层以获取更精细的特征信息,从而提升模型的鲁棒性。同时使用MPDIoU(minimum point distance based IoU)替换原模型中的CIoU来优化损失函数,以适应遥感图像的尺度变化。实验表明,所提出的方法在DOTA-v1.0数据集上取得了良好效果,准确率、召回率和平均准确率(mean average precision,mAP)相比原模型分别提升了0.4、4.0、2.3个百分点,证明了该方法能够有效提升遥感图像中小目标的检测效果。展开更多
为提高蒙皮损伤检测的自动化程度,提出一种基于改进YOLOv7通道冗余的机器视觉检测方法。首先针对飞机蒙皮损伤数据集背景单一的特点,提出增强型颈部特征融合改进算法,提高了飞机蒙皮损伤的识别精度和检测速度;其次针对主干特征提取网络...为提高蒙皮损伤检测的自动化程度,提出一种基于改进YOLOv7通道冗余的机器视觉检测方法。首先针对飞机蒙皮损伤数据集背景单一的特点,提出增强型颈部特征融合改进算法,提高了飞机蒙皮损伤的识别精度和检测速度;其次针对主干特征提取网络的卷积通道冗余的问题,引入部分卷积PConv(Partial convolution),提出主干特征提取网络轻量化,减少模型的参数量,同时提高损伤的识别效率。试验部分首先在飞机蒙皮损伤数据集上探索了不同增强型颈部特征融合改进算法,确定了最优的改进方案;接着在飞机蒙皮损伤数据集上做消融和对比试验,改进算法与原YOLOv7算法比较,mAP(Mean average precision)提升了2.3%,FPS(Frames per second)提升了22.1 f/s,模型参数量降低了34.13%;最后将改进的YOLOv7模型与主流目标检测模型对比,证明了改进算法的先进性。展开更多
为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(multi-scale retinex with color preservation)对图像进行增强,以提高图像亮度及对...为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(multi-scale retinex with color preservation)对图像进行增强,以提高图像亮度及对比度;加入ViT分类网络去除干扰背景,以提高模型在复杂环境下对小目标杂草的识别性能。在YOLOv7模型中主干特征提取网络替换为GhostNet网络,并引入CA注意力机制,以增强主干特征提取网络对杂草特征提取能力及简化模型参数计算量。消融试验表明:改进后的YOLOv7模型平均精度均值为88.2%,较原YOLOv7模型提高了3.3个百分点,参数量减少10.43 M,计算量减少66.54×109次/s。识别前先经过MSRCP图像增强后,与原模型相比,改进YOLOv7模型的平均精度均值提高了2.6个百分点,光线遮蔽、藻萍干扰以及稻叶尖形状相似的复杂环境下平均精度均值分别提高5.3、3.6、3.1个百分点,加入ViT分类网络后,较原模型平均精度均值整体提升了4.4个百分点,光线遮蔽、藻萍干扰一级稻叶尖形状相似的复杂环境下的平均精度均值较原模型整体提升了6.2、6.1、5.7个百分点。ViT-改进YOLOv7模型的平均精度均值为92.6%,相比于YOLOv5s、YOLOXs、MobilenetV3-YOLOv7、YOLOv8和改进YOLOv7分别提高了11.6、10.1、5.0、4.2、4.4个百分点。研究结果可为稻田复杂环境的杂草精准识别提供支撑。展开更多
文摘棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,该研究提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。
文摘针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max pooling-attention),使得模型更加关注小目标的特征,提高小目标检测精度。为了加强对小目标的细节感知能力,使用DCNv3(deformable convolution network v3)替换骨干网络中的二维卷积,以此构建新的层聚合模块ELAN-D。为网络设计新的小目标检测层以获取更精细的特征信息,从而提升模型的鲁棒性。同时使用MPDIoU(minimum point distance based IoU)替换原模型中的CIoU来优化损失函数,以适应遥感图像的尺度变化。实验表明,所提出的方法在DOTA-v1.0数据集上取得了良好效果,准确率、召回率和平均准确率(mean average precision,mAP)相比原模型分别提升了0.4、4.0、2.3个百分点,证明了该方法能够有效提升遥感图像中小目标的检测效果。
文摘为提高蒙皮损伤检测的自动化程度,提出一种基于改进YOLOv7通道冗余的机器视觉检测方法。首先针对飞机蒙皮损伤数据集背景单一的特点,提出增强型颈部特征融合改进算法,提高了飞机蒙皮损伤的识别精度和检测速度;其次针对主干特征提取网络的卷积通道冗余的问题,引入部分卷积PConv(Partial convolution),提出主干特征提取网络轻量化,减少模型的参数量,同时提高损伤的识别效率。试验部分首先在飞机蒙皮损伤数据集上探索了不同增强型颈部特征融合改进算法,确定了最优的改进方案;接着在飞机蒙皮损伤数据集上做消融和对比试验,改进算法与原YOLOv7算法比较,mAP(Mean average precision)提升了2.3%,FPS(Frames per second)提升了22.1 f/s,模型参数量降低了34.13%;最后将改进的YOLOv7模型与主流目标检测模型对比,证明了改进算法的先进性。
文摘为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(multi-scale retinex with color preservation)对图像进行增强,以提高图像亮度及对比度;加入ViT分类网络去除干扰背景,以提高模型在复杂环境下对小目标杂草的识别性能。在YOLOv7模型中主干特征提取网络替换为GhostNet网络,并引入CA注意力机制,以增强主干特征提取网络对杂草特征提取能力及简化模型参数计算量。消融试验表明:改进后的YOLOv7模型平均精度均值为88.2%,较原YOLOv7模型提高了3.3个百分点,参数量减少10.43 M,计算量减少66.54×109次/s。识别前先经过MSRCP图像增强后,与原模型相比,改进YOLOv7模型的平均精度均值提高了2.6个百分点,光线遮蔽、藻萍干扰以及稻叶尖形状相似的复杂环境下平均精度均值分别提高5.3、3.6、3.1个百分点,加入ViT分类网络后,较原模型平均精度均值整体提升了4.4个百分点,光线遮蔽、藻萍干扰一级稻叶尖形状相似的复杂环境下的平均精度均值较原模型整体提升了6.2、6.1、5.7个百分点。ViT-改进YOLOv7模型的平均精度均值为92.6%,相比于YOLOv5s、YOLOXs、MobilenetV3-YOLOv7、YOLOv8和改进YOLOv7分别提高了11.6、10.1、5.0、4.2、4.4个百分点。研究结果可为稻田复杂环境的杂草精准识别提供支撑。