点击蓝字
关注我们
关注并星标
从此不迷路
计算机视觉研究院


公众号ID|计算机视觉研究院
https://pmc.ncbi.nlm.nih.gov/articles/PMC12040913/
计算机视觉研究院专栏
Column of Computer Vision Institute
水稻穗检测和生育期识别可显著提升精准田间管理水平,这对实现粮食产量最大化至关重大。本研究探索以智能手机为平台,将深度学习应用于水稻表型分析。

PART/1
概述
提出一种改善的YOLOv8模型,名为YOLO_高效计算优化(YOLO_ECO),用于检测孕穗期、抽穗期和灌浆期的水稻穗并识别生育期。YOLO_ECO引入了关键改善,包括采用C2f-快速块-有效多尺度注意力(C2f-Faster-EMA)替代骨干网络中原始的C2f模块,采用精简颈部(SlimNeck)降低颈部复杂度,以及使用轻量级共享卷积检测头(LSCD)提升效率。开发了一款安卓应用YOLO-RPD,以助力复杂田间环境下的水稻表型检测。
结果与讨论:分析了YOLO-RPD在不同骨干网络、量化模型和输入图像尺寸下的性能影响。实验结果表明,YOLO_ECO优于传统深度学习模型,在孕穗期、抽穗期和灌浆期分别取得了96.4%、93.2%和81.5%的平均精度值。此外,YOLO_ECO在遮挡穗和小穗检测方面表现出优势,同时在参数数量、计算需求和模型尺寸上得到显著优化。YOLO_ECOFP32-1280实现了90.4%的平均精度均值(mAP),具有180万个参数和41亿次浮点运算(FLOPs)。YOLO-RPD应用证明了在移动设备上部署深度学习模型用于精准农业的可行性,为水稻种植者提供了一个实用、轻量的实时监测工具。
PART/2
背景
水稻是全球最重大的粮食作物之一。随着世界人口持续增长,粮食生产的重大性愈发凸显,因此培育高产水稻以缓解粮食短缺问题迫在眉睫。作为水稻最重大的表型特征,水稻穗不仅与作物产量密切相关,在病害检测(Deng等,2019)、作物器官检测(Zhang等,2022)及生育期识别(Ikasari等,2017)中也发挥着重大作用。识别水稻生育期有助于在适宜生长阶段实施合理灌溉、施肥与施药,实现精准田间管理,保障产量最大化(Gagic等,2021)。不过目前,水稻穗检测与生育期识别主要依赖人工完成,存在效率低、主观性强的问题。深度学习已成为主流的目标检测方式,且便携智能手机的功能日益强劲,将深度学习模型集成于易用的智能手机应用中,用于水稻穗在线检测,具有重大意义与良好应用前景。
随着图像处理技术的快速发展及深度学习方法的出现,众多研究将该技术应用于作物器官检测。例如,Brichet等(2017)基于随机森林算法和视觉几何组16层网络(VGG16)开发了玉米穗检测算法。他们对相机获取的12幅全株侧视图像进行处理,根据茎秆宽度变化确定穗部位置。Hong等(2022)提出一种结合大津法(Otsu)预处理的改善MaskR-CNN模型,用于水稻穗检测与分割。该方法对稻谷的检测分割精度较高,在大规模田间环境中表现优异,适用于水稻生长检测与产量估算。Zhao等(2022)提出一种基于深度学习的小麦穗检测方法OSWSDet。他们对无人机采集的麦田图像进行处理,采用圆形平滑积分(CSL)方法与微尺度检测层结合YOLO框架实现小麦穗检测。结果表明,OSWSDet方法优于传统小麦穗检测方法,平均精度达90.5%。Dandrifosse等(2022)采用基于YOLOv5的无监督学习方法与DeepMAC分割算法,对抽穗期至成熟期的小麦RGB图像进行计数与分割。该方法仅需少量标注即可启动训练,小麦穗检测平均F1分数为0.93,分割平均F1分数为0.86。
此外,深度学习在作物生育期识别中应用广泛。Yang等(2020)利用单时相无人机影像,通过网络训练后估算作物物候期,并采用结合空间金字塔池化(SPP)的卷积神经网络(CNN)识别水稻关键物候期,证实了CNN技术在水稻近实时物候检测与收获期估算中的有效性。Bai等(2018)将水稻抽穗期观测转化为稻穗检测问题,提出一种基于支持向量机(SVM)与CNN的水稻抽穗期自动观测新方法,其中SVM以颜色特征和梯度直方图为输入。结果显示,该方法与人工观测的时间差在2天以内,可替代人工观测。Zhang等(2022)采用改善卷积神经网络进行水稻穗检测,以InceptionResNet-v2替代VGG16作为特征提取网络,结合特征金字塔网络(FPN)与区域提议网络(RPN),并采用DIoU标准的非极大值抑制(NMS)算法。水稻穗检测平均精度达92.47%,通过稻穗密度判定水稻生育期,结果与人工观测偏差在2天以内,可满足农业生产需求。传统上,水稻生育期通过穗数或穗密度判定,而水稻穗在孕穗期、抽穗期、灌浆期等关键生育阶段,其外部形态结构(如形状、颜色、大小、纹理、姿态)存在显著差异,这为通过稻穗观测、检测进而识别水稻不同关键生育期提供了可能。
在支撑设备方面,基于深度学习模型的目标检测多在计算机设备上进行,对小规模农场而言极为不便。而智能手机凭借算力、性价比、易用性与便携性优势,已成为主流目标检测工具并取得良好效果。农业自动化领域已出现多款智能手机应用,涵盖果实检测、病害检测(Anbarasi等,2019)、杂草识别等场景。除上述研究外,也有基于智能手机应用的作物表型自动化研究报道。Komyshev等(2017)提出一种基于安卓移动设备的小麦表型参数自动评估方法,实验结果表明该方法可高效准确地评估小麦籽粒表型特征。在6种不同光照条件及3款移动设备上的应用测试显示,光照条件对检测精度影响显著。Zeng等(2023)提出一种基于轻量级YOLOv5的番茄实时检测算法,采用下采样卷积层替代Focus层、引入MobileNetV3瓶颈模块、应用通道剪枝等技术。该模型参数数量减少78%,面向移动设备的模型量化使帧率提升268%,同时保持93%的真检测率。Tao等(2020)基于标准叶色卡(LCC)开发一款智能手机应用,通过颜色阈值分割检测水稻叶片色级。该应用利用CIELAB直方图提取各区域颜色特征,采用CIEDE2000公式判别水稻叶片色级,叶片色级判定精度较人工检测高出92%。使用小米Mi5智能手机在田间环境下处理叶片图像,平均运行时间为248毫秒。
截至目前,针对不同生育期水稻穗检测及生育期识别的移动应用研究仍较为匮乏。本研究选取YOLO系列最新模型YOLOv8(Varghese和Sambanth,2024)作为基础网络,探索轻量化方法,开发了名为YOLO-RPD(
YOLOv8-RicePanicleDetection,YOLOv8水稻穗检测)的安卓应用,用于检测孕穗期、抽穗期、灌浆期三个生育阶段的水稻穗并识别水稻生育期。研究对YOLOv8及轻量化YOLOv8模型进行训练,并将其转换为神经网络计算库(NCNN)模型,在安卓智能手机上实现水稻穗检测,同时采用综合评价指标对模型性能进行评估。本研究填补了深度学习在移动设备水稻表型应用领域的研究空白,为水稻种植者提供了一款易用的应用工具。通过便捷使用该应用进行水稻穗检测与生育期识别,种植者可及时开展精准田间管理,以实现粮食产量最大化。
PART/3
新算法框架解析
图像采集与数据集构建
图像采集
水稻图像采集自广东省肇庆市沙浦研究中心的两个双季稻综合田间试验(试验1和试验2),该中心位于北纬23.16°、东经112.66°。试验1和试验2各包含90个种植小区,每个小区面积为10.8m×3.5m。试验小区采用不同的作物栽培管理策略设计,以确保水稻穗表型的多样性。每个小区采用不同的栽培策略,包括3个品种、5个氮肥水平(N0-N4)和2个种植密度,且试验小区设置3次重复。各小区栽培管理的详细信息见表1。
表1

采用配备2000万像素后置镜头的小米11智能手机采集水稻穗图像,图像以JPG格式存储,分辨率为5792×4344像素。

图1
图1A展示了田间小区种植试验场景,每个种植小区从3至5个不同区域采集图像。研究人员手持固定有智能手机的拍摄杆,将手机保持在距地面1.6米的高度,后置摄像头朝下拍摄水稻穗冠层,如图1B所示。为获取多样的水稻穗表型,第一在试验中采用了不同拍摄角度,包括俯视图和侧视图;此外,在试验1和试验2中,分别于孕穗期、抽穗期和灌浆期采集图像;同时,图像采集在上午(8:00-11:00)或下午(14:00-17:00)的自然光照条件下进行,以增加数据多样性;最后,在晴天、阴天和雨天等不同天气条件下采集水稻穗图像。
数据集构建
为使采集的水稻图像适用于深度学习模型训练,数据预处理是关键步骤。一般,数据预处理包含三个主要环节:图像裁剪、人工标注和数据增强。
第一,为提升模型训练效率,将采集的原始RGB水稻图像裁剪为5张小尺寸子图像。具体而言,沿原始图像的水平和垂直中心线将其划分为4张子图像,原始图像尺寸为5792×4344像素,裁剪后的子图像尺寸为2896×2172像素;另外,围绕图像中心点再裁剪1张尺寸为2896×2172像素的子图像。因此,裁剪后每个生育期的图像数量是原始图像数量的5倍。
其次,使用开源图像标注软件LabelImg,以最小外接矩形标注水稻穗的真实目标。人工标注数据存储于.txt格式的标注文件中,包含每幅图像中标注框的坐标和类别信息。每个标注框记录了边界框中心点坐标(x_min,y_max)以及边界框的宽度和高度(w,h),用于确定水稻穗目标在图像中的相对位置。由于不同生育期的水稻穗外观存在差异,采用不同颜色的框标注不同生育期的水稻穗,例如红色框、黑色框和蓝色框分别标注孕穗期、抽穗期和灌浆期的水稻穗。
第三,为提升深度学习模型的泛化能力,试验中采用在线数据增强技术,在训练过程中对图像进行多种变换,增加图像样本的多样性。数据增强采用五种方法,包括水平翻转、垂直翻转、模糊处理、色相和饱和度随机变化,以及亮度和对比度随机变化。
最后,试验2中三个生育期采集的水稻穗图像构成训练集和验证集,试验1中三个生育期采集的水稻穗图像构成测试集。具体而言,试验2中孕穗期、抽穗期和灌浆期分别采集了433、328和323幅原始图像,总计1084幅。经图像裁剪后,每个原始图像生成5张子图像,各生育期分别得到2165、1640和1615张子图像,总计5420张子图像。裁剪后的图像按8:2的比例划分为训练集和验证集,其中训练集4336张子图像,验证集1084张子图像。测试集来自试验1三个生育期的独立采集,每个生育期采集40幅原始图像,总计120幅原始图像;经图像裁剪后,测试集共包含600张子图像。
基于轻量级YOLOv8的水稻穗检测模型构建
YOLOv8是一种基于回归的单阶段目标检测算法,整合了多种优化策略以平衡速度与精度。YOLOv8分为s、x、l、m、n版本,它们具有类似的网络结构,但深度和宽度不同。YOLOv8n结构最小、深度最浅,因此运行速度最快。本研究选择YOLOv8n作为基础网络,以实现复杂田间环境下水稻穗的快速准确检测。本研究进一步探索引入轻量级网络的改善方法,使其更适用于部署在算力较低的移动设备上。
YOLOv8n
YOLOv8n网络结构由输入、主干、颈部和预测四部分组成,如图2所示。

图2
输入部分使用马赛克数据增强、混合精度训练(Mixup)、随机透视变换和HSV(色调、饱和度、值)增强来处理数据集。主干部分采用CSPDarknet53进行特征提取和聚合。颈部包括特征金字塔网络(FPN)和金字塔注意力网络(PAN),用于将主干提取的浅层特征与原始深度特征进行融合,以改善特征提取,并将图像特征传递到最终的检测预测层。预测部分使用GIoU损失函数实现目标检测和类别预测。
主干组件主要专注于从图像中提取特征,并使用CSPDarknet53网络架构,该架构包括CBS、C2f和SPPF(空间金字塔池化快速)模块。
如图2所示,YOLOv8中CSPDarknet53网络的主干由几个关键组件组成,包括CBL、C2f和SPPF模块。CBL模块是YOLOv8架构的基础,它集成了卷积层、批量归一化和SiLU激活函数,以实现有效的特征提取和降维。它引入了更多的跳跃连接和额外的拆分操作,能够实现卓越的特征信息传输。该模块采用了Bottleneck和ELAN的设计原则,在解决与深层网络相关的收敛问题的同时,实现了有效的特征变换和融合。SPPF模块策略性地位于特征提取层和特征融合层之间。它第一通过标准卷积将输入通道数减半,然后将输出分成四个分支。应用最大池化来生成不同尺度的特征图,随后进行拼接操作,使输入通道数加倍。通过使用三个5×5卷积核,SPPF在提高检测效率的同时显著降低了计算负荷,其速度大约是前代算法中使用的前一个SPP模块的两倍。
YOLO_ECO的构建
主干网络的改善
在本研究中,使用轻量级模块C2f-更快块-有效多尺度注意力(C2f-Faster-EMA)来替代原始YOLOv8n主干网络中的C2f。C2f和C2F-Faster-EMA的结构如图3所示。

图3
C2F-Faster-EMA的结构灵感来自于FasterNet中的部分卷积(PConv)概念。这种修改旨在减少计算量。在C2F-Faster-EMA模块中,仅对1/4的输入通道应用卷积,而其余3/4的通道保持不变。然后将卷积后的通道与未处理的通道进行拼接,以确保输出保留原始的通道数和特征图维度。这种设计在保留关键通道信息的同时,将冗余计算降至最低。尽管有3/4的通道未进行卷积,但后续的CBS操作和1×1卷积有效地提取了有用信息,并且通过有效多尺度注意力(EMA)模块进一步增强了信息提取能力(欧阳等人,2023)。EMA的结构如图4所示。

图4
EMA模块旨在保留通道特定信息,同时减少计算开销。它将一些通道重塑到批量维度,并将通道维度划分为多个子特征,以确保空间语义特征在每个特征组内均匀分布。此外,通过编码全局信息来重新校准每个并行分支中的通道权重,两个并行分支的输出通过跨维度交互进一步聚合,以捕获像素级的配对关系。EMA模块采用两个并行子网络:一个1×1分支和一个3×3分支。1×1分支用于从通道特征中提取全局信息,而3×3分支捕获局部特征之间的依赖关系。通过对这两个分支的输出进行跨空间学习,EMA有效地聚合了全局和局部特征,并对不同尺度的长距离依赖关系进行了建模。
在YOLOv8的C2f模块中,Bottleneck被C2F-Faster-EMA所取代。第一个CBS模块输出2×c个通道,这些通道被平均分成两部分,每部分c个通道,并存储在一个列表中。每个C2F-Faster-EMA模块处理该列表中的最后一个元素,并将其输出存储回y中,以供下一个模块使用。在经过n个C2F-Faster-EMA模块后,列表中的元素沿通道维度进行拼接,得到一个(2+n)×c的特征图,然后通过第二个CBS模块将其压缩到c2个通道。
虽然YOLOv8最初使用多个Bottleneck模块来融合多尺度特征,这提高了特征表达能力和检测精度,但每增加一个模块都会增加计算开销。通过用C2F-Faster-EMA取代Bottleneck,我们显著降低了计算复杂度,由于每个FasterBlock仅对1/4的通道进行卷积,从而降低了后续1×1卷积的成本。实验结果验证了这种方法,证明了YOLOv8的推理速度有了显著提升。
颈部结构的改善
YOLOv8的颈部结构采用标准卷积和C2f模块,有效地将低级细节特征与高级抽象特征进行了融合。不过,这种机制增加了模型的参数数量和计算负担。因此,本文引入了一种创新的网络架构SlimNeck,以在保持准确性的同时减轻模型的复杂性(李等人,2024年)。
SlimNeck由GSConv模块和跨阶段部分网络模块VoVGSCSP组成。GSConv模块的设计是先通过标准卷积将通道数减少一半,然后用深度可分离卷积(DSConv)进行进一步处理,随后使用Concat模块将输出进行合并。GSConv的结构如图5所示。

图5
最后,应用一个混洗模块将局部特征数据均匀地分布在不同的通道之间,从而恢复到初始的通道数。这种方法在保留丰富通道信息的同时最小化了计算开销,GSConv的计算成本约为标准卷积的60%-70%,实现了30%-40%的计算资源节省。
VoVGSCSP模块在保持模型准确性的同时,进一步降低了计算和架构的复杂性。通过用VoVGSCSP取代传统的CSP(标准卷积),平均浮点运算(FLOPs)减少了15.72%,显著提高了计算效率。如图6A所示,该结构将输入特征信息分为两个流:一个流通过1×1卷积进行处理,而另一个流通过GS瓶颈进行处理。然后,将这两个流的输出连接起来,并进行进一步的卷积以修改输出通道。这种设计增强了来自不同位置的梯度的混合和交叉流动,从而提高了网络的学习能力。

图6
通过采用轻量级卷积GSConv来取代标准卷积,我们使用一次性聚合方法设计了VoVGSCSP模块,如图6B所示。Concat模块用于连接不同阶段的特征,便于跨层的特征融合。与标准卷积相比,GSConv用更少的参数捕捉到了更丰富的特征表明。通过扩大感受野和增加网络深度,VoVGSCSP结构生成了更深的特征图,增强了特征提取能力。
总之,SlimNeck的设计不仅实现了高效的特征提取和融合,还确保了在保持高检测精度的同时显著降低计算复杂度。这使得YOLORPD模型在保持优秀检测精度的同时,实现了值得称赞的轻量化性能。
检测头的改善
我们提出了一种名为轻量级共享卷积检测(LSCD)的轻量级检测头,其网络架构如图7A所示,该检测头有效地利用了组归一化(GroupNorm)和共享卷积的优势,在保持高效特征融合的同时,最小化了计算负载和复杂性。

图7
组归一化(GroupNorm)将大小为N、C、H和W的输入图像分成若干组,计算每个组的方差和均值,并对该组内的所有数据进行归一化。由于组归一化的计算取决于通道数C而不是批量大小N,因此它在内存受限或样本量较小的场景中特别有用。共享卷积是卷积神经网络(CNNs)中的一个核心概念,它允许一样的卷积核在不同的空间位置应用一样的权重参数。这种机制显著减少了需要训练的参数数量,提高了计算效率,并降低了过拟合的风险。共享卷积在保留空间结构信息的同时有效地提取局部特征,从而提高了模型的泛化能力。通过在保留空间结构的同时高效提取局部特征,共享卷积增强了模型的泛化能力。ConvGN1×1模块表明组归一化和卷积的组合,内核大小为1×1。两个黄色的组归一化卷积模块(ConvGN3×3)共享权重,而三个蓝色的预测框卷积模块(ConvBox)和三个红色的分类卷积模块(ConvCls)也共享权重。每个ConvBox模块后面都跟着一个Scale模块,用于匹配不同尺度目标的检测。改善后的YOLO_ECO的结构图如图8所示。

图8
安卓平台设计
神经网络计算库(NCNN)
NCNN是由腾讯优图实验室开发的开源高性能神经网络前向计算框架,专为移动设备优化。该框架在移动CPU上实现了极高的计算速度,支持安卓、iOS等多平台,且无第三方依赖,便于集成。NCNN支持VGG、ResNet、YOLOv8等多种主流卷积神经网络架构,具有内存占用低、库体积小巧的特点,整个库大小不足500KB。它还支持8位量化和自定义层扩展,提供易用的模型转换工具,简化了深度学习模型在实际场景中的应用。凭借高效性与灵活性,NCNN已在图像分类、目标检测等领域得到广泛应用。模型部署流程如下:第一,调整YOLOv8算法结构参数,以满足移动软件开发需求;接着,利用YOLO算法提供的export.py工具生成torchscript格式文件,便于训练后的模型在不同框架间传输与存储;随后,通过PyTorch神经网络交换格式(PNNX)生成参数文件(.param)和编译二进制文件(.bin),并对部分参数进行修正;最后,在AndroidStudio中将修正后的参数集成到NCNN框架中,与搭载基于安卓系统的定制化MIUI系统的小米智能手机相连。
YOLO-RPD软件开发
本文开发了一款名为YOLO-RPD的安卓应用,用于水稻穗实时检测与生育期识别。该应用集成了轻量级深度学习模型YOLO_ECO及多款水稻穗检测模型,可在安卓设备上高效实现离线或在线运行。YOLO-RPD的软件设计包含四个功能模块:图像选择、水稻穗检测、结果展示和实时检测。应用界面如图9所示。

图9
在图像选择模块中,用户第一通过手机相册选取水稻穗图像,图像将显示在主界面中央。为适配不同使用场景,可通过单选按钮快速切换不同的检测深度学习模型:第一可选择YOLOv8与轻量级YOLOv8(YOLO_ECO),其次可将输入图像尺寸调整为1280×1280像素或640×640像素的固定分辨率,此外还能选择FP32、FP16、INT8等不同量化模型。结果展示模块会显示图像中水稻穗的预测边界框,并呈现结果输出日志。输出日志包含检测到的水稻穗总数、不同生育期水稻穗数量、水稻生育期及运行时间。其中,预测边界框的颜色代表水稻穗的生育期,本研究中,图像内数量最多的预测框颜色即为该水稻图像对应的生育期。用户可点击“保存结果”按钮,将预测图像保存至手机相册,也可放大图像查看模型检测效果;还能点击“隐藏概率”按钮隐藏生育期标签,或点击“显示原图”查看原始图像。
在实时检测模块中,用户可调用安卓手机摄像头采集水稻穗图像,对田间水稻穗进行实时检测。屏幕将显示图像中水稻穗的预测边界框及结果输出日志,用户可修改置信度阈值与交并比(IoU)阈值,以观察其对水稻穗检测性能的不同影响。
PART/4
实验及可视化
数据增强提升模型性能
为提升模型在复杂环境下的检测性能并增强其泛化能力,本研究引入了多种数据增强技术。这些技术包括马赛克(Mosaic)、亮度提升、灰度转换和翻转,旨在模拟多样化的真实场景,增强模型的鲁棒性。研究设置了5个实验组,各组逐步融入不同的增强方法,结果如表2所示。
表2

E组取得了最优检测性能,其均值平均准确率(mAP)达到87.2%。具体而言,随着增强技术的累加,稻穗孕穗期、抽穗期和灌浆期的检测精度分别从A组的89.2%、85.2%、69.3%提升至E组的94.0%、90.3%、77.3%。结果表明,合理组合的增强策略能显著提升模型在弱光、遮挡等复杂条件下的性能,该方法为提高模型泛化能力提供了有效途径。

在孕穗期检测中,YOLOv8n出现2处漏检和2处重复检测,而本研究模型仅存在1处漏检。YOLO_ECO尤其能够精准检测出2个被遮挡的稻穗以及被叶片遮挡的小稻穗(上图A中的白色矩形和圆形标注区域)。在抽穗期检测中,YOLOv8n将2个抽穗期稻穗误判为灌浆期,且漏检1个稻穗;本研究模型则准确检测出所有抽穗期稻穗,仅漏检1个小稻穗(上图D)。在灌浆期检测中,随着水稻生长,稻穗表型愈发复杂,遮挡现象严重。YOLOv8n无法精准检测被叶片部分遮挡的稻穗,出现重复检测情况(上图E中的白色矩形标注区域),还将2片叶片误检测为稻穗(上图E中的白色六边形标注区域),同时漏检1个稻穗。而本研究模型仅出现1次叶片误检为稻穗的情况,且漏检2个稻穗。
实验结果表明,YOLO_ECO在移动设备上具备更优异的检测精度和紧凑的网络结构,尤其对重叠稻穗和小稻穗的检测效果突出。其性能提升源于特征提取能力的优化。

如上图所示,模型完成预测后,会根据检测框颜色统计图像中稻穗数量,并在应用界面底部显示水稻生长阶段识别结果,包括不同颜色检测框的数量、对应生长阶段及推理时间。

上图对YOLOv8n与YOLO_ECO生成的热力图进行对比分析,其中第1列为原始图像,第2列为YOLOv8n热力图,第3列为YOLO_ECO热力图。图中白色圆形标注漏检区域,白色菱形标注误检区域。
尤其在上图A、D中,稻穗呈高密度分布且存在重叠,识别难度较大。由上图B可见,YOLOv8n存在1处漏检和1处误检;上图E中YOLOv8n则额外增加1处漏检。通过热力图对比可知,YOLO_ECO对稻穗的注意力聚焦程度显著高于YOLOv8n,表明其特征网络对关键区域的关注度更强。YOLOv8n热力图中部分区域颜色较浅,反映出其在遮挡场景下识别能力减弱;而YOLO_ECO则展现出更优的特征提取性能。
有相关需求的你 可以联系我们!

END

转载请联系本公众号获得授权

计算机视觉研究院学习群等你加入!
ABOUT
计算机视觉研究院
计算机视觉研究院主要涉及深度学习领域,主要致力于目标检测、目标跟踪、图像分割、OCR、模型量化、模型部署等研究方向。研究院每日分享最新的论文算法新框架,提供论文一键下载,并分享实战项目。研究院主要着重”技术研究“和“实践落地”。研究院会针对不同领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!