Scidown文献预览系统!
嵌入式平台双模目标检测算法研究( Research on Dual Mode Target Detection Algorithm for Embedded Platform )
L Zhang S Wang H Sun Y Wang
针对嵌入式平台不能满足多源图像实时检测的问题,提出了一种适用于嵌入式平台的采用深度可分卷积代替标准卷积的轻量级目标检测网络MNYOLO(MobileNet-YOLOv4-tiny),以减少模型参数数和计算量;同时,将可见光目标检测模型作为红外目标检测模型的预训练模型并对现场采集的红外目标数据集进行微调,得到红外目标检测模型。在此基础上,得到了决策层融合检测模型,实现了红外和可见光多波段信息的互补。实验结果表明,该算法在检测精度上比单波段目标检测模型有更明显的优势,而决策层融合目标检测模型满足实时性要求,也验证了上述算法的有效性。1.引言目标检测[1]是计算机视觉领域的一个重要研究内容。随着深度学习的快速发展,在可见光环境下,新的检测算法不断涌现。其中,主要分为两阶段[2,3]检测模型和一阶段[4]检测模型。两阶段检测模型主要包括R-CNN系列算法,通过生成建议区域,大大提高了检测精度;一级检测模型主要包括SSD[5,6](单镜头多盒检测器)系列和YOLO[7](只看一次)系列,采用全局回归分类的一步框架,在牺牲一定精度的同时,检测速度得到较大提高。以上两种检测模型都是基于预设锚点的。虽然检测精度和速度有了很大提升,但它们预设锚点的局限性也阻碍了检测模型的优化和创新。针对这些问题,近期提出了无锚点的检测模型,如Cermonnet[8,9]、Internet[10],无需预设锚点即可完成目标检测,为目标检测模型创新带来新思路。上述可见光环境下的目标检测算法很大程度上依赖于光照充足的条件,不能满足光照不足场景下的目标检测要求。红外相机是基于目标对红外光的反射和目标的热辐射。它不受光照强度条件的影响,可以覆盖大部分光线不足的场景。但与可见光图像相比,红外图像往往存在分辨率较低、物体边缘模糊等问题,这也大大降低了红外图像可提取的特征。因此,结合可见光图像分辨率高和目标纹理信息丰富的优点,实现了多波段信息互补,从而提高了目标检测模型的性能。虽然受嵌入式平台计算能力和内存资源的限制,一些可见光目标检测模型可以达到较高的精度,但算法很难迁移到嵌入式平台,无法适应业界对目标检测算法实时性和可移植性的要求。针对这一问题,Qi和Lu提出了mobile net模型,使用深度可分卷积方法降低网络权重参数,并于2019年通过整合MobileNetV1[11]深度可分体积、MobileNetV2[12,13]线性瓶颈逆残差结构、MobileNetV3[14,15]磁铁,提出了轻量级注意力模型,同时大幅降低模型参数,进一步优化目标特征提取和分类网络。以确保决策层融合targ
『Sci-Hub|Scidown』怎么用?来看看教程吧!

支持模式 1.支持DOI号 2.支持英文文献全名搜索 3.支持参考文献搜索 4.知网文献(暂时关闭)


安卓手机、电脑用户,您可以在QQ浏览器里输入 www.scidown.cn 打开scidown解析,就可以解析、下载了!(注意是文献的DOI号)


苹果手机用户,您需要先在App Store里搜索并下载 Documents by Readdle 这个APP,在APP首页,左划右下角的指南针图标打开APP内置浏览器,在浏览器里输入 www.scidown.cn 打开scidown解析,就可以解析、下载了!


如出现BUG?赶快加入【Scidown互助交流群】反馈吧:729083885【点击一键加群】