基于全卷积神经网络的遥感图像海面目标检测
发布时间:2021-10-09 01:31
针对通常的神经网络算法在检测遥感图像海面目标时存在精确率低、漏检概率高的问题,改进了一种基于YOLOv3全卷积神经网络的遥感图像海面目标检测方法。首先根据海面目标的宽高比例,利用Kmeans++聚类算法,确定出适合于数据集的anchor box值;接着采用FPN思想进行特征融合;最后,选用GIOU作为坐标预测的损失函数,进一步优化检测结果。实验表明:文中方法在遥感图像海面目标检测中的平均精确率为90.82%,相比于其他算法平均提高了5.34%。
【文章来源】:弹箭与制导学报. 2020,40(05)北大核心
【文章页数】:6 页
【部分图文】:
YOLOv3的网络结构
残差块的结构
改进后的网络结构如图3所示。它采用了feature pyramid networks(FPN)架构思想,在残差网络提取特征的最后阶段加入了一个残差块,输出特征分别与其他3个尺度的特征进行融合[10]。从图3可知:尺度4的特征图经过3次上采样分别与尺度3、尺度2、尺度1的特征图进行拼接;尺度3的特征图经过1次上采样与尺度2 进行拼接,依此类推。多个尺度的特征图进行了拼接操作,充分利用了低层特征的细节信息与高层特征的语义信息,提高了网络的检测性能。不同尺度的特征图拼接完成之后,网络会输出3种不同的尺度框,即:当输入的图像尺寸为786×768时,输出的3个尺度框为:(24×24)、(48×48)、(96×96)。最后,利用非极大值抑制(non-maximum suppression,NMS)的方法删除重复的预测框(预测框是指待检测目标的边界框),得到最终的检测结果。图4 各损失函数的对比示意图
本文编号:3425366
【文章来源】:弹箭与制导学报. 2020,40(05)北大核心
【文章页数】:6 页
【部分图文】:
YOLOv3的网络结构
残差块的结构
改进后的网络结构如图3所示。它采用了feature pyramid networks(FPN)架构思想,在残差网络提取特征的最后阶段加入了一个残差块,输出特征分别与其他3个尺度的特征进行融合[10]。从图3可知:尺度4的特征图经过3次上采样分别与尺度3、尺度2、尺度1的特征图进行拼接;尺度3的特征图经过1次上采样与尺度2 进行拼接,依此类推。多个尺度的特征图进行了拼接操作,充分利用了低层特征的细节信息与高层特征的语义信息,提高了网络的检测性能。不同尺度的特征图拼接完成之后,网络会输出3种不同的尺度框,即:当输入的图像尺寸为786×768时,输出的3个尺度框为:(24×24)、(48×48)、(96×96)。最后,利用非极大值抑制(non-maximum suppression,NMS)的方法删除重复的预测框(预测框是指待检测目标的边界框),得到最终的检测结果。图4 各损失函数的对比示意图
本文编号:3425366
本文链接:https://www.wllwen.com/guanlilunwen/gongchengguanli/3425366.html