基于深度学习的光学影像小目标检测
发布时间:2021-07-12 01:56
自人工智能诞生起,视觉相关的研究就一直是该领域的重点,而目标检测作为计算机视觉的基础与核心是研究的重要课题之一,已经广泛应用于人们的生活,例如电力监控、交通预警、自动驾驶等。经过科研工作者的不断努力,目标检测算法越来越成熟,从传统的目标检测算法到基于深度学习的目标检测算法,再从基于深度学习的目标检测算法分为基于候选区域的目标检测算法和基于回归的目标检测算法,视觉领域的目标检测体系日益完善,但基于候选区域的目标检测算法存在检测速度慢的问题,而基于回归的目标检测算法存在检测精度低的问题。从实用性的角度出发,检测精度与检测速度一直以来都是目标检测算法研究的重点,而针对复杂场景下小目标检测问题,始终都是目标检测算法的难点,由于小目标在整幅影像中的比重较小,特征提取较难,所以在实际检测任务中,漏检问题是小目标检测的一个主要问题。面对小目标的检测问题,本文系统总结了国内外目标检测算法的发展历史、卷积神经网络的理论基础以及卷积神经网络在目标检测领域的最新研究成果,主要以解决实际问题的立场出发,阐述以深度学习的技术层面解决电力线巡检中的小目标漏检问题,在SSD目标检测架构基础之上,提出了MFPSSD(...
【文章来源】:山东理工大学山东省
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
卷积运算示意图
山东理工大学硕士学位论文第二章卷积神经网络理论基础与关键技术12活,目前使用较多的激活函数有Sigmoid、Tanh、ReLU系列、Softmax等,一般针对网络任务和层级的不同会选择使用不同的激活函数。对于分类任务,网络的最后一层是Softmax层,其实就是使用了Softmax激活函数。Sigmoid函数是一种常用的非线性激活函数,具体公式如式(2.1),函数曲线如图2.6所示,x的取值范围是正无穷到负无穷,但经过Sigmoid函数输出后的函数值会压缩在0~1范围。()=11+(2.1)图2.6Sigmoid函数曲线Fig.2.6SigmoidfunctioncurveTanh函数是Sigmoid函数的值域升级版,函数值从0~1拓展到-1~1。其具体公式如式(2.2),函数曲线如图2.7。Tanh()=2(2)1(2.2)图2.7Tanh函数曲线Fig.2.7Tanhfunctioncurve
山东理工大学硕士学位论文第二章卷积神经网络理论基础与关键技术12活,目前使用较多的激活函数有Sigmoid、Tanh、ReLU系列、Softmax等,一般针对网络任务和层级的不同会选择使用不同的激活函数。对于分类任务,网络的最后一层是Softmax层,其实就是使用了Softmax激活函数。Sigmoid函数是一种常用的非线性激活函数,具体公式如式(2.1),函数曲线如图2.6所示,x的取值范围是正无穷到负无穷,但经过Sigmoid函数输出后的函数值会压缩在0~1范围。()=11+(2.1)图2.6Sigmoid函数曲线Fig.2.6SigmoidfunctioncurveTanh函数是Sigmoid函数的值域升级版,函数值从0~1拓展到-1~1。其具体公式如式(2.2),函数曲线如图2.7。Tanh()=2(2)1(2.2)图2.7Tanh函数曲线Fig.2.7Tanhfunctioncurve
【参考文献】:
期刊论文
[1]融合YOLO检测的多目标跟踪算法[J]. 李星辰,柳晓鸣,成晓男. 计算机工程与科学. 2020(04)
[2]基于HOG和特征描述子的人脸检测与跟踪[J]. 李澎林,邹嘉程,李伟. 浙江工业大学学报. 2020(02)
[3]基于CNN的银行卡数字识别方法[J]. 李尚林,王鲁达,刘东. 图学学报. 2020(01)
[4]基于自适应局部二值模式的纹理特征提取方法[J]. 李松,蔡航,于蒙. 计算机应用与软件. 2019(09)
[5]基于改进SIFT特征的深度图像匹配[J]. 向程谕,王冬丽,李建勋,周彦. 计算机应用. 2016(S2)
本文编号:3278955
【文章来源】:山东理工大学山东省
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
卷积运算示意图
山东理工大学硕士学位论文第二章卷积神经网络理论基础与关键技术12活,目前使用较多的激活函数有Sigmoid、Tanh、ReLU系列、Softmax等,一般针对网络任务和层级的不同会选择使用不同的激活函数。对于分类任务,网络的最后一层是Softmax层,其实就是使用了Softmax激活函数。Sigmoid函数是一种常用的非线性激活函数,具体公式如式(2.1),函数曲线如图2.6所示,x的取值范围是正无穷到负无穷,但经过Sigmoid函数输出后的函数值会压缩在0~1范围。()=11+(2.1)图2.6Sigmoid函数曲线Fig.2.6SigmoidfunctioncurveTanh函数是Sigmoid函数的值域升级版,函数值从0~1拓展到-1~1。其具体公式如式(2.2),函数曲线如图2.7。Tanh()=2(2)1(2.2)图2.7Tanh函数曲线Fig.2.7Tanhfunctioncurve
山东理工大学硕士学位论文第二章卷积神经网络理论基础与关键技术12活,目前使用较多的激活函数有Sigmoid、Tanh、ReLU系列、Softmax等,一般针对网络任务和层级的不同会选择使用不同的激活函数。对于分类任务,网络的最后一层是Softmax层,其实就是使用了Softmax激活函数。Sigmoid函数是一种常用的非线性激活函数,具体公式如式(2.1),函数曲线如图2.6所示,x的取值范围是正无穷到负无穷,但经过Sigmoid函数输出后的函数值会压缩在0~1范围。()=11+(2.1)图2.6Sigmoid函数曲线Fig.2.6SigmoidfunctioncurveTanh函数是Sigmoid函数的值域升级版,函数值从0~1拓展到-1~1。其具体公式如式(2.2),函数曲线如图2.7。Tanh()=2(2)1(2.2)图2.7Tanh函数曲线Fig.2.7Tanhfunctioncurve
【参考文献】:
期刊论文
[1]融合YOLO检测的多目标跟踪算法[J]. 李星辰,柳晓鸣,成晓男. 计算机工程与科学. 2020(04)
[2]基于HOG和特征描述子的人脸检测与跟踪[J]. 李澎林,邹嘉程,李伟. 浙江工业大学学报. 2020(02)
[3]基于CNN的银行卡数字识别方法[J]. 李尚林,王鲁达,刘东. 图学学报. 2020(01)
[4]基于自适应局部二值模式的纹理特征提取方法[J]. 李松,蔡航,于蒙. 计算机应用与软件. 2019(09)
[5]基于改进SIFT特征的深度图像匹配[J]. 向程谕,王冬丽,李建勋,周彦. 计算机应用. 2016(S2)
本文编号:3278955
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3278955.html
最近更新
教材专著