基于深度学习的火灾视频实时智能检测研究
发布时间:2021-10-25 23:49
火灾作为一种发生频率较高的多发性灾害,蔓延速度快,破坏性强。随着视频监控的大量普及,基于图像视频的火灾自动检测与预警则十分有研究意义和使用价值。传统火焰检测通常是根据先验知识设计特征提取算法,人工提取火焰动态或静态特征,然后进行火焰识别。此类基于计算机视觉的传统火焰检测方法,其根据先验知识设计人工特征提取算法比较困难和耗时,在面对不同的复杂环境和多变的火焰类型时,其泛化能力往往不足。近年来随着基于深度学习的计算机视觉快速发展,利用卷积神经网络能够自动学习和获取图像特征,目标检测技术有了很大的发展革新。针对复杂环境下的火灾视频检测问题,本文提出一种结合注意力机制的RetinaNet火焰图像检测算法。RetinaNet在残差网络之上使用特征金字塔网络作为骨干网计算和生成丰富的卷积特征金字塔,然后通过分类子网络和边框预测子网络分别对骨干网的输出进行分类和回归。注意力机制则使网络更有效定位到感兴趣的信息,提升网络模型的特征表达能力。改进算法比原RetinaNet算法的火焰检测率提高了4.5个百分点,实现了实时的端到端火焰识别与定位,对复杂目标背景下的小火点检测也保持较高的检测准确率。针对火灾视...
【文章来源】:海南大学海南省 211工程院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
卷积神经网络结构
使用的卷积核的个数。卷积操作是一个加权求和的过程,利用卷积核在输入图片上以一定的步长(Stride)滑动,每次滑动均计算卷积核与该输入区域的对应元素的点积,该点积作为特征图上的一个像素点,直到滑动覆盖整个输入图片,生成特征图。卷积神经网络每一层输出的特征图上的像素点在输入图像上映射的区域大小叫做感受野,步长越大,生成的特征映射越校感受野越大,其对应的原始输入图像范围就越大,这也表示神经元可能学到更加全局,更高语义层次的特征;相反,感受野越小则表示可能学到更加局部和细节的特征。一个卷积操作如图2所示,用3×3的卷积核在5×5的输入上以1的步长滑动,每次卷积计算输入与卷积核对应位置像素值的点积,9次滑动可以覆盖全部输入,最终得到3×3的特征图。图2卷积操作示意图Fig.2DiagramofConvolutionoperation卷积核的计算结果还需要通过激活函数确定图像给定位置是否存在特征。卷积方式对像素点赋予权值的操作是线性的,而线性模型表达能力不够强,通过激活函数可以引入非线性因素,弥补了线性模型的缺点。激活函数通常应该具有以下几个性质:非线性,线性激活层对于深层神经网络几乎没有作用,因为线性激活仍是对输入的各种线性变换;连续可微性,这是神经网络学习所使用的梯度下降算法的要求;范围非饱和性,若存在饱和区间,当系统优化进入到该区间时,梯度近似为0,参数无法继续更新,导致网络的学习停止;单调性,当激活函数是单调时,单层神经网络可以保证是凸函数,使分布规律不发生大的改变,这样网络会相对好优化;在原点处是近似
海南大学硕士学位论文7线性的,当网络权值随机初始化为接近0的随机值时,网络相对学习的更快,而不用手动调节网络的初始值,减少超参数的设置。常用的激活函数有Sigmoid函数,ReLU函数及其变种。①Sigmoid函数的表达式如下:()=11+(2-1)函数图像如图3所示。Sigmoid函数可以将输出映射在(0,1)内,单调连续,易于求导,适合用作输出层。但是Sigmoid函数也因为其软饱和性,在更新模型参数时采用链式求导法则反向求导,容易导致梯度消失。图3Sigmoid函数Fig.3SigmoidFunction②ReLU函数的表达式如下:()=max(0,)(2-2)函数图像如图4所示。ReLU函数在x<0时值为0,属于硬饱和,在x>0时导数值为1,因此ReLU函数在x>0时可以保持梯度不衰减,这有效缓解了梯度消失问题,还能够更好地收敛,并提供了神经网络的稀疏表达能力。但是,随着训练的持续进行,会有部分输入进入硬饱和区导致相应的权重无法更新,即“神经元死亡”,因此需要对学习率进行一个好的设置。ReLU函数是目前卷积神经网络中最受欢迎的激活函数。图4ReLU函数Fig.4ReLUFunction
本文编号:3458404
【文章来源】:海南大学海南省 211工程院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
卷积神经网络结构
使用的卷积核的个数。卷积操作是一个加权求和的过程,利用卷积核在输入图片上以一定的步长(Stride)滑动,每次滑动均计算卷积核与该输入区域的对应元素的点积,该点积作为特征图上的一个像素点,直到滑动覆盖整个输入图片,生成特征图。卷积神经网络每一层输出的特征图上的像素点在输入图像上映射的区域大小叫做感受野,步长越大,生成的特征映射越校感受野越大,其对应的原始输入图像范围就越大,这也表示神经元可能学到更加全局,更高语义层次的特征;相反,感受野越小则表示可能学到更加局部和细节的特征。一个卷积操作如图2所示,用3×3的卷积核在5×5的输入上以1的步长滑动,每次卷积计算输入与卷积核对应位置像素值的点积,9次滑动可以覆盖全部输入,最终得到3×3的特征图。图2卷积操作示意图Fig.2DiagramofConvolutionoperation卷积核的计算结果还需要通过激活函数确定图像给定位置是否存在特征。卷积方式对像素点赋予权值的操作是线性的,而线性模型表达能力不够强,通过激活函数可以引入非线性因素,弥补了线性模型的缺点。激活函数通常应该具有以下几个性质:非线性,线性激活层对于深层神经网络几乎没有作用,因为线性激活仍是对输入的各种线性变换;连续可微性,这是神经网络学习所使用的梯度下降算法的要求;范围非饱和性,若存在饱和区间,当系统优化进入到该区间时,梯度近似为0,参数无法继续更新,导致网络的学习停止;单调性,当激活函数是单调时,单层神经网络可以保证是凸函数,使分布规律不发生大的改变,这样网络会相对好优化;在原点处是近似
海南大学硕士学位论文7线性的,当网络权值随机初始化为接近0的随机值时,网络相对学习的更快,而不用手动调节网络的初始值,减少超参数的设置。常用的激活函数有Sigmoid函数,ReLU函数及其变种。①Sigmoid函数的表达式如下:()=11+(2-1)函数图像如图3所示。Sigmoid函数可以将输出映射在(0,1)内,单调连续,易于求导,适合用作输出层。但是Sigmoid函数也因为其软饱和性,在更新模型参数时采用链式求导法则反向求导,容易导致梯度消失。图3Sigmoid函数Fig.3SigmoidFunction②ReLU函数的表达式如下:()=max(0,)(2-2)函数图像如图4所示。ReLU函数在x<0时值为0,属于硬饱和,在x>0时导数值为1,因此ReLU函数在x>0时可以保持梯度不衰减,这有效缓解了梯度消失问题,还能够更好地收敛,并提供了神经网络的稀疏表达能力。但是,随着训练的持续进行,会有部分输入进入硬饱和区导致相应的权重无法更新,即“神经元死亡”,因此需要对学习率进行一个好的设置。ReLU函数是目前卷积神经网络中最受欢迎的激活函数。图4ReLU函数Fig.4ReLUFunction
本文编号:3458404
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3458404.html