当前位置:主页 > 科技论文 > 安全工程论文 >

基于混合卷积神经网络的火灾识别研究

发布时间:2021-06-24 12:13
  图像识别是实现火灾预警的重要手段之一。针对传统方法存在的检测精度低、难以识别小目标等问题,提出了一种基于混合卷积神经网络(CNN)的火灾识别方法。为了丰富模型提取的特征信息,充分利用不同尺度下的特征,文中提出的混合网络结构(HybridNet)包含两路特征提取器。首先,通过其中一路特征提取器提取图像中的深层语义信息,另一路特征提取器提取图像的浅层上下文信息,通过池化操作使两路特征提取器提取的特征图大小得以匹配。为了进一步实现特征之间的融合,提高模型的小目标识别性能,通过自编码器对特征进行降维处理,剔除冗余信息保留关键特征,实现多尺度特征的融合。最后,融合特征经过分类器得到分类结果。实验结果表明,提出的混合CNN优于现有的识别方法,在FireDetectData和Mivia数据集上分别取得了96.82%和97.96%的准确率。 

【文章来源】:计算机技术与发展. 2020,30(07)

【文章页数】:6 页

【部分图文】:

基于混合卷积神经网络的火灾识别研究


含三层网络的自编码器

过程图,特征提取,过程,火灾


如图2所示,随着卷积层数的加深,输出特征图的全局信息被加强,而局部信息被逐渐弱化。不同于ImageNet等标准化的图像识别数据集,不论是一些公开的火灾识别数据集的图片,还是实际火灾监控应用场景下拍摄的图片,火焰或烟雾并不一定是画面中的主体。因此仅仅通过加深网络层数来提高网络的全局特征提取能力是不够的。3 火灾识别模型架构

特征图,融合过程,特征图,冗余信息


为了使两路特征提取器输出的特征实现融合,首先对FDN B得到的浅层特征进行最大池化(Maxpool)操作,在保留局部特征的情况下使浅层特征图的大小与深层特征得以匹配,再通过Concat操作初步融合两路特征,其中所述Concat操作可以将多组特征图按某一指定维度拼接从而融合成一组特征图。图3显示了一张大小为224×224的图片,在进入混合模型提取特征后初步融合的过程。初步融合后的特征图,通过自编码器去除冗余信息,实现进一步融合。如图4所示,2 336×7×7的特征图经过全局平均池化(GAP)后,再置入编码器进行特征降维,剔除冗余信息保留关键特征。

【参考文献】:
期刊论文
[1]基于并行深度残差网络的堆场烟雾检测方法[J]. 王正来,黄敏,朱启兵,蒋胜.  激光与光电子学进展. 2018(05)
[2]双流序列回归深度网络的视频火灾检测方法[J]. 孔亚奇,郎丛妍,冯松鹤,王涛,殷梦霞.  中国科技论文. 2017(14)
[3]基于栈式自编码器特征融合的SAR图像车辆目标识别[J]. 康妙,计科峰,冷祥光,邢相薇,邹焕新.  雷达学报. 2017(02)
[4]基于级联卷积神经网络的视频动态烟雾检测[J]. 陈俊周,汪子杰,陈洪瀚,左林翼.  电子科技大学学报. 2016(06)
[5]深度卷积神经网络在计算机视觉中的应用研究综述[J]. 卢宏涛,张秦川.  数据采集与处理. 2016(01)



本文编号:3247076

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/anquangongcheng/3247076.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户670f2***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com