基于深度迁移学习的烟雾图像检测
发布时间:2020-07-10 17:12
【摘要】:乡村焚烧秸秆会产生大量烟雾造成雾霾天气甚至引发火灾。传统的火灾检测方法并不适用于监测乡村这种大范围场景。本文针对这一问题提出一种基于深度学习迁移学习的烟雾图像检测方法。烟雾作为火灾早期的明显特征之一,对其检测识别可以有效地对火灾进行预警,减少生命财产的损失。随着计算机计算能力的提升与大数据时代的到来,深度学习受到了广泛关注,其在各个智能领域都表现出了良好的效果。深度学习方法区别于传统框架,它无需人工设计检测算子,它能自动从数据中学习特征并经过训练不断优化,适用范围更广。神经网络的训练需要大量的数据支持,但是在某些情况下数据的收集十分困难,例如收集乡村的烟雾视频和图片。目前网上还没有大型的烟雾视频库,数据量并不能支撑从头开始训练深层神经网络,所以采用迁移学习的办法来解决烟雾小数据集的问题。迁移学习是一种机器学习技术,可以将源域模型运用到目标域中。在深度学习图像处理领域,卷积神经网络通常先检测图像的边缘、形状,然后才是目标的特定特征。实际上神经网络的早期层检测的图片特征相差不大,这样就十分适用于迁移学习技术。所以在计算机视觉领域中迁移学习显得尤为有效。该方法使用TensorFlow框架,引用已在ImageNet大型数据集上训练完毕的Inception-v3网络模型作为源模型,将其在ImageNet数据集中提取到的边缘、色彩、纹理等特征用于构建新的烟雾检测模型。利用乡村场景的监控图像进行验证测试,根据结果对模型进行分析调整。结果显示模型检测准确率相比于传统方法有较大的提升。
【学位授予单位】:武汉纺织大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:X932;TP391.41;TP18
【图文】:
池化层(Pooling Layer)是一种向下采样(Down smapling)的形式,在神经网络之中也称之为子采样层(Sub-smapling Layer)。一般使用最大池化(Maxpooling)将特征区域中的最大值作为新的抽象区域的值,减少数据空间的大小。参数数量和运算量也会减少,减少全连接的数量和复杂度,一定程度上可以避免过拟合。池化的结果是特征减少,参数减少,但其主要是为了保持图像的某种不变性(旋转、平移、伸缩等),常见的池化方法有平均池化(mean-pooling)、最大化池化(max-pooling)和随机池化(stochastic-pooling)三种。在图像特征提取过程中存在误差,例如由于领域大小受限造成的估计值方差增大,这种情况可采用平均池化方法,通过取平均值的方式减少误差,其特点是尽可能保留背景的信息。另外一种是卷积层参数误差造成估计均值的偏移,可采用最大池化减小误差,突出纹理等特征。而随机池化的作用介于平均池化与最大池化之间,根据像素点的数值来进行概率采样,以达到概率随机的效果。与最大池化相比,随机池化并非一定取最大值,可以看作是一种正则化方式。最大池化的过程如图 2.1 所示,最大池化效果如图 2.2 所示。
图 2.2 最大池化效果(5)全连接层卷积层得到的每张特征图表示输入信号的一种特征,而它的层数越高表示这一特征越抽象,为了综合底层的各个卷积层特征,用全连接层(Full Connect Layer)将这些特征结合到一起,然后用 Softmax 进行分类或逻辑回归分析。(6)输出层输出层(Output Layer)的另一项任务是进行反向传播,一次向后进行梯度传递,计算相应的损失函数,并重新更新权重值。在训练过程中可以采用 Dropout来避免训练过程产生过拟合。输出层的结构与传统神经网络结构相似,是基于上一全连接层的结果进行类别判定。2.3 Imagenet数据集ImageNet 数据集是一个大型图像数据集,旨在促进计算机图像识别技术的发展。它具有最大数量的图像,最高分辨率,并包含更多具有数千个图像类别的类别。
2.4神经网络架构卷积神经网络发展至今,大量 CNN 网络结构被公开,如 VGG、GoogLenResnet 等。2.4.1Vgg-16VGG 和 GoogLeNet 这两个模型结构有一个共同特点就是层数多GoogLenet 不同,VGG 继承了 LeNet 以及 AlexNet 的一些框架,VGG 也是 5 积、2 层全连接层用于提取图像特征、一层全连接层用于分类特征。根据前卷积层组每个组中的不同配置,卷积层数从 8~16 递增,其网络结构如图所示。尽管 VGG 具有比 Alex-net 更多的参数和更深的级别,但 VGG 在少量之后已经收敛得相当好了。这是因为深度和小过滤器大小起着隐含的正则化有些已经预先初始化[25]。
本文编号:2749213
【学位授予单位】:武汉纺织大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:X932;TP391.41;TP18
【图文】:
池化层(Pooling Layer)是一种向下采样(Down smapling)的形式,在神经网络之中也称之为子采样层(Sub-smapling Layer)。一般使用最大池化(Maxpooling)将特征区域中的最大值作为新的抽象区域的值,减少数据空间的大小。参数数量和运算量也会减少,减少全连接的数量和复杂度,一定程度上可以避免过拟合。池化的结果是特征减少,参数减少,但其主要是为了保持图像的某种不变性(旋转、平移、伸缩等),常见的池化方法有平均池化(mean-pooling)、最大化池化(max-pooling)和随机池化(stochastic-pooling)三种。在图像特征提取过程中存在误差,例如由于领域大小受限造成的估计值方差增大,这种情况可采用平均池化方法,通过取平均值的方式减少误差,其特点是尽可能保留背景的信息。另外一种是卷积层参数误差造成估计均值的偏移,可采用最大池化减小误差,突出纹理等特征。而随机池化的作用介于平均池化与最大池化之间,根据像素点的数值来进行概率采样,以达到概率随机的效果。与最大池化相比,随机池化并非一定取最大值,可以看作是一种正则化方式。最大池化的过程如图 2.1 所示,最大池化效果如图 2.2 所示。
图 2.2 最大池化效果(5)全连接层卷积层得到的每张特征图表示输入信号的一种特征,而它的层数越高表示这一特征越抽象,为了综合底层的各个卷积层特征,用全连接层(Full Connect Layer)将这些特征结合到一起,然后用 Softmax 进行分类或逻辑回归分析。(6)输出层输出层(Output Layer)的另一项任务是进行反向传播,一次向后进行梯度传递,计算相应的损失函数,并重新更新权重值。在训练过程中可以采用 Dropout来避免训练过程产生过拟合。输出层的结构与传统神经网络结构相似,是基于上一全连接层的结果进行类别判定。2.3 Imagenet数据集ImageNet 数据集是一个大型图像数据集,旨在促进计算机图像识别技术的发展。它具有最大数量的图像,最高分辨率,并包含更多具有数千个图像类别的类别。
2.4神经网络架构卷积神经网络发展至今,大量 CNN 网络结构被公开,如 VGG、GoogLenResnet 等。2.4.1Vgg-16VGG 和 GoogLeNet 这两个模型结构有一个共同特点就是层数多GoogLenet 不同,VGG 继承了 LeNet 以及 AlexNet 的一些框架,VGG 也是 5 积、2 层全连接层用于提取图像特征、一层全连接层用于分类特征。根据前卷积层组每个组中的不同配置,卷积层数从 8~16 递增,其网络结构如图所示。尽管 VGG 具有比 Alex-net 更多的参数和更深的级别,但 VGG 在少量之后已经收敛得相当好了。这是因为深度和小过滤器大小起着隐含的正则化有些已经预先初始化[25]。
【参考文献】
相关期刊论文 前1条
1 何舟;王慧琴;胡燕;;基于视频监控的烟雾检测算法[J];电脑知识与技术;2013年11期
相关硕士学位论文 前5条
1 张文刚;基于深度学习的交通预测技术及其在通信中的应用研究[D];西南交通大学;2018年
2 蔡晓龙;基于DCGAN算法的图像生成技术研究[D];青岛理工大学;2018年
3 王小雪;基于FPGA的卷积神经网络手写数字识别系统的实现[D];北京理工大学;2016年
4 张洁;烟雾视频图像识别算法的研究[D];天津大学;2016年
5 翟文鹏;早期火灾烟雾的图像型探测技术的研究[D];天津大学;2009年
本文编号:2749213
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2749213.html