当前位置:主页 > 科技论文 > 搜索引擎论文 >

基于深度学习的实时实例分割技术研究与应用

发布时间:2021-11-10 13:46
  实例分割是计算机视觉领域中一个综合性的任务,是对图像场景的深层理解,集分类、定位和分割三大任务为一体,能够对图像中的实例在像素级层面进行识别。基于深度学习的实例分割技术在精度上获得了长足的发展,这项技术也开始从实验室走向实际应用,在自动驾驶系统、移动终端摄像模块以及在线视频播放平台等场景中得到了广泛应用。然而,目前基于深度卷积神经网络的实例分割模型架构复杂,网络层次较深,运行速度较慢,即使在高性能算力条件下,也仅能在每秒内预测约15张图片。对于多数应用场景来说,其处理的信号是视频信号,每秒传输的图像超过30张,因此之前的模型在速度上远远无法满足要求。针对这个问题,本文从实例分割方法和模型架构方面着手,研究探索高效实时的实例分割技术。进入深度学习时代后,实例分割技术主要有两个发展方向,第一种是基于目标检测的方法,先检测后分割;第二种先进行语义分割,然后对分割结果进行后处理以区分不同实例。第二种方法后处理方法复杂,难以利用硬件进行加速,因此本文选择第一种思路,以目标检测技术为基础,构建高效的实例分割算法。本文提出一种新的实例分割方法,称之为高效实例分割网络(EISNet,Efficient... 

【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校

【文章页数】:80 页

【学位级别】:硕士

【部分图文】:

基于深度学习的实时实例分割技术研究与应用


图像卷积操作

架构图,卷积,架构,神经网络


第二章实例分割的相关理论和技术11图2-2卷积神经网络的基本架构补零操作函数。补零操作为了解决多层卷积计算存在的两个问题,一是图像越来越小,二是图像边界信息丢失,即有些图像角落和边界的信息发挥作用较少。补零操作通过在图像四周补零的方式使得在卷积步长为1时,卷积后的图像不会变小,并且使得卷积层可以处理图像边缘的信息。卷积函数。通过滑动窗口的形式将卷积核在整幅图像上滑动,并进行卷积计算。卷积核尺寸一般为奇数(1*1,3*3,5*5),每次滑动跨越的像素长度我们称为步长(stride),步长可以控制卷积核的感受野大小,当步长为2时其相当于2倍的池化操作,会使图像尺寸缩小两倍。激活函数。卷积操作是线性操作,如果网络只有卷积操作,那整个网络可以看作线性函数叠加,网络的学习能力受到极大限制,其表达能力会变得非常低,从而导致网络无法学习到想到的结果。激活函数的作用就是为网络提供非线性。常见的激活函数有Sigmoid、ReLU以及Tanh等。1)Sigmoid激活函数,是神经网络领域常用的激活函数。其公式如(2-1):()=11+(2-1)从Sigmoid函数曲线图2-3中可以发现,其输出值的大小介于0-1,这一特性使得其非常适合用于计算概率。另外从其函数图像可以很自然的联想到神经元的刺激放电过程,在中间斜率比较大的区域类似于神经元的敏感区,而斜率很平缓的两侧区域相当于神经元的抑制区。但Sigmoid函数存在饱和区,权重更新效率低,容易出现梯度消失问题,且其中的指数运算比较慢。

函数曲线,函数曲线,函数


电子科技大学硕士学位论文12图2-3Sigmoid函数曲线2)Tanh函数,双曲正切函数,其函数公式如(2-2)。Tanh()=sinh()cosh()=+(2-2)Tanh函数的函数曲线如图2-4所示,可以看到它跟上文的Sigmoid函数几乎一样,区别在于函数值域,Tanh函数的输出值位于区间(-1,1)内,函数以(0,0)点中心对称。由于其函数曲线和Sigmoid函数类似,存在非常大的函数饱和区间,因此其也具备Sigmoid函数的一些缺点,不利于梯度反向传播的权重更新。图2-4Tanh函数曲线3)ReLU(RectifiedLinearUnit)函数,整流线性单元,它的函数公式如(2-3):()=max(0,)(2-3)ReLU函数是目前在深度网络中用的比较多的一个激活函数,相比于Sigmoid和Tanh函数,它在输入为正数的时候,梯度始终为1,没有梯度消失的问题,计算速度快。ReLU只进行最大值的线性操作,前向和后向操作都快。它的缺点是当输入时负数的时候,ReLU是完全不被激活的,该神经元就会死掉。另外ReLU函数的输出要么是0,要么是正数,也就是说,ReLU函数不是以0为中心的函数。其函数曲线如图2-5所示:


本文编号:3487372

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/sousuoyinqinglunwen/3487372.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户57146***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com