基于视频的复杂路况车道线检测
发布时间:2021-11-02 07:05
基于视觉的车道线检测方法是业内通用的解决方案。其方法是基于图像或视频算法,从摄像头的图片中检测出车辆行驶时的车道线的位置。城市中的车道线检测是公认非常具有挑战性的任务。因为城市内,在行驶过程中会有大量的前车与行人遮挡,市内车道线的种类与样式差异极大,车道线的磨损与缺失都大大增加了任务的复杂度。不仅如此,恶劣天气如雨天,大雾,下雪等极端天气都极大的提升了该任务的挑战性。正因为如此,复杂路况的车道线检测任务是迫切的需求。本文首先对当今国内外的车道线检测的研究情况与进展进行了总结与探讨。通过研究发现使用传统车道线检测方法的鲁棒性较差,并且车道线的特征简单,样式繁多,使用传统方法难以对现实生活中的车道线进行较好的检测。并且,对于视频车道线检测领域,少有基于视频特性对车道线检测方法的优化与设计。因此,出于以上考虑,本文作了如下工作:1.提出了一种三分支神经网络,首先通过该三分支结构,提取图片中不同尺度下的车道线特征,然后通过轻量化模块对网络模型进行压缩。最后利用特征重标定模块对特征通道赋予权重提升网络准确性。将三分支网络在复杂路况数据集上进行训练并测试。实验结果证明使三分支网络可以在复杂的路况仍...
【文章来源】:重庆邮电大学重庆市
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
感知机网络
重庆邮电大学硕士学位论文第2章深度学习相关理论概述13如图2.2所示是一个分类模型的结构,图片比较清楚地展示了CNN地结构,CNN网络一般来说,包括这五个部分:输入层INPUT,卷积层CONV,激活函数层RELU,池化层POOL,全连接层FC。图2.2卷积神经分类网络结构图卷积层:卷积层是卷积神经网络中重要的结构之一,它通过卷积计算对图像或音频进行特征的提取,而作为卷积运算的最大的优势,则为全职共享和池化运算。通过这两个优势,可以避免传统图像和语音识别中的需要手动预设特征的情况。通过卷积层可以使神经网络高效且准确的学习到高维任务的特征与结果之间的函数关系。整个网络的重中之重是卷积核,卷积神经网络通过不一样深度的卷积层,逐层提取图片中的信息,并加以抽象。每层的卷积都由数个不同的卷积核组成,利用不同的卷积核,分别提取不同的特征,并组成多通道特征图。训练上面所提到网络的过程就是不断测试,直到找到卷积核参数最合适值的过程。卷积核:对于输入图像中的一部分区域,进行加权求和的处理,其中这个过程的权重,由一个函数定义,这个函数就是卷积核。下图2.3为卷积核计算过程:
重庆邮电大学硕士学位论文第2章深度学习相关理论概述14图2.3卷积计算过程图激活函数:在神经网络中,当前层神经元的输入值是上一层神经元的输出值,然后应用刚刚得到输入值传递给下一层,如此循环,即将输入层神经元节点的输入属性值去传递进下一层的隐层或输出层。多层神经网络存在这样的相关关系,即上层节点的输出和下层节点的输入之间的关系,上述相关关系被叫做激活函数,还可叫做激励函数。若无需激励函数可以看作激励函数是线性关系,在这时每一层节点的输入都是上层输出的线性函数,因此可以认为,不论神经网络层数多少,输出、输入都是线性组合的关系,和无隐藏层几乎一样,上面提到的就是最原始的感知机,其网络的逼近能力具有有限性。根据刚才的思考,得到将非线性函数当作激活函数,就可以得到表达能力愈发有优势的深层神经网络,也可以说不采用是线性关系的输入,几乎可以逼近全部函数。常见的激活函数有很多,比如Relu,Sigmoid,tanh等。下面式2.3是Relu函数的解析式:xlu),0max(Re(2.3)Relu函数及其导数的图像如下图所示:图2.4Relu激活函数,Relu激活函数导数
本文编号:3471567
【文章来源】:重庆邮电大学重庆市
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
感知机网络
重庆邮电大学硕士学位论文第2章深度学习相关理论概述13如图2.2所示是一个分类模型的结构,图片比较清楚地展示了CNN地结构,CNN网络一般来说,包括这五个部分:输入层INPUT,卷积层CONV,激活函数层RELU,池化层POOL,全连接层FC。图2.2卷积神经分类网络结构图卷积层:卷积层是卷积神经网络中重要的结构之一,它通过卷积计算对图像或音频进行特征的提取,而作为卷积运算的最大的优势,则为全职共享和池化运算。通过这两个优势,可以避免传统图像和语音识别中的需要手动预设特征的情况。通过卷积层可以使神经网络高效且准确的学习到高维任务的特征与结果之间的函数关系。整个网络的重中之重是卷积核,卷积神经网络通过不一样深度的卷积层,逐层提取图片中的信息,并加以抽象。每层的卷积都由数个不同的卷积核组成,利用不同的卷积核,分别提取不同的特征,并组成多通道特征图。训练上面所提到网络的过程就是不断测试,直到找到卷积核参数最合适值的过程。卷积核:对于输入图像中的一部分区域,进行加权求和的处理,其中这个过程的权重,由一个函数定义,这个函数就是卷积核。下图2.3为卷积核计算过程:
重庆邮电大学硕士学位论文第2章深度学习相关理论概述14图2.3卷积计算过程图激活函数:在神经网络中,当前层神经元的输入值是上一层神经元的输出值,然后应用刚刚得到输入值传递给下一层,如此循环,即将输入层神经元节点的输入属性值去传递进下一层的隐层或输出层。多层神经网络存在这样的相关关系,即上层节点的输出和下层节点的输入之间的关系,上述相关关系被叫做激活函数,还可叫做激励函数。若无需激励函数可以看作激励函数是线性关系,在这时每一层节点的输入都是上层输出的线性函数,因此可以认为,不论神经网络层数多少,输出、输入都是线性组合的关系,和无隐藏层几乎一样,上面提到的就是最原始的感知机,其网络的逼近能力具有有限性。根据刚才的思考,得到将非线性函数当作激活函数,就可以得到表达能力愈发有优势的深层神经网络,也可以说不采用是线性关系的输入,几乎可以逼近全部函数。常见的激活函数有很多,比如Relu,Sigmoid,tanh等。下面式2.3是Relu函数的解析式:xlu),0max(Re(2.3)Relu函数及其导数的图像如下图所示:图2.4Relu激活函数,Relu激活函数导数
本文编号:3471567
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3471567.html
最近更新
教材专著