当前位置:主页 > 科技论文 > 软件论文 >

基于卷积神经网络的图像识别

发布时间:2018-03-22 07:02

  本文选题:深度学习 切入点:残差 出处:《吉林大学》2017年硕士论文 论文类型:学位论文


【摘要】:生物神经网络是由海量的神经元通过树突和轴突连接而成,其能够不断学习和进化。而人工神经网络就是基于生物学中神经网络的基本原理,以网络拓扑知识为基础,模拟人脑的神经系统对外界信息的处理机制的一种数学模型。人工神经网络的研究在上世纪末期经历了一段时间的快速发展后,由于各种条件的限制,陷入了低谷。深度学习就是以人工神经网络为基础,一种更为深层次并且更加复杂的网络模型。近年来,由于计算机技术的迅猛发展,尤其是硬件条件的提升,深层神经网络的训练时间大大减少,深度学习也迅速成为一个研究热点。在数字识别,语音识别,无人驾驶,图像识别等领域,深度学习技术都有着广泛的应用。以深度学习为代表的新一代人工智能技术,正在逐渐渗透到人们生活之中,并推动着社会的发展。而卷积神经网络作为深度学习技术的一个代表,近年来也取得了飞速的发展。卷积神经网络是一种特殊的深层神经网络,它包含特殊的卷积层和降采样层,卷积层的神经元和前一层采用局部连接和权值共享的方式进行连接,从而大大降低了需要训练的参数数量。降采样层可以大幅降低输入维度,降低网络复杂度,使网络具有更高的鲁棒性,同时能够有效的抑制过拟合问题。这些设计使得卷积神经网络在识别缩放,位移以及其他形式扭曲不变的二维图形的任务上有着无可比拟的优越性。2012年的Alex-net在imagenet的比赛上大放异彩,而2015年imagenet大赛上出现的残差神经网络,又是卷积神经网络的一种新的变形,它让卷积层不直接学习目标,而是转而学习一种残差。残差神经网络的出现,让卷积网络的研究又进入了一个新的阶段。本文基于传统的残差网络,提出了一种改进的多尺度残差网络,我们的网络结构使得卷积层能够从多个不同的尺度“观察”数据,获得更为丰富的输入特征。并且缩减了网络的深度,有效了抑制了梯度消失问题的发生,减小了训练难度。同时增加了可训练参数的数量,使得网络的学习能力变得强。我们通过调整缩放参数,网络深度,每组学习模块的数量,dropout的位置及取值,使得我们的网络结构的准确率比传统的残差神经网络有了明显的提升。最后,我们使用了相对多数投票的集成学习方法,将网络在CIFAR-10上的分类错误率降低到3.49%,相对于原始的残差神经网络,错误率下降了3%。
[Abstract]:Biological neural networks are composed of massive neurons connected by dendrites and axons, which can be continuously studied and evolved. Artificial neural networks are based on the basic principles of neural networks in biology and are based on the knowledge of network topology. A mathematical model that simulates the processing mechanism of the human brain's nervous system to external information. After a period of rapid development in the late last century, the study of artificial neural networks has been restricted by various conditions. Deep learning is based on artificial neural network, a deeper and more complex network model. In recent years, due to the rapid development of computer technology, especially the improvement of hardware, The training time of deep neural network is greatly reduced, and deep learning has become a research hotspot. In the fields of digital recognition, speech recognition, unmanned driving, image recognition and so on, Deep learning technology is widely used. The new generation of artificial intelligence technology, represented by deep learning, is gradually infiltrating into people's lives. As a representative of deep learning technology, convolution neural network has made rapid development in recent years. Convolutional neural network is a special kind of deep neural network. It contains special convolution layer and down-sampling layer. The neurons of the convolutional layer and the previous layer are connected by local connection and weight sharing, which greatly reduces the number of parameters that need to be trained. The complexity of the network is reduced, the network is more robust, and the over-fitting problem can be effectively suppressed. These designs make the convolutional neural network recognize scaling. The task of displacement and other forms of distorted two-dimensional graphics has unparalleled advantages. In 2012, Alex-net made a splash in the imagenet competition, and in the 2015 imagenet contest, the residual neural network emerged. It is a new kind of deformation of convolutional neural network, which makes the convolution layer not learn the target directly, but instead learn a kind of residuals. In this paper, an improved multi-scale residual network is proposed based on the traditional residuals network. Our network structure enables the convolution layer to "observe" data from many different scales. More abundant input features are obtained, and the depth of the network is reduced, the occurrence of the gradient vanishing problem is effectively restrained, and the difficulty of training is reduced. At the same time, the number of trainable parameters is increased. Make the learning ability of the network strong. We can adjust the scaling parameters, the depth of the network, the number of learning modules in each group and the location and value of dropout. This makes our network structure more accurate than the traditional residuals neural network. Finally, we use the ensemble learning method of relative majority voting. The classification error rate of the network on CIFAR-10 is reduced to 3.49. Compared with the original residual neural network, the error rate is reduced by 3%.
【学位授予单位】:吉林大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP391.41;TP183

【相似文献】

相关期刊论文 前10条

1 杨晓帅 ,付玫;神经网络技术让管理更轻松[J];软件世界;2000年11期

2 云中客;新的神经网络来自于仿生学[J];物理;2001年10期

3 唐春明,高协平;进化神经网络的研究进展[J];系统工程与电子技术;2001年10期

4 李智;一种基于神经网络的煤炭调运优化方法[J];长沙铁道学院学报;2003年02期

5 程科,王士同,杨静宇;新型模糊形态神经网络及其应用研究[J];计算机工程与应用;2004年21期

6 王凡,孟立凡;关于使用神经网络推定操作者疲劳的研究[J];人类工效学;2004年03期

7 周丽晖;从统计角度看神经网络[J];统计教育;2005年06期

8 赵奇 ,刘开第 ,庞彦军;灰色补偿神经网络及其应用研究[J];微计算机信息;2005年14期

9 袁婷;;神经网络在股票市场预测中的应用[J];软件导刊;2006年05期

10 尚晋;杨有;;从神经网络的过去谈科学发展观[J];重庆三峡学院学报;2006年03期

相关会议论文 前10条

1 徐春玉;;基于泛集的神经网络的混沌性[A];1996中国控制与决策学术年会论文集[C];1996年

2 周树德;王岩;孙增圻;孙富春;;量子神经网络[A];2003年中国智能自动化会议论文集(上册)[C];2003年

3 罗山;张琳;范文新;;基于神经网络和简单规划的识别融合算法[A];2009系统仿真技术及其应用学术会议论文集[C];2009年

4 郭爱克;马尽文;丁康;;序言(二)[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

5 钟义信;;知识论:神经网络的新机遇——纪念中国神经网络10周年[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

6 许进;保铮;;神经网络与图论[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

7 金龙;朱诗武;赵成志;陈宁;;数值预报产品的神经网络释用预报应用[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

8 田金亭;;神经网络在中学生创造力评估中的应用[A];第十二届全国心理学学术大会论文摘要集[C];2009年

9 唐墨;王科俊;;自发展神经网络的混沌特性研究[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年

10 张广远;万强;曹海源;田方涛;;基于遗传算法优化神经网络的故障诊断方法研究[A];第十二届全国设备故障诊断学术会议论文集[C];2010年

相关重要报纸文章 前10条

1 美国明尼苏达大学社会学博士 密西西比州立大学国家战略规划与分析研究中心资深助理研究员 陈心想;维护好创新的“神经网络硬件”[N];中国教师报;2014年

2 卢业忠;脑控电脑 惊世骇俗[N];计算机世界;2001年

3 葛一鸣 路边文;人工神经网络将大显身手[N];中国纺织报;2003年

4 中国科技大学计算机系 邢方亮;神经网络挑战人类大脑[N];计算机世界;2003年

5 记者 孙刚;“神经网络”:打开复杂工艺“黑箱”[N];解放日报;2007年

6 本报记者 刘霞;美用DNA制造出首个人造神经网络[N];科技日报;2011年

7 健康时报特约记者  张献怀;干细胞移植:修复受损的神经网络[N];健康时报;2006年

8 刘力;我半导体神经网络技术及应用研究达国际先进水平[N];中国电子报;2001年

9 ;神经网络和模糊逻辑[N];世界金属导报;2002年

10 邹丽梅 陈耀群;江苏科大神经网络应用研究通过鉴定[N];中国船舶报;2006年

相关博士学位论文 前10条

1 杨旭华;神经网络及其在控制中的应用研究[D];浙江大学;2004年

2 李素芳;基于神经网络的无线通信算法研究[D];山东大学;2015年

3 石艳超;忆阻神经网络的混沌性及几类时滞神经网络的同步研究[D];电子科技大学;2014年

4 王新迎;基于随机映射神经网络的多元时间序列预测方法研究[D];大连理工大学;2015年

5 付爱民;极速学习机的训练残差、稳定性及泛化能力研究[D];中国农业大学;2015年

6 李辉;基于粒计算的神经网络及集成方法研究[D];中国矿业大学;2015年

7 王卫苹;复杂网络几类同步控制策略研究及稳定性分析[D];北京邮电大学;2015年

8 张海军;基于云计算的神经网络并行实现及其学习方法研究[D];华南理工大学;2015年

9 李艳晴;风速时间序列预测算法研究[D];北京科技大学;2016年

10 陈辉;多维超精密定位系统建模与控制关键技术研究[D];东南大学;2015年

相关硕士学位论文 前10条

1 章颖;混合不确定性模块化神经网络与高校效益预测的研究[D];华南理工大学;2015年

2 贾文静;基于改进型神经网络的风力发电系统预测及控制研究[D];燕山大学;2015年

3 李慧芳;基于忆阻器的涡卷混沌系统及其电路仿真[D];西南大学;2015年

4 陈彦至;神经网络降维算法研究与应用[D];华南理工大学;2015年

5 董哲康;基于忆阻器的组合电路及神经网络研究[D];西南大学;2015年

6 武创举;基于神经网络的遥感图像分类研究[D];昆明理工大学;2015年

7 李志杰;基于神经网络的上证指数预测研究[D];华南理工大学;2015年

8 陈少吉;基于神经网络血压预测研究与系统实现[D];华南理工大学;2015年

9 张韬;几类时滞神经网络稳定性分析[D];渤海大学;2015年

10 邵雪莹;几类时滞不确定神经网络的稳定性分析[D];渤海大学;2015年



本文编号:1647550

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/1647550.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户0f9f5***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com