基于预决策的卷积神经网络加速研究
本文关键词:基于预决策的卷积神经网络加速研究 出处:《北京工业大学》2016年硕士论文 论文类型:学位论文
更多相关文章: 卷积神经网络 加速 预决策 级联分类器 特征点选择 计算代价
【摘要】:卷积神经网络(Convolutional Neural Networks,CNN)目前在计算机视觉领域应用广泛,在图像识别、物体检测以及图像分割等问题上都取得了最优的性能。但是CNN是深度的人工神经网络,其前馈传播需要进行大量的卷积运算,而且其网络层数和隐藏层的网络节点数会随着任务难度的增加而增加。因此,CNN过高的计算复杂度,对其在实时性要求较高的应用场景中的使用产生了限制,如对行人和车辆进行检测的交通监控等问题;对其在计算能力较低的设备上的应用也有很大的限制,如移动设备等。本文主要对CNN在图像识别和物体检测中应用的加速方法展开了系统而深入的研究,主要包括以下内容:1.针对CNN在二元图像分类和特定物体检测问题上的应用,提出了一种基于预决策的卷积神经网络加速方法。该方法充分利用了CNN特征的冗余性和多层特征的判别力,建立了基于CNN的级联分类器,实现加速。在构建级联分类器的过程中,对于每一阶的特征选择,提出了特征点选择模型。特征点选择模型充分考虑了CNN各层特征点的分类能力和计算代价,跨层进行特征点的选择,所选特征点的分类能力和计算代价整体最优。本文分别在CIFAR-10、Pascal VOC2007、INRIA和TRECVID等数据集上对该方法进行了测试。实验表明,对于二元图像分类和特定物体检测问题,该方法在有极小性能损失的情况下,能实现较大的加速。另外,该方法可以与很多之前的CNN加速方法结合起来使用,实现更大的加速。2.对基于预决策的卷积神经网络加速方法进行了系统实现。该系统主要包括:特征点选择模型训练集提取模块、CNN网络结构量化模块、特征点选择模型训练模块、级联分类器建立模块。对于深度较大和比较复杂的CNN模型,本文提出的方法在训练过程中时间和空间复杂度都非常大,该系统使用了一些实现技巧,大大压缩了模型的训练时间和所需内存空间。
[Abstract]:Convolutional Neural Networks (CNN) is widely used in the field of computer vision, and is widely used in image recognition. Object detection and image segmentation have achieved optimal performance, but CNN is a depth of artificial neural network, its feedforward propagation requires a large number of convolution operations. Moreover, the number of network layers and the number of network nodes in the hidden layer will increase with the increase of task difficulty. It has some limitations on the use of real-time applications, such as traffic monitoring for pedestrian and vehicle detection. There are also some limitations to the application of CNN in devices with low computing power, such as mobile devices. In this paper, the acceleration method of CNN in image recognition and object detection is studied systematically and deeply. The main contents are as follows: 1. Aiming at the application of CNN in binary image classification and specific object detection. This paper presents an accelerated method of convolution neural network based on pre-decision, which makes full use of the redundancy of CNN features and the discriminant power of multi-layer features, and establishes a cascade classifier based on CNN. Implementation of acceleration. In the process of constructing cascaded classifiers, the feature selection for each order. A feature point selection model is proposed. The feature point selection model takes into account the classification ability and computational cost of each layer of CNN feature points and selects feature points across layers. The classification ability and computational cost of the selected feature points are globally optimal. The method is tested on the data sets of INRIA and TRECVID. Experiments show that the method has minimal performance loss for binary image classification and specific object detection problems. In addition, this method can be used in conjunction with many previous CNN acceleration methods. To achieve greater acceleration. 2. A systematic implementation of the convolution neural network acceleration method based on pre-decision is carried out. The system mainly includes: feature selection model training set extraction module and CNN network structure quantization module. Feature selection model training module, cascade classifier building module. For the deeper and more complex CNN model, the proposed method in the training process in the time and space complexity is very large. The system uses some implementation techniques to greatly reduce the training time and memory space required by the model.
【学位授予单位】:北京工业大学
【学位级别】:硕士
【学位授予年份】:2016
【分类号】:TP391.41;TP183
【相似文献】
相关期刊论文 前10条
1 云中客;新的神经网络来自于仿生学[J];物理;2001年10期
2 唐春明,高协平;进化神经网络的研究进展[J];系统工程与电子技术;2001年10期
3 李智;一种基于神经网络的煤炭调运优化方法[J];长沙铁道学院学报;2003年02期
4 程科,王士同,杨静宇;新型模糊形态神经网络及其应用研究[J];计算机工程与应用;2004年21期
5 王凡,孟立凡;关于使用神经网络推定操作者疲劳的研究[J];人类工效学;2004年03期
6 周丽晖;从统计角度看神经网络[J];统计教育;2005年06期
7 赵奇 ,刘开第 ,庞彦军;灰色补偿神经网络及其应用研究[J];微计算机信息;2005年14期
8 袁婷;;神经网络在股票市场预测中的应用[J];软件导刊;2006年05期
9 尚晋;杨有;;从神经网络的过去谈科学发展观[J];重庆三峡学院学报;2006年03期
10 杨钟瑾;;神经网络的过去、现在和将来[J];青年探索;2006年04期
相关会议论文 前10条
1 徐春玉;;基于泛集的神经网络的混沌性[A];1996中国控制与决策学术年会论文集[C];1996年
2 周树德;王岩;孙增圻;孙富春;;量子神经网络[A];2003年中国智能自动化会议论文集(上册)[C];2003年
3 罗山;张琳;范文新;;基于神经网络和简单规划的识别融合算法[A];2009系统仿真技术及其应用学术会议论文集[C];2009年
4 郭爱克;马尽文;丁康;;序言(二)[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
5 钟义信;;知识论:神经网络的新机遇——纪念中国神经网络10周年[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
6 许进;保铮;;神经网络与图论[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
7 金龙;朱诗武;赵成志;陈宁;;数值预报产品的神经网络释用预报应用[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
8 田金亭;;神经网络在中学生创造力评估中的应用[A];第十二届全国心理学学术大会论文摘要集[C];2009年
9 唐墨;王科俊;;自发展神经网络的混沌特性研究[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年
10 张广远;万强;曹海源;田方涛;;基于遗传算法优化神经网络的故障诊断方法研究[A];第十二届全国设备故障诊断学术会议论文集[C];2010年
相关重要报纸文章 前10条
1 美国明尼苏达大学社会学博士 密西西比州立大学国家战略规划与分析研究中心资深助理研究员 陈心想;维护好创新的“神经网络硬件”[N];中国教师报;2014年
2 卢业忠;脑控电脑 惊世骇俗[N];计算机世界;2001年
3 葛一鸣 路边文;人工神经网络将大显身手[N];中国纺织报;2003年
4 中国科技大学计算机系 邢方亮;神经网络挑战人类大脑[N];计算机世界;2003年
5 记者 孙刚;“神经网络”:打开复杂工艺“黑箱”[N];解放日报;2007年
6 本报记者 刘霞;美用DNA制造出首个人造神经网络[N];科技日报;2011年
7 健康时报特约记者 张献怀;干细胞移植:修复受损的神经网络[N];健康时报;2006年
8 刘力;我半导体神经网络技术及应用研究达国际先进水平[N];中国电子报;2001年
9 ;神经网络和模糊逻辑[N];世界金属导报;2002年
10 邹丽梅 陈耀群;江苏科大神经网络应用研究通过鉴定[N];中国船舶报;2006年
相关博士学位论文 前10条
1 杨旭华;神经网络及其在控制中的应用研究[D];浙江大学;2004年
2 李素芳;基于神经网络的无线通信算法研究[D];山东大学;2015年
3 石艳超;忆阻神经网络的混沌性及几类时滞神经网络的同步研究[D];电子科技大学;2014年
4 王新迎;基于随机映射神经网络的多元时间序列预测方法研究[D];大连理工大学;2015年
5 付爱民;极速学习机的训练残差、稳定性及泛化能力研究[D];中国农业大学;2015年
6 李辉;基于粒计算的神经网络及集成方法研究[D];中国矿业大学;2015年
7 王卫苹;复杂网络几类同步控制策略研究及稳定性分析[D];北京邮电大学;2015年
8 张海军;基于云计算的神经网络并行实现及其学习方法研究[D];华南理工大学;2015年
9 李艳晴;风速时间序列预测算法研究[D];北京科技大学;2016年
10 陈辉;多维超精密定位系统建模与控制关键技术研究[D];东南大学;2015年
相关硕士学位论文 前10条
1 章颖;混合不确定性模块化神经网络与高校效益预测的研究[D];华南理工大学;2015年
2 贾文静;基于改进型神经网络的风力发电系统预测及控制研究[D];燕山大学;2015年
3 李慧芳;基于忆阻器的涡卷混沌系统及其电路仿真[D];西南大学;2015年
4 陈彦至;神经网络降维算法研究与应用[D];华南理工大学;2015年
5 董哲康;基于忆阻器的组合电路及神经网络研究[D];西南大学;2015年
6 武创举;基于神经网络的遥感图像分类研究[D];昆明理工大学;2015年
7 李志杰;基于神经网络的上证指数预测研究[D];华南理工大学;2015年
8 陈少吉;基于神经网络血压预测研究与系统实现[D];华南理工大学;2015年
9 张韬;几类时滞神经网络稳定性分析[D];渤海大学;2015年
10 邵雪莹;几类时滞不确定神经网络的稳定性分析[D];渤海大学;2015年
,本文编号:1419523
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/1419523.html