当前位置:主页 > 管理论文 > 工程管理论文 >

CPU-GPU异构计算环境下的Cube CNN模型设计与应用研究

发布时间:2020-06-30 02:48
【摘要】:高光谱图像分类是遥感领域的研究热点之一。随着光谱信息的不断丰富和光谱波段数的迅速增加,传统分类器如支持向量机、随机森林等,在处理高光谱分类应用时,往往由于输入数据的维度高而遭遇性能瓶颈。近年来,深度学习方法发展迅速,深度卷积神经网络(CNN)能够有效地从原始图像中提取具有代表性的特征,因此在图像分类领域应用广泛。由于高光谱图像分类是像素级别分类,因此,设计专用于高光谱图像分类应用的深度CNN网络,一直是高光谱图像分类领域研究的关键。图形处理器(Graphic Processing Unit,GPU)作为最通用的加速芯片之一,被广泛应用于高性能计算领域。由于深度神经网络的训练耗时严重,越来越多的研究人员致力于将GPU应用于深度学习领域,以加速模型的训练过程。本文将高光谱图像近邻像素策略与CNN相结合,提出一种面向高光谱图像分类应用的Cube CNN模型。针对该模型的训练特点,提出基于GPU平台的GCN并行加速框架:首先,本文为GCN框架设计了一种高光谱图像数据集预处理算法——PNPE(Parallel Neighbor Pixel Extraction)算法,该算法能够并行地从原始高光谱图像数据集中提取样本并保存在GPU的Global Memory中,用于后续模型的训练。其次,结合Cube CNN各层的数据运算特点和GPU的软硬件体系结构特点,本文在GCN框架中引入了Cube CNN-To-GPU的映射机制,该机制能够将Cube CNN各层的训练映射到GPU端的CUDA kernel,为模型训练的GPU并行加速奠定基础。最后,本文设计了GPU端具体的数据存储模式和同步机制,并将Multiple CUDA Streams技术与小批量梯度下降(MBGD)算法相结合,进一步提高了该算法的执行效率。实验证明,在保证Cube CNN模型精度的前提下,GCN框架能有效提升模型的训练速度,与常用并行加速平台Caffe和Theano相比,最多分别能缩短85%+和90%+的模型训练时间。最后,本文通过设计跨平台GPU上的模型训练时间对比实验,验证了GCN框架具有良好的可移植性。
【学位授予单位】:南开大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:TP751;TP183
【图文】:

存储器带宽


与传统的中央处理器 CPU 相比,GPU 已演化成为拥有高并发性多核处理器。无论是计算能力和内存带宽都远超 CPU,以 GPU 为代通用加速器迅速发展成为并行与高性能领域的主流技术,并被广泛应通个人电脑到 Top500 中的超级计算机中[16]。CPU 和 GPU 的计算能力对比如图 1-1 所示,从 2011 年开始,与 Int图 1-1 CPU 与 GPU 浮点计算能力对比[49]

浮点计算


与传统的中央处理器 CPU 相比,GPU 已演化成为拥有高并发性、多线程的多核处理器。无论是计算能力和内存带宽都远超 CPU,以 GPU 为代表的众核通用加速器迅速发展成为并行与高性能领域的主流技术,并被广泛应用于从普通个人电脑到 Top500 中的超级计算机中[16]。CPU 和 GPU 的计算能力对比如图 1-1 所示,从 2011 年开始,与 Intel CPU图 1-1 CPU 与 GPU 浮点计算能力对比[49]

【参考文献】

相关期刊论文 前1条

1 孙志军;薛磊;许阳明;王正;;深度学习研究综述[J];计算机应用研究;2012年08期



本文编号:2734743

资料下载
论文发表

本文链接:https://www.wllwen.com/guanlilunwen/gongchengguanli/2734743.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户ef06e***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com