当前位置:主页 > 科技论文 > 计算机论文 >

应用于神经网络的高效能计算单元的研究与实现

发布时间:2020-08-15 22:06
【摘要】:在众多实现人工智能的技术中,神经网络是当今最成功也是应用最广泛的技术。卷积神经网络是神经网络的进一步发展,随着卷积神经网络的出现,人工智能的发展也是如日中天。然而,在卷积神经网络的设计越来越复杂的今天,不断增加的功耗也是限制其发展的一个重要因素。其中,卷积计算的功耗占比极大,可达90%。乘法器是卷积计算中重要的计算单元,考虑到神经网络中的计算并不需要完全精确的特点,本文设计了适用于卷积神经网络的近似乘法器电路,以达到降低功耗的目的。近似乘法器种类繁多,功耗和平均相对误差等关键性能也各不相同。首先,本文在借鉴国内外研究成果的基础上,确定了适用于卷积神经网络的参考方案,并对其进行了逻辑和电路结构两个层面的优化。在逻辑层面上,本文通过增加高位部分积的方式,用较小的功耗代价降低了 2%的平均相对误差;在电路结构层面上,本文使用了移位至固定位置的操作,取代了原电路的LOD等模块,且方便了增加的部分积的加入。其次,本文编写了改进后电路及原电路的SPICE网表,采用Hspice软件仿真验证,并设计了同时考虑了功耗、延迟及平均相对误差的品质因数(FoM)。仿真结果表明,改进后的电路在不同的输入电压、温度、工艺角下均优于原电路,FoM收益最低8.26%,最高16.3%。最后,本文将改进后的近似乘法器电路嵌入到开源神经网络平台NVDLA的计算模块中,并通过仿真来确定其在实际应用中的效果。经验证,两种设计性能基本相等,但功耗仅为原CMAC模块的32.6%,面积仅为原CMAC模块46.7%。
【学位授予单位】:东南大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:TP332.22;TP18
【图文】:

神经网络,误差,图像


传递的信号均是以数字的形式表达的,每个输入信号与权重相乘,再各自相加逡逑个和,最后由一个函数对这个和进行处理后再输出,即用代表了某个特征的卷逡逑输入矩阵进行卷积操作。逡逑积神经网络(Convolutional邋Neural邋Networks,邋CNN)是神经网络下最热门的一个逡逑指的是利用多层次的神经网络,逐层进行学习。CNN最初的结构是1986年由逡逑lhart和McCelland提出的误差反向传播算法(Error邋Back邋Propagation),其主要思逡逑据输出的误差进行反馈,不断修正中间的权重并在产生结果后再次反馈,这样循逡逑误差足够小为止。1998年,纽约大学的学者们提出了邋LeNet-5结构,通过两个卷逡逑接上降采样层的结构提高了拟合成功的概率。2006年,多伦多大学的Hinton和逡逑utdinov提出了深度信念网络,认为神经网络含有隐层的数量越多,层次越深,就逡逑强的学习能力。且对于深层人工神经网络训练难度大的问题,可以通过无监督的逡逑始化的方式解决。2012年,Krizhevsky提出了邋Alex-Net模型,在ILSVRC-2012逡逑赛中,top-5误差为15.3%,取得了新的突破。2014年,ChristianSzegedy等人设计逡逑oogle邋Net深度卷积神经网络在ILSVRC-2014的比赛中,top-5误差降到6.67%。逡逑年这个记录再次被刷新,ImageNet2015的比赛中冠军取得了邋top-5误差3.57%的成逡逑见,CNN的发展己经迈上了快车道。逡逑于CNN及其他神经网络结构的发展,神经网络的性能得到了大幅提升,在图片逡逑面的正确率甚至可以超出人脑,如图1-1所示。于此同时,其商业

神经网络,特征图,卷积,全连接


在经过若干个卷积层和子采样层后,CNN最后通过全连接层(Fully-connectedlayer)逡逑得出输出。全连接层与上述卷积层的区别在于其各个神经元均与上一层的所有神经元逡逑连接,即综合之前得出的所有特征产生输出。其综合结构图如图1-3所示。逡逑输入逦特征图逦特征图逦特征图邋特征图逡逑I逡逑逦||逦…'......''I逦逦逡逑二.邋邋■■■:.」逦r?_u逦V逡逑逦H逦邋H邋|邋 ̄逦n逡逑卷积逦池化逦卷积逦池化通过全连接层逡逑图1-3卷积神经网络的结构图逡逑2逡逑

全定制,专用集成电路,系统实现,占比


图14类神经系统硬件应用的高层次细分及占比m逡逑全定制或专用集成电路(ASIC)芯片对于类神经系统实现也是非常常见的[的TrueNorth是当今最流行的类神经系统实现之一,它是完全定制的ASICTmeNorth芯片是部分异步和部分同步的,因为时钟控制着系统中的基本时些活动不会与时钟发生。TrueNorth系统中的一个核心包含一个256x256交,可将传入尖峰映射到神经元。系统的行为是确定性的,但是有能力通过生随机行为。这种随机性可以在软件模拟中完全复制。逡逑SpiNNaker是另一种流行的类神经系统实现,也是一个全定制的数字大规模16_18l。SpiNNaker由许多小型整数核心以及针对基于尖峰的网络架构的通信行定制互连通信方案组成。也就是说,通信结构是为了处理大量非常小的消。处理单元本身非常灵活,并不是神经形态的定制,但每个SpiNNaker芯片指令和数据存储器,以便最大限度地减少对常用数据的访问时间。像TrueNoSpiNNaker支持芯片的级联以形成更大的系统。逡逑TrueNorth和SpiNNaker提供了数字硬件实现极限的例子。TrueNorth公司选定峰值神经网络模型,它具有泄漏的整合放电神经元和有限的可编程连接有片上学习。它针对所选择的网络模型和拓扑进行了高度优化。另一Naker在其选择的神经元模型,突触模型和学习算法中是非常灵活的。此外,和网络的拓扑都非常灵活。然而,这种灵活性的代价是能量效率。据Furber

【相似文献】

相关期刊论文 前10条

1 胡悦;;金融市场中的神经网络拐点预测法[J];金融经济;2017年18期

2 迟惠生;陈珂;;1995年世界神经网络大会述评[J];国际学术动态;1996年01期

3 王丽华;杨秀萍;王皓;高峥翔;;智能双轮平衡车的设计研究[J];数字技术与应用;2018年04期

4 张庭略;;基于硬件的神经网络加速[J];通讯世界;2018年08期

5 苏秀婷;;耦合神经网络的同步[J];绍兴文理学院学报(自然科学);2016年03期

6 朱n

本文编号:2794725


资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/jisuanjikexuelunwen/2794725.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户1deb8***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com