当前位置:主页 > 科技论文 > 电子信息论文 >

面向云端FPGA的卷积神经网络加速器的设计及其调度

发布时间:2021-07-11 13:35
  卷积神经网络的高计算复杂性阻碍其广泛用于实时和低功耗应用,现有软件实现方案难以满足其对运算性能与功耗的要求,传统面向FPGA的卷积神经网络构造方式具有流程复杂、周期较长和优化空间较小等问题。针对该问题,根据卷积神经网络计算模式的特点,提出一种面向云端FPGA的卷积神经网络加速器的设计及其调度机制。通过借鉴基于HLS技术、引入循环切割参数和对卷积层循环重排的设计,采用模块化方式构造网络,并进行参数拓展以进一步优化加速器处理过程;通过分析系统任务和资源的特性总结调度方案,且从控制流和数据流两方面对其进行优化设计。与其他已有工作相比,提出的设计提供了一种同时具有灵活性、低能耗、高能效和高性能的解决方案,并且探讨了加速器的高效通用调度方案。实验结果表明,该加速器可在有效提高运算整速度的同时减少功耗。 

【文章来源】:计算机应用研究. 2020,37(01)北大核心CSCD

【文章页数】:7 页

【部分图文】:

面向云端FPGA的卷积神经网络加速器的设计及其调度


典型卷积神经网络模型

加速器,卷积,模板


b)池化层。池化层采取与卷积层类似的滑动窗口处理输入数据,并对每个滤波器的输入求最大值或平均值等。考虑到不同网络中卷积层和池化层的连接关系不同,将池化层以与卷积加速器相同的方式实例化为独立加速器,来增强加速器对不同模型的适用性与可重构性。采取与卷积层相同的加速器设计,由于池化层不改变输入特征维度,所以只有一个特征维度参数,其参数定义与卷积加速器相同,如图3所示。图3 池化加速器模板

加速器,模板,卷积,全连接


图2 卷积加速器模板c)全连接层。通过分析CNN的特性得知,全连接层的计算相对于卷积层,区别仅在于减少了卷积核心内部的循环操作,可将全连接层视为卷积层的一种特殊形式。因此,采用卷积层加速器进行全连接层的计算,可通过复用卷积加速器来节约硬件资源,提高加速器的计算效能,达到对资源的高效利用。

【参考文献】:
期刊论文
[1]卷积神经网络研究综述[J]. 周飞燕,金林鹏,董军.  计算机学报. 2017(06)
[2]Face recognition based on subset selection via metric learning on manifold[J]. Hong SHAO,Shuang CHEN,Jie-yi ZHAO,Wen-cheng CUI,Tian-shu YU.  Frontiers of Information Technology & Electronic Engineering. 2015(12)
[3]基于word embedding和CNN的情感分类模型[J]. 蔡慧苹,王丽丹,段书凯.  计算机应用研究. 2016(10)



本文编号:3278195

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/3278195.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户6642e***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com