面向云端FPGA的卷积神经网络加速器的设计及其调度
发布时间:2021-07-11 13:35
卷积神经网络的高计算复杂性阻碍其广泛用于实时和低功耗应用,现有软件实现方案难以满足其对运算性能与功耗的要求,传统面向FPGA的卷积神经网络构造方式具有流程复杂、周期较长和优化空间较小等问题。针对该问题,根据卷积神经网络计算模式的特点,提出一种面向云端FPGA的卷积神经网络加速器的设计及其调度机制。通过借鉴基于HLS技术、引入循环切割参数和对卷积层循环重排的设计,采用模块化方式构造网络,并进行参数拓展以进一步优化加速器处理过程;通过分析系统任务和资源的特性总结调度方案,且从控制流和数据流两方面对其进行优化设计。与其他已有工作相比,提出的设计提供了一种同时具有灵活性、低能耗、高能效和高性能的解决方案,并且探讨了加速器的高效通用调度方案。实验结果表明,该加速器可在有效提高运算整速度的同时减少功耗。
【文章来源】:计算机应用研究. 2020,37(01)北大核心CSCD
【文章页数】:7 页
【部分图文】:
典型卷积神经网络模型
b)池化层。池化层采取与卷积层类似的滑动窗口处理输入数据,并对每个滤波器的输入求最大值或平均值等。考虑到不同网络中卷积层和池化层的连接关系不同,将池化层以与卷积加速器相同的方式实例化为独立加速器,来增强加速器对不同模型的适用性与可重构性。采取与卷积层相同的加速器设计,由于池化层不改变输入特征维度,所以只有一个特征维度参数,其参数定义与卷积加速器相同,如图3所示。图3 池化加速器模板
图2 卷积加速器模板c)全连接层。通过分析CNN的特性得知,全连接层的计算相对于卷积层,区别仅在于减少了卷积核心内部的循环操作,可将全连接层视为卷积层的一种特殊形式。因此,采用卷积层加速器进行全连接层的计算,可通过复用卷积加速器来节约硬件资源,提高加速器的计算效能,达到对资源的高效利用。
【参考文献】:
期刊论文
[1]卷积神经网络研究综述[J]. 周飞燕,金林鹏,董军. 计算机学报. 2017(06)
[2]Face recognition based on subset selection via metric learning on manifold[J]. Hong SHAO,Shuang CHEN,Jie-yi ZHAO,Wen-cheng CUI,Tian-shu YU. Frontiers of Information Technology & Electronic Engineering. 2015(12)
[3]基于word embedding和CNN的情感分类模型[J]. 蔡慧苹,王丽丹,段书凯. 计算机应用研究. 2016(10)
本文编号:3278195
【文章来源】:计算机应用研究. 2020,37(01)北大核心CSCD
【文章页数】:7 页
【部分图文】:
典型卷积神经网络模型
b)池化层。池化层采取与卷积层类似的滑动窗口处理输入数据,并对每个滤波器的输入求最大值或平均值等。考虑到不同网络中卷积层和池化层的连接关系不同,将池化层以与卷积加速器相同的方式实例化为独立加速器,来增强加速器对不同模型的适用性与可重构性。采取与卷积层相同的加速器设计,由于池化层不改变输入特征维度,所以只有一个特征维度参数,其参数定义与卷积加速器相同,如图3所示。图3 池化加速器模板
图2 卷积加速器模板c)全连接层。通过分析CNN的特性得知,全连接层的计算相对于卷积层,区别仅在于减少了卷积核心内部的循环操作,可将全连接层视为卷积层的一种特殊形式。因此,采用卷积层加速器进行全连接层的计算,可通过复用卷积加速器来节约硬件资源,提高加速器的计算效能,达到对资源的高效利用。
【参考文献】:
期刊论文
[1]卷积神经网络研究综述[J]. 周飞燕,金林鹏,董军. 计算机学报. 2017(06)
[2]Face recognition based on subset selection via metric learning on manifold[J]. Hong SHAO,Shuang CHEN,Jie-yi ZHAO,Wen-cheng CUI,Tian-shu YU. Frontiers of Information Technology & Electronic Engineering. 2015(12)
[3]基于word embedding和CNN的情感分类模型[J]. 蔡慧苹,王丽丹,段书凯. 计算机应用研究. 2016(10)
本文编号:3278195
本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/3278195.html