基于FPGA的卷积神经网络定点加速
发布时间:2023-04-06 18:14
针对卷积神经网络(CNN)在资源受限的硬件设备上运行功耗高及运行慢的问题,提出一种基于现场可编程门阵列(FPGA)的CNN定点计算加速方法。首先提出一种定点化方法,并且每层卷积设计不同的尺度参数,使用相对散度确定位宽的长度,以减小CNN参数的存储空间,而且研究不同量化区间对CNN精度的影响;其次,设计参数复用方法及流水线计算方法来加速卷积计算。为验证CNN定点化后的加速效果,采用了人脸和船舶两个数据集进行验证。结果表明,相较于传统的浮点卷积计算,所提方法在保证CNN精度损失很小的前提下,当权值参数和输入特征图参数量化到7-bit时,在人脸识别CNN模型上的压缩后的权重参数文件大小约为原来的22%,卷积计算加速比为18.69,同时使FPGA中的乘加器的利用率达94.5%。实验结果表明了该方法可以提高卷积计算速度,并且能够高效利用FPGA硬件资源。
【文章页数】:6 页
【文章目录】:
0 引言
1 卷积神经网络模型参数预处理
1.1 卷积神经网络
1.2 权值参数预处理
2 CNN模型参数定点化优化方法
2.1 权值参数定点化
2.2 输入参数定点化
3 基于FPGA的定点化CNN加速设计
3.1 参数量化
3.2 参数加载
3.3 输入模块
3.4 卷积加速
3.5 输出模块
4 实验与结果分析
4.1 实验设计
4.2 实验结果与分析
5 结语
本文编号:3784166
【文章页数】:6 页
【文章目录】:
0 引言
1 卷积神经网络模型参数预处理
1.1 卷积神经网络
1.2 权值参数预处理
2 CNN模型参数定点化优化方法
2.1 权值参数定点化
2.2 输入参数定点化
3 基于FPGA的定点化CNN加速设计
3.1 参数量化
3.2 参数加载
3.3 输入模块
3.4 卷积加速
3.5 输出模块
4 实验与结果分析
4.1 实验设计
4.2 实验结果与分析
5 结语
本文编号:3784166
本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/3784166.html