摘要
为了在神经网络训练算法中使用硬件加速,使用ADMM-LSMR方法为基于梯度方法作为梯度下降的替代方法,本文讨论了在FPGA上硬件加速的ADMM-LSMR的方法,并行使用四个LSMR计算单元,训练过程中最消耗资源的部分以并行和流水线方式执行,从而显着提高了速度。
To use hardware acceleration in neural network training algorithms, this paper discusses the FPGA hardware-accelerated ADMM-LSMR method as an alternative to gradient descent based on the ADMM-LSMR method. Four LSMR calculation units are used in parallel, and the most resource-consuming part of the training process is executed in parallel and pipelined to significantly improve speed.
作者
陈瑶
王永强
王远飞
邵然
赵思成
Chen Yao;Wang Yongqiang;Wang Yuanfei;Shao Ran;Zhao Sicheng(Harbin Vocational and Technical College,Harbin,China)
出处
《科学技术创新》
2023年第14期97-100,共4页
Scientific and Technological Innovation
基金
哈尔滨职业技术学院校内课题:人工神经元网络硬件实现的研究(HZY2020ZY006)。