设计应用

基于NOR Flash的存算一体模拟乘加电路设计

作者: 丁士鹏,黄 鲁
发布日期:2021-06-10
来源:信息技术与网络安全

0 引言

随着对人工智能研究的不断深入,深度学习正成为训练机器实现智能的重要研究方法。在深度学习中,有着大量的输入数据、网络参数以及乘累加运算[1]。

在以冯·诺依曼为主流的存算分离架构中,计算单元与内存单元数据搬运的时延和功耗开销越来越成为深度学习神经网络所面临的一个严峻问题[2],严重制约着深度学习神经网络的应用。以应用深度学习神经网络的AlphaGo为例,其在进行每一局的围棋活动中,用电成本约为3 000美元[3],对于大多数智能设备而言,是无法接受的。面对传统存算架构在深度学习神经网络运算中的功耗与速度瓶颈,采用存算一体的架构成为现阶段解决带宽与功耗问题的一条有效途径。





本文详细内容请下载:http://www.chinaaet.com/resource/share/2000003603




作者信息:

丁士鹏,黄  鲁

(中国科学技术大学 微电子学院,安徽 合肥230026)


此内容为AET网站原创,未经授权禁止转载。
NORFlash 存算一体 模拟乘累加电路