基于FPGA和深度学习算法的硬件加速设计与研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 引言 | 第10-14页 |
1.1 课题背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-12页 |
1.2.1 深度学习加速方式 | 第11页 |
1.2.2 研究现状 | 第11-12页 |
1.3 本文主要研究内容和结构 | 第12-14页 |
第2章 深度学习以及加速技术概念 | 第14-35页 |
2.1 深度学习概念 | 第14-20页 |
2.1.1 人工神经网络 | 第14-18页 |
2.1.2 深度学习介绍 | 第18-20页 |
2.2 网络拓扑结构 | 第20-29页 |
2.2.1 卷积神经网络 | 第20-25页 |
2.2.2 相关算法介绍 | 第25-29页 |
2.3 深度模型压缩 | 第29-31页 |
2.3.1 权值修剪 | 第29-30页 |
2.3.2 网络量化和权值共享 | 第30-31页 |
2.4 软硬件协同设计 | 第31-33页 |
2.4.1 软硬件协同计算模型 | 第31-32页 |
2.4.2 设计流程 | 第32-33页 |
2.5 硬件加速技术 | 第33-34页 |
2.6 小结 | 第34-35页 |
第3章 加速器系统设计 | 第35-52页 |
3.1 算法分析 | 第35-42页 |
3.1.1 前向计算算法 | 第35-38页 |
3.1.2 反向计算算法 | 第38-40页 |
3.1.3 优化技术分析 | 第40-42页 |
3.2 加速器设计 | 第42-51页 |
3.2.1 加速系统框架设计 | 第42-43页 |
3.2.2 加速器模块设计 | 第43-47页 |
3.2.3 优化方法 | 第47-49页 |
3.2.4 软件控制端 | 第49-51页 |
3.3 小结 | 第51-52页 |
第4章 实验验证和分析 | 第52-63页 |
4.1 实验环境介绍 | 第52-54页 |
4.2 性能趋势 | 第54-60页 |
4.2.1 前向计算 | 第54-57页 |
4.2.2 权值更新 | 第57-60页 |
4.3 性能分布 | 第60-61页 |
4.4 模块资源利用率 | 第61-62页 |
4.5 小结 | 第62-63页 |
结论 | 第63-65页 |
致谢 | 第65-66页 |
参考文献 | 第66-68页 |