面向TTA架构ASIP设计的深度神经网络优化
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 课题研究背景 | 第10-12页 |
1.2 课题研究内容 | 第12-13页 |
1.3 国内外研究现状 | 第13-14页 |
1.4 论文组织结构 | 第14-15页 |
1.5 本章小结 | 第15-16页 |
第二章 相关理论介绍 | 第16-28页 |
2.1 神经网络的模型结构发展 | 第16-19页 |
2.1.1 LeNet-5与卷积神经网络的起源 | 第16页 |
2.1.2 AlexNet与深度学习的崛起 | 第16-17页 |
2.1.3 不断刷新纪录的新模型结构 | 第17-19页 |
2.2 卷积神经网络的常用结构 | 第19-22页 |
2.2.1 卷积层 | 第19-20页 |
2.2.2 归一化层 | 第20-21页 |
2.2.3 池化层 | 第21页 |
2.2.4 激活层 | 第21-22页 |
2.3 神经网络的优化技术 | 第22-24页 |
2.3.1 神经网络的压缩 | 第22-24页 |
2.3.2 神经网络的加速 | 第24页 |
2.4 TTA架构的主要特点 | 第24-26页 |
2.5 本章小结 | 第26-28页 |
第三章 神经网络的量化方案设计 | 第28-38页 |
3.1 量化方案的整体思路 | 第28-31页 |
3.2 量化方案的具体实现 | 第31-37页 |
3.2.1 权重的对称仿射量化 | 第31-32页 |
3.2.2 近似的批量归一化 | 第32-35页 |
3.2.3 激活层与激活值的量化 | 第35-36页 |
3.2.4 变精度的梯度量化 | 第36-37页 |
3.3 本章小结 | 第37-38页 |
第四章 神经网络的加速方案设计 | 第38-56页 |
4.1 乘法结合律与量化卷积 | 第38-45页 |
4.1.1 量化神经网络的前向传播 | 第38-39页 |
4.1.2 量化卷积的原理 | 第39-42页 |
4.1.3 量化卷积核的表示 | 第42-45页 |
4.2 面向TTA架构的量化卷积功能单元 | 第45-51页 |
4.2.1 卷积核的分块 | 第45-46页 |
4.2.2 卷积运算的循环展开 | 第46-49页 |
4.2.3 前向传播的数据交换 | 第49-51页 |
4.3 基于TTA架构的神经网络加速器 | 第51-53页 |
4.4 本章小结 | 第53-56页 |
第五章 实验结果与分析 | 第56-68页 |
5.1 近似批量归一化的实验 | 第56-58页 |
5.1.1 AlexNet-BN模型上的实验 | 第56-57页 |
5.1.2 ResNet-18模型上的实验 | 第57-58页 |
5.2 量化方案的实验 | 第58-62页 |
5.2.1 SVHN数据集上的实验 | 第58-59页 |
5.2.2 CIFAR-10数据集上的实验 | 第59-61页 |
5.2.3 ImageNet数据集上的实验 | 第61-62页 |
5.3 量化卷积功能单元的实验 | 第62-65页 |
5.3.1 实验配置 | 第62-63页 |
5.3.2 资源占用的对比 | 第63-64页 |
5.3.3 片上功率的对比 | 第64-65页 |
5.4 本章小结 | 第65-68页 |
第六章 总结与展望 | 第68-70页 |
6.1 本文工作总结 | 第68-69页 |
6.2 不足与展望 | 第69-70页 |
参考文献 | 第70-74页 |
致谢 | 第74-76页 |
攻读学位期间发表的学术论文目录 | 第76页 |