致谢 | 第4-5页 |
摘要 | 第5-6页 |
Abstract | 第6页 |
1 绪论 | 第11-15页 |
1.1 课题研究意义 | 第11页 |
1.2 课题研究背景 | 第11-12页 |
1.3 论文创新点 | 第12-13页 |
1.4 论文组织结构和研究内容 | 第13-15页 |
2 循环神经网络理论 | 第15-25页 |
2.1 循环神经网络的结构 | 第15-16页 |
2.2 LSTM型RNN的结构 | 第16-19页 |
2.2.1 RNN梯度消失问题 | 第16页 |
2.2.2 长短时记忆型循环神经网络 | 第16-19页 |
2.3 LSTM型RNN的训练过程 | 第19-22页 |
2.3.1 前向传播过程 | 第19-20页 |
2.3.2 反向传播过程 | 第20-22页 |
2.4 LSTM型RNN的典型应用 | 第22-24页 |
2.5 本章小结 | 第24-25页 |
3 非饱和区扩展的RNN算法优化 | 第25-37页 |
3.1 饱和区的梯度消失问题 | 第25-26页 |
3.2 修正线性单元 | 第26-28页 |
3.3 激活函数的非饱和区扩展 | 第28-34页 |
3.3.1 S型激活函数的性质 | 第28-30页 |
3.3.2 参数化的S型激活函数 | 第30-34页 |
3.4 实验与分析 | 第34-36页 |
3.4.1 实验平台 | 第34-35页 |
3.4.2 不同激活函数的LSTM型RNN训练过程分析 | 第35页 |
3.4.3 不同系数Tanh激活函数的LSTM型RNN训练过程分析 | 第35-36页 |
3.5 本章小结 | 第36-37页 |
4 激活函数硬件实现的优化 | 第37-54页 |
4.1 激活函数硬件实现的基本方法 | 第37-39页 |
4.1.1 查找表法 | 第37页 |
4.1.2 泰勒级数展开法 | 第37-38页 |
4.1.3 分段线性拟合法 | 第38-39页 |
4.2 优化的激活函数硬件实现方法 | 第39-44页 |
4.2.1 平均分割的表驱动线性拟合法 | 第39-42页 |
4.2.2 误差修正的表驱动线性拟合法 | 第42-43页 |
4.2.3 优化分割的表驱动线性拟合法 | 第43-44页 |
4.3 实验与分析 | 第44-53页 |
4.3.1 实验平台 | 第44-45页 |
4.3.2 Sigmoid函数的硬件实现 | 第45-50页 |
4.3.3 参数化Sigmoid函数的硬件实现 | 第50-51页 |
4.3.4 Tanh函数的硬件实现 | 第51-53页 |
4.4 本章小结 | 第53-54页 |
5 总结与展望 | 第54-56页 |
5.1 总结 | 第54-55页 |
5.2 展望 | 第55-56页 |
参考文献 | 第56-59页 |
作者简介 | 第59-60页 |
作者攻读硕士学位期间发表的论文 | 第60页 |