摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-12页 |
缩略语对照表 | 第12-16页 |
第一章 绪论 | 第16-22页 |
1.1 课题研究背景及意义 | 第16-17页 |
1.2 神经网络相关技术及发展现状 | 第17-19页 |
1.2.1 神经网络技术的研究历史和发展现状 | 第17-18页 |
1.2.2 可重构技术发展现状 | 第18页 |
1.2.3 FPGA的发展现状 | 第18-19页 |
1.3 本课题的主要工作 | 第19页 |
1.4 论文结构及内容安排 | 第19-22页 |
第二章 神经网络及其实现技术 | 第22-38页 |
2.1 神经元模型 | 第22-24页 |
2.1.1 生物神经元模型 | 第22-23页 |
2.1.2 人工神经元数学模型 | 第23-24页 |
2.2 神经网络模型 | 第24-33页 |
2.2.1 BP神经网络介绍 | 第24-25页 |
2.2.2 BP神经网络算法 | 第25-30页 |
2.2.3 BP算法流程 | 第30-31页 |
2.2.4 BP神经网络的改进 | 第31-33页 |
2.3 神经网络学习模式 | 第33-34页 |
2.3.1 有监督学习 | 第33页 |
2.3.2 无监督学习 | 第33页 |
2.3.3 离线(Off-Line)学习 | 第33-34页 |
2.3.4 在线(On-Line)学习 | 第34页 |
2.4 神经网络实现技术研究的内容和价值 | 第34页 |
2.5 神经网络实现技术分类 | 第34-37页 |
2.5.1 神经网络的VLSI实现 | 第35-37页 |
2.5.2 神经网络的分子/化学实现 | 第37页 |
2.5.3 神经网络的光学实现 | 第37页 |
2.6 本章小结 | 第37-38页 |
第三章 基于FPGA的神经网络的设计与实现 | 第38-60页 |
3.1 基于FPGA的神经网络设计与实现需要考虑的问题 | 第38-42页 |
3.1.1 样本值的选取 | 第38-39页 |
3.1.2 初始权值的选取 | 第39页 |
3.1.3 学习率的选取 | 第39页 |
3.1.4 期望误差的选取 | 第39页 |
3.1.5 训练次数的选取 | 第39-40页 |
3.1.6 数据表示规则 | 第40-41页 |
3.1.7 激励函数的实现方法 | 第41-42页 |
3.2 基于FPGA的动态可重构技术 | 第42页 |
3.3 基于FPGA的神经网络的模块划分 | 第42-44页 |
3.3.1 BP算法描述 | 第43页 |
3.3.2 模块划分 | 第43-44页 |
3.4 基于FPGA的神经网络各模块的设计实现 | 第44-51页 |
3.4.1 MAC模块的设计实现 | 第44-45页 |
3.4.2 WU单元的设计实现 | 第45-46页 |
3.4.3 神经网络激活函数的硬件设计实现 | 第46-48页 |
3.4.4 神经网络激活函数的导数的设计实现 | 第48-50页 |
3.4.5 神经网络FSM的设计 | 第50页 |
3.4.6 中间数据存储模块TM | 第50-51页 |
3.5 基于FPGA的BP神经网络的整体设计 | 第51-56页 |
3.5.1 映射算法 | 第51-54页 |
3.5.2 神经网络体系结构设计 | 第54-56页 |
3.6 BP神经网络算法的训练流程 | 第56-58页 |
3.7 本章小结 | 第58-60页 |
第四章 基于FPGA的神经网络的实现结果与分析 | 第60-70页 |
4.1 功能仿真与误差分析 | 第60-63页 |
4.1.1 MAC模块仿真结果与误差分析 | 第60-61页 |
4.1.2 Sigmoid模块仿真结果与误差分析 | 第61-62页 |
4.1.3 WU模块仿真结果与误差分析 | 第62-63页 |
4.2 逻辑综合与实现 | 第63-68页 |
4.2.1 逻辑综合 | 第63-65页 |
4.2.2 时序报告与分析 | 第65-68页 |
4.2.3 板级验证 | 第68页 |
4.3 性能评估 | 第68页 |
4.4 本章小结 | 第68-70页 |
第五章 总结与展望 | 第70-72页 |
5.1 总结 | 第70页 |
5.2 展望 | 第70-72页 |
参考文献 | 第72-74页 |
致谢 | 第74-76页 |
作者简介 | 第76-77页 |