摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 引言 | 第13-17页 |
1.1 项目背景 | 第13-14页 |
1.2 国内外深度学习机的发展概况 | 第14-15页 |
1.3 本文主要研究工作 | 第15-16页 |
1.4 本文的组织结构 | 第16-17页 |
第二章 技术综述 | 第17-25页 |
2.1 卷积神经网络技术 | 第17-20页 |
2.1.1 卷积神经网络 | 第17-18页 |
2.1.2 卷积神经网络的经典模型LeNet与AlexNet | 第18-19页 |
2.1.3 卷积神经网络的基本计算 | 第19-20页 |
2.1.4 卷积神经网络的定义语言—Protocol buffer | 第20页 |
2.2 深度学习框架——Caffe | 第20-22页 |
2.3 硬件加速技术 | 第22-24页 |
2.3.1 硬件加速开发环境—Nvidia Cuda | 第22-23页 |
2.3.2 硬件基础—Nvidia GPU | 第23-24页 |
2.4 LMDB存储引擎 | 第24页 |
2.5 本章小结 | 第24-25页 |
第三章 系统需求分析与概要设计 | 第25-41页 |
3.1 系统总体规划 | 第25-26页 |
3.1.1 系统目标 | 第25页 |
3.1.2 系统总体设计图 | 第25-26页 |
3.2 系统需求分析 | 第26-33页 |
3.2.1 系统功能需求 | 第26-28页 |
3.2.2 非功能性需求分析 | 第28-29页 |
3.2.3 系统用例图 | 第29-30页 |
3.2.4 卷积神经网络模块核心用例描述 | 第30-33页 |
3.3 系统模块设计 | 第33-40页 |
3.3.1 数据预处理模块 | 第33页 |
3.3.2 卷积神经网络模块——深度学习网络子模块 | 第33-35页 |
3.3.3 卷积神经网络模块——硬件实现子模块 | 第35-40页 |
3.3.4 数据库设计 | 第40页 |
3.4 本章小结 | 第40-41页 |
第四章 系统的详细设计与实现 | 第41-75页 |
4.1 模块综述 | 第41页 |
4.2 视觉层模块的设计与实现 | 第41-52页 |
4.2.1 视觉层介绍 | 第41-42页 |
4.2.2 卷积层的详细设计 | 第42-44页 |
4.2.3 卷积层的实现 | 第44-46页 |
4.2.4 池化层的详细设计 | 第46-47页 |
4.2.5 池化层的实现 | 第47-49页 |
4.2.6 局部响应归一化层的详细设计 | 第49-50页 |
4.2.7 局部响应归一化层的实现 | 第50-51页 |
4.2.8 运行数据 | 第51-52页 |
4.3 普通层模块的设计与实现 | 第52-59页 |
4.3.1 普通层介绍 | 第52-54页 |
4.3.2 全连接层的详细设计 | 第54-55页 |
4.3.3 全连接层的实现 | 第55-56页 |
4.3.4 丢弃层的详细设计 | 第56-57页 |
4.3.5 丢弃层的实现 | 第57-58页 |
4.3.6 运行数据 | 第58-59页 |
4.4 激活层模块的设计与实现 | 第59-64页 |
4.4.1 激活层介绍 | 第59-60页 |
4.4.2 ReLU激活函数层的详细设计 | 第60-61页 |
4.4.3 ReLU激活函数层的实现 | 第61-62页 |
4.4.4 幂指层的详细设计 | 第62页 |
4.4.5 幂指层的实现 | 第62-63页 |
4.4.6 运行数据 | 第63-64页 |
4.5 损失层模块的设计与实现 | 第64-71页 |
4.5.1 损失层介绍 | 第64-65页 |
4.5.2 准确率层的详细设计 | 第65-66页 |
4.5.3 准确率层的实现 | 第66页 |
4.5.4 softmaxWithLoss层的详细设计 | 第66-68页 |
4.5.5 softmaxWithLoss层的实现 | 第68-70页 |
4.5.6 运行数据 | 第70-71页 |
4.6 系统运行展示 | 第71-74页 |
4.7 本章小结 | 第74-75页 |
第五章 总结与展望 | 第75-77页 |
5.1 总结 | 第75页 |
5.2 进一步工作展望 | 第75-77页 |
参考文献 | 第77-80页 |
致谢 | 第80-82页 |