| 摘要 | 第3-5页 |
| ABSTRACT | 第5-7页 |
| 第一章 绪论 | 第14-17页 |
| 1.1 课题研究背景和意义 | 第14页 |
| 1.2 蒙古文古籍整词识别技术的研究现状 | 第14-15页 |
| 1.3 本文的解决重点 | 第15-16页 |
| 1.4 本文组织架构 | 第16-17页 |
| 第二章 深度学习相关知识 | 第17-32页 |
| 2.1 卷积神经网络 | 第17-24页 |
| 2.1.1 卷积神经网络概述 | 第17-20页 |
| 2.1.2 卷积神经网络的特性 | 第20-21页 |
| 2.1.3 卷积层 | 第21-22页 |
| 2.1.4 池化层 | 第22-23页 |
| 2.1.5 全连接层 | 第23页 |
| 2.1.6 卷积神经网络的整体结构 | 第23-24页 |
| 2.2 循环神经网络 | 第24-28页 |
| 2.2.1 循环神经网络的结构 | 第24-25页 |
| 2.2.2 RNN的特性及缺陷 | 第25-27页 |
| 2.2.3 LSTM | 第27-28页 |
| 2.3 神经网络的训练 | 第28-31页 |
| 2.3.1 神经网络的训练过程 | 第28页 |
| 2.3.2 代价函数 | 第28-29页 |
| 2.3.3 正则化项 | 第29-30页 |
| 2.3.4 梯度及其求解 | 第30页 |
| 2.3.5 参数初始化 | 第30-31页 |
| 2.4 本章小结 | 第31-32页 |
| 第三章 数据集构建及实验环境介绍 | 第32-40页 |
| 3.1 实验数据集来源 | 第32-35页 |
| 3.2 数据集的构建 | 第35-38页 |
| 3.2.1 数据集图像尺寸归一化 | 第35-36页 |
| 3.2.2 非平衡数据集的解决 | 第36-37页 |
| 3.2.3 二折交叉验证数据集的划分 | 第37-38页 |
| 3.3 实验环境介绍 | 第38页 |
| 3.3.1 实验硬件条件介绍 | 第38页 |
| 3.3.2 实验软件条件介绍 | 第38页 |
| 3.4 本章小结 | 第38-40页 |
| 第四章 基于深度学习的蒙古文古籍整词识别技术 | 第40-54页 |
| 4.1 基于卷积神经网络的蒙古文古籍整词识别模型 | 第40-42页 |
| 4.1.1 LeNet-5模型及其识别过程 | 第40-42页 |
| 4.1.2 改进的卷积神经网络模型及其识别过程 | 第42页 |
| 4.2 基于LSTM的蒙古文古籍整词识别模型 | 第42-43页 |
| 4.3 基于Image2Sentence的蒙古文古籍整词识别模型 | 第43-45页 |
| 4.3.1 模型的训练过程 | 第44页 |
| 4.3.2 模型的识别过程 | 第44-45页 |
| 4.4 实验与结果分析 | 第45-53页 |
| 4.4.1 数据不平衡时的实验结果 | 第45-47页 |
| 4.4.2 数据平衡时的实验结果 | 第47-53页 |
| 4.5 本章小结 | 第53-54页 |
| 第五章 总结与展望 | 第54-56页 |
| 5.1 本文工作总结 | 第54页 |
| 5.2 未来工作展望 | 第54-56页 |
| 参考文献 | 第56-59页 |
| 致谢 | 第59页 |