摘要 | 第5-6页 |
Abstract | 第6页 |
目录 | 第7-10页 |
插图清单 | 第10-11页 |
表格清单 | 第11-12页 |
第一章 绪论 | 第12-17页 |
1.1 研究背景 | 第12-13页 |
1.2 研究目的和意义 | 第13-14页 |
1.3 本文完成的工作 | 第14-15页 |
1.4 本文结构 | 第15-17页 |
第二章 串识别方法技术研究 | 第17-30页 |
2.1 显性分割模型 | 第18-20页 |
2.1.1 分割技术 | 第18-20页 |
2.1.2 单“字”分类器 | 第20页 |
2.2 隐性分割模型 | 第20-28页 |
2.2.1 生成模型 | 第21-24页 |
2.2.2 生成-鉴别混合模型 | 第24-27页 |
2.2.3 鉴别模型 | 第27-28页 |
2.3 本章小结 | 第28-30页 |
第三章 联机英文手写预处理及特征提取 | 第30-36页 |
3.1 联机英文手写简介 | 第30页 |
3.2 预处理技术 | 第30-32页 |
3.3 特征提取 | 第32-35页 |
3.3.1 时序特征 | 第32-34页 |
3.3.2 空间特征 | 第34-35页 |
3.4 本章小结 | 第35-36页 |
第四章 长短记忆递归神经网络 | 第36-47页 |
4.1 长短型记忆神经元(LSTM )的演化 | 第36-41页 |
4.1.1 神经网络中的参数定义 | 第36-37页 |
4.1.2 输入输出激活:读与写 | 第37-39页 |
4.1.3 重置激活: | 第39-40页 |
4.1.4 即时连接 | 第40-41页 |
4.2 LSTM 的拓扑结构 | 第41-44页 |
4.2.1 双向衍生:由 LSTM 到 BLSTM | 第43-44页 |
4.3 递归神经网络的学习问题 | 第44-46页 |
4.3.1 递归神经网络的梯度下降算法 | 第44-46页 |
4.3.2 双向衍生学习 | 第46页 |
4.4 本章小结 | 第46-47页 |
第五章 动态连接模型 CTC | 第47-56页 |
5.1 概率转移:从‘串’到时间点 T | 第47-52页 |
5.2 目标方程 | 第52-53页 |
5.3 解码算法 | 第53-55页 |
5.3.1 基于 LEVENSHTEIN 距离 | 第53-54页 |
5.3.2 全路径解码 | 第54-55页 |
5.3.3 最大路径解码 | 第55页 |
5.4 本章小结 | 第55-56页 |
第六章 实验结果与分析 | 第56-66页 |
6.1 数据库描述 | 第56-59页 |
6.1.1 IRONOFF 数据库 | 第56-57页 |
6.1.2 UNIPEN-ICROW 数据库 | 第57页 |
6.1.3 UNIPEN-CDROW 数据库 | 第57-59页 |
6.2 伪样本生成技术 | 第59-61页 |
6.3 实验结果分析 | 第61-64页 |
6.3.1 长短记忆神经元 | 第61页 |
6.3.2 解码算法的比较分析 | 第61-62页 |
6.3.3 与流行模型的比较分析 | 第62-63页 |
6.3.4 伪样本生成实验 | 第63页 |
6.3.5 英文手写板生成 | 第63-64页 |
6.4 本章小结 | 第64-66页 |
结论 | 第66-68页 |
参考文献 | 第68-73页 |
攻读硕士学位期间取得的研究成果 | 第73-74页 |
致谢 | 第74-75页 |
附件 | 第75页 |