基于深度学习模型的输入法研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-18页 |
1.1 课题背景与意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-15页 |
1.2.1 输入法的概念与技术特点 | 第10-12页 |
1.2.2 输入法研究现状 | 第12-13页 |
1.2.3 深度学习研究现状 | 第13-15页 |
1.3 主要研究内容 | 第15-16页 |
1.4 本文的结构安排 | 第16-18页 |
第2章 语料库构建与拼音串切分 | 第18-24页 |
2.1 拼音汉字对语料的构建 | 第18页 |
2.2 拼音串切分方法的研究 | 第18-22页 |
2.2.1 规则法切分 | 第18-19页 |
2.2.2 搜索法切分 | 第19-21页 |
2.2.3 动态规划切分 | 第21-22页 |
2.2.4 拼音串切分实验 | 第22页 |
2.3 本章小结 | 第22-24页 |
第3章 基于序列标注模型的输入法 | 第24-38页 |
3.1 引言 | 第24页 |
3.2 HMM模型音字转换 | 第24-28页 |
3.2.1 隐马尔科夫模型 | 第24-27页 |
3.2.2 HMM模型音字转换系统 | 第27-28页 |
3.3 HMM与RNN结合的输入法模型 | 第28-34页 |
3.3.1 统计语言模型 | 第28-29页 |
3.3.2 RNN与LSTM | 第29-32页 |
3.3.3 基于LSTM的语言模型 | 第32-33页 |
3.3.4 HMM与RNN结合模型 | 第33-34页 |
3.4 双向LSTM模型 | 第34-35页 |
3.5 实验结果及分析 | 第35-36页 |
3.6 本章小结 | 第36-38页 |
第4章 基于机器翻译模型的输入法 | 第38-56页 |
4.1 引言 | 第38页 |
4.2 词嵌入与位置嵌入 | 第38-40页 |
4.3 CNN神经网络 | 第40-41页 |
4.4 Seq2Seq模型 | 第41-43页 |
4.5 注意力机制 | 第43-47页 |
4.5.1 注意力机制简介 | 第43-44页 |
4.5.2 全局注意力机制 | 第44-46页 |
4.5.3 局部注意力机制 | 第46-47页 |
4.6 本文使用的网络结构 | 第47-50页 |
4.6.1 基于RNN的Seq2Seq模型 | 第47-48页 |
4.6.2 基于CNN的序列到序列模型 | 第48-50页 |
4.7 实验结果及分析 | 第50-55页 |
4.7.0 实验数据以及实验环境介绍 | 第50-51页 |
4.7.1 位置嵌入实验 | 第51-52页 |
4.7.2 网络结构实验 | 第52-53页 |
4.7.3 Local_m窗口大小实验 | 第53-54页 |
4.7.4 实验样本示例 | 第54-55页 |
4.8 本章小结 | 第55-56页 |
第5章 输入法内核系统实现 | 第56-61页 |
5.1 候选词的生成 | 第56页 |
5.2 候选短语的生成 | 第56-57页 |
5.3 图形界面开发 | 第57-60页 |
5.4 本章小结 | 第60-61页 |
结论 | 第61-63页 |
参考文献 | 第63-67页 |
攻读硕士学位期间发表的论文及其他研究成果 | 第67-69页 |
致谢 | 第69-70页 |