摘要 | 第5-6页 |
Abstract | 第6-7页 |
术语与符号约定 | 第15-17页 |
第一章 绪论 | 第17-31页 |
1.1 研究背景 | 第17-20页 |
1.2 研究现状 | 第20-27页 |
1.2.1 递归网络的研究现状 | 第20-25页 |
1.2.2 汉语语言处理的研究现状 | 第25-27页 |
1.3 研究内容和主要贡献 | 第27-28页 |
1.4 论文的组织结构 | 第28-31页 |
第二章 背景知识 | 第31-37页 |
2.1 汉语语言处理的基本任务 | 第31-34页 |
2.1.1 汉语表示学习 | 第31-32页 |
2.1.2 汉语序列标注 | 第32-34页 |
2.2 递归网络的基础知识 | 第34-36页 |
2.2.1 前馈网络 | 第34页 |
2.2.2 普通的递归网络 | 第34-35页 |
2.2.3 长短期记忆网络 | 第35-36页 |
2.2.4 神经图灵机 | 第36页 |
2.3 本章小结 | 第36-37页 |
第三章 记忆增强的递归网络模型 | 第37-63页 |
3.1 引言 | 第37-39页 |
3.2 模型的表示 | 第39-45页 |
3.2.1 信息处理过程 | 第41-42页 |
3.2.2 信息存储过程 | 第42-45页 |
3.3 模型的推理 | 第45-47页 |
3.4 模型的学习 | 第47-51页 |
3.4.1 目标函数 | 第47-48页 |
3.4.2 参数更新 | 第48-49页 |
3.4.3 训练步骤 | 第49-51页 |
3.5 实验 | 第51-56页 |
3.5.1 算法学习 | 第52-53页 |
3.5.2 语言模型 | 第53-55页 |
3.5.3 阅读理解 | 第55-56页 |
3.6 分析与讨论 | 第56-60页 |
3.6.1 M-RNN模型与其它模型的不同 | 第56-58页 |
3.6.2 M-RNN模型的广义性 | 第58-59页 |
3.6.3 M-RNN模型的局限性和可能改进的方向 | 第59-60页 |
3.7 本章小结 | 第60-63页 |
第四章 记忆增强的递归网络模型的DAC原理 | 第63-79页 |
4.1 引言 | 第63-64页 |
4.2 记忆的持续时间 | 第64-67页 |
4.3 记忆的寻址能力 | 第67页 |
4.4 记忆的信息容量 | 第67-68页 |
4.5 DAC原理 | 第68-70页 |
4.6 DAC应用 | 第70-75页 |
4.6.1 DAC用于帮助设计记忆增强的递归网络学习LTDs | 第70-73页 |
4.6.2 DAC用于分析和比较记忆增强的递归网络 | 第73-75页 |
4.7 分析与讨论 | 第75-77页 |
4.8 本章小结 | 第77-79页 |
第五章 基于多模态记忆增强的递归网络模型的汉语表示学习 | 第79-109页 |
5.1 引言 | 第79-81页 |
5.2 汉语的语言学知识 | 第81-82页 |
5.2.1 汉语的形态学知识 | 第81-82页 |
5.2.2 汉语的音韵学知识 | 第82页 |
5.3 多模态记忆增强的递归网络模型 | 第82-103页 |
5.3.1 MorPhoRNN | 第84-88页 |
5.3.2 MorPhoM3-RNN | 第88-103页 |
5.4 实验 | 第103-107页 |
5.4.1 数据集和实验设置 | 第103-104页 |
5.4.2 实验结果与分析 | 第104-107页 |
5.5 本章小结 | 第107-109页 |
第六章 基于长期记忆和工作记忆增强的递归网络模型的汉语序列标注 | 第109-127页 |
6.1 引言 | 第109-110页 |
6.2 长期记忆和工作记忆增强的递归网络模型 | 第110-122页 |
6.2.1 模型的表示 | 第111-117页 |
6.2.2 模型的推理 | 第117-119页 |
6.2.3 模型的学习 | 第119页 |
6.2.4 分析与讨论 | 第119-122页 |
6.3 实验 | 第122-126页 |
6.3.1 数据集和实验设置 | 第122-124页 |
6.3.2 实验结果与分析 | 第124-126页 |
6.4 本章小结 | 第126-127页 |
第七章 总结与展望 | 第127-131页 |
7.1 论文总结 | 第127-129页 |
7.2 未来展望 | 第129-131页 |
致谢 | 第131-133页 |
参考文献 | 第133-155页 |
作者读博士学位期间的研究成果与项目情况 | 第155-157页 |