基于神经网络的句法分析研究
摘要 | 第4-6页 |
Abstract | 第6-8页 |
1 绪论 | 第16-34页 |
1.1 研究背景 | 第16-17页 |
1.2 句法分析研究现状 | 第17-30页 |
1.2.1 句法分析简介 | 第17-20页 |
1.2.2 句法分析的评价方法 | 第20-21页 |
1.2.3 移进归约句法分析框架 | 第21-24页 |
1.2.4 基于传统离散特征和线性模型的句法分析 | 第24-26页 |
1.2.5 基于稠密特征和神经网络模型的句法分析 | 第26-28页 |
1.2.6 现有方法的不足 | 第28-30页 |
1.3 论文的主要工作 | 第30-31页 |
1.4 论文的组织 | 第31-34页 |
2 一种适用于句法分析的层次化神经网络 | 第34-48页 |
2.1 引言 | 第34-35页 |
2.2 移进归约句法分析的动作分解 | 第35-36页 |
2.3 层次化神经网络模型 | 第36-40页 |
2.4 特征模板 | 第40-42页 |
2.5 实验 | 第42-46页 |
2.5.1 实验配置 | 第42页 |
2.5.2 隐层大小 | 第42-43页 |
2.5.3 超参数 | 第43页 |
2.5.4 最终结果 | 第43-46页 |
2.6 本章小结 | 第46-48页 |
3 一种基于结构化预测的神经网络句法分析 | 第48-62页 |
3.1 引言 | 第48-50页 |
3.2 基于结构化预测的神经网络排序模型 | 第50-51页 |
3.3 句子级别的对数概率似然 | 第51-53页 |
3.4 融合柱搜索和对比学习的结构化神经网络模型 | 第53-55页 |
3.5 实验 | 第55-60页 |
3.5.1 实验配置 | 第55-56页 |
3.5.2 开发集调参 | 第56-57页 |
3.5.3 极大似然模型和排序模型的比较 | 第57-59页 |
3.5.4 最终结果 | 第59-60页 |
3.6 本章小结 | 第60-62页 |
4 一种基于柱搜索的动态神经句法重排序模型 | 第62-78页 |
4.1 引言 | 第62-64页 |
4.2 层次化基线句法分析模型的特性 | 第64-67页 |
4.3 动态重排序模型的搜索策略 | 第67-68页 |
4.4 基于递归卷积神经网络的打分模型 | 第68-69页 |
4.5 适用于动态搜索的训练算法 | 第69-71页 |
4.6 实验 | 第71-76页 |
4.6.1 实验设置 | 第71页 |
4.6.2 超参数 | 第71-72页 |
4.6.3 层次化依存句法模型的性能 | 第72页 |
4.6.4 开发集调参 | 第72-74页 |
4.6.5 最终结果 | 第74-76页 |
4.7 本章小结 | 第76-78页 |
5 一种基于组块的双时间轴神经网络机器翻译模型 | 第78-88页 |
5.1 引言 | 第78-79页 |
5.2 基于组块的神经机器翻译模型 | 第79-83页 |
5.2.1 双时间轴的神经网络 | 第80-82页 |
5.2.2 融合组块和翻译的训练目标 | 第82页 |
5.2.3 基于组块的神经机器翻译模型的优点 | 第82-83页 |
5.3 实验 | 第83-87页 |
5.3.1 实验设置 | 第83-84页 |
5.3.2 中英机器翻译的结果 | 第84页 |
5.3.3 翻译目标端组块分析的结果 | 第84-85页 |
5.3.4 基于组块的注意力机制 | 第85-86页 |
5.3.5 人工评测结果 | 第86-87页 |
5.3.6 德英机器翻译的结果 | 第87页 |
5.4 本章小结 | 第87-88页 |
6 总结与展望 | 第88-90页 |
6.1 本文的主要贡献 | 第88-89页 |
6.2 未来的发展方向 | 第89-90页 |
参考文献 | 第90-102页 |
致谢 | 第102-103页 |
简历与科研成果 | 第103-105页 |