摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第15-21页 |
1.1 研究背景 | 第15-16页 |
1.2 研究现状 | 第16-19页 |
1.2.1 英文组块分析的研究现状 | 第16-17页 |
1.2.2 中文组块分析的研究现状 | 第17-18页 |
1.2.3 基于统计的组块分析方法 | 第18-19页 |
1.3 论文主要工作 | 第19-20页 |
1.4 论文结构安排 | 第20-21页 |
2 组块分析背景知识 | 第21-39页 |
2.1 引言 | 第21页 |
2.2 组块分析任务介绍 | 第21-25页 |
2.2.1 名词短语组块分析 | 第21-22页 |
2.2.2 文本组块分析 | 第22-23页 |
2.2.3 中文上的组块分析任务 | 第23-24页 |
2.2.4 组块分析的目标 | 第24-25页 |
2.3 结果评价 | 第25-27页 |
2.3.1 评价方法 | 第25-26页 |
2.3.2 评价数据集 | 第26-27页 |
2.4 基于序列化标注的组块分析 | 第27-38页 |
2.4.1 组块分析的标注方式 | 第27-28页 |
2.4.2 常用序列化标注模型 | 第28-37页 |
2.4.3 参数训练 | 第37页 |
2.4.4 现有结构化学习方法的不足 | 第37-38页 |
2.5 小结 | 第38-39页 |
3 基于状态转移和神经网络的局部学习方法 | 第39-55页 |
3.1 引言 | 第39页 |
3.2 基于状态转移的方法 | 第39-42页 |
3.2.1 状态转移系统 | 第39-41页 |
3.2.2 状态转移方法的优点 | 第41-42页 |
3.3 神经网络得分计算 | 第42-44页 |
3.4 贪心标注策略 | 第44页 |
3.5 特征 | 第44-47页 |
3.5.1 特征模板 | 第44-46页 |
3.5.2 稠密特征表示 | 第46页 |
3.5.3 特征向量输入的生成 | 第46-47页 |
3.6 模型训练 | 第47-49页 |
3.6.1 模型参数 | 第47页 |
3.6.2 训练目标 | 第47-48页 |
3.6.3 训练算法 | 第48-49页 |
3.7 实验及结果分析 | 第49-53页 |
3.7.1 实验配置 | 第49-51页 |
3.7.2 实验结果及分析 | 第51-53页 |
3.8 贪心策略的缺点 | 第53-54页 |
3.9 小结 | 第54-55页 |
4 基于柱搜索的全局学习方法 | 第55-67页 |
4.1 引言 | 第55页 |
4.2 建模状态转移序列 | 第55-57页 |
4.2.1 状态转移序列的得分 | 第55-56页 |
4.2.2 状态转移序列的概率 | 第56-57页 |
4.3 柱搜索标注策略 | 第57-58页 |
4.3.1 全空间搜索 | 第57-58页 |
4.3.2 柱搜索 | 第58页 |
4.4 模型训练 | 第58-60页 |
4.4.1 对比散度学习 | 第59-60页 |
4.4.2 特征 | 第60页 |
4.4.3 模型参数 | 第60页 |
4.4.4 训练目标 | 第60页 |
4.4.5 训练算法 | 第60页 |
4.5 实验及结果分析 | 第60-65页 |
4.5.1 实验配置 | 第60-61页 |
4.5.2 实验结果及分析 | 第61-65页 |
4.6 简单神经网络的不足 | 第65页 |
4.7 小结 | 第65-67页 |
5 融合长短期记忆神经网络的柱搜索方法 | 第67-75页 |
5.1 引言 | 第67页 |
5.2 长短期记忆神经网络 | 第67-70页 |
5.2.1 长短期记忆神经网络 | 第67-68页 |
5.2.2 与单隐层前向反馈神经网络的对比 | 第68-70页 |
5.3 长短期记忆神经网络与神经-柱搜索方法的融合 | 第70页 |
5.4 模型训练 | 第70-71页 |
5.4.1 模型参数 | 第70页 |
5.4.2 训练目标 | 第70页 |
5.4.3 训练算法 | 第70-71页 |
5.5 实验及结果分析 | 第71-73页 |
5.5.1 实验配置 | 第71-72页 |
5.5.2 实验结果及分析 | 第72-73页 |
5.6 小结 | 第73-75页 |
6 总结与展望 | 第75-77页 |
6.1 论文工作总结 | 第75-76页 |
6.2 未来工作展望 | 第76-77页 |
参考文献 | 第77-84页 |
致谢 | 第84-85页 |
附录 | 第85-86页 |