摘要 | 第5-7页 |
Abstract | 第7-9页 |
目录 | 第10-14页 |
第一章 引言 | 第14-24页 |
1.1 统计机器翻译 | 第14-15页 |
1.2 基于词及短语的翻译模型 | 第15-17页 |
1.3 基于句法的翻译模型 | 第17-21页 |
1.4 树到树翻译及存在的问题 | 第21-23页 |
1.5 论文结构 | 第23-24页 |
第二章 树到树机器翻译基本理论及技术 | 第24-40页 |
2.1 数学模型 | 第24-25页 |
2.2 翻译建模 | 第25-31页 |
2.2.1 同步树替换文法 | 第26-27页 |
2.2.2 特征集 | 第27-29页 |
2.2.3 翻译概率计算 | 第29-30页 |
2.2.4 系统架构 | 第30-31页 |
2.3 对齐及规则抽取 | 第31-34页 |
2.3.1 树切割及边界节点 | 第31-33页 |
2.3.2 最小规则抽取 | 第33-34页 |
2.3.3 规则组合 | 第34页 |
2.4 参数训练及权重调优 | 第34-36页 |
2.4.1 极大似然估计 | 第34-35页 |
2.4.2 最小错误率训练 | 第35-36页 |
2.5 解码 | 第36-40页 |
2.5.1 Viterbi解码 | 第37-38页 |
2.5.2 剪枝 | 第38-40页 |
第三章 无指导树到树结构对齐 | 第40-62页 |
3.1 问题分析 | 第40-41页 |
3.2 无指导树到树结构对齐模型 | 第41-47页 |
3.2.1 树到树结构对齐问题定义 | 第42-43页 |
3.2.2 树到树结构对齐模型 | 第43-46页 |
3.2.3 空对齐 | 第46-47页 |
3.3 无指导模型训练 | 第47-50页 |
3.3.1 期望最大化训练 | 第47-49页 |
3.3.2 变分期望最大化训练 | 第49-50页 |
3.4 基于树到树结构对齐的规则抽取 | 第50-54页 |
3.4.1 树到树结构对齐矩阵 | 第51-52页 |
3.4.2 基于树到树结构对齐矩阵的规则 | 第52-53页 |
3.4.3 估计规则概率 | 第53-54页 |
3.5 实验及结果分析 | 第54-59页 |
3.5.1 基准系统 | 第54-55页 |
3.5.2 实验设置 | 第55-56页 |
3.5.3 结果及讨论 | 第56-59页 |
3.6 相关工作比较 | 第59-60页 |
3.7 小结 | 第60-62页 |
第四章 基于受限束宽度的模型训练 | 第62-80页 |
4.1 问题分析 | 第62-64页 |
4.2 建模 | 第64-70页 |
4.2.1 传统树到树翻译训练及训练框架 | 第65-66页 |
4.2.2 受限束宽度的模型训练 | 第66-70页 |
4.3 基于损失函数的模型训练算法 | 第70-72页 |
4.3.1 基本算法 | 第70-71页 |
4.3.2 基于多翻译推导的参数训练 | 第71-72页 |
4.4 实验及结果分析 | 第72-78页 |
4.4.1 基准系统 | 第72-73页 |
4.4.2 实验设置 | 第73-74页 |
4.4.3 结果及讨论 | 第74-78页 |
4.5 相关工作比较 | 第78页 |
4.6 小结 | 第78-80页 |
第五章 树到树翻译优化解码 | 第80-104页 |
5.1 问题分析 | 第80-83页 |
5.1.1 搜索空间 | 第80-82页 |
5.1.2 翻译候选多样性 | 第82-83页 |
5.2 基于多粒度文法的混合解码 | 第83-89页 |
5.2.1 基本框架 | 第83-84页 |
5.2.2 粗粒度及细粒度文法定义 | 第84-86页 |
5.2.3 多粒度文法融合 | 第86-88页 |
5.2.4 面向多粒度文法的解码 | 第88-89页 |
5.3 基于集成学习的优化解码 | 第89-96页 |
5.3.1 基本框架 | 第89-91页 |
5.3.2 成员系统学习 | 第91-92页 |
5.3.3 基于Boosting的样本权重计算 | 第92-93页 |
5.3.4 基于多翻译结果的重解码 | 第93-95页 |
5.3.5 系统优化 | 第95-96页 |
5.4 实验及结果分析 | 第96-102页 |
5.4.1 实验设置 | 第96-97页 |
5.4.2 基于多粒度文法的混合解码实验及结果分析 | 第97-99页 |
5.4.3 基于集成学习的优化解码实验及结果分析 | 第99-102页 |
5.5 相关工作比较 | 第102-103页 |
5.6 小结 | 第103-104页 |
第六章 目标语树结构评价 | 第104-124页 |
6.1 问题分析 | 第104-106页 |
6.2 基于树替换文法的树结构评价模型 | 第106-114页 |
6.2.1 基于句法的语言建模 | 第106-107页 |
6.2.2 基本句法分析模型 | 第107-109页 |
6.2.3 基于树替换文法的语言模型 | 第109-112页 |
6.2.4 模型扩展 | 第112-114页 |
6.3 树结构评价模型在解码器中的集成 | 第114-116页 |
6.3.1 特征集成 | 第114页 |
6.3.2 重排序 | 第114页 |
6.3.3 局部重排序 | 第114-116页 |
6.4 实验及结果分析 | 第116-120页 |
6.4.1 实验设置 | 第116-118页 |
6.4.2 结构及讨论 | 第118-120页 |
6.5 相关工作比较 | 第120-122页 |
6.6 小结 | 第122-124页 |
第七章 结束语 | 第124-130页 |
7.1 工作总结 | 第124-126页 |
7.2 未来的方向 | 第126-130页 |
7.2.1 多阶段排序模型 | 第126-127页 |
7.2.2 树结构自动学习 | 第127-128页 |
7.2.3 基于语义的机器翻译 | 第128-130页 |
参考文献 | 第130-142页 |
致谢 | 第142-144页 |
攻博期间参加的科研项目 | 第144-146页 |
攻读博士期间发表的论文 | 第146-147页 |