| 摘要 | 第1-7页 |
| ABSTRACT | 第7-13页 |
| 第一章 绪论 | 第13-26页 |
| ·多词表达介绍 | 第13-18页 |
| ·多词表达的特性 | 第13-14页 |
| ·多词表达的分类 | 第14-16页 |
| ·习语 | 第14页 |
| ·词汇化的短语 | 第14页 |
| ·句法松散的表达 | 第14-15页 |
| ·半固定表达 | 第15-16页 |
| ·固定表达 | 第16页 |
| ·汉语中的多词表达 | 第16-17页 |
| ·多词表达的研究热点 | 第17-18页 |
| ·多词表达的抽取技术 | 第18-22页 |
| ·主要抽取模型 | 第18-22页 |
| ·位置相关的N元模型 | 第19页 |
| ·非参数模型 | 第19-20页 |
| ·语言模型 | 第20页 |
| ·搭配同现相关性模型 | 第20-21页 |
| ·序列类型相关模型 | 第21-22页 |
| ·主要模型间比较 | 第22页 |
| ·多词表达的应用 | 第22-24页 |
| ·多词表达在词义消歧中的应用 | 第23页 |
| ·多词表达在概念图自动标引中的应用 | 第23-24页 |
| ·本文的组织结构 | 第24-26页 |
| 第二章 单语多词表达抽取 | 第26-45页 |
| ·引言 | 第26页 |
| ·多序列比对算法基础 | 第26-31页 |
| ·研究背景 | 第27页 |
| ·空位罚分函数 | 第27-28页 |
| ·动态规划算法 | 第28-29页 |
| ·序列两两比对算法 | 第29-30页 |
| ·多序列比对算法 | 第30-31页 |
| ·SP模型 | 第31页 |
| ·星型比对 | 第31页 |
| ·树型比对 | 第31页 |
| ·基于多序列比对的多词表达抽取算法 | 第31-39页 |
| ·模型的优势 | 第31-32页 |
| ·多序列比对算法 | 第32-36页 |
| ·预处理 | 第32页 |
| ·双序列比对算法 | 第32-36页 |
| ·星型比对 | 第36页 |
| ·性能分析 | 第36-37页 |
| ·基本假设 | 第36-37页 |
| ·窗口长度的局限性 | 第37页 |
| ·模式分析的细节 | 第37页 |
| ·错误驱动学习过滤 | 第37-39页 |
| ·模板定义 | 第38-39页 |
| ·规则学习 | 第39页 |
| ·实验 | 第39-43页 |
| ·资源 | 第39-40页 |
| ·实验结果和讨论 | 第40-43页 |
| ·比较实验 | 第40-41页 |
| ·不同长度多词表达的抽取结果比较 | 第41页 |
| ·不同频率的抽取结果 | 第41-42页 |
| ·开放测试 | 第42-43页 |
| ·参数估计 | 第43页 |
| ·本章小结 | 第43-45页 |
| 第三章 双语多词表达抽取 | 第45-61页 |
| ·引言 | 第45页 |
| ·相关工作 | 第45-47页 |
| ·汉语多词表达 | 第45-46页 |
| ·多序列比对 | 第46-47页 |
| ·基于转换的错误驱动规则 | 第47页 |
| ·多策略混合的方法 | 第47-55页 |
| ·初始化 | 第48-49页 |
| ·改进的多序列比对算法 | 第49-50页 |
| ·错误驱动规则学习 | 第50-53页 |
| ·单规则模板学习 | 第50-51页 |
| ·规则的组合 | 第51页 |
| ·规则训练 | 第51-53页 |
| ·运用主动学习策略的样例选择 | 第53页 |
| ·双语多词表达参照 | 第53-55页 |
| ·实验结果 | 第55-59页 |
| ·资源 | 第55页 |
| ·方法 | 第55-59页 |
| ·多序列比对不同阈值结果 | 第56-57页 |
| ·双语对照结果 | 第57页 |
| ·主动学习的结果 | 第57-59页 |
| ·本章小结 | 第59-61页 |
| 第四章 多词表达在词义消歧中的应用 | 第61-81页 |
| ·引言 | 第61页 |
| ·相关工作 | 第61-65页 |
| ·支持词义消歧任务的资源 | 第61-64页 |
| ·多词表达作为一种词义消歧资源 | 第64页 |
| ·词义消歧中资源与算法的整合 | 第64-65页 |
| ·词义消歧的常用算法 | 第64-65页 |
| ·词义消歧的算法与资源的结合 | 第65页 |
| ·多引擎协同自举算法 | 第65-73页 |
| ·基本思想 | 第66-67页 |
| ·多引擎协同自举算法 | 第67-71页 |
| ·种子生成模块 | 第68-69页 |
| ·期望最大算法学习模块 | 第69页 |
| ·特征交换模块 | 第69-71页 |
| ·新特征学习模块 | 第71页 |
| ·实例分析 | 第71-73页 |
| ·实验结果 | 第73-80页 |
| ·资源描述 | 第73-74页 |
| ·实验结果 | 第74-77页 |
| ·在SENSEVAL-2任务上的实验结果 | 第74-76页 |
| ·采用Yarowsky用例测试结果 | 第76-77页 |
| ·性能评价 | 第77-80页 |
| ·实例数量与F-measure的关系 | 第77-78页 |
| ·精确率和迭代次数的关系 | 第78页 |
| ·错误率与特征数量的关系 | 第78-80页 |
| ·本章小结 | 第80-81页 |
| ·运用不同类型语料库平台 | 第80页 |
| ·多种引擎协同机制 | 第80页 |
| ·无指导学习 | 第80-81页 |
| 第五章 多词表达在概念图自动标引中的应用 | 第81-105页 |
| ·引言 | 第81-82页 |
| ·相关语义表示方法 | 第82-86页 |
| ·语义成分分析(Componential Analysis) | 第82-83页 |
| ·语义框架(Semantic Frame) | 第83-84页 |
| ·语义网络(Semantic Network) | 第84页 |
| ·逻辑形式(Logical Form) | 第84-85页 |
| ·概念图(Conceptual Graphics) | 第85页 |
| ·各种方法优缺点分析 | 第85-86页 |
| ·概念图理论 | 第86-88页 |
| ·概念图在文本中的表示 | 第87-88页 |
| ·概念图的手工标引探索 | 第88-92页 |
| ·用户需求日志的概念图标引 | 第88-90页 |
| ·概念图的常用关系 | 第90页 |
| ·标注工具介绍 | 第90-91页 |
| ·标引实例 | 第91-92页 |
| ·实例分析 | 第91-92页 |
| ·概念图标引的半自动方法初探 | 第92-101页 |
| ·外部特征的数据项解析 | 第92-94页 |
| ·自动术语识别 | 第94-98页 |
| ·术语部件库构造 | 第95页 |
| ·图书摘要中的术语类型 | 第95-96页 |
| ·基于记忆学习方法的术语识别 | 第96页 |
| ·术语边界预测模块 | 第96-97页 |
| ·边界配对以及术语过滤模块 | 第97-98页 |
| ·概念关系构建 | 第98-100页 |
| ·知识库支撑下的概念关系构建 | 第98-100页 |
| ·概念图标引的半自动生成算法 | 第100-101页 |
| ·实验与系统原型 | 第101-103页 |
| ·资源介绍 | 第101页 |
| ·单项任务实验结果 | 第101-102页 |
| ·术语抽取结果 | 第101-102页 |
| ·概念间关系构建结果 | 第102页 |
| ·概念图半自动标引的系统原型 | 第102-103页 |
| ·本章小结 | 第103-105页 |
| ·总结 | 第103-104页 |
| ·下一步的工作 | 第104-105页 |
| 第六章 结论 | 第105-107页 |
| ·总结 | 第105页 |
| ·展望 | 第105-107页 |
| 参考文献 | 第107-117页 |
| 致谢 | 第117-118页 |
| 博士期间的研究成果及发表的论文 | 第118-120页 |
| 上海交通大学学位论文答辩决议书 | 第120页 |