致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7页 |
1 绪论 | 第10-15页 |
1.1 论文的研究背景及选题意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-12页 |
1.3 论文主要工作 | 第12-13页 |
1.4 论文结构安排 | 第13-14页 |
1.5 本章小结 | 第14-15页 |
2 相关技术介绍 | 第15-34页 |
2.1 SVM算法介绍 | 第15-17页 |
2.2 语言模型与词的分布式表示 | 第17-24页 |
2.2.1 词向量简介 | 第17页 |
2.2.2 传统统计语言模型 | 第17-18页 |
2.2.3 神经网络语言模型 | 第18-21页 |
2.2.4 循环神经网络语言模型(RNNLM) | 第21-22页 |
2.2.5 CBOW模型和Skip-gram模型 | 第22-24页 |
2.3 RNN及LSTM,GRU简介 | 第24-27页 |
2.3.1 RNN | 第24-25页 |
2.3.2 展开的RNN | 第25-26页 |
2.3.3 长短时记忆模型(LSTM) | 第26-27页 |
2.3.4 循环门单元(GRU) | 第27页 |
2.4 注意力模型(Attention model)概述 | 第27-32页 |
2.4.1 编码器解码器模型 | 第29-30页 |
2.4.2 注意力编码器解码器模型 | 第30-32页 |
2.5 本章小结 | 第32-34页 |
3 正误句子对的获取与易误用动词对的构造 | 第34-38页 |
3.1 正误句子对的获取 | 第34-36页 |
3.2 易误用动词对的构造 | 第36-37页 |
3.3 本章小结 | 第37-38页 |
4 动词语义误用检测模型设计 | 第38-46页 |
4.1 基于SVM的动词语义误用检测算法 | 第38-41页 |
4.1.1 特征选择与训练集构建 | 第38-40页 |
4.1.2 基于SVM的动词语义误用检测算法介绍 | 第40-41页 |
4.2 基于SSAG动词语义误用检测模型设计 | 第41-45页 |
4.2.1 序列到序列的注意力(SSAG)模型 | 第41-43页 |
4.2.2 序列到序列的动词语义误用检测器设计 | 第43-45页 |
4.3 本章小结 | 第45-46页 |
5 实验介绍及结果分析 | 第46-55页 |
5.1 实验环境 | 第46-47页 |
5.2 SVM模型实验及结果分析 | 第47-48页 |
5.3 SSAG模型实验 | 第48-52页 |
5.3.1 SSAG模型训练策略 | 第48-49页 |
5.3.2 训练过程 | 第49页 |
5.3.3 解码 | 第49-50页 |
5.3.4 实验参数设置 | 第50-51页 |
5.3.5 实验结果分析 | 第51-52页 |
5.4 SVM+SSAG模型实验 | 第52-54页 |
5.5 本章小结 | 第54-55页 |
6 总结与展望 | 第55-57页 |
6.1 总结 | 第55-56页 |
6.2 展望 | 第56-57页 |
参考文献 | 第57-60页 |
作者简历及攻读硕士学位期间取得的研究成果 | 第60-62页 |
学位论文数据集 | 第62页 |