摘要 | 第3-4页 |
abstract | 第4-5页 |
第一章 引言 | 第9-11页 |
第二章 文献综述 | 第11-35页 |
2.1 文本特征表示 | 第11-14页 |
2.1.1 文本词特征 | 第11-13页 |
2.1.2 文本句特征 | 第13-14页 |
2.2 基于翻译方法的改错 | 第14-21页 |
2.2.1 自动语法改错 | 第14-15页 |
2.2.2 Seq2Seq | 第15-17页 |
2.2.3 beam-search以及copy机制 | 第17-18页 |
2.2.4 Transformer | 第18-21页 |
2.3 预训练方法 | 第21-27页 |
2.3.1 Transfer Learning | 第21页 |
2.3.2 CoVe | 第21-23页 |
2.3.3 ELMo | 第23-24页 |
2.3.4 OpenAI GPT | 第24-26页 |
2.3.5 BERT | 第26-27页 |
2.4 模型综述 | 第27-34页 |
2.4.1 SMT&Bi-GRU | 第28-31页 |
2.4.2 CNN Seq2Seq | 第31-32页 |
2.4.3 Transformer GEC | 第32-34页 |
2.5 本章小结 | 第34-35页 |
第三章 模型设计 | 第35-56页 |
3.1 Encoding模块 | 第35-40页 |
3.1.1 Byte-pair Encoding | 第35-37页 |
3.1.2 Position Embedding | 第37-38页 |
3.1.3 CNN Encoding | 第38页 |
3.1.4 Transformer Encoding | 第38-40页 |
3.2 Seq2Seq框架 | 第40-45页 |
3.2.1 Encoder Module | 第40-41页 |
3.2.2 Decoder Module | 第41-42页 |
3.2.3 预训练增强Encoder | 第42-45页 |
3.3 Fluency boost learning | 第45-51页 |
3.3.1 Back-boost learning | 第46-47页 |
3.3.2 Self-boost learning | 第47-49页 |
3.3.3 Dual-boost learning | 第49-51页 |
3.4 Fluency boost inference | 第51-52页 |
3.4.1 多轮错误纠正 | 第51页 |
3.4.2 Round-way错误纠正 | 第51-52页 |
3.5 整体模型架构 | 第52-54页 |
3.5.1 模型概要 | 第52-53页 |
3.5.2 模型细节 | 第53-54页 |
3.6 本章小结 | 第54-56页 |
第四章 实证分析 | 第56-72页 |
4.1 训练数据集 | 第56-58页 |
4.1.1 Lang-8 | 第56-57页 |
4.1.2 CLC FCE | 第57页 |
4.1.3 NUCLE | 第57-58页 |
4.2 测试数据集 | 第58-60页 |
4.2.1 CoNIL-2014 | 第58-59页 |
4.2.2 JFLEG | 第59-60页 |
4.3 评测指标 | 第60-62页 |
4.3.1 Max Match | 第60-61页 |
4.3.2 GLEU | 第61-62页 |
4.4 模型参数配置 | 第62-63页 |
4.5 试验结果 | 第63-65页 |
4.6 GEC应用试验 | 第65-70页 |
4.6.1 简单错误句子修正 | 第65页 |
4.6.2 正确句子修正 | 第65-66页 |
4.6.3 复杂句子修正 | 第66-68页 |
4.6.4 错误位置定位 | 第68-69页 |
4.6.5 初中作文修改 | 第69-70页 |
4.7 本章小结 | 第70-72页 |
第五章 结论及展望 | 第72-74页 |
5.1 结论 | 第72-73页 |
5.2 展望 | 第73-74页 |
参考文献 | 第74-78页 |
致谢 | 第78-79页 |