摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 课题研究的背景和意义 | 第10-11页 |
1.2 相关技术和工作现状 | 第11-14页 |
1.2.1 国内外研究现状 | 第11-13页 |
1.2.2 深度学习在自然语言处理方向应用现状 | 第13-14页 |
1.3 主要研究内容 | 第14页 |
1.4 论文组织结构 | 第14-16页 |
第2章 医疗领域命名实体识别介绍 | 第16-22页 |
2.1 命名实体识别介绍 | 第16-17页 |
2.2 医疗领域数据特点 | 第17-18页 |
2.3 实验数据和任务介绍 | 第18-20页 |
2.3.1 数据数量及标注方式 | 第18-19页 |
2.3.2 任务描述及评测方法 | 第19-20页 |
2.4 医疗领域命名实体识别难点 | 第20-21页 |
2.5 本章小结 | 第21-22页 |
第3章 基于BLSTM的命名实体识别 | 第22-32页 |
3.1 循环神经网络 | 第22-25页 |
3.1.1 循环神经网络RNN | 第22-23页 |
3.1.2 长短期记忆单元LSTM | 第23-25页 |
3.1.3 BLSTM | 第25页 |
3.2 构建基于BLSTM的NER模型 | 第25-28页 |
3.2.1 模型整体框架 | 第26-27页 |
3.2.2 预训练wordembedding | 第27页 |
3.2.3 加入Dropout | 第27-28页 |
3.3 BLSTM模型在医疗领域的NER实验 | 第28-31页 |
3.3.1 实验参数配置 | 第28页 |
3.3.2 Mini-batch批量训练 | 第28-29页 |
3.3.3 不同参数下的实验 | 第29-31页 |
3.4 本章小结 | 第31-32页 |
第4章 基于BLSTM-CNN的命名实体识别 | 第32-43页 |
4.1 字向量的缺陷 | 第32页 |
4.2 构建CNN模型提取词语基于字符的表示 | 第32-37页 |
4.2.1 模型概述 | 第32-33页 |
4.2.2 模型结构 | 第33-34页 |
4.2.3 宽卷积 | 第34-36页 |
4.2.4 动态k-max池化 | 第36-37页 |
4.2.5 模型其他细节 | 第37页 |
4.3 构建基于BLSTM-CNN的NER模型 | 第37-38页 |
4.4 BLSTM-CNN模型在医疗领域的NER实验 | 第38-41页 |
4.4.1 词语标注和字符标注的对比实验 | 第39-41页 |
4.4.2 BLSTM模型和BLSTM-CNN模型的对比实验 | 第41页 |
4.5 本章小结 | 第41-43页 |
第5章 基于BLSTM-CNN-CRF的命名实体识别 | 第43-52页 |
5.1 模型中加入CRF的必要性 | 第43-45页 |
5.2 条件随机场CRF | 第45页 |
5.3 构建基于BLSTM-CNN-CRF的NER模型 | 第45-47页 |
5.4 模型训练及参数配置 | 第47-48页 |
5.4.1 参数初始化 | 第47页 |
5.4.2 模型优化算法 | 第47-48页 |
5.5 实验结果及分析 | 第48-51页 |
5.5.1 不同数量训练数据下的实验 | 第48-49页 |
5.5.2 不同模型的对比实验 | 第49页 |
5.5.3 监督学习和半监督学习的对比实验 | 第49-51页 |
5.6 本章小结 | 第51-52页 |
结论 | 第52-53页 |
参考文献 | 第53-57页 |
攻读硕士学位期间所发表的学术论文 | 第57-58页 |
致谢 | 第58页 |