基于神经网络的文本特征表示关键技术研究
摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 绪论 | 第13-19页 |
1.1 研究背景与意义 | 第14-15页 |
1.2 文本特征表示研究现状 | 第15-16页 |
1.3 论文主要研究内容及创新点 | 第16-17页 |
1.4 论文组织结构 | 第17-19页 |
第二章 相关研究综述 | 第19-37页 |
2.1 文本表示综述 | 第19-23页 |
2.1.1 文本表示方法 | 第19-21页 |
2.1.2 语言模型和词嵌入 | 第21-23页 |
2.2 神经网络综述 | 第23-35页 |
2.2.1 深度学习综述 | 第23-24页 |
2.2.2 神经网络基础模型 | 第24-30页 |
2.2.3 神经网络类型 | 第30-33页 |
2.2.4 神经网络编程框架 | 第33-35页 |
2.3 本章小结 | 第35-37页 |
第三章 基于字形结构的中文繁体字向量模型研究 | 第37-59页 |
3.1 引言 | 第37-39页 |
3.2 基于CBOW模型的繁体字向量改进方法 | 第39-45页 |
3.2.1 连续词袋模型 | 第40-43页 |
3.2.2 lowCharCBOW模型 | 第43-45页 |
3.3 基于CAE模型的繁体字向量改进方法 | 第45-51页 |
3.3.1 基于神经网络的自编码器模型 | 第47-48页 |
3.3.2 graphCharCAE模型 | 第48-51页 |
3.4 实验内容及结果 | 第51-57页 |
3.4.1 实验背景 | 第51-53页 |
3.4.2 数据集介绍 | 第53-54页 |
3.4.3 实验设置 | 第54-55页 |
3.4.4 实验结果 | 第55-57页 |
3.5 本章小结 | 第57-59页 |
第四章 基于字符的英文词向量解决序列标注任务研究 | 第59-79页 |
4.1 引言 | 第59-60页 |
4.2 基于英文字符级别的词向量改进模型 | 第60-63页 |
4.2.1 基于单词的向量模型 | 第61页 |
4.2.2 基于字符的charCNN向量模型 | 第61-63页 |
4.3 长短时记忆循环神经网络序列标注模型 | 第63-70页 |
4.3.1 循环神经网络综述 | 第63-64页 |
4.3.2 双向长短时记忆循环神经网络 | 第64-67页 |
4.3.3 BLSTM-CRF模型 | 第67-70页 |
4.4 实验内容及结果 | 第70-76页 |
4.4.1 词性标注任务实验 | 第70-73页 |
4.4.2 命名实体识别任务实验 | 第73-76页 |
4.5 本章小结 | 第76-79页 |
第五章 基于注意力机制的句子向量表示方法研究 | 第79-101页 |
5.1 引言 | 第79-80页 |
5.2 基于注意力机制的GRU句子通用表示模型 | 第80-88页 |
5.2.1 循环神经网络句子向量表示介绍 | 第80-82页 |
5.2.2 编码器—分类器句子表示架构 | 第82-83页 |
5.2.3 编码器GRU模型 | 第83-85页 |
5.2.4 基于注意力机制的编码器 | 第85-87页 |
5.2.5 模型整体构建 | 第87-88页 |
5.3 基于注意力机制的CNN句子向量表示模型 | 第88-93页 |
5.3.1 卷积神经网络句子向量表示介绍 | 第88-89页 |
5.3.2 卷积神经网络句子向量基本模型 | 第89-92页 |
5.3.3 基于注意力机制的CNN句子对匹配模型 | 第92-93页 |
5.4 基于注意力机制的GRU通用句子模型实验 | 第93-99页 |
5.4.1 语义相似度实验数据介绍 | 第94-96页 |
5.4.2 语义相似度实验结果及分析 | 第96页 |
5.4.3 文本分类实验数据介绍 | 第96-97页 |
5.4.4 文本分类实验结果及分析 | 第97-99页 |
5.5 基于注意力机制的CNN句子对匹配实验 | 第99-100页 |
5.5.1 实验数据介绍 | 第99页 |
5.5.2 实验结果及分析 | 第99-100页 |
5.6 本章小结 | 第100-101页 |
第六章 总结与展望 | 第101-103页 |
参考文献 | 第103-115页 |
致谢 | 第115-117页 |
攻读博士学位期间发表和录用的论文 | 第117页 |