摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第10-18页 |
1.1 课题来源及研究的背景和意义 | 第10-11页 |
1.1.1 课题来源 | 第10页 |
1.1.2 课题研究的背景和意义 | 第10-11页 |
1.2 图像语义理解问题概述 | 第11-14页 |
1.2.1 目标与场景理解 | 第11-12页 |
1.2.2 图像语义层次化描述 | 第12-14页 |
1.2.3 图像语义标注 | 第14页 |
1.3 国内外研究现状 | 第14-16页 |
1.4 本文主要研究内容及各章节安排 | 第16-18页 |
第2章 基于卷积神经网络的图像特征编码 | 第18-33页 |
2.1 引言 | 第18页 |
2.2 传统神经网络到卷积神经网络演变进程 | 第18-20页 |
2.3 卷积神经网络结构设计 | 第20-24页 |
2.3.1 卷积层 | 第20-23页 |
2.3.2 池化层 | 第23-24页 |
2.3.3 全连接层 | 第24页 |
2.4 常用分类模型对比及优劣分析 | 第24-30页 |
2.4.1 AlexNet | 第24-25页 |
2.4.2 GoogleNet | 第25-26页 |
2.4.3 VGGNet | 第26-27页 |
2.4.4 SPPNet | 第27页 |
2.4.5 ResNet | 第27-29页 |
2.4.6 各模型优劣总结 | 第29-30页 |
2.5 基于改进的GoogleNet的残差网络设计 | 第30-32页 |
2.6 本章小结 | 第32-33页 |
第3章 基于双层注意力机制的中文标注 | 第33-42页 |
3.1 引言 | 第33页 |
3.2 基于循环神经网络的语言解码模型 | 第33-37页 |
3.2.1 循环神经网络RNN | 第33-35页 |
3.2.2 长短时记忆单元LSTM | 第35-37页 |
3.3 解码模型中的注意力机制 | 第37-39页 |
3.3.1 基于强化学习的注意力机制 | 第37-38页 |
3.3.2 基于概率模型的注意力机制 | 第38-39页 |
3.4 基于双层注意力机制的中文解码模型设计 | 第39-41页 |
3.5 本章小结 | 第41-42页 |
第4章 中文数据预处理及参数初始化 | 第42-58页 |
4.1 引言 | 第42页 |
4.2 基于深度学习的中文分词 | 第42-53页 |
4.2.1 词嵌入模型 | 第43-50页 |
4.2.2 双向长短时记忆单元 | 第50页 |
4.2.3 CRF标注模型 | 第50-51页 |
4.2.4 中文命名实体识别 | 第51-53页 |
4.3 中文标注特征编码 | 第53页 |
4.4 图像数据规范化 | 第53-55页 |
4.5 参数初始化方法优劣分析 | 第55-56页 |
4.5.1 零初始化 | 第55页 |
4.5.2 随机初始化 | 第55页 |
4.5.3 Xavier初始化 | 第55-56页 |
4.6 本章小结 | 第56-58页 |
第5章 模型训练与实验分析 | 第58-73页 |
5.1 引言 | 第58页 |
5.2 模型训练方法及策略 | 第58-65页 |
5.2.1 梯度下降方法及其变种 | 第58-61页 |
5.2.2 模型评价机制 | 第61-63页 |
5.2.3 其他的一些训练技巧 | 第63-65页 |
5.3 实验验证以及分析 | 第65-72页 |
5.4 本章小结 | 第72-73页 |
结论 | 第73-75页 |
参考文献 | 第75-84页 |
致谢 | 第84页 |