摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
符号对照表 | 第12-13页 |
缩略语对照表 | 第13-17页 |
第一章 绪论 | 第17-23页 |
1.1 课题的研究背景及意义 | 第17-18页 |
1.2 国内外研究现状 | 第18-21页 |
1.2.1 细粒度图像研究现状 | 第18-19页 |
1.2.2 卷积神经网络研究现状 | 第19-20页 |
1.2.3 迁移学习研究现状 | 第20-21页 |
1.3 本文主要研究工作 | 第21-23页 |
第二章 数据收集及预处理 | 第23-31页 |
2.1 细粒度图像数据库介绍 | 第23-25页 |
2.2 细粒度图像数据集的特点 | 第25-26页 |
2.2.1 低类间差异 | 第25页 |
2.2.2 高类内差异 | 第25-26页 |
2.2.3 背景和姿态变化 | 第26页 |
2.3 数据预处理 | 第26-28页 |
2.3.1 训练集和测试集划分 | 第26页 |
2.3.2 数据预处理 | 第26-28页 |
2.4 实验环境及配置 | 第28-29页 |
2.4.1 实验环境 | 第28页 |
2.4.2 深度学习框架MXNet | 第28-29页 |
2.5 本章小结 | 第29-31页 |
第三章 卷积神经网络算法研究 | 第31-51页 |
3.1 卷积神经网络 | 第31-35页 |
3.1.1 卷积神经网络的结构 | 第31-32页 |
3.1.2 局部连接 | 第32-33页 |
3.1.3 权重共享 | 第33页 |
3.1.4 多核卷积 | 第33-34页 |
3.1.5 池化 | 第34-35页 |
3.1.6 全连接层 | 第35页 |
3.2 激活函数 | 第35-39页 |
3.2.1 Sigmoid激活函数 | 第35-36页 |
3.2.2 Tanh激活函数 | 第36页 |
3.2.3 ReLU激活函数 | 第36-37页 |
3.2.4 PReLU激活函数 | 第37-38页 |
3.2.5 ELU激活函数 | 第38-39页 |
3.3 防止过拟合技术 | 第39-40页 |
3.3.1 数据增强 | 第39页 |
3.3.2 权值衰减 | 第39页 |
3.3.3 丢弃法 | 第39-40页 |
3.4 深度卷积神经网络模型研究 | 第40-49页 |
3.4.1 AlexNet | 第40-41页 |
3.4.2 VGGNet | 第41-43页 |
3.4.3 GoogleNet | 第43-45页 |
3.4.4 ResNet | 第45-48页 |
3.4.5 DenseNet | 第48-49页 |
3.5 本章小结 | 第49-51页 |
第四章 基于卷积神经网络的迁移学习算法研究 | 第51-59页 |
4.1 迁移学习理论介绍 | 第51-53页 |
4.1.1 迁移学习相关定义 | 第51页 |
4.1.2 迁移学习的分类 | 第51-52页 |
4.1.3 迁移学习的方法 | 第52页 |
4.1.4 基于模型的迁移学习准则 | 第52-53页 |
4.2 基于深度卷积神经网络的迁移学习算法 | 第53-58页 |
4.2.1 卷积神经网络的特征学习 | 第54-55页 |
4.2.2 基于卷积神经网络的迁移学习 | 第55-58页 |
4.3 本章小结 | 第58-59页 |
第五章 基于卷积神经网络迁移学习的细粒度图像识别 | 第59-73页 |
5.1 多层感知机分类模型 | 第59-62页 |
5.1.1 损失函数和度量指标 | 第60页 |
5.1.2 模型优化方法 | 第60-61页 |
5.1.3 MLP模型训练参数配置 | 第61-62页 |
5.2 实验结果 | 第62-70页 |
5.2.1 Stanford Dogs识别结果 | 第62-66页 |
5.2.2 CUB 200-2011 Birds识别结果 | 第66-68页 |
5.2.3 Oxford 102 flowers识别结果 | 第68-70页 |
5.3 本章小结 | 第70-73页 |
第六章 总结与展望 | 第73-75页 |
6.1 总结 | 第73页 |
6.2 展望 | 第73-75页 |
参考文献 | 第75-81页 |
致谢 | 第81-83页 |
作者简介 | 第83-84页 |