摘要 | 第5-7页 |
abstract | 第7-8页 |
第一章 绪论 | 第13-22页 |
1.1 研究工作的背景与意义 | 第13-14页 |
1.2 研究历史与现状 | 第14-19页 |
1.2.1 卷积神经网络的发展历史 | 第14-15页 |
1.2.2 卷积神经网络的研究现状 | 第15-19页 |
1.2.2.1 过拟合问题 | 第15-16页 |
1.2.2.2 结构研究 | 第16-17页 |
1.2.2.3 迁移学习 | 第17-18页 |
1.2.2.4 应用研究 | 第18-19页 |
1.3 本文的主要贡献与创新 | 第19-20页 |
1.4 本论文的结构安排 | 第20-22页 |
第二章 卷积神经网络与计算机视觉 | 第22-28页 |
2.1 卷积神经网络 | 第22-24页 |
2.1.1 卷积神经网络的基本结构 | 第22-23页 |
2.1.2 卷积神经网络的工作原理 | 第23-24页 |
2.2 计算机视觉 | 第24-27页 |
2.2.1 计算机视觉的研究层次 | 第24-25页 |
2.2.2 计算机视觉关键技术 | 第25-27页 |
2.2.2.1 物体识别 | 第25-26页 |
2.2.2.2 场景标注 | 第26页 |
2.2.2.3 场景识别 | 第26-27页 |
2.3 本章小结 | 第27-28页 |
第三章 基于异构多列卷积神经网络的物体识别 | 第28-47页 |
3.1 引言 | 第28-29页 |
3.2 基于卷积神经网络的物体识别研究概述 | 第29-31页 |
3.2.1 物体识别 | 第29页 |
3.2.2 多列卷积神经网络 | 第29-31页 |
3.3 基于异构多列卷积神经网络的滑动窗口融合 | 第31-35页 |
3.3.1 异构多列卷积神经网络 | 第31-32页 |
3.3.2 滑动窗口融合 | 第32-35页 |
3.3.2.1 滑动窗口融合过程 | 第32-34页 |
3.3.2.2 参数穷尽方式与训练方式 | 第34-35页 |
3.4 实验分析 | 第35-45页 |
3.4.1 MNIST数据集 | 第35-41页 |
3.4.1.1 卷积核大小分析 | 第37-38页 |
3.4.1.2 特征图数量分析 | 第38-39页 |
3.4.1.3 卷积核与特征图分析 | 第39-40页 |
3.4.1.4 滑动窗口融合与传统融合方法对比 | 第40-41页 |
3.4.2 CIFAR-10 数据集 | 第41-43页 |
3.4.3 Caltech-256 数据集 | 第43-44页 |
3.4.4 实验结论 | 第44-45页 |
3.5 讨论 | 第45页 |
3.6 本章小结 | 第45-47页 |
第四章 基于特征学习和区域一致性激励的场景标注 | 第47-80页 |
4.1 引言 | 第47-48页 |
4.2 场景标注研究概述 | 第48-50页 |
4.2.1 场景标注的研究难点 | 第48-49页 |
4.2.2 特征表达 | 第49-50页 |
4.2.3 区域一致性 | 第50页 |
4.3 场景标注相关研究工作 | 第50-52页 |
4.3.1 场景图像的特征学习 | 第50-51页 |
4.3.2 图模型 | 第51-52页 |
4.3.3 经验方法 | 第52页 |
4.4 基于特征学习与区域一致性激励的场景标注方法 | 第52-61页 |
4.4.1 基于超像素的多尺度特征学习 | 第53-56页 |
4.4.1.1 超像素的多尺度表达 | 第53-54页 |
4.4.1.2 训练卷积神经网络特征 | 第54-55页 |
4.4.1.3 通用卷积神经网络特征 | 第55-56页 |
4.4.2 区域一致性研究 | 第56-61页 |
4.4.2.1 图模型 | 第57-58页 |
4.4.2.2 区域一致性量化定义 | 第58-59页 |
4.4.2.3 区域一致性激励 | 第59-61页 |
4.5 实验分析 | 第61-71页 |
4.5.1 Stanford Background数据集 | 第62-67页 |
4.5.1.1 特征学习实验配置 | 第62-63页 |
4.5.1.2 区域一致性实验配置 | 第63-64页 |
4.5.1.3 场景标注准确度分析 | 第64-65页 |
4.5.1.4 混淆矩阵分析 | 第65-66页 |
4.5.1.5 场景标注样本分析 | 第66-67页 |
4.5.2 SIFT Flow数据集 | 第67-69页 |
4.5.3 NYU-Depth V2数据集 | 第69-71页 |
4.5.3.1 实验配置 | 第69-70页 |
4.5.3.2 实验结果 | 第70-71页 |
4.5.4 实验结论 | 第71页 |
4.6 讨论 | 第71-78页 |
4.6.1 特征表达与场景标注 | 第71-74页 |
4.6.1.1 实验数据分析 | 第72-73页 |
4.6.1.2 实验结果改进 | 第73-74页 |
4.6.2 场景标注的区域一致性 | 第74-75页 |
4.6.3 自适应的区域一致性激励算法 | 第75-77页 |
4.6.3.1 RCA算法改进思路 | 第75-76页 |
4.6.3.2 自适应的RCA算法 | 第76页 |
4.6.3.3 实验分析 | 第76-77页 |
4.6.4 区域一致性算法比较 | 第77-78页 |
4.6.4.1 准确度比较 | 第77页 |
4.6.4.2 区域一致性比较 | 第77-78页 |
4.7 本章小结 | 第78-80页 |
第五章 基于多尺度显著区域特征学习的场景识别 | 第80-100页 |
5.1 引言 | 第80-81页 |
5.2 场景识别研究概述 | 第81-82页 |
5.2.1 区域选择 | 第81页 |
5.2.2 特征提取 | 第81-82页 |
5.3 显著区域提取 | 第82-85页 |
5.3.1 场景中的区域划分 | 第82-83页 |
5.3.2 场景中的显著区域提取 | 第83-85页 |
5.4 特征学习 | 第85-88页 |
5.4.1 卷积神经网络的特征学习 | 第85-87页 |
5.4.2 卷积神经网络的迁移学习 | 第87-88页 |
5.5 基于多尺度显著区域特征学习的场景识别方法 | 第88-90页 |
5.5.1 多尺度显著区域提取 | 第88-89页 |
5.5.2 显著区域的特征学习 | 第89-90页 |
5.6 实验分析 | 第90-97页 |
5.6.1 实验配置 | 第90-91页 |
5.6.2 MIT-67 室内场景数据集测试 | 第91-94页 |
5.6.2.1 实验结果 | 第91-92页 |
5.6.2.2 场景识别准确度分析 | 第92-94页 |
5.6.2.3 多尺度改善效果分析 | 第94页 |
5.6.3 SUN397大型场景识别数据库基准测试 | 第94-97页 |
5.6.3.1 实验结果 | 第94-95页 |
5.6.3.2 场景识别准确度分析 | 第95-97页 |
5.6.3.3 多尺度改善效果分析 | 第97页 |
5.6.4 实验结论 | 第97页 |
5.7 讨论 | 第97-98页 |
5.8 本章小结 | 第98-100页 |
第六章 全文总结与展望 | 第100-102页 |
6.1 全文总结 | 第100-101页 |
6.2 后续工作展望 | 第101-102页 |
致谢 | 第102-103页 |
参考文献 | 第103-112页 |
攻读博士学位期间取得的成果 | 第112-113页 |