摘要 | 第2-4页 |
abstract | 第4-5页 |
1 绪论 | 第8-13页 |
1.1 研究背景和意义 | 第8页 |
1.2 国内外的研究现状 | 第8-11页 |
1.2.1 视觉注意机制的研究现状 | 第8-10页 |
1.2.2 车辆检测的研究现状 | 第10-11页 |
1.3 论文的研究内容 | 第11页 |
1.4 本文的组织结构 | 第11-13页 |
2 相关理论研究 | 第13-20页 |
2.1 深度学习的理论基础 | 第13-15页 |
2.1.1 人工神经网络 | 第13-14页 |
2.1.2 深度学习的基本思想 | 第14-15页 |
2.2 显著性检测的理论基础 | 第15-17页 |
2.3 视觉注意的评判指标 | 第17-18页 |
2.4 图像分割 | 第18-19页 |
2.5 本章小结 | 第19-20页 |
3 复杂场景下的图像配准 | 第20-35页 |
3.1 多尺度下的图像配准 | 第20-23页 |
3.1.1 尺度空间的分析与建立 | 第20-21页 |
3.1.2 特征点的提取与融合 | 第21-22页 |
3.1.3 图像的双向配准 | 第22-23页 |
3.2 实验分析 | 第23-26页 |
3.2.1 实验环境 | 第23页 |
3.2.2 实验过程 | 第23-26页 |
3.3 融合图像显著区域的目标配准 | 第26-30页 |
3.3.1 融合深度信息与视觉注意计算模型目标粗定位 | 第27-28页 |
3.3.2 局部特征点匹配的目标精确定位与匹配 | 第28-30页 |
3.4 实验分析 | 第30-34页 |
3.4.1 实验环境 | 第30页 |
3.4.2 实验分析 | 第30-34页 |
3.5 本章小结 | 第34-35页 |
4 基于深度学习的车辆检测 | 第35-44页 |
4.1 卷积神经网络 | 第35-38页 |
4.2 卷积神经网络的训练过程 | 第38-40页 |
4.3 基于卷积神经网络的车辆检测 | 第40-42页 |
4.4 实验分析 | 第42-43页 |
4.4.1 实验环境 | 第42页 |
4.4.2 实验过程 | 第42-43页 |
4.5 本章小结 | 第43-44页 |
5 融合视觉注意机制的车辆目标检测 | 第44-62页 |
5.1 视觉显著性算法提取车辆候选区域 | 第45-46页 |
5.2 融合先验信息的显著性区域的车辆检测 | 第46-57页 |
5.2.1 图像分割 | 第47-49页 |
5.2.2 背景信息提取 | 第49-51页 |
5.2.3 前景信息提取 | 第51-53页 |
5.2.4 特征融合 | 第53-54页 |
5.2.5 轮廓信息 | 第54-57页 |
5.3 实验分析 | 第57-61页 |
5.3.1 实验环境 | 第57页 |
5.3.2 融合先验信息的显著图性能分析 | 第57-58页 |
5.3.3 融合视觉注意机制后的车辆检测的时间探究 | 第58-61页 |
5.4 本章小结 | 第61-62页 |
6 结论与展望 | 第62-64页 |
6.1 结论 | 第62页 |
6.2 展望 | 第62-64页 |
参考文献 | 第64-68页 |
攻读硕士学位期间发表的论文 | 第68-69页 |
致谢 | 第69-71页 |