基于深度恢复的障碍物检测的研究与实现
摘要 | 第5-6页 |
Abstract | 第6-7页 |
目录 | 第8-11页 |
第1章 绪论 | 第11-17页 |
1.1 课题背景 | 第11-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.3 研究意义及内容 | 第14-15页 |
1.4 本文的组织结构 | 第15-17页 |
第2章 障碍物检测相关技术简介 | 第17-33页 |
2.1 图像成像原理 | 第17-22页 |
2.1.1 坐标系的建立性 | 第17-18页 |
2.1.2 摄像机成像过程 | 第18-20页 |
2.1.3 图像变换 | 第20-22页 |
2.2 图像增强介绍 | 第22-25页 |
2.2.1 空域增强法 | 第22-23页 |
2.2.2 频域增强法 | 第23页 |
2.2.3 Retinex理论 | 第23-25页 |
2.3 特征点提取方法 | 第25-27页 |
2.3.1 Harris特征点 | 第25-26页 |
2.3.2 Forstner特征点 | 第26页 |
2.3.3 SURF特征点 | 第26-27页 |
2.4 特征点跟踪算法 | 第27-30页 |
2.4.1 LK光流金字塔跟踪算法 | 第27-28页 |
2.4.2 粒子滤波跟踪算法 | 第28-29页 |
2.4.3 MeanSift跟踪算法 | 第29-30页 |
2.5 深度恢复方法 | 第30-32页 |
2.5.1 基于立体视觉的深度恢复 | 第30-32页 |
2.5.2 基于运动恢复结构的深度恢复 | 第32页 |
2.6 本章小结 | 第32-33页 |
第3章 障碍物检测算法 | 第33-53页 |
3.1 问题分析与解决 | 第33-34页 |
3.2 自车运动模型的建立 | 第34-36页 |
3.3 检测候选障碍物区域 | 第36-40页 |
3.3.1 逆透视投影变换 | 第36-38页 |
3.3.2 多帧图像共有点建模 | 第38-40页 |
3.4 SURF特征点提取与跟踪 | 第40-46页 |
3.4.1 积分图 | 第40-41页 |
3.4.2 提取SURF特征点 | 第41-45页 |
3.4.3 跟踪SURF特征点 | 第45-46页 |
3.5 深度恢复算法 | 第46-52页 |
3.5.1 立体物低于摄像机时深度恢复算法 | 第46-49页 |
3.5.2 立体物高于摄像机时深度恢复算法 | 第49页 |
3.5.3 深度恢复的改进 | 第49-52页 |
3.6 本章小结 | 第52-53页 |
第4章 障碍物检测系统的设计与实现 | 第53-69页 |
4.1 应用需求分析 | 第53-54页 |
4.2 障碍物检测系统设计 | 第54-55页 |
4.3 障碍物检测 | 第55-68页 |
4.3.1 图像预处理 | 第56-61页 |
4.3.2 多帧图像共有点建模 | 第61-64页 |
4.3.3 障碍物的深度恢复 | 第64-68页 |
4.3.4 确定障碍物区域 | 第68页 |
4.4 本章小结 | 第68-69页 |
第5章 检测算法评估 | 第69-73页 |
5.1 系统实现平台 | 第69-70页 |
5.2 评估标准 | 第70页 |
5.3 评估结果及分析 | 第70-72页 |
5.4 本章小结 | 第72-73页 |
第6章 总结与展望 | 第73-75页 |
6.1 本文工作总结 | 第73页 |
6.2 展望 | 第73-75页 |
参考文献 | 第75-79页 |
致谢 | 第79页 |