摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第10-17页 |
1.1 引言 | 第10页 |
1.2 无人车国内外的发展现状 | 第10-12页 |
1.3 无人车对环境感知识别技术的研究现状 | 第12-14页 |
1.4 双目视觉技术在无人车周围环境感知领域的研究现状 | 第14-15页 |
1.5 论文主要研究内容 | 第15-17页 |
第二章 无人车双目立体视觉测量模型 | 第17-32页 |
2.1 无人车双目立体视觉摄像机模型与坐标系统 | 第17-23页 |
2.1.1 摄像机模型 | 第17-20页 |
2.1.2 无人车和摄像机的坐标系统 | 第20-23页 |
2.2 双目立体视觉测量技术 | 第23-26页 |
2.2.1 双目视觉测量基本原理 | 第23-24页 |
2.2.2 双目摄像机投影模型 | 第24-26页 |
2.3 无人车双目视觉系统测量模型建立 | 第26-31页 |
2.4 本章小结 | 第31-32页 |
第三章 双目视觉系统的标定与立体测量 | 第32-50页 |
3.1 摄像机的标定 | 第32-39页 |
3.1.1 标定方法 | 第32页 |
3.1.2 张正友摄像机标定方法原理 | 第32-34页 |
3.1.3 双目立体视觉系统摄像机的标定 | 第34-39页 |
3.2 双目立体视觉系统的立体标定 | 第39-40页 |
3.3 无人车双目立体视觉系统的畸变矫正 | 第40-41页 |
3.4 无人车双目立体视觉系统的极线校正 | 第41-43页 |
3.4.1 极线约束 | 第41-42页 |
3.4.2 极线校正的Bouguet算法 | 第42-43页 |
3.5 双目图像匹配与障碍物位置立体测量 | 第43-49页 |
3.5.1 双目立体匹配 | 第43-47页 |
3.5.2 障碍物位置立体测量与深度信息获取 | 第47-49页 |
3.6 本章小结 | 第49-50页 |
第四章 基于深度信息的障碍物定位与跟踪 | 第50-66页 |
4.1 直方图反向投影法障碍物检测 | 第50-56页 |
4.1.1 直方图和直方图的比较方法 | 第50-52页 |
4.1.2 直方图反向投影 | 第52-54页 |
4.1.3 图像的形态学腐蚀—膨胀算法 | 第54页 |
4.1.4 直方图反向投影障碍物检测算法验证 | 第54-56页 |
4.2 基于深度信息提取的障碍物检测 | 第56-58页 |
4.2.1 图像中的轮廓提取方法 | 第56页 |
4.2.2 视差图中的轮廓获取和障碍物定位检测 | 第56-58页 |
4.3 基于深度信息的无人车障碍物跟踪 | 第58-65页 |
4.3.1 MeanShift和CamShift跟踪算法原理 | 第59-63页 |
4.3.2 基于深度信息的CamShift跟踪算法 | 第63-64页 |
4.3.3 改进跟踪算法的试验验证 | 第64-65页 |
4.4 本章小结 | 第65-66页 |
第五章 无人车障碍物的检测跟踪方法实现与试验 | 第66-77页 |
5.1 双目立体测试平台搭建及其参数 | 第66-68页 |
5.1.1 测试平台硬件组成 | 第66-67页 |
5.1.2 程序界面与软件配置 | 第67-68页 |
5.1.3 双目立体视觉验证平台参数影响分析 | 第68页 |
5.2 双目立体视觉障碍物跟踪测试平台算法流程 | 第68-69页 |
5.3 双目立体视觉系统的深度信息测量精度验证 | 第69-72页 |
5.4 基于深度信息的实时跟踪试验验证 | 第72-76页 |
5.4.1 试验方案 | 第72-73页 |
5.4.2 试验数据分析与结论 | 第73-76页 |
5.5 本章小结 | 第76-77页 |
第六章 全文总结与展望 | 第77-79页 |
6.1 全文总结 | 第77-78页 |
6.2 展望 | 第78-79页 |
参考文献 | 第79-83页 |
攻读学位期间取得的研究成果 | 第83-84页 |
致谢 | 第84页 |