基于立体视觉的区域交通智能车障碍物检测方法研究
摘要 | 第2-3页 |
Abstract | 第3页 |
1 绪论 | 第6-15页 |
1.1 引言 | 第6-8页 |
1.2 区域交通智能车辆的发展概述和研究现状 | 第8-10页 |
1.2.1 国外区域智能车辆的发展和研究现状 | 第8-10页 |
1.2.2 国内区域智能车辆的发展和研究现状 | 第10页 |
1.3 立体视觉研究的发展 | 第10-13页 |
1.3.1 立体视觉的研究现状 | 第11页 |
1.3.2 基于立体视觉的障碍物检测研究现状 | 第11-13页 |
1.4 论文主要研究内容及章节安排 | 第13-15页 |
2 立体视觉基本理论及立体标定 | 第15-26页 |
2.1 引言 | 第15页 |
2.2 相机成像模型 | 第15-21页 |
2.2.1 相机成像模型 | 第15-19页 |
2.2.2 透镜畸变 | 第19-20页 |
2.2.3 立体视觉成像模型 | 第20-21页 |
2.3 摄像机标定 | 第21-24页 |
2.4 立体标定 | 第24-25页 |
2.5 本章小结 | 第25-26页 |
3 立体匹配 | 第26-36页 |
3.1 引言 | 第26页 |
3.2 立体匹配方法研究 | 第26-30页 |
3.2.1 立体匹配原理 | 第26页 |
3.2.2 匹配基元选择 | 第26-28页 |
3.2.3 立体匹配的约束性条件 | 第28页 |
3.2.4 立体匹配一般步骤 | 第28-30页 |
3.3 半全局立体匹配算法 | 第30-33页 |
3.4 边缘保持视差图平滑方法 | 第33-34页 |
3.5 立体匹配结果 | 第34-35页 |
3.6 本章小结 | 第35-36页 |
4 基于V视差和棒状像素障碍检测方法研究 | 第36-49页 |
4.1 引言 | 第36页 |
4.2 基于V视差的障碍检测 | 第36-41页 |
4.2.1 U-V视差图的生成 | 第36-37页 |
4.2.2 V视差图中平面表现形式 | 第37-39页 |
4.2.3 基于霍夫直线检测的地面拟合方法 | 第39-41页 |
4.3 基于棒状像素的障碍检测研究 | 第41-48页 |
4.3.1 可通行区域计算 | 第42-45页 |
4.3.2 障碍分割 | 第45-47页 |
4.3.3 对障碍区域进行U视差计算 | 第47-48页 |
4.4 本章小结 | 第48-49页 |
5 实验测试与结果分析 | 第49-59页 |
5.1 引言 | 第49页 |
5.2 立体视觉系统平台 | 第49-51页 |
5.2.1 硬件设备 | 第49-51页 |
5.2.2 软件开发环境 | 第51页 |
5.3 实验测试与结果分析 | 第51-57页 |
5.3.1 立体标定结果 | 第51-53页 |
5.3.2 立体匹配 | 第53-55页 |
5.3.3 V视差障碍检测 | 第55-56页 |
5.3.4 基于棒状像素的障碍检测 | 第56-57页 |
5.4 本章小结 | 第57-59页 |
结论 | 第59-60页 |
参考文献 | 第60-63页 |
攻读硕士学位期间发表学术论文情况 | 第63-64页 |
致谢 | 第64-66页 |