致谢 | 第5-6页 |
摘要 | 第6-8页 |
Abstract | 第8-10页 |
符号对照表 | 第11-13页 |
英文缩略语表 | 第13-21页 |
1 绪论 | 第21-46页 |
1.1 研究背景 | 第22-28页 |
1.1.1 行星巡视器 | 第22-24页 |
1.1.2 地面自主车 | 第24-27页 |
1.1.3 激光雷达和双目相机的对比 | 第27-28页 |
1.2 立体视觉技术 | 第28-34页 |
1.2.1 摄像机模型 | 第29-30页 |
1.2.2 极线几何 | 第30-31页 |
1.2.3 双目三维恢复 | 第31-32页 |
1.2.4 立体视觉系统的基本流程 | 第32-33页 |
1.2.5 致密立体匹配算法 | 第33-34页 |
1.3 视差空间 | 第34-38页 |
1.3.1 误差特性 | 第35-36页 |
1.3.2 地图形式 | 第36-37页 |
1.3.3 优势与挑战 | 第37-38页 |
1.4 运动估计 | 第38-40页 |
1.5 障碍物分析 | 第40-42页 |
1.6 路径规划 | 第42-43页 |
1.7 本文内容及结构 | 第43-46页 |
2 视差空间中的障碍物分析模型和运动模型 | 第46-68页 |
2.1 双目立体视觉投影模型 | 第47-48页 |
2.2 视差空间中的“u-v-disparity”模型 | 第48-52页 |
2.3 视差空间中的坡度模型 | 第52-63页 |
2.3.1 坡度模型 | 第52-55页 |
2.3.2 仿真实验 | 第55-57页 |
2.3.3 运动方向自适应的性质 | 第57-58页 |
2.3.4 U方向的坡度 | 第58-61页 |
2.3.5 两者的结合 | 第61-63页 |
2.4 视差空间中的“d-motion”运动模型 | 第63-65页 |
2.5 视差空间中的“DNHP”运动模型 | 第65-66页 |
2.6 小结 | 第66-68页 |
3 基于视差空间的运动估计 | 第68-90页 |
3.1 两个视差点集合的线性最小二乘拟合 | 第69-72页 |
3.2 两个视差点集合的非线性最小二乘拟合 | 第72-74页 |
3.3 问题和算法概述 | 第74-77页 |
3.4 帧间最小二乘优化 | 第77-78页 |
3.5 光束法平差 | 第78-80页 |
3.6 视差图融合 | 第80-81页 |
3.7 实验结果和分析 | 第81-88页 |
3.7.1 运动估计 | 第81-86页 |
3.7.2 视差图融合 | 第86-88页 |
3.8 小结 | 第88-90页 |
4 基于视差空间的障碍物分析 | 第90-106页 |
4.1 基于Ⅴ-截距的坡度分析 | 第91-93页 |
4.2 算法复杂度分析与对比 | 第93-95页 |
4.3 障碍物检测和代价图生成 | 第95-98页 |
4.4 实验结果和分析 | 第98-104页 |
4.4.1 结构化场景 | 第99-101页 |
4.4.2 量化评价指标 | 第101-103页 |
4.4.5 计算效率 | 第103-104页 |
4.5 小结 | 第104-106页 |
5 基于视差空间的导航框架 | 第106-126页 |
5.1 相关工作 | 第107-109页 |
5.1.1 匹配代价计算 | 第107-108页 |
5.1.2 亚像素插值 | 第108-109页 |
5.2 框架概述 | 第109-110页 |
5.3 初始的视差图计算 | 第110-113页 |
5.3.1 半全局的匹配代价聚合 | 第110-113页 |
5.3.2 视差图的精化 | 第113页 |
5.4 障碍物膨胀 | 第113-115页 |
5.5 路径搜索和优化 | 第115-118页 |
5.6 实验结果和分析 | 第118-125页 |
5.6.1 路径规划 | 第118-122页 |
5.6.2 系统的实时性 | 第122-125页 |
5.7 小结 | 第125-126页 |
6 总结与展望 | 第126-129页 |
6.1 本文工作的总结 | 第126-127页 |
6.2 未来工作展望 | 第127-129页 |
参考文献 | 第129-145页 |
攻读博士学位期间主要研究成果 | 第145页 |