视觉导航中环境建模的研究
第一章 绪论 | 第1-24页 |
1.1 问题的提出 | 第9-10页 |
1.2 研究历史与现状 | 第10-21页 |
1.3 论文工作 | 第21-24页 |
第二章 场景的全景图象建模 | 第24-77页 |
2.1 引言 | 第24-25页 |
2.2 车体运动模型 | 第25-27页 |
2.3 运动滤波和图象稳定 | 第27-45页 |
2.4 全景外极面图象分析方法 | 第45-61页 |
2.5 全景图象建模过程和表示 | 第61-73页 |
2.6 3D全景模型的应用 | 第73-75页 |
2.7 总结和讨论 | 第75-77页 |
第三章 道路的全方位图象建模 | 第77-107页 |
3.1 引言 | 第77-78页 |
3.2 基于全方位图象的特征空间表示方法 | 第78-82页 |
3.3 实时全方位成象 | 第82-91页 |
3.4 全方位图象的旋转不变性特征空间表示 | 第91-96页 |
3.5 基于全万位图象的神经远网络模型 | 第96-99页 |
3.6 实验结果和分析 | 第99-105页 |
3.7 总结和讨论 | 第105-107页 |
第四章 障碍物的双目注视图象建模 | 第107-137页 |
4.1 引言 | 第107页 |
4.2 平面重投影变换原理 | 第107-115页 |
4.3 单摄像机双目成象系统 | 第115-120页 |
4.4 实时双目障碍物检测算法 | 第120-130页 |
4.5 动态重投影变换 | 第130-136页 |
4.6 总结和讨论 | 第136-137页 |
第五章 多尺度全覆盖视觉的集成 | 第137-146页 |
5.1 “分解-综合”的视觉导航策略 | 第137-141页 |
5.2 集成视觉传感器 POST | 第141-142页 |
5.3 数据融合 | 第142-144页 |
5.4 导航工作模式的讨论 | 第144-146页 |
结束语 | 第146-150页 |
参考文献 | 第150-158页 |
在学期间的研究成果及发表的学术论文 | 第158-161页 |
附录 | 第161-178页 |
附录 2.1 运动模型的扩展 | 第161-166页 |
附录 2.2 运动遮挡物能量模型的证明 | 第166-167页 |
附录 2.3 GFOD快速算法 | 第167-168页 |
附录 3.1 全方位成象几何 | 第168-169页 |
附录 3.2 柱面投影分析 | 第169-171页 |
附录 4.1 重投影变换几何 | 第171页 |
附录 4.2 重投影视差关系的证明 | 第171-172页 |
附录 4.3 差值和视差的关系 | 第172-173页 |
附录 4.4 障碍物检测性能分析 | 第173-178页 |