致谢 | 第5-6页 |
摘要 | 第6-8页 |
Abstract | 第8-9页 |
1 引言 | 第16-33页 |
1.1 研究背景与内容 | 第16-19页 |
1.1.1 研究背景 | 第16-17页 |
1.1.2 研究内容 | 第17-19页 |
1.2 当前研究现状 | 第19-33页 |
1.2.1 基于视觉的感知 | 第19-25页 |
1.2.2 基于视觉的控制 | 第25-33页 |
2 多视图几何模型 | 第33-45页 |
2.1 引言 | 第33页 |
2.2 单视图几何 | 第33-34页 |
2.3 两视图几何 | 第34-39页 |
2.3.1 平面场景 | 第35-36页 |
2.3.2 非平面场景 | 第36-37页 |
2.3.3 一般性场景 | 第37-39页 |
2.4 三视图几何 | 第39-44页 |
2.4.1 三焦张量模型 | 第39-40页 |
2.4.2 三焦张量的在线估计 | 第40-44页 |
2.5 小结 | 第44-45页 |
3 基于两视图几何的道路场景几何重构 | 第45-66页 |
3.1 引言 | 第45-47页 |
3.2 系统架构 | 第47-48页 |
3.2.1 车辆视觉系统配置 | 第47页 |
3.2.2 道路重构算法流程 | 第47-48页 |
3.3 系统建模 | 第48-50页 |
3.3.1 车辆-道路几何模型 | 第48-49页 |
3.3.2 图像变换模型 | 第49-50页 |
3.4 道路重构与识别 | 第50-58页 |
3.4.1 道路场景几何重构 | 第50-55页 |
3.4.2 可驾驶道路区域识别 | 第55-58页 |
3.5 实验结果 | 第58-65页 |
3.5.1 分行几何重构 | 第58-60页 |
3.5.2 道路识别 | 第60-62页 |
3.5.3 计算复杂度 | 第62-64页 |
3.5.4 更多场景的实验 | 第64-65页 |
3.6 小结 | 第65-66页 |
4 基于两视图几何的分行递归式可驾驶道路重构与识别 | 第66-89页 |
4.1 引言 | 第66-67页 |
4.2 道路识别系统 | 第67-69页 |
4.2.1 问题描述 | 第67-68页 |
4.2.2 算法过程 | 第68-69页 |
4.3 结合光照不变性的图像融合 | 第69-71页 |
4.3.1 光照不变颜色空间 | 第69-71页 |
4.3.2 图像融合 | 第71页 |
4.4 递归式道路重构与识别 | 第71-77页 |
4.4.1 几何重构 | 第71-74页 |
4.4.2 道路识别 | 第74-76页 |
4.4.3 递归策略 | 第76-77页 |
4.5 实验结果 | 第77-87页 |
4.5.1 光照不变图像变换 | 第77-81页 |
4.5.2 道路重构与识别 | 第81-83页 |
4.5.3 与以往方法的对比 | 第83-86页 |
4.5.4 其他结果 | 第86-87页 |
4.6 小结 | 第87-89页 |
5 基于三焦张量的非完整约束车辆轨迹跟踪控制 | 第89-116页 |
5.1 引言 | 第89-92页 |
5.2 问题描述 | 第92-93页 |
5.3 几何建模 | 第93-96页 |
5.3.1 三焦张量模型 | 第93-95页 |
5.3.2 几何重构 | 第95-96页 |
5.4 基于关键帧策略的位姿估计 | 第96-100页 |
5.4.1 关键帧选择 | 第97页 |
5.4.2 尺度化位姿估计 | 第97-100页 |
5.5 控制策略 | 第100-107页 |
5.5.1 误差系统分析 | 第101-103页 |
5.5.2 控制器设计 | 第103页 |
5.5.3 稳定性分析 | 第103-107页 |
5.6 仿真验证 | 第107-115页 |
5.6.1 位姿估计 | 第108-111页 |
5.6.2 基于视觉的轨迹跟踪和位姿调节 | 第111-113页 |
5.6.3 长距离的轨迹跟踪任务 | 第113-115页 |
5.7 小结 | 第115-116页 |
6 总结与展望 | 第116-118页 |
参考文献 | 第118-136页 |
攻读博士学位期间科研成果 | 第136-138页 |
作者简介 | 第138页 |