无人驾驶汽车视觉里程计算法研究
摘要 | 第3-5页 |
Abstract | 第5-6页 |
第1章 引言 | 第11-19页 |
1.1 研究背景与意义 | 第11-14页 |
1.2 研究现状 | 第14-17页 |
1.3 研究内容与组织结构 | 第17-19页 |
第2章 基础知识概述 | 第19-33页 |
2.1 图像处理基础知识 | 第19-22页 |
2.1.1 特征点检测 | 第19-20页 |
2.1.2 特征描述 | 第20-21页 |
2.1.3 特征匹配 | 第21-22页 |
2.2 视觉定位基础知识 | 第22-32页 |
2.2.1 坐标系系统 | 第22-24页 |
2.2.2 小孔成像相机模型 | 第24-27页 |
2.2.3 相机模型的参数标定 | 第27-28页 |
2.2.4 立体相机的标定和几何关系 | 第28-30页 |
2.2.5 图像校正 | 第30-31页 |
2.2.6 三角测量 | 第31-32页 |
2.3 本章小结 | 第32-33页 |
第3章 改进的视觉里程计算法 | 第33-49页 |
3.1 特征提取 | 第35-39页 |
3.1.1 Fast特征简介 | 第35-37页 |
3.1.2 改进的Fast特征提取方法 | 第37-39页 |
3.2 特征追踪 | 第39-41页 |
3.3 基于加权特征点的运动估计 | 第41-43页 |
3.4 实验与分析 | 第43-48页 |
3.5 本章小结 | 第48-49页 |
第4章 基于块模型的混合高斯运动目标检测方法 | 第49-59页 |
4.1 混合高斯模型运动目标检测 | 第49-51页 |
4.2 基于图像块的混合高斯模型运动目标检测 | 第51-53页 |
4.3 实验结果与分析 | 第53-57页 |
4.4 本章小结 | 第57-59页 |
第5章 总结与展望 | 第59-61页 |
5.1 总结 | 第59页 |
5.2 展望 | 第59-61页 |
参考文献 | 第61-67页 |
致谢 | 第67-69页 |
攻读硕士学位期间科研成果 | 第69页 |