摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-19页 |
1.1 研究背景及研究意义 | 第10-11页 |
1.2 智能车国内外研究现状 | 第11-14页 |
1.3 智能车定位技术研究现状 | 第14-17页 |
1.4 本文主要的研究内容及章节安排 | 第17-19页 |
第2章 智能车载系统及视觉测量基本原理 | 第19-35页 |
2.1 摄像机成像模型与摄像机标定 | 第19-24页 |
2.1.1 图像坐标系、摄像机坐标系与世界坐标系及其关系 | 第19-21页 |
2.1.2 摄像机模型及单应矩阵H | 第21页 |
2.1.3 摄像机标定——张正友标定法 | 第21-24页 |
2.2 常见的特征点检测与匹配方法 | 第24-30页 |
2.2.1 SIFT角点算子 | 第24-27页 |
2.2.2 ORB角点算子 | 第27-29页 |
2.2.3 特征点匹配 | 第29页 |
2.2.4 RANSAC算法剔除错误匹配点 | 第29-30页 |
2.3 智能车载系统 | 第30-34页 |
2.3.1 智能车载系统概述 | 第30-31页 |
2.3.2 车载视觉系统标定实验测试 | 第31-34页 |
2.4 本章小结 | 第34-35页 |
第3章 基于人工路标的车辆视觉定位 | 第35-47页 |
3.1 人工路标数据库介绍及车辆定位原理 | 第35-37页 |
3.1.1 人工路标数据库 | 第35-36页 |
3.1.2 基于人工路标的车辆定位原理 | 第36-37页 |
3.2 交通标志识别 | 第37-43页 |
3.2.1 图像预处理 | 第38-39页 |
3.2.2 基于ORB算子的交通标志全局特征提取 | 第39-40页 |
3.2.3 基于ORB和BOW的交通标志局部特征提取 | 第40-42页 |
3.2.4 基于多特征空间融合的最近邻(H-KNN)交通标志识别 | 第42-43页 |
3.3 基于交通标志的车辆多尺度定位 | 第43-46页 |
3.3.1 基于GPS数据的车辆粗定位 | 第43-44页 |
3.3.2 图像匹配定位方法 | 第44页 |
3.3.3 度量级定位 | 第44-46页 |
3.4 本章小结 | 第46-47页 |
第4章 基于自然场景的车辆视觉定位 | 第47-65页 |
4.1 道路场景建模 | 第48-57页 |
4.1.1 高精度的轨迹数据 | 第49-50页 |
4.1.2 SIFT、SURF和ORB场景局部特征提取 | 第50-53页 |
4.1.3 SURF和ORB算法场景全局特征提取 | 第53-54页 |
4.1.4 道路场景稀疏三维重建 | 第54-56页 |
4.1.5 三维重建精度测试 | 第56-57页 |
4.2 特征匹配 | 第57-62页 |
4.2.1 基于RANSAC算法的图像局部特征匹配 | 第57-59页 |
4.2.2 试验测试 | 第59-62页 |
4.3 自然场景下的车辆多尺度定位 | 第62-64页 |
4.4 本章小结 | 第64-65页 |
第5章 实验设计 | 第65-87页 |
5.1 智能车实验平台介绍 | 第65-66页 |
5.2 基于人工路标的车辆定位实验 | 第66-75页 |
5.2.1 人工路标数据库建立 | 第67-69页 |
5.2.2 实验过程及结果 | 第69-73页 |
5.2.3 交通标志公共数据集识别结果 | 第73-75页 |
5.3 基于自然场景的车辆高精度定位实验 | 第75-85页 |
5.3.1 实验结果 | 第76-82页 |
5.3.2 特征点数目及参数调整 | 第82-83页 |
5.3.3 算法的软件展示 | 第83-85页 |
5.4 本章小结 | 第85-87页 |
第6章 总结与展望 | 第87-89页 |
6.1 总结 | 第87-88页 |
6.2 展望 | 第88-89页 |
致谢 | 第89-90页 |
参考文献 | 第90-95页 |
攻读硕士期间的研究成果 | 第95-96页 |