| 摘要 | 第2-3页 |
| Abstract | 第3-4页 |
| 1 绪论 | 第8-14页 |
| 1.1 研究背景与意义 | 第8-9页 |
| 1.2 国内外研究现状 | 第9-10页 |
| 1.2.1 国外研究现状 | 第9-10页 |
| 1.2.2 国内研究现状 | 第10页 |
| 1.3 无人车关键技术与发展趋势 | 第10-12页 |
| 1.3.1 环境感知技术 | 第11页 |
| 1.3.2 数据融合技术 | 第11-12页 |
| 1.3.3 无人车发展趋势 | 第12页 |
| 1.4 本文研究内容与结构安排 | 第12-14页 |
| 2 实验平台与背景知识 | 第14-21页 |
| 2.1 实验平台 | 第14-15页 |
| 2.2 障碍物检测 | 第15-18页 |
| 2.2.1 基于特征的障碍物检测方法 | 第15页 |
| 2.2.2 基于机器学习的障碍物检测方法 | 第15-18页 |
| 2.2.3 基于激光雷达的障碍物检测方法 | 第18页 |
| 2.3 距离测量 | 第18-20页 |
| 2.3.1 基于视觉的距离测量 | 第18-19页 |
| 2.3.2 双目视觉测距模型 | 第19页 |
| 2.3.3 基于激光雷达的距离测量 | 第19-20页 |
| 2.4 本章小结 | 第20-21页 |
| 3 激光点云与图像融合 | 第21-35页 |
| 3.1 融合算法流程 | 第21-22页 |
| 3.2 小孔成像模型 | 第22-23页 |
| 3.3 理想模型中坐标系变换 | 第23-24页 |
| 3.4 基于参考对象的后校准 | 第24-27页 |
| 3.4.1 图像直线检测 | 第24-25页 |
| 3.4.2 激光点云直线检测 | 第25-26页 |
| 3.4.3 基于参考对象的后校准 | 第26-27页 |
| 3.5 多帧彩色点云融合 | 第27-29页 |
| 3.5.1 多帧点云融合方法 | 第27-28页 |
| 3.5.2 点云坐标分解 | 第28页 |
| 3.5.3 多帧点云融合 | 第28-29页 |
| 3.6 实验结果与分析 | 第29-34页 |
| 3.6.1 点云与图像融合结果 | 第29-31页 |
| 3.6.2 基于参考对象的后校准结果 | 第31-32页 |
| 3.6.3 多帧彩色点云融合结果 | 第32-34页 |
| 3.7 本章小结 | 第34-35页 |
| 4 基于双目视觉的障碍物测距 | 第35-49页 |
| 4.1 算法框架 | 第35-37页 |
| 4.1.1 对称算法框架 | 第35-36页 |
| 4.1.2 本文非对称算法框架 | 第36-37页 |
| 4.2 右侧图像车辆ROI检测 | 第37-40页 |
| 4.2.1 车道线ROI选取 | 第37-38页 |
| 4.2.2 车道线检测 | 第38-39页 |
| 4.2.3 车辆ROI检测 | 第39-40页 |
| 4.3 左侧图像车辆ROI估计 | 第40-41页 |
| 4.3.1 前一帧距离已知 | 第40-41页 |
| 4.3.2 前一帧距离未知 | 第41页 |
| 4.4 特征点选取与测距 | 第41-42页 |
| 4.4.1 特征点选取 | 第42页 |
| 4.4.2 距离测量 | 第42页 |
| 4.5 实验结果与分析 | 第42-48页 |
| 4.5.1 双目测障系统运行速度测试 | 第43-44页 |
| 4.5.2 特征点选取 | 第44-45页 |
| 4.5.3 距离测量 | 第45-48页 |
| 4.6 本章小结 | 第48-49页 |
| 5 基于数据融合的障碍物测距 | 第49-60页 |
| 5.1 算法流程 | 第49-50页 |
| 5.2 前方车辆ROI点云选取 | 第50-51页 |
| 5.2.1 基于点云与图像映射关系的前方车辆ROI选取 | 第50-51页 |
| 5.2.2 基于先验信息距离D的点云筛选 | 第51页 |
| 5.3 K-means车辆识别与距离计算 | 第51-52页 |
| 5.4 实验结果与分析 | 第52-59页 |
| 5.4.1 前方车辆点云ROI选取结果 | 第53-55页 |
| 5.4.2 前方车辆检测结果 | 第55-57页 |
| 5.4.3 测量距离对比分析 | 第57-59页 |
| 5.5 本章小结 | 第59-60页 |
| 结论 | 第60-62页 |
| 参考文献 | 第62-66页 |
| 攻读硕士学位期间发表学术论文情况 | 第66-67页 |
| 致谢 | 第67-69页 |