摘要 | 第2-3页 |
Abstract | 第3-4页 |
1 绪论 | 第8-14页 |
1.1 研究背景与意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-10页 |
1.2.1 国外研究现状 | 第9-10页 |
1.2.2 国内研究现状 | 第10页 |
1.3 无人车关键技术与发展趋势 | 第10-12页 |
1.3.1 环境感知技术 | 第11页 |
1.3.2 数据融合技术 | 第11-12页 |
1.3.3 无人车发展趋势 | 第12页 |
1.4 本文研究内容与结构安排 | 第12-14页 |
2 实验平台与背景知识 | 第14-21页 |
2.1 实验平台 | 第14-15页 |
2.2 障碍物检测 | 第15-18页 |
2.2.1 基于特征的障碍物检测方法 | 第15页 |
2.2.2 基于机器学习的障碍物检测方法 | 第15-18页 |
2.2.3 基于激光雷达的障碍物检测方法 | 第18页 |
2.3 距离测量 | 第18-20页 |
2.3.1 基于视觉的距离测量 | 第18-19页 |
2.3.2 双目视觉测距模型 | 第19页 |
2.3.3 基于激光雷达的距离测量 | 第19-20页 |
2.4 本章小结 | 第20-21页 |
3 激光点云与图像融合 | 第21-35页 |
3.1 融合算法流程 | 第21-22页 |
3.2 小孔成像模型 | 第22-23页 |
3.3 理想模型中坐标系变换 | 第23-24页 |
3.4 基于参考对象的后校准 | 第24-27页 |
3.4.1 图像直线检测 | 第24-25页 |
3.4.2 激光点云直线检测 | 第25-26页 |
3.4.3 基于参考对象的后校准 | 第26-27页 |
3.5 多帧彩色点云融合 | 第27-29页 |
3.5.1 多帧点云融合方法 | 第27-28页 |
3.5.2 点云坐标分解 | 第28页 |
3.5.3 多帧点云融合 | 第28-29页 |
3.6 实验结果与分析 | 第29-34页 |
3.6.1 点云与图像融合结果 | 第29-31页 |
3.6.2 基于参考对象的后校准结果 | 第31-32页 |
3.6.3 多帧彩色点云融合结果 | 第32-34页 |
3.7 本章小结 | 第34-35页 |
4 基于双目视觉的障碍物测距 | 第35-49页 |
4.1 算法框架 | 第35-37页 |
4.1.1 对称算法框架 | 第35-36页 |
4.1.2 本文非对称算法框架 | 第36-37页 |
4.2 右侧图像车辆ROI检测 | 第37-40页 |
4.2.1 车道线ROI选取 | 第37-38页 |
4.2.2 车道线检测 | 第38-39页 |
4.2.3 车辆ROI检测 | 第39-40页 |
4.3 左侧图像车辆ROI估计 | 第40-41页 |
4.3.1 前一帧距离已知 | 第40-41页 |
4.3.2 前一帧距离未知 | 第41页 |
4.4 特征点选取与测距 | 第41-42页 |
4.4.1 特征点选取 | 第42页 |
4.4.2 距离测量 | 第42页 |
4.5 实验结果与分析 | 第42-48页 |
4.5.1 双目测障系统运行速度测试 | 第43-44页 |
4.5.2 特征点选取 | 第44-45页 |
4.5.3 距离测量 | 第45-48页 |
4.6 本章小结 | 第48-49页 |
5 基于数据融合的障碍物测距 | 第49-60页 |
5.1 算法流程 | 第49-50页 |
5.2 前方车辆ROI点云选取 | 第50-51页 |
5.2.1 基于点云与图像映射关系的前方车辆ROI选取 | 第50-51页 |
5.2.2 基于先验信息距离D的点云筛选 | 第51页 |
5.3 K-means车辆识别与距离计算 | 第51-52页 |
5.4 实验结果与分析 | 第52-59页 |
5.4.1 前方车辆点云ROI选取结果 | 第53-55页 |
5.4.2 前方车辆检测结果 | 第55-57页 |
5.4.3 测量距离对比分析 | 第57-59页 |
5.5 本章小结 | 第59-60页 |
结论 | 第60-62页 |
参考文献 | 第62-66页 |
攻读硕士学位期间发表学术论文情况 | 第66-67页 |
致谢 | 第67-69页 |