文中符号及缩写说明 | 第11-12页 |
摘要 | 第12-13页 |
Abstract | 第13-14页 |
第一章 绪论 | 第15-25页 |
1.1 课题的研究背景与意义 | 第15-17页 |
1.1.1 研究背景:自主车与汽车主动安全系统 | 第15-16页 |
1.1.2 研究意义:实用化、产业化之路 | 第16-17页 |
1.2 车载传感器标定技术的研究现状 | 第17-20页 |
1.2.1 车载摄像机相对车体的外参数标定技术 | 第17-19页 |
1.2.2 车载摄像机与三维激光雷达间的外参数标定技术 | 第19-20页 |
1.3 基于信息融合的深度图像恢复技术的研究现状 | 第20-21页 |
1.4 路边检测的研究现状 | 第21-22页 |
1.5 论文的主要工作与贡献 | 第22-25页 |
第二章 车载传感器标定技术 | 第25-77页 |
2.1 车载摄像机外参数三线标定法 | 第27-43页 |
2.1.1 概述 | 第27-29页 |
2.1.2 坐标系与参数定义 | 第29-31页 |
2.1.3 信息预处理 | 第31-34页 |
2.1.4 三线标定法 | 第34-35页 |
2.1.5 实验结果与分析 | 第35-43页 |
2.2 车载摄像机外参数自动标定法 | 第43-59页 |
2.2.1 概述 | 第43-45页 |
2.2.2 输入信息及坐标系定义 | 第45-47页 |
2.2.3 输入信息预处理 | 第47-49页 |
2.2.4 车载摄像机标定的约束 | 第49-52页 |
2.2.5 车载摄像机外参数求解 | 第52-55页 |
2.2.6 实验结果与分析 | 第55-59页 |
2.3 车载摄像机与三维激光雷达外参数自动标定法 | 第59-75页 |
2.3.1 概述 | 第59-60页 |
2.3.2 输入信息及坐标系定义 | 第60-62页 |
2.3.3 输入信息预处理 | 第62-64页 |
2.3.4 车载摄像机与三维激光雷达标定的约束 | 第64-67页 |
2.3.5 车载摄像机与三维激光雷达外参数求解 | 第67-69页 |
2.3.6 实验结果与分析 | 第69-75页 |
2.4 本章小节 | 第75-77页 |
第三章 基于信息融合的动态场景深度图像恢复 | 第77-93页 |
3.1 基于采样滤波的动态场景深度图像恢复 | 第78-87页 |
3.1.1 基于滤波的深度图像恢复思路 | 第78-80页 |
3.1.2 投影坐标与特征空间 | 第80-81页 |
3.1.3 基于采样滤波的深度图像恢复 | 第81-82页 |
3.1.4 实验结果与分析 | 第82-87页 |
3.2 基于优化的动态场景深度图像恢复 | 第87-92页 |
3.2.1 深度投影图 | 第87-88页 |
3.2.2 动态场景深度图像恢复的优化框架 | 第88-90页 |
3.2.3 实验结果与分析 | 第90-92页 |
3.3 本章小节 | 第92-93页 |
第四章 基于信息融合的环境感知技术 | 第93-123页 |
4.1 基于信息融合的深度场模型 | 第93-101页 |
4.1.1 深度场模型的构建 | 第94-96页 |
4.1.2 基于深度场模型的快速法向算法 | 第96-98页 |
4.1.3 基于深度场模型的快速地面分割算法 | 第98-99页 |
4.1.4 基于深度场模型的快速障碍分割算法 | 第99-100页 |
4.1.5 深度场的简单讨论 | 第100-101页 |
4.2 基于深度场的鲁棒路边检测算法 | 第101-122页 |
4.2.1 深度图像恢复对路边检测的意义 | 第103-104页 |
4.2.2 基于深度场的路边点特征检测 | 第104-107页 |
4.2.3 基于动态规划的最优路边连结算法 | 第107-109页 |
4.2.4 路边检测的后处理 | 第109-112页 |
4.2.5 实验结果与分析 | 第112-122页 |
4.3 本章小节 | 第122-123页 |
第五章 结论与展望 | 第123-125页 |
5.1 论文工作总结 | 第123-124页 |
5.2 进一步研究的展望 | 第124-125页 |
致谢 | 第125-126页 |
参考文献 | 第126-136页 |
作者在学期间取得的学术成果 | 第136-137页 |