摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第11-29页 |
1.1 课题的研究背景及意义 | 第11-12页 |
1.2 无人车发展现状 | 第12-21页 |
1.2.1 国外无人车发展现状 | 第12-18页 |
1.2.2 我国无人车技术研究现状 | 第18-21页 |
1.4 无人车环境感知系统研究现状 | 第21-27页 |
1.4.1 Boss无人车环境感知系统工作原理 | 第22-23页 |
1.4.2 Junior无人车环境感知系统工作原理 | 第23-24页 |
1.4.3 Talos无人车环境感知系统工作原理 | 第24-26页 |
1.4.4 Google无人车环境感知系统工作原理 | 第26-27页 |
1.5 本文研究意义及主要研究内容 | 第27-29页 |
第二章 无人车环境感知系统传感器标定研究 | 第29-51页 |
2.1 “智能先锋”系列无人车环境感知系统传感器组成 | 第29-36页 |
2.1.1 视觉传感器 | 第31-32页 |
2.1.2 二维激光雷达 | 第32-33页 |
2.1.3 三维激光雷达 | 第33-35页 |
2.1.4 三维激光雷达几何模型 | 第35-36页 |
2.2 传感器标定 | 第36-49页 |
2.2.1 三维激光雷达与车体坐标系联合标定 | 第37-40页 |
2.2.2 视觉传感器标定 | 第40-45页 |
2.2.2.1 线性摄像机模型 | 第40-43页 |
2.2.2.2 非线性摄像机模型 | 第43页 |
2.2.2.3 双目视觉系统结构参数标定 | 第43-45页 |
2.2.3 视觉传感器与激光传感器联合标定 | 第45-49页 |
2.3 本章小结 | 第49-51页 |
第三章 基于逆透视变换空间匹配融合的车道线检测与跟踪算法 | 第51-75页 |
3.1 引言 | 第51-53页 |
3.2 算法具体实现步骤 | 第53-66页 |
3.2.1 算法流程 | 第53-54页 |
3.2.2 图像分割 | 第54-58页 |
3.2.3 逆透视变换 | 第58-60页 |
3.2.4 特征信息匹配融合 | 第60-62页 |
3.2.5 车道线聚类算法 | 第62-63页 |
3.2.6 最小二乘曲线拟合 | 第63-65页 |
3.2.7 车道线跟踪 | 第65-66页 |
3.3 实验及分析 | 第66-73页 |
3.4 本章小结 | 第73-75页 |
第四章 基于三维激光雷达障碍物检测算法研究 | 第75-91页 |
4.1 引言 | 第75-76页 |
4.2 相关研究介绍 | 第76-80页 |
4.2.1 基于栅格地图最大最小高度差的障碍物检测方法 | 第77-79页 |
4.2.2 基于三维点云数据分割的障碍物检测方法 | 第79-80页 |
4.3 基于四维空间滤波的三维激光雷达障碍物检测算法 | 第80-85页 |
4.3.1 基于三维激光雷达空间邻域分析 | 第80-82页 |
4.3.2 基于四维空间的障碍物滤波算法 | 第82-85页 |
4.4 实验及分析 | 第85-90页 |
4.5 本章小结 | 第90-91页 |
第五章 基于三维激光雷达道路边界检测算法研究 | 第91-113页 |
5.1 引言 | 第91-94页 |
5.2 相关研究介绍 | 第94-96页 |
5.3 基于B样条模型的三维激光雷达道路边界实时检测算法 | 第96-104页 |
5.3.1 特征点提取 | 第96-98页 |
5.3.2 自适应圆形搜索算法 | 第98-100页 |
5.3.3 FCM聚类 | 第100-102页 |
5.3.4 B样条曲线拟合 | 第102-104页 |
5.4 实验及分析 | 第104-110页 |
5.5 本章小结 | 第110-113页 |
第六章 结论 | 第113-115页 |
参考文献 | 第115-123页 |
致谢 | 第123-125页 |
在读期间发表的学术论文与参与的相关项目 | 第125页 |