摘要 | 第9-10页 |
ABSTRACT | 第10页 |
第一章 绪论 | 第12-24页 |
1.1 课题背景研究及意义 | 第12-19页 |
1.1.1 自主车的发展历程 | 第12-15页 |
1.1.2 国内自主车研究现状 | 第15-19页 |
1.2 车载传感器融合技术的现状 | 第19-20页 |
1.3 动态目标跟踪的技术现状 | 第20-21页 |
1.4 论文的主要内容和贡献 | 第21-24页 |
1.4.1 论文的主要内容和结构 | 第21-22页 |
1.4.2 论文的主要贡献 | 第22-24页 |
第二章 实验平台及车载传感器标定 | 第24-33页 |
2.1 车载传感器的配置介绍 | 第24-25页 |
2.2 自主车传感器坐标系及变换关系 | 第25-29页 |
2.3 多线激光雷达与相机标定算法 | 第29-30页 |
2.4 实验及结果 | 第30-32页 |
2.5 本章小结 | 第32-33页 |
第三章 车载多传感器的数据处理与融合分析 | 第33-48页 |
3.1 车载激光雷达的单帧帧内补偿 | 第33-37页 |
3.1.1 车载激光雷达的帧内补偿问题描述 | 第33-34页 |
3.1.2 激光雷达在图像平面的平移及旋转补偿 | 第34-37页 |
3.2 车载雷达与图像在信息融合下的深度图像 | 第37-44页 |
3.2.1 图像与雷达的信息融合与深度致密图方法分析 | 第37-39页 |
3.2.2 基于双边滤波加权的致密深度图生成 | 第39-44页 |
3.3 实验现象对比及分析 | 第44-46页 |
3.4 本章小结 | 第46-48页 |
第四章 基于场景流的动态目标检测与跟踪 | 第48-65页 |
4.1 RGB-D图像上特征点的选取与匹配 | 第48-54页 |
4.1.1 RGB图像上特征点的选取 | 第48-50页 |
4.1.2 特征点的匹配 | 第50-51页 |
4.1.3 二维RGB图像上的特征点优化处理 | 第51-54页 |
4.2 动态特征点的提取及图像Delaunay三角剖分处理 | 第54-59页 |
4.2.1 动态特征点的提取过程 | 第54-55页 |
4.2.2 RGB图像与致密深度图Delaunay三角剖分处理 | 第55-59页 |
4.3 融合致密深度图的场景流及目标检测与跟踪 | 第59-61页 |
4.4 实验结果及分析 | 第61-63页 |
4.5 本章小结 | 第63-65页 |
第五章 总结与展望 | 第65-67页 |
5.1 本文工作总结 | 第65-66页 |
5.2 未来工作的展望 | 第66-67页 |
致谢 | 第67-68页 |
参考文献 | 第68-72页 |
作者在学期间取得的学术成果 | 第72页 |