面向无人车的多目融合感知研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第13-19页 |
1.1 课题来源 | 第13页 |
1.2 课题研究背景和意义 | 第13-14页 |
1.3 多目融合感知的主要挑战 | 第14页 |
1.4 国内外研究现状 | 第14-17页 |
1.4.1 国外研究现状 | 第15-16页 |
1.4.2 国内研究现状 | 第16-17页 |
1.5 本文主要工作 | 第17-18页 |
1.6 本文的结构 | 第18-19页 |
第2章 多目融合流程与车载摄像机标定 | 第19-30页 |
2.1 多目融合基本流程 | 第19页 |
2.2 视频帧采集与预处理 | 第19-20页 |
2.3 摄像机标定基础 | 第20-24页 |
2.3.1 参考坐标系建立 | 第20-21页 |
2.3.2 摄像机线性模型的标定 | 第21-24页 |
2.3.3 摄像机非线性模型的标定 | 第24页 |
2.4 视频帧配准技术 | 第24-27页 |
2.4.1 基于变换域的配准方法 | 第25页 |
2.4.2 基于灰度信息的配准方法 | 第25-26页 |
2.4.3 基于特征的配准方法 | 第26-27页 |
2.5 视频帧融合技术 | 第27-29页 |
2.5.1 平均值融合方法 | 第27-28页 |
2.5.2 梯度域融合方法 | 第28页 |
2.5.3 多频带融合方法 | 第28-29页 |
2.6 小结 | 第29-30页 |
第3章 基于KAZE非线性尺度空间的多目融合算法 | 第30-39页 |
3.1 KAZE特征提取 | 第30-33页 |
3.1.1 非线性尺度空间的构建 | 第30-31页 |
3.1.2 KAZE特征点检测 | 第31-33页 |
3.2 Gauge-SURF特征向量描述 | 第33-36页 |
3.2.1 特征点主方向确定 | 第33页 |
3.2.2 构造特征描述向量 | 第33-36页 |
3.3 特征匹配 | 第36-38页 |
3.3.1 FLANN快速近似近邻搜索 | 第36页 |
3.3.2 RANSAC精确匹配 | 第36-38页 |
3.4 帽子函数加权平均融合 | 第38页 |
3.5 小结 | 第38-39页 |
第4章 车载环境下的双目标定和距离感知 | 第39-51页 |
4.1 车载多目摄像机定位和布局 | 第39-43页 |
4.1.1 车载摄像机的定位 | 第39-41页 |
4.1.2 车载摄像机的布局 | 第41-43页 |
4.2 移动车载环境下的距离感知 | 第43-45页 |
4.3 车载双目摄像机标定 | 第45-48页 |
4.4 双目校正 | 第48-50页 |
4.5 小结 | 第50-51页 |
第5章 实验结果与分析 | 第51-67页 |
5.1 双目标定和距离感知实验 | 第51-56页 |
5.1.1 车载双目摄像机标定及分析 | 第51-54页 |
5.1.2 双目测距实验及分析 | 第54-56页 |
5.2 多目融合实验 | 第56-65页 |
5.2.1 KAZE特征点提取与分析 | 第56-59页 |
5.2.2 KAZE特征点匹配与分析 | 第59-63页 |
5.2.3 视频帧融合实验 | 第63-65页 |
5.3 小结 | 第65-67页 |
结论 | 第67-69页 |
参考文献 | 第69-73页 |
致谢 | 第73-74页 |
附录A 攻读学位期间所发表的学术论文 | 第74-75页 |
附录B 攻读硕士期间参与的项目列表 | 第75页 |