基于深度学习的车辆行驶三维环境双目感知方法研究
摘要 | 第3-4页 |
ABSTRACT | 第4-5页 |
1 绪论 | 第8-17页 |
1.1 研究背景及意义 | 第8-10页 |
1.2 国内外智能车道路环境感知研究概述 | 第10-15页 |
1.2.1 国外智能车道路环境感知研究发展现状 | 第10-13页 |
1.2.2 国内智能车道路环境感知研究发展现状 | 第13-15页 |
1.3 研究内容和技术路线 | 第15-17页 |
1.3.1 研究内容 | 第15-16页 |
1.3.2 技术路线 | 第16-17页 |
2 深度学习理论基础 | 第17-29页 |
2.1 深度学习概述 | 第17-20页 |
2.1.1 深度学习的概念 | 第17-18页 |
2.1.2 深度学习基本模型分类 | 第18-20页 |
2.2 卷积神经网络的相关理论 | 第20-28页 |
2.2.1 卷积神经网络的基本结构 | 第20-22页 |
2.2.2 卷积神经网络的主要特点 | 第22-24页 |
2.2.3 前向传播和反向传播算法 | 第24-28页 |
2.3 本章小结 | 第28-29页 |
3 基于全卷积神经网络的道路环境图像分割 | 第29-40页 |
3.1 全卷积神经网络 | 第29-33页 |
3.1.1 全卷积神经网络的基本原理 | 第29-30页 |
3.1.2 全连接层卷积化 | 第30-32页 |
3.1.3 反卷积 | 第32-33页 |
3.2 道路环境数据集获取 | 第33-36页 |
3.2.1 检索并下载公共数据集 | 第33-34页 |
3.2.2 手工标注数据集 | 第34-36页 |
3.3 数据增强处理 | 第36页 |
3.3.1 降采样 | 第36页 |
3.3.2 随机裁切 | 第36页 |
3.3.3 图像旋转 | 第36页 |
3.4 道路环境图像分割实验结果分析 | 第36-39页 |
3.4.1 评价指标 | 第36-37页 |
3.4.2 运行环境 | 第37页 |
3.4.3 实验过程及结果 | 第37-39页 |
3.5 本章小结 | 第39-40页 |
4 基于双摄像机结构光扫描的三维重建 | 第40-48页 |
4.1 双摄像机结构光测量原理及系统 | 第40-42页 |
4.1.1 双摄像机结构光深度测量原理 | 第40-41页 |
4.1.2 双摄像机结构光测量系统 | 第41-42页 |
4.2 结构光数字条纹投影 | 第42-43页 |
4.3 三维重建流程 | 第43-47页 |
4.3.1 双摄像机结构光系统标定 | 第43-46页 |
4.3.2 立体匹配 | 第46-47页 |
4.3.3 三维重建 | 第47页 |
4.4 本章小结 | 第47-48页 |
5 道路环境目标的三维重建实验及分析 | 第48-58页 |
5.1 车载双摄像机结构光测量模拟实验系统 | 第48-50页 |
5.1.1 硬件组成 | 第48-50页 |
5.1.2 软件流程 | 第50页 |
5.2 摄像头标定过程及结果 | 第50-54页 |
5.2.1 标定过程 | 第50-51页 |
5.2.2 标定结果 | 第51-54页 |
5.3 环境目标重建效果 | 第54-57页 |
5.4 本章小结 | 第57-58页 |
6 结论与展望 | 第58-60页 |
6.1 结论 | 第58页 |
6.2 展望 | 第58-60页 |
致谢 | 第60-61页 |
参考文献 | 第61-65页 |
附录 | 第65页 |