首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文--自动推理、机器学习论文

基于深度学习的车辆行驶三维环境双目感知方法研究

摘要第3-4页
ABSTRACT第4-5页
1 绪论第8-17页
    1.1 研究背景及意义第8-10页
    1.2 国内外智能车道路环境感知研究概述第10-15页
        1.2.1 国外智能车道路环境感知研究发展现状第10-13页
        1.2.2 国内智能车道路环境感知研究发展现状第13-15页
    1.3 研究内容和技术路线第15-17页
        1.3.1 研究内容第15-16页
        1.3.2 技术路线第16-17页
2 深度学习理论基础第17-29页
    2.1 深度学习概述第17-20页
        2.1.1 深度学习的概念第17-18页
        2.1.2 深度学习基本模型分类第18-20页
    2.2 卷积神经网络的相关理论第20-28页
        2.2.1 卷积神经网络的基本结构第20-22页
        2.2.2 卷积神经网络的主要特点第22-24页
        2.2.3 前向传播和反向传播算法第24-28页
    2.3 本章小结第28-29页
3 基于全卷积神经网络的道路环境图像分割第29-40页
    3.1 全卷积神经网络第29-33页
        3.1.1 全卷积神经网络的基本原理第29-30页
        3.1.2 全连接层卷积化第30-32页
        3.1.3 反卷积第32-33页
    3.2 道路环境数据集获取第33-36页
        3.2.1 检索并下载公共数据集第33-34页
        3.2.2 手工标注数据集第34-36页
    3.3 数据增强处理第36页
        3.3.1 降采样第36页
        3.3.2 随机裁切第36页
        3.3.3 图像旋转第36页
    3.4 道路环境图像分割实验结果分析第36-39页
        3.4.1 评价指标第36-37页
        3.4.2 运行环境第37页
        3.4.3 实验过程及结果第37-39页
    3.5 本章小结第39-40页
4 基于双摄像机结构光扫描的三维重建第40-48页
    4.1 双摄像机结构光测量原理及系统第40-42页
        4.1.1 双摄像机结构光深度测量原理第40-41页
        4.1.2 双摄像机结构光测量系统第41-42页
    4.2 结构光数字条纹投影第42-43页
    4.3 三维重建流程第43-47页
        4.3.1 双摄像机结构光系统标定第43-46页
        4.3.2 立体匹配第46-47页
        4.3.3 三维重建第47页
    4.4 本章小结第47-48页
5 道路环境目标的三维重建实验及分析第48-58页
    5.1 车载双摄像机结构光测量模拟实验系统第48-50页
        5.1.1 硬件组成第48-50页
        5.1.2 软件流程第50页
    5.2 摄像头标定过程及结果第50-54页
        5.2.1 标定过程第50-51页
        5.2.2 标定结果第51-54页
    5.3 环境目标重建效果第54-57页
    5.4 本章小结第57-58页
6 结论与展望第58-60页
    6.1 结论第58页
    6.2 展望第58-60页
致谢第60-61页
参考文献第61-65页
附录第65页

论文共65页,点击 下载论文
上一篇:基于多模态深度神经网络的深度恢复
下一篇:基于深度学习理论的行人检测研究