首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

双目视觉下的SLAM三维场景建图及物体识别研究

中文摘要第3-4页
英文摘要第4-5页
1 绪论第8-16页
    1.1 课题研究背景及意义第8-10页
    1.2 国内外研究现状第10-14页
        1.2.1 视觉SLAM的研究进展第10-12页
        1.2.2 实时三维重建研究进展第12-14页
    1.3 本文研究内容及难点第14-15页
    1.4 本文的章节安排第15-16页
2 视觉SLAM的基本原理和方法第16-32页
    2.1 基于视觉的SLAM实现原理第16-21页
        2.1.1 SLAM问题的数学描述第17-19页
        2.1.2 视觉SLAM的分类第19-21页
    2.2 视觉SLAM的总体框架第21-28页
        2.2.1 视觉里程计第22-24页
        2.2.2 后端优化第24-26页
        2.2.3 回环检测第26-28页
    2.3 场景建图第28-30页
    2.4 本章小结第30-32页
3 双目视觉SLAM及场景建图第32-60页
    3.1 ZED双目视觉传感器第32-35页
    3.2 相机标定与立体匹配第35-48页
        3.2.1 双目相机标定第35-40页
        3.2.2 立体匹配算法第40-42页
        3.2.3 深度信息提取第42-48页
    3.3 双目实时三维重建算法第48-55页
        3.3.1 实时重建中的ICP算法第50-53页
        3.3.2 基于RandomizedFerns的回环检测第53-54页
        3.3.3 基于Surfel模型的重建表达第54-55页
    3.4 实验结果第55-58页
        3.4.1 单视图点云第55-56页
        3.4.2 室内场景全局地图第56-58页
    3.5 本章小结第58-60页
4 三维场景物体识别第60-76页
    4.1 常用模式识别方法第60-63页
        4.1.1 支持向量机第60-61页
        4.1.2 人工神经网络第61-63页
    4.2 三维数据的特征学习方法第63-66页
    4.3 基于深度学习的点云物体识别第66-68页
    4.4 实验结果与分析第68-74页
        4.4.1 数据准备第68-69页
        4.4.2 实验环境第69页
        4.4.3 实验结果第69-74页
    4.5 本章小结第74-76页
5 总结与展望第76-78页
    5.1 主要工作与结论第76页
    5.2 展望第76-78页
致谢第78-80页
参考文献第80-85页

论文共85页,点击 下载论文
上一篇:基于RFID电子车牌数据的城市热点区域发现
下一篇:三维CT系统X射线源焦点漂移校正方法