首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

大范围场景下视觉/惯性融合的RGB-D视觉里程计研究

摘要第3-5页
abstract第5-7页
第一章 绪论第11-21页
    1.1 研究背景和意义第11-12页
    1.2 选题来源第12-13页
    1.3 研究现状第13-17页
        1.3.1 视觉里程计的基本框架第13-14页
        1.3.2 基于RGB-D相机的视觉里程计研究现状第14-16页
        1.3.3 视觉惯性融合的里程计研究现状第16-17页
    1.4 研究内容第17-19页
    1.5 论文结构第19-21页
第二章 大范围场景中特征点深度信息获取算法第21-33页
    2.1 引言第21页
    2.2 RGB-D相机第21-24页
        2.2.1 RGB-D相机结构第21-22页
        2.2.2 RGB-D相机深度图像成像原理第22-24页
    2.3 相机模型第24-26页
    2.4 特征点深度信息获取算法第26-31页
        2.4.1 深度图像对齐获取深度信息第27-28页
        2.4.2 局部地图投影获取深度信息第28-30页
        2.4.3 三角测量获取深度信息第30-31页
    2.5 本章小结第31-33页
第三章 大范围场景下RGB-D视觉里程计第33-51页
    3.1 引言第33页
    3.2 算法介绍第33-35页
        3.2.1 坐标系及其符号定义第33-34页
        3.2.2 算法流程介绍第34-35页
    3.3 特征追踪第35-42页
        3.3.1 网格法FAST特征提取算法第35-39页
        3.3.2 金字塔LK光流法第39-41页
        3.3.3 特征管理第41-42页
    3.4 特征点深度信息获取第42-45页
        3.4.1 局部地图维护第42-43页
        3.4.2 特征点深度信息获取第43-45页
    3.5 帧到帧运动估计第45-46页
        3.5.1 旋转估计第45-46页
        3.5.2 平移估计第46页
    3.6 局部光束平差优化第46-50页
        3.6.1 光束平差法第47-49页
        3.6.2 局部光束平差法第49-50页
    3.7 本章小结第50-51页
第四章 视觉/惯性融合的RGB-D视觉里程计第51-61页
    4.1 引言第51页
    4.2 算法介绍第51-52页
    4.3 坐标系定义第52-53页
    4.4 EKF算法推导第53-58页
        4.4.1 EKF预测过程第54-57页
        4.4.2 EKF更新过程第57-58页
    4.5 时间同步机制第58页
    4.6 本章小结第58-61页
第五章 实验与分析第61-75页
    5.1 大范围场景下RGB-D视觉里程计实验第61-66页
        5.1.1 数据集实验第62-63页
        5.1.2 实验结果分析第63-66页
    5.2 视觉/惯性融合的RGB-D视觉里程计实验第66-73页
        5.2.1 硬件平台第66-67页
        5.2.2 传感器标定第67-70页
        5.2.3 实际场景实验与分析第70-73页
    5.3 本章小结第73-75页
第六章 总结与展望第75-77页
    6.1 工作总结第75页
    6.2 展望第75-77页
参考文献第77-81页
致谢第81-82页
攻读学位期间发表的学术论文目录第82页

论文共82页,点击 下载论文
上一篇:基于改进模糊支持向量机算法的语音情感识别研究
下一篇:铈基无酶葡萄糖传感器的构建和性能研究