首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于时空一致性的相机位置与朝向的估计算法

摘要第4-5页
ABSTRACT第5页
第一章 绪论第9-14页
    1.1 研究背景与意义第9-10页
    1.2 相关工作第10-13页
    1.3 章节结构第13-14页
第二章 视觉SLAM基础理论第14-20页
    2.1 相机模型第14-15页
    2.2 坐标系变换第15页
    2.3 双目相机模型第15-16页
    2.4 位姿估计第16-17页
    2.5 图优化第17-19页
    2.6 小结第19-20页
第三章 基于时间一致性的双目视觉里程计估计算法第20-38页
    3.1 系统结构第20-21页
    3.2 参考帧的选择第21-22页
    3.3 特征点选择策略第22-23页
    3.4 特征点匹配策略第23-24页
        3.4.1 特征点的提取第23页
        3.4.2 特征点的匹配第23-24页
    3.5 运动估计第24-27页
        3.5.1 旋转矩阵的估计第24-26页
        3.5.2 平移的估计第26-27页
    3.6 实验结果第27-36页
        3.6.1 方法比较第27-31页
        3.6.2 误差分析第31-35页
        3.6.3 本章方法与StereoScan方法的对比第35-36页
    3.7 小结第36-38页
第四章 基于时空一致性的单目相机定位与地图重建算法第38-55页
    4.1 稳定特征点概述第38-39页
    4.2 系统概述第39页
    4.3 特征点的描述和选择第39-41页
        4.3.1 替换描述子第40页
        4.3.2 时间一致性的特征点选择第40-41页
    4.4 选择可靠的关键帧第41-42页
    4.5 生成稳定的三维点云第42页
    4.6 局部优化第42-43页
    4.7 闭环控制第43-45页
        4.7.1 词袋模型第43-44页
        4.7.2 图像相似性计算第44页
        4.7.3 闭环矫正第44-45页
    4.8 实验结果与分析第45-54页
        4.8.1 KITTI数据集评估算法精确性第46-50页
        4.8.2 TUM RGB-D数据集评估算法精确性第50-54页
    4.9 真实场景数据第54页
    4.10 小结第54-55页
第五章 总结与展望第55-58页
    5.1 总结第55页
    5.2 展望第55-58页
        5.2.1 视觉与IMU的融合第56页
        5.2.2 直接法与半直接法第56页
        5.2.3 线特征的SLAM第56页
        5.2.4 语义SLAM第56-58页
参考文献第58-64页
在学期间的研究成果第64-65页
致谢第65页

论文共65页,点击 下载论文
上一篇:基于深度学习的不良图片过滤技术研究
下一篇:基于深度学习的文本分类技术的研究