首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于多目视觉与惯导融合的SLAM方法研究

摘要第5-7页
abstract第7-8页
第1章 绪论第13-25页
    1.1 研究背景及意义第13-14页
    1.2 视觉SLAM的研究现状第14-23页
        1.2.1 视觉SLAM研究现状第14-18页
        1.2.2 基于多目的视觉SLAM研究现状第18-20页
        1.2.3 基于视觉与惯导融合的SLAM研究现状第20-23页
    1.3 本论文的研究内容及结构安排第23-25页
第2章 多目视觉惯导模型构建及同步标定方法研究第25-51页
    2.1 多目视觉惯导模型构建第25-30页
        2.1.1 经典的共线方程第25-26页
        2.1.2 基于泰勒多项式的单相机模型及其对共线方程的扩展第26-29页
        2.1.3 多目视觉惯导模型第29-30页
    2.2 多目视觉惯导实验平台搭建第30-33页
        2.2.1 视觉传感单元选型第30-32页
        2.2.2 惯性测量单元选型第32-33页
    2.3 多传感器同步方法研究第33-37页
        2.3.1 基于硬件同步触发线的多传感器同步第35-37页
    2.4 多传感器标定方法第37-49页
        2.4.1 基于特征描述的单相机标定第37-40页
        2.4.2 改进的基于建图法的多相机系统标定第40-42页
        2.4.3 相机-IMU外参在线自标定第42-49页
    2.5 本章小结第49-51页
第3章 多目视觉与惯导紧耦合的SLAM方法第51-87页
    3.1 基于多目视觉与惯导融合的SLAM的状态估计问题第51-56页
        3.1.1 SLAM状态估计问题描述第51-52页
        3.1.2 非线性优化求解SLAM状态估计问题的原理第52-54页
        3.1.3 一种紧耦合的多关键帧的视觉惯导非线性SLAM状态估计第54-56页
    3.2 基于多目视觉与惯导融合的SLAM的具体实现第56-70页
        3.2.1 基于多目视觉与惯导融合的初始化方法第56-62页
        3.2.2 基于多目视觉与惯导融合的里程计方法第62-66页
        3.2.3 基于多目视觉与惯导融合的稠密建图方法第66-70页
    3.3 实验研究与分析第70-85页
        3.3.1 自建多目视觉惯导数据集第70-71页
        3.3.2 多目视觉惯导里程计性能验证实验第71-83页
        3.3.3 基于多目视觉惯导融合的稠密建图验证实验第83-85页
    3.4 本章小结第85-87页
第4章 基于多目视觉与惯导融合的SLAM的CUDA并行加速算法第87-107页
    4.1 多目视觉惯导SLAM并行加速第87-92页
        4.1.1 多目视觉惯导SLAM算法效率问题第87页
        4.1.2 并行计算与CUDA实现原理第87-92页
    4.2 基于CUDA的多目视觉惯导SLAM并行加速算法第92-100页
        4.2.1 图像预处理第92-95页
        4.2.2 特征提取并行化第95-98页
        4.2.3 特征匹配并行化第98-99页
        4.2.4 多线程并行化第99-100页
    4.3 实验研究与分析第100-106页
        4.3.1 特征提取算法实验第101-102页
        4.3.2 特征匹配算法实验第102-103页
        4.3.3 多线程并行化算法实验第103-106页
    4.4 本章小结第106-107页
第5章 总结与展望第107-109页
    5.1 本文工作总结第107-108页
    5.2 进一步工作展望第108-109页
参考文献第109-119页
致谢第119-121页
在读期间发表的学术论文与取得的其他成果第121页

论文共121页,点击 下载论文
上一篇:中波红外传能光纤耦合传输关键技术研究
下一篇:基于深度卷积神经网络的光学遥感目标检测技术研究