首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

激光视觉融合的机器人即时定位建图研究

摘要第4-5页
abstract第5页
第1章 引言第10-18页
    1.1 研究背景和意义第10-11页
    1.2 研究现状第11-14页
    1.3 主要内容第14页
    1.4 本文的贡献第14-15页
    1.5 论文的组织第15-18页
第2章 系统建模第18-24页
    2.1 系统运动学模型第18-19页
    2.2 二维激光雷达模型第19-20页
    2.3 RGB-D相机模型和图像对齐第20-24页
        2.3.1 相机模型第20-21页
        2.3.2 图像对齐第21-24页
第3章 基于特征提取的RGB-D同时定位建图第24-34页
    3.1 特征点检测与匹配算法第24-28页
        3.1.1 特征选择第24-26页
        3.1.2 特征点的匹配第26-28页
    3.2 运动估计第28-31页
    3.3 八叉树地图表示第31-33页
    3.4 本章小结第33-34页
第4章 激光雷达同时定位建图技术第34-40页
    4.1 环境模型第34页
    4.2 ICP算法第34-36页
        4.2.1 算法主要思想第35-36页
        4.2.2 点对关系的建立第36页
    4.3 基于概率模型的相关性匹配第36-38页
        4.3.1 模型的概率表示第37-38页
        4.3.2 扫描帧之间相关系数的求取第38页
    4.4 方案的选择第38-39页
    4.5 本章小结第39-40页
第5章 后端姿态优化第40-48页
    5.1 后端概述第40页
    5.2 姿态图的构建第40-42页
    5.3 姿态图的优化第42-46页
        5.3.1 梯度下降法和高斯牛顿法第42-43页
        5.3.2 L-M优化算法第43-44页
        5.3.3 SLAM中的雅克比表示第44-46页
    5.4 本章小结第46-48页
第6章 视觉与激光融合的同时定位建图第48-56页
    6.1 方案分析第48-51页
        6.1.1 传感器分析第48-49页
        6.1.2 基于稀疏特征点的RGB-DSLAM局限性第49-50页
        6.1.3 ORB-SLAM2定位策略局限性第50-51页
    6.2 融合方案设计第51-52页
    6.3 扩展卡尔曼滤波姿态融合第52-54页
    6.4 本章小结第54-56页
第7章 实验设计和分析第56-62页
    7.1 硬件和软件平台第56-57页
    7.2 RGB-D相机标定实验第57-58页
    7.3 激光建图实验第58-59页
    7.4 视觉激光融合定位建图实验第59-62页
        7.4.1 实验结果第59-61页
        7.4.2 误差分析第61-62页
第8章 结束语第62-64页
参考文献第64-68页
致谢第68-70页
作者简历及攻读学位期间发表的学术论文与研究成果第70页

论文共70页,点击 下载论文
上一篇:基于6LoWPAN的大型公共建筑能耗数据采集系统的研究
下一篇:自适应动态网络的智能家居视频监控系统研究与开发