首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于视觉多传感器融合的室内移动机器人定位技术研究

致谢第4-5页
摘要第5-6页
ABSTRACT第6页
1 绪论第11-22页
    1.1 研究背景及意义第11-12页
    1.2 国内外研究现状第12-20页
        1.2.1 室内定位技术的发展现状第12-13页
        1.2.2 视觉SLAM的发展现状第13-17页
        1.2.3 视觉多传感器融合SLAM的发展现状第17-20页
    1.3 基于视觉SLAM的机器人室内定位技术核心问题分析第20页
    1.4 本文的组织架构第20-22页
2 双目视觉信息处理第22-41页
    2.1 引言第22页
    2.2 相机模型建立第22-25页
        2.2.1 相机投影模型建立第22-24页
        2.2.2 双目相机测距模型建立第24-25页
        2.2.3 相机畸变模型建立第25页
    2.3 特征点检测与描述第25-29页
        2.3.1 FAST关键点检测第26-27页
        2.3.2 BRIEF特征描述子第27页
        2.3.3 ORB特征第27-29页
    2.4 双目位姿解算第29-34页
        2.4.1 李群李代数的位姿表示方法第29-32页
        2.4.2 双目特征点匹配第32-33页
        2.4.3 基于RANSAC EPnP的位姿求解第33-34页
    2.5 回环检测及矫正第34-39页
        2.5.1 图优化第34-35页
        2.5.2 词袋库模型第35-37页
        2.5.3 回环检测第37页
        2.5.4 回环矫正第37-39页
    2.6 双目相机标定实验第39-40页
    2.7 本章总结第40-41页
3 融合里程计和IMU算法研究第41-57页
    3.1 引言第41页
    3.2 里程计模型建立第41-48页
        3.2.1 机器人运动学模型分析第42-44页
        3.2.2 里程计误差分析第44-45页
        3.2.3 里程计误差标定实验第45-48页
    3.3 IMU数据处理第48-55页
        3.3.1 IMU数据校准实验第49-52页
        3.3.2 基于EKF融合陀螺仪与加速度计第52-55页
    3.4 里程计与IMU数据融合第55-56页
    3.5 本章小结第56-57页
4 基于图优化的多传感器融合算法研究第57-70页
    4.1 引言第57页
    4.2 系统框架搭建第57-58页
    4.3 前端追踪模块搭建第58-59页
    4.4 后端优化第59-69页
        4.4.1 基于双目视觉的特征地图优化第59-64页
        4.4.2 基于融合后里程计的位姿图优化第64-68页
        4.4.3 基于全局平面约束的位姿图优化第68-69页
    4.5 本章小结第69-70页
5 实验与结果分析第70-80页
    5.1 引言第70页
    5.2 实验系统搭建第70-71页
    5.3 定位精度实验与结果分析第71-75页
        5.3.1 融合里程计定位精度实验第72-73页
        5.3.2 多传感器融合定位精度实验第73-75页
    5.4 定位鲁棒性实验与结果分析第75-79页
        5.4.1 动态干扰定位实验第75-77页
        5.4.2 光照明暗干扰定位实验第77页
        5.4.3 纹理缺失环境下的定位实验第77-79页
    5.5 本章小结第79-80页
6 总结与展望第80-82页
    6.1 总结第80页
    6.2 展望第80-82页
参考文献第82-85页

论文共85页,点击 下载论文
上一篇:基于Voronoi图的3D打印轻量化结构设计及其应用研究
下一篇:三维打印云工厂设计与任务调度研究