首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于环境特征识别的移动机器人室内复合导航研究

摘要第4-5页
ABSTRACT第5页
第1章 绪论第9-15页
    1.1 研究背景及意义第9-10页
    1.2 国内外研究现状第10-13页
    1.3 论文各章节安排第13-15页
第2章 移动机器人惯性导航系统的定位技术第15-28页
    2.1 惯性测量导航基础第15-18页
        2.1.1 惯性导航原理第15-16页
        2.1.2 旋转表征方法第16-18页
    2.2 惯性测量数值更新算法第18-21页
        2.2.1 速度更新算法第18-19页
        2.2.2 位置更新算法第19页
        2.2.3 姿态更新算法第19-21页
    2.3 实验分析第21-27页
    2.4 本章小结第27-28页
第3章 基于环境特征识别的双目视觉系统设计第28-44页
    3.1 双目视觉系统理论第28-31页
        3.1.1 双目视觉测量数学模型第29-30页
        3.1.2 摄像机参数标定第30-31页
    3.2 双目视觉系统测量原理第31-33页
        3.2.1 双目测距原理第31-32页
        3.2.2 三边测量定位原理第32-33页
    3.3 基于环境特征识别的双目视觉定位第33-39页
        3.3.1 环境特征选取第33页
        3.3.2 SIFT算法分析第33-36页
        3.3.3 改进的Harris-SIFT算法第36-38页
        3.3.4 离线数据库建立第38-39页
    3.4 实验分析第39-43页
    3.5 本章小结第43-44页
第4章 双目视觉与惯性测量的数据融合机制第44-51页
    4.1 卡尔曼滤波第44-46页
    4.2 双目视觉与惯性测量融合算法第46-49页
        4.2.1 数据融合机制第46-47页
        4.2.2 异步卡尔曼滤波第47-49页
    4.3 数据融合机制仿真实验第49-50页
    4.4 本章小结第50-51页
第5章 移动机器人室内复合导航物理实验研究第51-62页
    5.1 实验硬件平台第51-52页
    5.2 实验过程第52-53页
    5.3 实验结果与分析第53-60页
        5.3.1 场景一下的室内复合导航第54-56页
        5.3.2 场景二下的室内复合导航第56-59页
        5.3.3 融合算法与视觉里程计对比第59-60页
    5.4 本章小结第60-62页
第6章 总结与展望第62-64页
    6.1 论文总结第62-63页
    6.2 工作展望第63-64页
致谢第64-65页
参考文献第65-69页
附录1 攻读硕士学位期间取得的科研成果第69-71页
附录2 攻读硕士学位期间参加的科研项目第71-72页
详细摘要第72-76页

论文共76页,点击 下载论文
上一篇:基于改进多步长蚁群算法的移动机器人路径规划
下一篇:基于不平衡数据集的支持向量机模型与算法研究