首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于视觉信息融合的移动机器人环境自主感知方法研究

摘要第6-7页
Abstract第7-8页
第1章 绪论第12-21页
    1.1 引言第12-13页
    1.2 国内外研究现状和意义第13-19页
    1.3 论文的主要内容和创新点第19-20页
    1.4 论文的结构安排第20-21页
第2章 UGV-1 型移动机器人系统结构及车载传感器概述第21-35页
    2.1 UGV-1 型移动机器人的车体结构第21-22页
    2.2 UGV-1 型移动机器人的驱动系统及运动学原理第22-26页
        2.2.1 驱动系统第22-23页
        2.2.2 运动学原理第23-26页
    2.3 UGV-1 型移动机器人车载传感器概述第26-33页
        2.3.1 双目视觉系统第27-29页
        2.3.2 超声波传感器第29-31页
        2.3.3 激光测距仪第31-33页
    2.4 UGV-1 型移动机器人感知系统的组成第33-34页
    2.5 本章小结第34-35页
第3章 移动机器人的双目视觉及环境重建第35-56页
    3.1 双目相机标定第35-46页
        3.1.1 双目立体视觉原理第35-36页
        3.1.2 图像坐标系、摄像机坐标系和世界坐标系第36-38页
        3.1.3 摄像机标定模型第38-39页
        3.1.4 基于双目测量测试开发平台的标定方法第39-43页
        3.1.5 双目相机标定过程及实验结果第43-46页
    3.2 图像匹配第46-50页
        3.2.1 图像匹配基本原理第46-47页
        3.2.2 一种基于极线校正逆变换的立体匹配算法第47-50页
    3.3 环境三维重建第50-55页
        3.3.1 基本的三维坐标求取方法第50-52页
        3.3.2 基于最小二乘法的三维重建第52-53页
        3.3.3 三维重建的实验结果第53-55页
    3.4 本章小结第55-56页
第4章 基于视觉信息融合的移动机器人环境感知与避障第56-70页
    4.1 多传感器数据融合原理第56-57页
    4.2 多传感器数据融合算法第57-58页
    4.3 一种改进的人工神经网络信息融合算法第58-68页
        4.3.1 改进的学习率自适应BP神经网络信息融合算法原理第58-62页
        4.3.2 融合视觉信息的环境感知与避障方法设计第62-65页
        4.3.3 机器人自主避障的仿真与实验结果分析第65-68页
    4.4 本章小结第68-70页
第5章 移动机器人的地形识别与可通过性评估第70-83页
    5.1 地形特征第70-75页
        5.1.1 地形起伏度第70-71页
        5.1.2 地形坡度第71-72页
        5.1.3 地形纹理特征第72-74页
        5.1.4 颜色特征第74-75页
    5.2 地形识别第75-78页
        5.2.1 地形分析第75页
        5.2.2 道路纹理信息提取第75-77页
        5.2.3 图像颜色信息提取及识别结果第77-78页
    5.3 地形可通过性评估分析第78-80页
    5.4 实验结果与分析第80-82页
    5.5 本章小结第82-83页
结论第83-85页
参考文献第85-90页
攻读硕士学位期间发表论文及科研成果第90-91页
致谢第91-92页

论文共92页,点击 下载论文
上一篇:焊接机器人若干优化技术研究
下一篇:社会性别视角下女性消费行为研究