首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

搭载混合视觉系统的移动机器人室内目标搜索方法研究

中文摘要第5-6页
Abstract第6-7页
第一章 引言第8-15页
    1.1 课题的背景及意义第8-10页
        1.1.1 全景摄像机介绍第8-10页
        1.1.2 RGB-D摄像机简介第10页
    1.2 课题研究涉及关键技术的研究现状第10-13页
        1.2.1 目标感知问题研究现状第10-12页
        1.2.2 目标搜索路径规划和目标识别研究现状第12-13页
    1.3 课题的主要研究内容第13-14页
    1.4 论文的章节安排第14页
    1.5 课题的创新之处第14-15页
第二章 混合视觉系统共同视场区域的确定与重建第15-30页
    2.1 混合视觉系统平台搭建与标定第15-20页
        2.1.1 混合视觉系统简介第15-16页
        2.1.2 混合视觉系统的标定第16-20页
            2.1.2.1 RGB-D摄像机成像原理与标定第16-17页
            2.1.2.2 全景摄像机的成像原理和标定第17-18页
            2.1.2.3 混合视觉系统标定过程第18页
            2.1.2.4 混合视觉系统标定结果第18-20页
    2.2 混合视觉系统的共同视场区域的确定与重建第20-25页
        2.2.1 混合视觉系统中共同视场区域的确定第20-24页
            2.2.1.1 RGB图像的三维重建第20-21页
            2.2.1.2 RGB图像在全景图像上投影关系第21-22页
            2.2.1.3 RGB图像在全景图像上投影实验第22-24页
        2.2.2 混合视觉系统共同视场的特征匹配与重建第24-25页
            2.2.2.1 混合视觉系统共同视场的特征匹配第24-25页
            2.2.2.2 共同视场区域SURF特征匹配点的三维重建第25页
    2.3 实验结果与分析第25-29页
        2.3.1 实验结果第25-29页
        2.3.2 实验分析第29页
    2.4 本章小结第29-30页
第三章 融合深度信息的视觉显著物体快速检测方法第30-41页
    3.1 视觉显著物体检测简介第30-32页
        3.1.1 Itti视觉显著物体检测模型第30-31页
        3.1.2 Hou视觉显著物体检测模型第31-32页
    3.2 改进视觉显著物体检测模型第32-39页
        3.2.1 多特征的视觉显著性检测模型第33-34页
        3.2.2 显著区域分割与提取策略第34-36页
        3.2.3 融合深度信息的显著区域内物体检测方法第36-39页
    3.3 实验结果与分析第39-40页
    3.4 本章小结第40-41页
第四章 RGB-D视觉系统对显著目标的观测方法研究第41-54页
    4.1 RGB-D摄像机观测视点的确定第41-45页
        4.1.1 确定RGB摄像机的视场第41-42页
        4.1.2 确定RGB摄像机的最优观测视点第42-45页
    4.2 基于改进Mean-shift算法机器人位置的自校正第45-49页
        4.2.1 Mean-shift算法及原理第45-46页
        4.2.2 基于运动变化的改进Mean-shift算法第46-49页
            4.2.2.1 机器人变步长运动的确定第47页
            4.2.2.2 改进Mean-shift算法的参数预估第47-49页
            4.2.2.3 多特征下的Mean-shift算法匹配直方图计算第49页
    4.3 实验结果与分析第49-53页
        4.3.1 基于运动变化的Mean-shift显著区域匹配第49-50页
        4.3.2 机器人基于变步长运动目标搜索实验第50-53页
    4.4 本章小结第53-54页
结论与展望第54-55页
参考文献第55-59页
致谢第59-60页
个人简历、攻读学位期间参与的科研项目和成果第60页

论文共60页,点击 下载论文
上一篇:基于面向对象技术的高校共青团数据采集系统设计与实现
下一篇:我国制造业碳排放回弹效应研究