中文摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 引言 | 第8-15页 |
1.1 课题的背景及意义 | 第8-10页 |
1.1.1 全景摄像机介绍 | 第8-10页 |
1.1.2 RGB-D摄像机简介 | 第10页 |
1.2 课题研究涉及关键技术的研究现状 | 第10-13页 |
1.2.1 目标感知问题研究现状 | 第10-12页 |
1.2.2 目标搜索路径规划和目标识别研究现状 | 第12-13页 |
1.3 课题的主要研究内容 | 第13-14页 |
1.4 论文的章节安排 | 第14页 |
1.5 课题的创新之处 | 第14-15页 |
第二章 混合视觉系统共同视场区域的确定与重建 | 第15-30页 |
2.1 混合视觉系统平台搭建与标定 | 第15-20页 |
2.1.1 混合视觉系统简介 | 第15-16页 |
2.1.2 混合视觉系统的标定 | 第16-20页 |
2.1.2.1 RGB-D摄像机成像原理与标定 | 第16-17页 |
2.1.2.2 全景摄像机的成像原理和标定 | 第17-18页 |
2.1.2.3 混合视觉系统标定过程 | 第18页 |
2.1.2.4 混合视觉系统标定结果 | 第18-20页 |
2.2 混合视觉系统的共同视场区域的确定与重建 | 第20-25页 |
2.2.1 混合视觉系统中共同视场区域的确定 | 第20-24页 |
2.2.1.1 RGB图像的三维重建 | 第20-21页 |
2.2.1.2 RGB图像在全景图像上投影关系 | 第21-22页 |
2.2.1.3 RGB图像在全景图像上投影实验 | 第22-24页 |
2.2.2 混合视觉系统共同视场的特征匹配与重建 | 第24-25页 |
2.2.2.1 混合视觉系统共同视场的特征匹配 | 第24-25页 |
2.2.2.2 共同视场区域SURF特征匹配点的三维重建 | 第25页 |
2.3 实验结果与分析 | 第25-29页 |
2.3.1 实验结果 | 第25-29页 |
2.3.2 实验分析 | 第29页 |
2.4 本章小结 | 第29-30页 |
第三章 融合深度信息的视觉显著物体快速检测方法 | 第30-41页 |
3.1 视觉显著物体检测简介 | 第30-32页 |
3.1.1 Itti视觉显著物体检测模型 | 第30-31页 |
3.1.2 Hou视觉显著物体检测模型 | 第31-32页 |
3.2 改进视觉显著物体检测模型 | 第32-39页 |
3.2.1 多特征的视觉显著性检测模型 | 第33-34页 |
3.2.2 显著区域分割与提取策略 | 第34-36页 |
3.2.3 融合深度信息的显著区域内物体检测方法 | 第36-39页 |
3.3 实验结果与分析 | 第39-40页 |
3.4 本章小结 | 第40-41页 |
第四章 RGB-D视觉系统对显著目标的观测方法研究 | 第41-54页 |
4.1 RGB-D摄像机观测视点的确定 | 第41-45页 |
4.1.1 确定RGB摄像机的视场 | 第41-42页 |
4.1.2 确定RGB摄像机的最优观测视点 | 第42-45页 |
4.2 基于改进Mean-shift算法机器人位置的自校正 | 第45-49页 |
4.2.1 Mean-shift算法及原理 | 第45-46页 |
4.2.2 基于运动变化的改进Mean-shift算法 | 第46-49页 |
4.2.2.1 机器人变步长运动的确定 | 第47页 |
4.2.2.2 改进Mean-shift算法的参数预估 | 第47-49页 |
4.2.2.3 多特征下的Mean-shift算法匹配直方图计算 | 第49页 |
4.3 实验结果与分析 | 第49-53页 |
4.3.1 基于运动变化的Mean-shift显著区域匹配 | 第49-50页 |
4.3.2 机器人基于变步长运动目标搜索实验 | 第50-53页 |
4.4 本章小结 | 第53-54页 |
结论与展望 | 第54-55页 |
参考文献 | 第55-59页 |
致谢 | 第59-60页 |
个人简历、攻读学位期间参与的科研项目和成果 | 第60页 |