摘要 | 第5-7页 |
Abstract | 第7-9页 |
注释表 | 第16-18页 |
1. 绪论 | 第18-38页 |
1.1 选题的背景及意义 | 第18-22页 |
1.2 国内外研究现状 | 第22-36页 |
1.2.1 基于视觉的场景识别技术 | 第22-27页 |
1.2.2 视觉注意机制 | 第27-30页 |
1.2.3 移动机器人定位与导航 | 第30-36页 |
1.3 本论文的研究内容与结构 | 第36-38页 |
2. 基于对比度信息的通用视觉注意模型构建 | 第38-59页 |
2.1 引言 | 第38-40页 |
2.2 基于全局统计特征的视觉注意模型 | 第40-47页 |
2.2.1 自适应平滑图像预处理 | 第40-44页 |
2.2.2 基于全局统计特征的显著值计算方法 | 第44-47页 |
2.3 基于中央-周围对比度特征的视觉注意模型 | 第47-51页 |
2.3.1 颜色信息的空间分布特征 | 第48-49页 |
2.3.2 纹理信息的空间分布特征 | 第49-51页 |
2.4 融合全局统计及中央-周围对比度信息的视觉注意模型 | 第51-52页 |
2.5 实验验证 | 第52-58页 |
2.5.1 实验数据集概述 | 第52-53页 |
2.5.2 实验结果与讨论 | 第53-58页 |
2.6 本章小结 | 第58-59页 |
3. 融合全局及显著性区域特征的室内场景识别模型 | 第59-78页 |
3.1 引言 | 第59-60页 |
3.2 全局特征识别框架 | 第60-65页 |
3.2.1 低层局部特征选择 | 第60-63页 |
3.2.2 词袋模型建立 | 第63-65页 |
3.2.3 训练SVM支持向量机 | 第65页 |
3.3 结合视觉注意机制的深度学习框架 | 第65-68页 |
3.3.1 改进的BDBN深度学习模型构建 | 第65-68页 |
3.3.2 基于视觉注意的场景预处理 | 第68页 |
3.4 场景识别算法框架 | 第68-70页 |
3.5 实验验证 | 第70-77页 |
3.5.1 机器人硬件平台及实验场景介绍 | 第70-72页 |
3.5.2 机器人场景识别结果与讨论 | 第72-74页 |
3.5.3 模型图像数据集结果与讨论 | 第74-77页 |
3.6 本章小结 | 第77-78页 |
4. 基于显著自然路标的机器人定位和导航研究 | 第78-97页 |
4.1 引言 | 第78-80页 |
4.2 自然路标检测算法 | 第80-89页 |
4.2.1 基于频域特性的显著性模型 | 第80-82页 |
4.2.2 基于聚类算法的显著区域分割 | 第82-84页 |
4.2.3 路标特征表示及度量 | 第84-87页 |
4.2.4 路标稳定性测试实验及讨论 | 第87-89页 |
4.3 基于状态的路径学习及导航 | 第89-96页 |
4.3.1 机器人路径学习方法 | 第89-90页 |
4.3.2 机器人状态定位和导航 | 第90-94页 |
4.3.3 导航实验结果与讨论 | 第94-96页 |
4.4 本章小结 | 第96-97页 |
5. 基于似物性采样技术的人机交互式导航 | 第97-117页 |
5.1 引言 | 第97-98页 |
5.2 交互式地图节点信息构建 | 第98-105页 |
5.2.1 地图节点的颜色特征 | 第99-101页 |
5.2.2 地图节点的超像素特征 | 第101-105页 |
5.3 机器人导航系统构建 | 第105-110页 |
5.3.1 实体语义地图构建 | 第105-107页 |
5.3.2 关键目标识别方法 | 第107-110页 |
5.4 导航系统集成与实验 | 第110-116页 |
5.4.1 导航系统的集成 | 第110-111页 |
5.4.2 导航系统相关实验 | 第111-116页 |
5.5 本章小结 | 第116-117页 |
6. 总结与展望 | 第117-120页 |
6.1 论文内容总结 | 第117-118页 |
6.2 创新点归纳 | 第118-119页 |
6.3 未来工作展望 | 第119-120页 |
致谢 | 第120-121页 |
参考文献 | 第121-136页 |
附录 | 第136页 |