摘要 | 第4-6页 |
ABSTRACT | 第6-8页 |
第一章 绪论 | 第12-28页 |
1.1 研究目的与意义 | 第12-13页 |
1.2 机器人传感器概述 | 第13-18页 |
1.2.1 视觉传感器 | 第14-15页 |
1.2.2 触觉传感器 | 第15-16页 |
1.2.3 接近觉传感器 | 第16页 |
1.2.4 听觉传感器 | 第16-17页 |
1.2.5 味觉和嗅觉传感器 | 第17页 |
1.2.6 多传感器融合技术 | 第17-18页 |
1.3 机器人视觉导航技术分类 | 第18-20页 |
1.4 智能机器人视觉导航研究现状与发展趋势 | 第20-24页 |
1.4.1 国外研究现状 | 第20-22页 |
1.4.2 国内研究现状 | 第22-23页 |
1.4.3 现存问题及未来发展趋势 | 第23-24页 |
1.5 课题来源与主要研究内容 | 第24-25页 |
1.5.1 课题来源 | 第24页 |
1.5.2 主要研究内容 | 第24-25页 |
1.6 论文结构安排 | 第25页 |
参考文献 | 第25-28页 |
第二章 智能机器人视觉导航关键技术 | 第28-43页 |
2.1 摄像机模型与标定技术 | 第28-31页 |
2.1.1 摄像机模型 | 第28-29页 |
2.1.2 摄像机标定方法 | 第29-31页 |
2.2 双目立体视觉测量技术 | 第31-33页 |
2.2.1 立体视觉校正 | 第31-32页 |
2.2.2 三维重建 | 第32-33页 |
2.3 双目立体视觉匹配技术 | 第33-35页 |
2.3.1 立体匹配基元 | 第33页 |
2.3.2 相似性度量函数 | 第33-34页 |
2.3.3 立体匹配策略 | 第34页 |
2.3.4 约束准则 | 第34-35页 |
2.4 基于GPU的高性能计算技术 | 第35-36页 |
2.4.1 GPU硬件架构 | 第35页 |
2.4.2 CUDA并行编程技术 | 第35-36页 |
2.5 机器人手眼标定技术 | 第36-38页 |
2.5.1 四元数法原理 | 第36-37页 |
2.5.2 基于光学定位跟踪的手眼标定方法 | 第37-38页 |
2.6 目标检测技术 | 第38-40页 |
2.7 目标跟踪技术 | 第40页 |
2.8 本章小结 | 第40页 |
参考文献 | 第40-43页 |
第三章 基于图像局部特征相似性的密集匹配 | 第43-77页 |
3.1 基于自适应权值滤波的密集匹配 | 第43-49页 |
3.1.1 基本问题与研究思路 | 第43-45页 |
3.1.2 匹配代价初始化 | 第45页 |
3.1.3 匹配代价自适应叠加 | 第45-48页 |
3.1.4 密集视差图的生成 | 第48-49页 |
3.1.5 密集视差图细化处理 | 第49页 |
3.2 基于自适应窗口的密集匹配 | 第49-57页 |
3.2.1 基本问题与研究思路 | 第49-51页 |
3.2.2 激光光斑投射器 | 第51页 |
3.2.3 图像纹理质量评价依据 | 第51-56页 |
3.2.4 自适应窗口匹配算法 | 第56-57页 |
3.3 基于GPU的高性能密集匹配 | 第57-59页 |
3.4 实验结果与分析 | 第59-74页 |
3.4.1 基于自适应权值滤波的密集匹配实验 | 第59-68页 |
3.4.2 基于自适应窗口的密集匹配实验 | 第68-74页 |
3.5 本章小结 | 第74-75页 |
参考文献 | 第75-77页 |
第四章 基于广义Hough变换与随机蕨分类器的目标检测研究 | 第77-120页 |
4.1 引言 | 第77-79页 |
4.1.1 目标检测研究概述 | 第77-78页 |
4.1.2 研究思路 | 第78-79页 |
4.2 图像目标的检测 | 第79-98页 |
4.2.1 图像局部特征提取 | 第79-86页 |
4.2.2 分类器设计 | 第86-89页 |
4.2.3 Hough变换机制 | 第89-91页 |
4.2.4 基于广义Hough变换与RFC结合的目标检测算法 | 第91-98页 |
4.3 RGB-D图像目标的检测 | 第98-104页 |
4.3.1 3D信息获取 | 第98-99页 |
4.3.2 3D信息局部特征提取 | 第99-102页 |
4.3.3 基于RGB-D图像的目标检测算法 | 第102-104页 |
4.4 实验结果与分析 | 第104-115页 |
4.4.1 图像目标的检测实验 | 第104-109页 |
4.4.2 IHRF参数设置对于目标检测性能的影响 | 第109-112页 |
4.4.3 基于RGB-D图像的目标检测实验 | 第112-115页 |
4.5 本章小结 | 第115-116页 |
参考文献 | 第116-120页 |
第五章 基于在线学习检测机制的目标跟踪研究 | 第120-147页 |
5.1 研究概述 | 第120-122页 |
5.1.1 研究背景与意义 | 第120-121页 |
5.1.2 目前相关研究进展 | 第121-122页 |
5.1.3 研究思路 | 第122页 |
5.2 基于整体区域检测的目标跟踪 | 第122-129页 |
5.2.1 多特征提取与融合 | 第122-124页 |
5.2.2 多目标级联检测器 | 第124-126页 |
5.2.3 基于光流法的目标跟踪器 | 第126-127页 |
5.2.4 基于整体区域检测与光流法的多目标跟踪算法 | 第127-129页 |
5.3 基于局部区域检测与分割的目标跟踪 | 第129-133页 |
5.3.1 目标检测器 | 第130页 |
5.3.2 基于空间与图像信息聚类的分割算法 | 第130-132页 |
5.3.3 基于目标局部区域检测与分割的目标跟踪算法 | 第132-133页 |
5.4 实验结果与分析 | 第133-144页 |
5.4.1 基于整体区域检测的单目标跟踪实验 | 第133-136页 |
5.4.2 基于整体区域检测的多目标跟踪实验 | 第136-137页 |
5.4.3 基于局部区域检测与分割的目标跟踪实验 | 第137-144页 |
5.5 本章小结 | 第144页 |
参考文献 | 第144-147页 |
第六章 智能机器人视觉导航系统构建 | 第147-163页 |
6.1 视觉导航系统硬件构成 | 第147-148页 |
6.2 视觉导航系统原理与工作流程 | 第148-149页 |
6.3 系统软件主控界面及主要功能 | 第149-151页 |
6.4 智能机器人视觉导航实验平台和验证性实验 | 第151-162页 |
6.4.1 视觉导航系统标定实验 | 第152-153页 |
6.4.2 手眼标定实验 | 第153-155页 |
6.4.3 目标检测实验 | 第155-157页 |
6.4.4 目标跟踪定位实验 | 第157页 |
6.4.5 避障实验 | 第157-160页 |
6.4.6 托盘定位实验 | 第160-162页 |
6.5 本章小结 | 第162-163页 |
第七章 总结与展望 | 第163-167页 |
7.1 工作总结 | 第163-164页 |
7.2 论文主要创新点 | 第164-165页 |
7.3 研究展望 | 第165-167页 |
附录:缩写词说明 | 第167-169页 |
致谢 | 第169-170页 |
攻读学位期间发表的学术论文目录 | 第170页 |