基于Kinect可通行性区域识别
摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第1章 绪论 | 第9-19页 |
1.1 论文的研究背景及意义 | 第9-11页 |
1.2 可通行性区域识别研究现状 | 第11-15页 |
1.2.1 基于视觉系统障碍物检测 | 第12-14页 |
1.2.2 基于测距方法障碍物检测 | 第14页 |
1.2.3.结合视觉系统与测距方法障碍物检测 | 第14-15页 |
1.3 Kinect应用研究现状 | 第15-16页 |
1.4 机器学习在可通行区域识别研究现状 | 第16-17页 |
1.5 论文章节内容安排 | 第17-19页 |
第2章 相关技术综述 | 第19-39页 |
2.1 Kinect传感器介绍 | 第19-20页 |
2.1.1 Kinect硬件 | 第19-20页 |
2.1.2 Kinect软件 | 第20页 |
2.2 Kinect深度信息获取原理 | 第20-22页 |
2.3 Kinect标定模型 | 第22-23页 |
2.4 Kinect深度图像与RGB图像的配准 | 第23-28页 |
2.4.1 摄像头成像模型 | 第23-24页 |
2.4.2 Kinect常用坐标系 | 第24-26页 |
2.4.3 彩色图像和深度图像的配准的具体方法 | 第26-28页 |
2.5 常用视觉特征介绍 | 第28-33页 |
2.5.1 颜色特征 | 第28-30页 |
2.5.2 纹理特征 | 第30-32页 |
2.5.3 几何特征 | 第32-33页 |
2.6 特征设计 | 第33-34页 |
2.7 分类器的选择 | 第34-36页 |
2.8 自监督算法结构描述 | 第36-37页 |
2.9 本章小结 | 第37-39页 |
第3章 移动机器人障碍物检测 | 第39-52页 |
3.1 Kinect深度数据误差分析 | 第39-40页 |
3.2 Kinect深度数据误差处理 | 第40-45页 |
3.2.1 基于滤波的深度图像处理 | 第40-43页 |
3.2.2 基于RGB图像补偿的深度图像处理 | 第43-45页 |
3.3 障碍物识别 | 第45-48页 |
3.3.1 提取地平线 | 第45-46页 |
3.3.2 标记远景和地面 | 第46页 |
3.3.3 障碍物检测 | 第46-48页 |
3.4 实验与结果分析 | 第48-50页 |
3.5 本章小结 | 第50-52页 |
第4章 基于障碍物检测的可通行性区域识别 | 第52-61页 |
4.1 算法描述 | 第52-56页 |
4.1.1 预处理模块 | 第52-54页 |
4.1.2 特征提取模块 | 第54页 |
4.1.3 分类器模块 | 第54-55页 |
4.1.4 结果处理模块 | 第55-56页 |
4.2 实验结果和分析 | 第56-60页 |
4.2.1 室内场景的结果分析 | 第56-58页 |
4.2.2 室外场景的结果分析 | 第58-60页 |
4.3 本章小结 | 第60-61页 |
第5章 论文总结与展望 | 第61-63页 |
5.1 论文总结 | 第61页 |
5.2 展望 | 第61-63页 |
致谢 | 第63-64页 |
参考文献 | 第64-71页 |
详细摘要 | 第71-73页 |