基于Kinect可通行性区域识别
| 摘要 | 第5-6页 |
| ABSTRACT | 第6页 |
| 第1章 绪论 | 第9-19页 |
| 1.1 论文的研究背景及意义 | 第9-11页 |
| 1.2 可通行性区域识别研究现状 | 第11-15页 |
| 1.2.1 基于视觉系统障碍物检测 | 第12-14页 |
| 1.2.2 基于测距方法障碍物检测 | 第14页 |
| 1.2.3.结合视觉系统与测距方法障碍物检测 | 第14-15页 |
| 1.3 Kinect应用研究现状 | 第15-16页 |
| 1.4 机器学习在可通行区域识别研究现状 | 第16-17页 |
| 1.5 论文章节内容安排 | 第17-19页 |
| 第2章 相关技术综述 | 第19-39页 |
| 2.1 Kinect传感器介绍 | 第19-20页 |
| 2.1.1 Kinect硬件 | 第19-20页 |
| 2.1.2 Kinect软件 | 第20页 |
| 2.2 Kinect深度信息获取原理 | 第20-22页 |
| 2.3 Kinect标定模型 | 第22-23页 |
| 2.4 Kinect深度图像与RGB图像的配准 | 第23-28页 |
| 2.4.1 摄像头成像模型 | 第23-24页 |
| 2.4.2 Kinect常用坐标系 | 第24-26页 |
| 2.4.3 彩色图像和深度图像的配准的具体方法 | 第26-28页 |
| 2.5 常用视觉特征介绍 | 第28-33页 |
| 2.5.1 颜色特征 | 第28-30页 |
| 2.5.2 纹理特征 | 第30-32页 |
| 2.5.3 几何特征 | 第32-33页 |
| 2.6 特征设计 | 第33-34页 |
| 2.7 分类器的选择 | 第34-36页 |
| 2.8 自监督算法结构描述 | 第36-37页 |
| 2.9 本章小结 | 第37-39页 |
| 第3章 移动机器人障碍物检测 | 第39-52页 |
| 3.1 Kinect深度数据误差分析 | 第39-40页 |
| 3.2 Kinect深度数据误差处理 | 第40-45页 |
| 3.2.1 基于滤波的深度图像处理 | 第40-43页 |
| 3.2.2 基于RGB图像补偿的深度图像处理 | 第43-45页 |
| 3.3 障碍物识别 | 第45-48页 |
| 3.3.1 提取地平线 | 第45-46页 |
| 3.3.2 标记远景和地面 | 第46页 |
| 3.3.3 障碍物检测 | 第46-48页 |
| 3.4 实验与结果分析 | 第48-50页 |
| 3.5 本章小结 | 第50-52页 |
| 第4章 基于障碍物检测的可通行性区域识别 | 第52-61页 |
| 4.1 算法描述 | 第52-56页 |
| 4.1.1 预处理模块 | 第52-54页 |
| 4.1.2 特征提取模块 | 第54页 |
| 4.1.3 分类器模块 | 第54-55页 |
| 4.1.4 结果处理模块 | 第55-56页 |
| 4.2 实验结果和分析 | 第56-60页 |
| 4.2.1 室内场景的结果分析 | 第56-58页 |
| 4.2.2 室外场景的结果分析 | 第58-60页 |
| 4.3 本章小结 | 第60-61页 |
| 第5章 论文总结与展望 | 第61-63页 |
| 5.1 论文总结 | 第61页 |
| 5.2 展望 | 第61-63页 |
| 致谢 | 第63-64页 |
| 参考文献 | 第64-71页 |
| 详细摘要 | 第71-73页 |