致谢 | 第7-8页 |
摘要 | 第8-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第17-28页 |
1.1 课题研究背景及意义 | 第17-18页 |
1.2 移动机器人的发展现状 | 第18-21页 |
1.3 ROS在移动机器人领域的应用 | 第21-24页 |
1.4 移动机器人常用传感器介绍 | 第24-25页 |
1.5 移动机器人的SLAM | 第25-26页 |
1.6 本文主要研究内容及文章结构 | 第26-28页 |
第二章 临场移动机器人整体设计与视觉传感器标定 | 第28-47页 |
2.1 临场移动机器人本体设计 | 第28-32页 |
2.1.1 机器人硬件的整体设计 | 第28-29页 |
2.1.2 传动机构与电源模块设计 | 第29-31页 |
2.1.3 下位机 | 第31-32页 |
2.2 临场移动机器人运动控制方案设计 | 第32-37页 |
2.2.1 运动学分析 | 第33页 |
2.2.2 驱动电机的转速控制方案 | 第33-37页 |
2.3 Kinect标定与图像配准 | 第37-46页 |
2.3.1 Kinect传感器介绍 | 第37-39页 |
2.3.2 摄像机的成像几何模型 | 第39-41页 |
2.3.3 摄像机的标定 | 第41-42页 |
2.3.4 Kinect的图像配准 | 第42页 |
2.3.5 Kinect标定与图像配准实验 | 第42-46页 |
2.4 本章小结 | 第46-47页 |
第三章 临场移动机器人的同时定位与地图创建 | 第47-64页 |
3.1 临场移动机器人的视觉里程计模型 | 第47-52页 |
3.1.1 基于Kinect传感器的机器人位姿估计总体方案 | 第47页 |
3.1.2 图像的特征提取 | 第47-48页 |
3.1.3 特征匹配 | 第48-49页 |
3.1.4 相邻帧之间机器人的位姿变化估计 | 第49-51页 |
3.1.5 g2o方法优化机器人的位姿估计 | 第51-52页 |
3.2 基于Kinect的机器人位姿变化估计实验 | 第52-57页 |
3.3 临场移动机器人精确位姿变化的获取 | 第57-60页 |
3.3.1 基于编码器的机器人位姿预测模型 | 第57-59页 |
3.3.2 基于Kinect的机器人位姿测量模型 | 第59页 |
3.3.3 基于扩展卡尔曼滤波的数据融合 | 第59-60页 |
3.4 临场移动机器人SLAM的实现 | 第60-63页 |
3.4.1 SLAM的数学描述 | 第60-61页 |
3.4.2 临场移动机器人SLAM实验 | 第61-63页 |
3.5 本章小结 | 第63-64页 |
第四章 临场移动机器人动态追踪特定人员 | 第64-81页 |
4.1 人员识别与定位程序的整体流程 | 第64-65页 |
4.2 基于OpenCV的人脸检测与识别 | 第65-70页 |
4.2.1 人脸检测与人体检测 | 第65-66页 |
4.2.2 人脸识别 | 第66-68页 |
4.2.3 临场移动机器人的人脸识别实验 | 第68-70页 |
4.3 视觉跟踪程序方案设计 | 第70-74页 |
4.3.1 Camshift跟踪算法 | 第70-71页 |
4.3.2 Camshift算法结合Kalman滤波算法实现目标的视觉跟踪 | 第71-74页 |
4.4 基于人工势场法的移动机器人路径规划 | 第74-76页 |
4.5 临场移动机器人追踪特定人员 | 第76-80页 |
4.6 本章小结 | 第80-81页 |
第五章 总结与展望 | 第81-82页 |
参考文献 | 第82-85页 |
攻读硕士学位期间的学术活动及成果情况 | 第85-86页 |