基于多传感器的NAO机器人定位与跟踪方法研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第10-19页 |
1.1 课题来源 | 第10页 |
1.2 课题研究的目的及意义 | 第10-11页 |
1.3 国内外相关技术发展现状 | 第11-17页 |
1.3.1 机器人信息融合技术发展现状 | 第11-14页 |
1.3.2 视觉目标识别技术发展现状 | 第14-15页 |
1.3.3 视觉目标跟踪技术发展现状 | 第15-16页 |
1.3.4 机器人自主定位技术发展现状 | 第16-17页 |
1.4 本文的主要研究内容 | 第17-19页 |
第2章 机器人视觉定位与运动学分析 | 第19-35页 |
2.1 引言 | 第19页 |
2.2 机器人单目视觉定位 | 第19-25页 |
2.2.1 平面相机标定 | 第19-21页 |
2.2.2 彩色目标识别方法 | 第21-22页 |
2.2.3 单目视觉测距模型 | 第22-25页 |
2.3 机器人运动学分析 | 第25-34页 |
2.3.1 头部运动学分析 | 第27-28页 |
2.3.2 左臂运动学分析 | 第28-31页 |
2.3.3 左腿运动学分析 | 第31-34页 |
2.4 目标抓取分析 | 第34页 |
2.5 本章小结 | 第34-35页 |
第3章 运动环境中的机器人检测与跟踪 | 第35-50页 |
3.1 引言 | 第35页 |
3.2 视觉跟踪系统框架设计 | 第35页 |
3.3 基于机器学习的目标检测 | 第35-39页 |
3.3.1 支持向量机算法 | 第36-37页 |
3.3.2 梯度方向直方图特征 | 第37-38页 |
3.3.3 图像样本集训练 | 第38-39页 |
3.4 基于Cam Shift算法的 目标跟踪 | 第39-43页 |
3.4.1 反投影直方图 | 第39-40页 |
3.4.2 均值漂移算法 | 第40-42页 |
3.4.3 自适应连续均值漂移算法 | 第42-43页 |
3.5 基于贝叶斯滤波器的目标跟踪 | 第43-49页 |
3.5.1 贝叶斯估计理论 | 第43-44页 |
3.5.2 扩展卡尔曼滤波算法 | 第44-46页 |
3.5.3 粒子滤波算法 | 第46-49页 |
3.6 本章小结 | 第49-50页 |
第4章 机器人行走轨迹估计与误差修正 | 第50-63页 |
4.1 引言 | 第50页 |
4.2 基于航位推算的轨迹方法 | 第50-53页 |
4.2.1 姿态估计 | 第50-51页 |
4.2.2 位移估计 | 第51-53页 |
4.3 基于视觉里程计的轨迹方法 | 第53-60页 |
4.3.1 特征点检测 | 第53-54页 |
4.3.2 特征点跟踪与匹配 | 第54-57页 |
4.3.3 运动参数估计 | 第57-60页 |
4.4 基于多传感器的行走误差修正 | 第60-62页 |
4.4.1 机器人任务规划 | 第60-61页 |
4.4.2 多传感器信息融合方法 | 第61-62页 |
4.5 本章小结 | 第62-63页 |
第5章 上位机软件设计及实验结果分析 | 第63-78页 |
5.1 引言 | 第63页 |
5.2 机器人上位机软件设计 | 第63-67页 |
5.2.1 网络配置与基本动作设置 | 第63页 |
5.2.2 机器人关节状态显示与控制 | 第63-64页 |
5.2.3 机器人视觉图像处理 | 第64-65页 |
5.2.4 机器人传感器信息反馈 | 第65-66页 |
5.2.5 机器人定位与导航 | 第66-67页 |
5.2.6 机器人安全监控界面 | 第67页 |
5.3 目标定位与抓取实验 | 第67-71页 |
5.3.1 静态环境下的单目测距 | 第67-68页 |
5.3.2 动态环境下的目标定位 | 第68-69页 |
5.3.3 基于视觉定位的目标抓取 | 第69-71页 |
5.4 动态目标检测与跟踪实验 | 第71-76页 |
5.4.1 基于SVM+HOG的目标检测 | 第72页 |
5.4.2 基于Cam Shift的目标跟踪 | 第72-73页 |
5.4.3 融合EKF的目标跟踪 | 第73-74页 |
5.4.4 融合PF的目标跟踪 | 第74-76页 |
5.5 机器人行走误差修正与轨迹估计 | 第76-77页 |
5.6 本章小结 | 第77-78页 |
结论 | 第78-79页 |
参考文献 | 第79-83页 |
攻读硕士学位期间发表的论文及其它成果 | 第83-85页 |
致谢 | 第85页 |