基于双足机器人的物体定位及动态跟踪研究与实现
摘要 | 第6-7页 |
Abstract | 第7-8页 |
目录 | 第9-11页 |
第一章 绪论 | 第11-19页 |
1.1 课题的研究背景 | 第11页 |
1.2 国内外研究现状 | 第11-16页 |
1.2.1 机器人研究现状 | 第11-13页 |
1.2.2 机器人视觉 | 第13-14页 |
1.2.3 目标识别和轨迹跟踪 | 第14-16页 |
1.3 论文研究目的和意义 | 第16-17页 |
1.4 本文研究内容和结构安排 | 第17-19页 |
1.4.1 本论文研究内容 | 第17-18页 |
1.4.2 本论文章节安排 | 第18-19页 |
第二章 系统总体方案设计 | 第19-28页 |
2.1 硬件平台 | 第19-24页 |
2.1.1 图像采集单元 | 第20页 |
2.1.2 足机器人联动关节 | 第20-21页 |
2.1.3 舵机控制板 | 第21-22页 |
2.1.4 图像处理单元 | 第22-23页 |
2.1.5 主控单元 | 第23-24页 |
2.2 软件方案设计 | 第24-26页 |
2.2.1 嵌入式系统方案选择 | 第24页 |
2.2.2 软件总体方案设计 | 第24-26页 |
2.3 系统总体方案 | 第26-27页 |
2.4 本章小结 | 第27-28页 |
第三章 目标图像及测距参数提取 | 第28-41页 |
3.1 摄像机模型 | 第28-32页 |
3.1.1 理想摄像机成像模型 | 第28-29页 |
3.1.2 实际摄像机成像模型 | 第29页 |
3.1.3 摄像机内外参数模型 | 第29-32页 |
3.2 摄像机标定方法 | 第32-37页 |
3.2.1 内外参数标定 | 第33-36页 |
3.2.2 畸变的矫正 | 第36-37页 |
3.3 标定结果分析 | 第37-40页 |
3.4 本章小结 | 第40-41页 |
第四章 基于颜色的目标识别及实现 | 第41-52页 |
4.1 颜色空间 | 第41-45页 |
4.1.1 RGB颜色空间 | 第41-42页 |
4.1.2 HSV和HSI颜色空间 | 第42-44页 |
4.1.3 YUV颜色空间 | 第44-45页 |
4.2 图像分割 | 第45-46页 |
4.3 目标识别算法设计 | 第46-49页 |
4.3.1 离线固定阈值提取 | 第47-48页 |
4.3.2 区域生长算法 | 第48-49页 |
4.4 实验结果与分析 | 第49-51页 |
4.5 本章小结 | 第51-52页 |
第五章 目标轨迹跟踪算法及实现 | 第52-62页 |
5.1 目标轨迹跟踪算法选择 | 第52-53页 |
5.2 CamShift算法 | 第53-60页 |
5.2.1 均值漂移算法 | 第53-58页 |
5.2.2 反向投影算法 | 第58-60页 |
5.2.3 目标轨迹跟踪算法实现 | 第60页 |
5.3 CamShift算法改进 | 第60-61页 |
5.4 实验结果与分析 | 第61页 |
5.5 本章小结 | 第61-62页 |
第六章 机械跟踪及实现 | 第62-72页 |
6.1 单目视觉测距 | 第62-64页 |
6.2 测距结果分析 | 第64-68页 |
6.3 机械跟踪实现 | 第68-71页 |
6.4 系统性能测试 | 第71页 |
6.5 本章小结 | 第71-72页 |
结论与展望 | 第72-73页 |
致谢 | 第73-74页 |
参考文献 | 第74-78页 |
攻读硕士学位期间发表的论文及科研成果 | 第78页 |