基于双目视觉的移动机器人跟踪技术研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-18页 |
1.1 课题背景和意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-14页 |
1.2.1 视觉机器人研究现状 | 第10-11页 |
1.2.2 立体视觉的研究现状 | 第11-12页 |
1.2.3 目标跟踪研究现状 | 第12-14页 |
1.3 论文的主要研究工作与结构安排 | 第14-18页 |
1.3.1 研究内容 | 第14-17页 |
1.3.2 后续章节安排 | 第17-18页 |
第二章 双目立体视觉系统 | 第18-26页 |
2.1 摄像机的成像模型 | 第18-20页 |
2.2 立体视觉模型 | 第20-21页 |
2.3 摄像机标定模型 | 第21-25页 |
2.3.1 图像坐标系、摄像机坐标系和世界坐标系 | 第22-23页 |
2.3.2 本文使用的摄像机标定模型 | 第23-25页 |
2.4 本章小结 | 第25-26页 |
第三章 移动机器人视频跟踪系统 | 第26-35页 |
3.1 视频跟踪理论基础 | 第26-29页 |
3.1.1 多示例学习 | 第26-27页 |
3.1.2 半监督学习 | 第27-29页 |
3.2 图像的特征表示 | 第29-31页 |
3.2.1 基于稀疏表示的类Haar特征 | 第29-30页 |
3.2.2 弱分类器的构建与更新 | 第30-31页 |
3.3 视频跟踪系统的整体构建流程 | 第31-33页 |
3.3.1 结合先验知识的多示例学习跟踪 | 第31-32页 |
3.3.2 目标回找机制 | 第32-33页 |
3.4 本章小结 | 第33-35页 |
第四章 结合先验知识的多示例学习跟踪 | 第35-53页 |
4.1 样本重叠率先验信息 | 第35-37页 |
4.2 在线分类器的构建 | 第37-41页 |
4.2.1 Fisher线性判别模型 | 第37-39页 |
4.2.2 梯度下降模型 | 第39-41页 |
4.3 算法总体流程 | 第41-42页 |
4.4 实验 | 第42-51页 |
4.4.1 初始化参数配置 | 第43页 |
4.4.2 实验结果和分析 | 第43-51页 |
4.5 本章小结 | 第51-53页 |
第五章 双目视觉移动机器人的目标跟踪 | 第53-66页 |
5.1 移动机器人中的立体视觉系统 | 第53-55页 |
5.1.1 Bumblebee2双目摄像机 | 第53-54页 |
5.1.2 图像坐标与像素坐标 | 第54-55页 |
5.2 双目视觉移动机器人的目标跟踪 | 第55-59页 |
5.2.1 机器人的配置参数 | 第55-56页 |
5.2.2 运动跟踪的实现过程 | 第56-59页 |
5.3 移动机器人目标跟踪与定位 | 第59-65页 |
5.3.1 实际场景中的移动机器人目标跟踪 | 第59-63页 |
5.3.2 目标物的定位 | 第63-65页 |
5.4 本章小结 | 第65-66页 |
第六章 总结与展望 | 第66-68页 |
参考文献 | 第68-73页 |
致谢 | 第73-74页 |
攻读学位期间的研究成果 | 第74页 |