| 摘要 | 第1-7页 |
| ABSTRACT | 第7-11页 |
| 第一章 绪论 | 第11-18页 |
| ·研究背景 | 第11-12页 |
| ·研究现状 | 第12-15页 |
| ·摄像机标定的发展现状 | 第12-13页 |
| ·特征提取的研究现状 | 第13-14页 |
| ·立体匹配的研究现状 | 第14-15页 |
| ·研究内容及创新点 | 第15-17页 |
| ·运动目标和机械手臂的特征提取 | 第15-16页 |
| ·立体匹配 | 第16页 |
| ·机器人手臂位姿模型的建立 | 第16-17页 |
| ·论文章节安排 | 第17-18页 |
| 第二章 伺服系统方案和平台搭建 | 第18-25页 |
| ·视觉伺服系统总体构架 | 第18-19页 |
| ·六自由度机器人手臂简介 | 第19-20页 |
| ·Bumblebee2视觉采集系统 | 第20-24页 |
| ·小结 | 第24-25页 |
| 第三章 视频信号的采集 | 第25-30页 |
| ·使用DirectShow采集视频数据 | 第25-27页 |
| ·基于OpenCV的图像处理 | 第27页 |
| ·图像采集的关键技术——DirectShow到OpenCV的数据格式转换 | 第27-29页 |
| ·小结 | 第29-30页 |
| 第四章 目标的检测 | 第30-37页 |
| ·基于Hough变换的小球检测 | 第30页 |
| ·基于颜色的小球检测 | 第30-32页 |
| ·基于帧差法及颜色结合的检测策略 | 第32-33页 |
| ·各种方法的实验结果比较 | 第33-36页 |
| ·小结 | 第36-37页 |
| 第五章 基于AdaBoost算法的机器人手臂检测 | 第37-44页 |
| ·AdaBoost算法基本原理 | 第37-40页 |
| ·特征的选择 | 第37-38页 |
| ·特征值计算 | 第38-39页 |
| ·分类器训练理论 | 第39-40页 |
| ·样本采集与Haar分类器训练 | 第40-41页 |
| ·实验结果及分析 | 第41-43页 |
| ·小结 | 第43-44页 |
| 第六章 机器人位姿的建模与测量 | 第44-56页 |
| ·基于SIFT的立体匹配 | 第44-48页 |
| ·图像多尺度表示 | 第44页 |
| ·SIFT特征匹配算法 | 第44-48页 |
| ·机器人手臂位姿求取 | 第48-53页 |
| ·机器人位姿模型 | 第48-50页 |
| ·位姿方程的转换 | 第50-51页 |
| ·基于蚁群遗传算法的多目标优化求解 | 第51-53页 |
| ·实验结果 | 第53-55页 |
| ·小结 | 第55-56页 |
| 第七章 结论与展望 | 第56-58页 |
| ·结论 | 第56页 |
| ·展望 | 第56-58页 |
| 参考文献 | 第58-62页 |
| 致谢 | 第62-63页 |
| 攻读硕士学位期间参加的项目和发表的论文 | 第63页 |