基于立体视觉的串联机器人跟踪检测系统
摘要 | 第1-7页 |
ABSTRACT | 第7-12页 |
第一章 绪论 | 第12-21页 |
·课题背景与意义 | 第12-13页 |
·研究现状 | 第13-18页 |
·摄像机标定的研究现状 | 第13-14页 |
·运动目标跟踪的研究现状 | 第14-16页 |
·立体匹配的研究现状 | 第16-18页 |
·主要研究内容及创新点 | 第18-20页 |
·主要研究内容 | 第18-19页 |
·创新点 | 第19-20页 |
·论文章节安排 | 第20-21页 |
第二章 基于立体视觉的跟踪检测系统设计 | 第21-30页 |
·引言 | 第21页 |
·串联机器人结构 | 第21-23页 |
·Bumblebee2视觉采集系统 | 第23-26页 |
·基于立体视觉串联机器人总体框架设计 | 第26-29页 |
·图像采集传输模块 | 第28页 |
·摄像机标定模块 | 第28页 |
·跟踪机器人模块 | 第28页 |
·立体匹配模块 | 第28页 |
·位姿测量模块 | 第28-29页 |
·小结 | 第29-30页 |
第三章 跟踪检测系统的摄像机标定 | 第30-45页 |
·引言 | 第30页 |
·坐标系与摄像机成像模型 | 第30-36页 |
·三种坐标系及相互关系 | 第30-32页 |
·摄像机成像针孔模型 | 第32-34页 |
·摄像机线性模型标定算法 | 第34-36页 |
·摄像机标定方法的选择 | 第36-37页 |
·基于张氏标定法求解系统的摄相机参数 | 第37-40页 |
·基于OpenCV的系统摄像机标定实现与结果 | 第40-44页 |
·OpenCV中标定函数的介绍 | 第40页 |
·基于OpenCV的标定步骤及实验结果 | 第40-44页 |
·小结 | 第44-45页 |
第四章 基于CamShift算法的机器人跟踪 | 第45-57页 |
·引言 | 第45页 |
·图像的颜色空间以及直方图 | 第45-49页 |
·常用颜色空间的介绍 | 第46-48页 |
·RGB颜色空间到HSV颜色空间的转换 | 第48页 |
·色彩直方图和色彩概率图 | 第48-49页 |
·CamShift算法原理与实现 | 第49-53页 |
·MeanShift算法 | 第49-51页 |
·CamShift算法 | 第51-53页 |
·基于OpenCV的CamShift算法实现 | 第53-54页 |
·基于CamShift算法的跟踪实验结果和讨论 | 第54-56页 |
·小结 | 第56-57页 |
第五章 基于SURF算法的特征点检测与匹配 | 第57-71页 |
·引言 | 第57-58页 |
·各种立体匹配技术及其特点 | 第58-59页 |
·SURF算法的原理与实现 | 第59-66页 |
·SURF算法特征点检测 | 第59-64页 |
·SURF算法的特征点描述符 | 第64-66页 |
·利用SURF算子完成立体匹配 | 第66页 |
·基于SURF算法的图像匹配实验分析 | 第66-69页 |
·基于SURF算法的OpenCV实现 | 第66-67页 |
·基于SURF算法的实验结果分析 | 第67-69页 |
·小结 | 第69-71页 |
第六章 串联机器人的位姿建模与求解 | 第71-81页 |
·引言 | 第71-72页 |
·特征点重建模型 | 第72-73页 |
·串联机器人位姿模型的建立与求解 | 第73-78页 |
·串联机器人位姿模型的建立 | 第73-74页 |
·机械臂位姿的求解 | 第74-75页 |
·基于粒子群算法的机器人位姿求解 | 第75-78页 |
·串联机器人位姿检测结果与分析 | 第78-80页 |
·小结 | 第80-81页 |
第七章 总结与展望 | 第81-84页 |
·总结 | 第81-82页 |
·展望 | 第82-84页 |
参考文献 | 第84-90页 |
致谢 | 第90-91页 |
附录 攻读硕士学位期间参加的项目和发表的论文 | 第91页 |
1、攻读硕士学位期间参加的项目 | 第91页 |
2、攻读硕士学位期间发表的论文 | 第91页 |