首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于立体视觉的串联机器人跟踪检测系统

摘要第1-7页
ABSTRACT第7-12页
第一章 绪论第12-21页
   ·课题背景与意义第12-13页
   ·研究现状第13-18页
     ·摄像机标定的研究现状第13-14页
     ·运动目标跟踪的研究现状第14-16页
     ·立体匹配的研究现状第16-18页
   ·主要研究内容及创新点第18-20页
     ·主要研究内容第18-19页
     ·创新点第19-20页
   ·论文章节安排第20-21页
第二章 基于立体视觉的跟踪检测系统设计第21-30页
   ·引言第21页
   ·串联机器人结构第21-23页
   ·Bumblebee2视觉采集系统第23-26页
   ·基于立体视觉串联机器人总体框架设计第26-29页
     ·图像采集传输模块第28页
     ·摄像机标定模块第28页
     ·跟踪机器人模块第28页
     ·立体匹配模块第28页
     ·位姿测量模块第28-29页
   ·小结第29-30页
第三章 跟踪检测系统的摄像机标定第30-45页
   ·引言第30页
   ·坐标系与摄像机成像模型第30-36页
     ·三种坐标系及相互关系第30-32页
     ·摄像机成像针孔模型第32-34页
     ·摄像机线性模型标定算法第34-36页
   ·摄像机标定方法的选择第36-37页
   ·基于张氏标定法求解系统的摄相机参数第37-40页
   ·基于OpenCV的系统摄像机标定实现与结果第40-44页
     ·OpenCV中标定函数的介绍第40页
     ·基于OpenCV的标定步骤及实验结果第40-44页
   ·小结第44-45页
第四章 基于CamShift算法的机器人跟踪第45-57页
   ·引言第45页
   ·图像的颜色空间以及直方图第45-49页
     ·常用颜色空间的介绍第46-48页
     ·RGB颜色空间到HSV颜色空间的转换第48页
     ·色彩直方图和色彩概率图第48-49页
   ·CamShift算法原理与实现第49-53页
     ·MeanShift算法第49-51页
     ·CamShift算法第51-53页
   ·基于OpenCV的CamShift算法实现第53-54页
   ·基于CamShift算法的跟踪实验结果和讨论第54-56页
   ·小结第56-57页
第五章 基于SURF算法的特征点检测与匹配第57-71页
   ·引言第57-58页
   ·各种立体匹配技术及其特点第58-59页
   ·SURF算法的原理与实现第59-66页
     ·SURF算法特征点检测第59-64页
     ·SURF算法的特征点描述符第64-66页
     ·利用SURF算子完成立体匹配第66页
   ·基于SURF算法的图像匹配实验分析第66-69页
     ·基于SURF算法的OpenCV实现第66-67页
     ·基于SURF算法的实验结果分析第67-69页
   ·小结第69-71页
第六章 串联机器人的位姿建模与求解第71-81页
   ·引言第71-72页
   ·特征点重建模型第72-73页
   ·串联机器人位姿模型的建立与求解第73-78页
     ·串联机器人位姿模型的建立第73-74页
     ·机械臂位姿的求解第74-75页
     ·基于粒子群算法的机器人位姿求解第75-78页
   ·串联机器人位姿检测结果与分析第78-80页
   ·小结第80-81页
第七章 总结与展望第81-84页
   ·总结第81-82页
   ·展望第82-84页
参考文献第84-90页
致谢第90-91页
附录 攻读硕士学位期间参加的项目和发表的论文第91页
 1、攻读硕士学位期间参加的项目第91页
 2、攻读硕士学位期间发表的论文第91页

论文共91页,点击 下载论文
上一篇:基于ARM的LUV老化箱控制系统的设计
下一篇:基于Wifi的嵌入式无线视频监控系统设计