并联机器人视觉伺服系统的跟踪检测研究
| 摘要 | 第1-6页 |
| ABSTRACT | 第6-11页 |
| 第一章 绪论 | 第11-19页 |
| ·课题研究背景 | 第11-12页 |
| ·机器人视觉的国内外研究现状 | 第12-16页 |
| ·摄像机标定的研究现状 | 第13-14页 |
| ·并联机器人的研究现状 | 第14-15页 |
| ·机器人目标跟踪技术的研究现状 | 第15-16页 |
| ·主要研究内容与创新点 | 第16-17页 |
| ·论文的章节安排 | 第17-19页 |
| 第二章 并联机器人视觉伺服控制系统的搭建 | 第19-28页 |
| ·引言 | 第19页 |
| ·视觉伺服控制系统的总体构架 | 第19-20页 |
| ·二自由度冗余并联机器人介绍 | 第20-22页 |
| ·机器人视觉图像采集的系统设计 | 第22-27页 |
| ·摄像机性能参数 | 第22-24页 |
| ·基于DirectShow的图像信息采集 | 第24-26页 |
| ·二自由度并联机器人视觉伺服系统平台 | 第26-27页 |
| ·小结 | 第27-28页 |
| 第三章 视觉系统的摄像机标定 | 第28-38页 |
| ·引言 | 第28页 |
| ·摄像机模型 | 第28-31页 |
| ·针孔成像模型 | 第30-31页 |
| ·摄像机标定方法 | 第31-32页 |
| ·机器人视觉系统的摄像机标定 | 第32-37页 |
| ·单目视觉测量模型的建立 | 第32-33页 |
| ·视觉图像的畸变校正 | 第33-35页 |
| ·CCD标定算法的实现 | 第35-37页 |
| ·小结 | 第37-38页 |
| 第四章 面向跟踪检测的视觉图像处理 | 第38-52页 |
| ·引言 | 第38页 |
| ·彩色图像的空间模型及其转换 | 第38-41页 |
| ·RGB模型 | 第38-39页 |
| ·HSV模型 | 第39-40页 |
| ·模型之间的相互转化 | 第40-41页 |
| ·图像的预处理 | 第41-43页 |
| ·图像的二值处理 | 第41-42页 |
| ·图像的中值滤波 | 第42-43页 |
| ·图像分割 | 第43-46页 |
| ·图像的边缘提取 | 第43-45页 |
| ·数学形态算子 | 第45-46页 |
| ·基于直线插补的运动轨迹规划 | 第46-48页 |
| ·实验结果 | 第48-51页 |
| ·小结 | 第51-52页 |
| 第五章 基于波门跟踪的运动目标跟踪检测 | 第52-70页 |
| ·引言 | 第52页 |
| ·目标跟踪的方法 | 第52-57页 |
| ·卡尔曼滤波算法 | 第53-55页 |
| ·Mean shift算法 | 第55-57页 |
| ·基于波门跟踪的圆拟合高精度质心算法 | 第57-61页 |
| ·波门跟踪算法 | 第57-58页 |
| ·目标特征的提取 | 第58页 |
| ·质心坐标计算 | 第58-59页 |
| ·基于圆拟合的高精度质心计算方法 | 第59-61页 |
| ·实验结果 | 第61-69页 |
| ·基于波门跟踪的圆拟合质心跟踪算法实验结果 | 第61-64页 |
| ·并联机器人反向运动学模型 | 第64-65页 |
| ·并联机器人的运动空间 | 第65-66页 |
| ·二自由度并联机器人视觉伺服控制系统 | 第66-69页 |
| ·小结 | 第69-70页 |
| 第六章 总结与展望 | 第70-72页 |
| ·总结 | 第70-71页 |
| ·展望 | 第71-72页 |
| 参考文献 | 第72-78页 |
| 致谢 | 第78-79页 |
| 攻读硕士学位期间参加的项目和发表的论文 | 第79页 |