摘要 | 第3-5页 |
abstract | 第5-6页 |
1.绪论 | 第10-20页 |
1.1 研究课题的背景与意义 | 第10-12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 国外研究现状及分析 | 第12-14页 |
1.2.2 国内研究现状及分析 | 第14-16页 |
1.3 论文研究的目的与内容 | 第16-17页 |
1.3.1 研究目的 | 第16页 |
1.3.2 研究内容 | 第16-17页 |
1.4 论文章节安排 | 第17-20页 |
2.分拣系统总体方案设计 | 第20-30页 |
2.1 系统各部分的组成及功能 | 第20-22页 |
2.2 工件分拣的总体方案 | 第22-23页 |
2.3 图像采集系统硬件选型 | 第23-26页 |
2.3.1 工业相机的选型 | 第23-25页 |
2.3.2 相机镜头的选型 | 第25页 |
2.3.3 光源的选型 | 第25-26页 |
2.4 软件开发与通信协议选择 | 第26-28页 |
2.3.1 软件开发 | 第26-27页 |
2.3.2 通信协议选择 | 第27-28页 |
2.5 本章小节 | 第28-30页 |
3.摄像机标定技术研究 | 第30-42页 |
3.1 成像系统中的坐标系 | 第30-31页 |
3.2 摄像机的成像模型 | 第31-34页 |
3.2.1 线性成像模型 | 第31-33页 |
3.2.2 非线性成像模型 | 第33-34页 |
3.3 相机标定方法研究 | 第34-35页 |
3.3.1 张正友标定算法 | 第34-35页 |
3.3.2 直接线性法 | 第35页 |
3.4 标定实验结果及分析 | 第35-40页 |
3.4.1 实验环境 | 第35页 |
3.4.2 标定实验过程 | 第35-36页 |
3.4.3 标定的实验结果 | 第36-39页 |
3.4.5 机器人手眼标定 | 第39-40页 |
3.5 本章小节 | 第40-42页 |
4.静态工件目标识别与匹配 | 第42-64页 |
4.1 图像预处理 | 第42-44页 |
4.2 图像分割 | 第44-47页 |
4.2.1 直方图阈值分割 | 第44-46页 |
4.2.2 Otsu(最大类间方差)阈值分割 | 第46-47页 |
4.3 图像区域填充 | 第47-48页 |
4.4 连通区域标记 | 第48-50页 |
4.5 目标物全局特征描述 | 第50-53页 |
4.5.1 面积和周长计算 | 第50页 |
4.5.2 形状因子和矩形度计算 | 第50-51页 |
4.5.3 Hu不变矩计算 | 第51-52页 |
4.5.4 全局特征Hu不变矩匹配准则 | 第52-53页 |
4.6 局部特征Harris角点提取 | 第53-61页 |
4.6.1 Harris角点提取 | 第54-56页 |
4.6.2 基于NCC的角点匹配 | 第56-59页 |
4.6.3 RANSAC剔除误匹配点 | 第59-61页 |
4.7 确定几何中心 | 第61-63页 |
4.8 本章小结 | 第63-64页 |
5.动态目标物跟踪算法研究 | 第64-74页 |
5.1 Mean-shift跟踪器及Kalman滤波器 | 第64-66页 |
5.1.1 Mean-shift跟踪算法 | 第64-65页 |
5.1.2 Kalman滤波器算法 | 第65-66页 |
5.2 在线学习检测机制 | 第66-69页 |
5.2.1 级联检测器 | 第66-67页 |
5.2.2 P-N在线学习机制 | 第67-68页 |
5.2.3 有效检测区域的确定 | 第68页 |
5.2.4 跟踪器颜色模板更新 | 第68-69页 |
5.3 多信息融合的Mean-shift跟踪算法 | 第69-70页 |
5.4 实验结果与分析 | 第70-73页 |
5.4.1 复杂场景目标跟踪实验 | 第70-72页 |
5.4.2 传送带上目标物跟踪实验 | 第72-73页 |
5.5 本章小结 | 第73-74页 |
6.基于视觉伺服的控制研究 | 第74-86页 |
6.0 机械人运动学建模 | 第74-75页 |
6.1 机器人正运动学 | 第75-77页 |
6.2 机器人逆运动学 | 第77-80页 |
6.3 基于位置的视觉伺服 | 第80-81页 |
6.4 仿真实验及分析 | 第81-84页 |
6.5 本章小结 | 第84-86页 |
7.总结与展望 | 第86-88页 |
7.1 全文总结 | 第86页 |
7.2 展望 | 第86-88页 |
参考文献 | 第88-94页 |
附录 攻读硕士期间获得的研究成果 | 第94-96页 |
致谢 | 第96页 |