面向机器人抓取的零件识别与定位方法研究
摘要 | 第3-4页 |
abstract | 第4-5页 |
第1章 绪论 | 第9-19页 |
1.1 引言 | 第9-10页 |
1.2 零件识别定位技术研究现状 | 第10-17页 |
1.2.1 Bin-picking研究现状 | 第10-12页 |
1.2.2 目标识别研究现状 | 第12-14页 |
1.2.3 目标位姿检测研究现状 | 第14-17页 |
1.3 课题来源、研究内容及结构安排 | 第17-19页 |
1.3.1 课题来源 | 第17页 |
1.3.2 论文研究内容 | 第17-18页 |
1.3.3 论文结构安排 | 第18-19页 |
第2章 目标识别定位整体方案 | 第19-33页 |
2.1 目标识别与定位方案 | 第19-22页 |
2.1.1 基于二维图像的目标识别与分割方案 | 第21页 |
2.1.2 基于三维立体视觉的位姿估计方案 | 第21-22页 |
2.2 双目面结构光测量系统 | 第22-30页 |
2.2.1 双目立体视觉系统测量原理 | 第22-24页 |
2.2.2 双目立体视觉系统标定 | 第24-29页 |
2.2.3 结构光辅助匹配 | 第29-30页 |
2.3 测量系统搭建 | 第30-32页 |
2.3.1 硬件结构 | 第30-32页 |
2.3.2 软件系统 | 第32页 |
2.4 本章小结 | 第32-33页 |
第3章 基于机器学习的目标识别 | 第33-57页 |
3.1 基于HOG特征与SVM分类器的目标识别 | 第33-42页 |
3.1.1 HOG特征基本原理 | 第33-37页 |
3.1.2 SVM分类器基本原理 | 第37-39页 |
3.1.3 目标零件分类器训练与识别 | 第39-42页 |
3.2 特征区域的HOG特征 | 第42-45页 |
3.2.1 特征区域的定义 | 第42页 |
3.2.2 特征区域提取 | 第42-44页 |
3.2.3 特征区域梯度方向直方图 | 第44-45页 |
3.3 基于图像金字塔的多尺度目标识别 | 第45-50页 |
3.3.1 多尺度目标识别方案 | 第46-48页 |
3.3.2 目标检测结果 | 第48-50页 |
3.4 目标检测实验分析 | 第50-54页 |
3.4.1 识别率对比分析 | 第50-53页 |
3.4.2 误识别率对比分析 | 第53-54页 |
3.5 图像分割与三维重建 | 第54-56页 |
3.5.1 基于识别结果的图像分割 | 第54-55页 |
3.5.2 局部点云三维重建 | 第55-56页 |
3.6 本章小结 | 第56-57页 |
第4章 基于几何基元的目标零件定位方法 | 第57-81页 |
4.1 点云预处理 | 第58-59页 |
4.1.1 点云降采样 | 第58页 |
4.1.2 点云离群点去除 | 第58-59页 |
4.2 基于PCA算法的点云法矢计算 | 第59-61页 |
4.3 基于RANSAC算法的基元拟合 | 第61-65页 |
4.3.1 基于RANSAC算法基元拟合算法 | 第61-63页 |
4.3.2 有效几何基元提取 | 第63-65页 |
4.4 基于几何基元位置的局部坐标系建立方法 | 第65-68页 |
4.5 局部坐标特征参数向量建立方法 | 第68-70页 |
4.6 特征参数向量匹配与转换关系求取 | 第70-72页 |
4.6.1 特征参数向量匹配方法 | 第70-71页 |
4.6.2 局部坐标系转换关系计算 | 第71-72页 |
4.7 位姿估计结果验证及分析 | 第72-76页 |
4.7.1 算法有效性验证 | 第72-73页 |
4.7.2 算法性能对比分析 | 第73-76页 |
4.8 机器人抓取实验 | 第76-80页 |
4.8.1 硬件设备 | 第76-77页 |
4.8.2 机器人抓取位姿计算 | 第77页 |
4.8.3 抓取实验 | 第77-80页 |
4.9 本章小结 | 第80-81页 |
第5章 总结与展望 | 第81-83页 |
5.1 论文总结 | 第81-82页 |
5.2 工作展望 | 第82-83页 |
参考文献 | 第83-87页 |
致谢 | 第87-89页 |
个人简历、在学期间发表的学术论文与研究成果 | 第89页 |