摘要 | 第3-5页 |
Abstract | 第5-7页 |
1 绪论 | 第12-17页 |
1.1 研究背景、目的和意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-15页 |
1.2.1 复杂场景下目标粗略识别研究 | 第13-14页 |
1.2.2 复杂场景下图像配准研究 | 第14-15页 |
1.3 研究内容 | 第15-16页 |
1.4 技术路线 | 第16页 |
1.5 研究课题来源 | 第16-17页 |
2 图像目标的粗识别基础理论及关键技术 | 第17-25页 |
2.1 基于二次阈值分割的方向倒脚目标粗识别 | 第17-23页 |
2.1.1 算法原理 | 第17-22页 |
2.1.1.1 二次阈值分割 | 第17-19页 |
2.1.1.2 复杂场景图像预处理 | 第19-20页 |
2.1.1.3 chamfer距离变换 | 第20-21页 |
2.1.1.4 方向倒脚匹配 | 第21-22页 |
2.1.2 算法流程 | 第22-23页 |
2.2 实例验证 | 第23-25页 |
2.2.1 实验环境 | 第23-24页 |
2.2.2 实验过程和结果 | 第24页 |
2.2.3 结果分析 | 第24-25页 |
2.3 本章小结 | 第25页 |
3 复杂场景下工件目标配准 | 第25-71页 |
3.1 图像配准的理论基础 | 第25-34页 |
3.1.1 特征空间 | 第26-28页 |
3.1.1.1 图像灰度特征 | 第26-27页 |
3.1.1.2 图像的边缘特征 | 第27-28页 |
3.1.1.3 图像角点特征 | 第28页 |
3.1.2 变换模型的选取 | 第28-29页 |
3.1.2.1 刚体变换模型 | 第28页 |
3.1.2.2 仿射变换模型 | 第28-29页 |
3.1.2.3 投影变换模型 | 第29页 |
3.1.2.4 非线性变换 | 第29页 |
3.1.3 相似性测度和特征的匹配 | 第29-32页 |
3.1.4 几何变换的估计 | 第32-34页 |
3.1.4.1 QR分解方法 | 第33页 |
3.1.4.2 法方程 | 第33页 |
3.1.4.3 SVD方法 | 第33-34页 |
3.2 约束SIFT特征图像配准目标精识别 | 第34-49页 |
3.2.1 传统SIFT特征配准 | 第34-41页 |
3.2.1.1 SIFT描述子的构建 | 第34-39页 |
3.2.1.2 传统SIFT特征配准过程 | 第39-41页 |
3.2.2 Shapematch模板匹配 | 第41-43页 |
3.2.3 构建刚体变换模型 | 第43页 |
3.2.4 剔除误匹配特征点对 | 第43-45页 |
3.2.5 随机抽样一致性算法 | 第45-46页 |
3.2.6 约束SIFT特征匹配流程和配准效果 | 第46-48页 |
3.2.7 实例验证 | 第48-49页 |
3.2.7.1 实验环境 | 第48页 |
3.2.7.2 实验过程和结果 | 第48-49页 |
3.2.8 讨论 | 第49页 |
3.3 信赖域阻尼高斯牛顿法图像配准目标精确识别 | 第49-57页 |
3.3.1 传统高斯牛顿法工件目标图像配准 | 第50-53页 |
3.3.1.1 确定刚体变换模型 | 第50页 |
3.3.1.2 双线性插值 | 第50-51页 |
3.3.1.3 构建相似性度量函数 | 第51-52页 |
3.3.1.4 传统高斯牛顿法配准步骤和结果 | 第52-53页 |
3.3.2 提出问题 | 第53-54页 |
3.3.3 信赖域高斯牛顿法配准算法的提出 | 第54-56页 |
3.3.4 实例验证 | 第56-57页 |
3.3.4.1 实验环境和结果 | 第56-57页 |
3.3.4.2 实验过程和结果 | 第57页 |
3.3.5 讨论 | 第57页 |
3.4 类SIFT去噪TICP图像配准目标精识别 | 第57-70页 |
3.4.1 传统ICP算法介绍 | 第58-62页 |
3.4.2 类SIFT去噪TICP算法的提出 | 第62-68页 |
3.4.2.1 类SIFT去除离群点 | 第62-65页 |
3.4.2.2 K-D树加速搜索法 | 第65-66页 |
3.4.2.3 截断迭代最近点法(TICP)的提出 | 第66-68页 |
3.4.3 类SIFT去噪TICP算法步骤和配准效果 | 第68-69页 |
3.4.4 实例验证 | 第69-70页 |
3.4.4.1 实验环境 | 第69页 |
3.4.4.2 实验过程和结果 | 第69-70页 |
3.4.5 讨论 | 第70页 |
3.5 本章小结 | 第70-71页 |
4 目标工件真实位置的获取 | 第71-80页 |
4.1 单目标定 | 第71-74页 |
4.1.1 图像、相机和世界坐标系三者之间的关系 | 第71-72页 |
4.1.2 针孔模型 | 第72-73页 |
4.1.3 非线性相机模型 | 第73-74页 |
4.2 坐标系转换 | 第74页 |
4.3 真实定位实验 | 第74-79页 |
4.3.1 实验环境 | 第74-76页 |
4.3.2 实验过程和结果 | 第76-79页 |
4.4 讨论 | 第79-80页 |
4.5 本章小结 | 第80页 |
5 总结与展望 | 第80-83页 |
5.1 总结 | 第80-81页 |
5.2 展望 | 第81-83页 |
致谢 | 第83-84页 |
参考文献 | 第84-90页 |
附录A 在读硕士期间科研成果 | 第90-92页 |
附录B 本文算法代码 | 第92-103页 |
附录C 本文识别工件CAD示意图 | 第103-105页 |