摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 引言 | 第8-15页 |
1.1 课题背景及意义 | 第8-9页 |
1.2 国内外的研究现状 | 第9-13页 |
1.2.1 标定板特征点提取的国内外现状 | 第10-11页 |
1.2.2 摄像机标定的国内外现状 | 第11-12页 |
1.2.3 视觉测距的国内外现状 | 第12-13页 |
1.3 主要研究内容及章节安排 | 第13-15页 |
第2章 基于Huber损失的圆形标定板圆心提取算法 | 第15-47页 |
2.1 圆形标定板圆心提取 | 第15-27页 |
2.1.1 标定板的选取 | 第15-16页 |
2.1.2 传统的圆形标定板圆心提取算法 | 第16-18页 |
2.1.3 基于Huber损失的圆形标定板圆心提取流程 | 第18-27页 |
2.2 双目立体视觉标定的基本原理 | 第27-35页 |
2.2.1 双目立体视觉的测距原理 | 第27-28页 |
2.2.2 摄像机的成像模型 | 第28-29页 |
2.2.3 摄像机标定中的数学模型 | 第29-33页 |
2.2.4 带畸变的摄像机数学模型 | 第33-35页 |
2.3 带径向畸变的摄像机标定方法 | 第35-38页 |
2.4 基于BP神经网络的双目摄像机标定 | 第38-42页 |
2.4.1 BP神经网络的结构 | 第38-39页 |
2.4.2 BP神经网络学习算法 | 第39-41页 |
2.4.3 双目摄像机标定的BP网络结构 | 第41-42页 |
2.5 基于Huber损失的圆形标定板圆心提取算法验证 | 第42-45页 |
2.6 本章小结 | 第45-47页 |
第3章 基于SIFT算法的立体匹配 | 第47-57页 |
3.1 特征提取算法研究与验证 | 第47-53页 |
3.1.1 FAST特征提取算法的研究 | 第47-48页 |
3.1.2 SIFT特征提取算法的研究 | 第48-52页 |
3.1.3 SIFT算法的验证实验 | 第52-53页 |
3.2 立体匹配算法研究与验证 | 第53-56页 |
3.2.1 匹配方法介绍 | 第54页 |
3.2.2 基于向量夹角的立体匹配约束条件 | 第54-55页 |
3.2.3 立体匹配实验验证 | 第55-56页 |
3.3 本章小结 | 第56-57页 |
第4章 基于双目立体视觉的工件测距系统设计与实验 | 第57-64页 |
4.1 双目立体视觉测距系统的硬件系统 | 第57-60页 |
4.1.1 光源选择 | 第58-59页 |
4.1.2 相机选择 | 第59页 |
4.1.3 镜头选择 | 第59-60页 |
4.2 双目立体视觉测距的软件平台 | 第60页 |
4.3 基于双目立体视觉的工件测量 | 第60-63页 |
4.3.1 工件的识别与预匹配 | 第60-61页 |
4.3.2 双目立体视觉的工件测距研究 | 第61-63页 |
4.4 本章小结 | 第63-64页 |
第5章 总结与展望 | 第64-66页 |
5.1 全文总结 | 第64-65页 |
5.2 不足与展望 | 第65-66页 |
参考文献 | 第66-70页 |
致谢 | 第70页 |