摘要 | 第4-5页 |
Abstract | 第5-6页 |
目录 | 第7-10页 |
1 绪论 | 第10-18页 |
1.1 研究背景及意义 | 第10-12页 |
1.2 双目立体视觉研究概况 | 第12-16页 |
1.2.1 Marr视觉理论框架 | 第12-13页 |
1.2.2 双目立体视觉的发展及应用 | 第13-14页 |
1.2.3 基于双目立体视觉的三维重建 | 第14-15页 |
1.2.4 立体视觉面临的问题 | 第15-16页 |
1.3 本文研究内容 | 第16-18页 |
2 双目立体视觉基础理论 | 第18-30页 |
2.1 数学几何变换基础知识 | 第18-21页 |
2.1.1 齐次坐标 | 第18页 |
2.1.2 射影几何变换 | 第18-20页 |
2.1.3 空间几何变换 | 第20-21页 |
2.2 摄像机成像模型 | 第21-25页 |
2.2.1 常用坐标系 | 第21-23页 |
2.2.2 线性摄像机模型 | 第23-24页 |
2.2.3 非线性畸变模型 | 第24-25页 |
2.3 双目立体视觉基本原理 | 第25-29页 |
2.3.1 双目立体视觉原理 | 第25-28页 |
2.3.2 双目立体视觉的极线几何 | 第28-29页 |
2.4 本章小结 | 第29-30页 |
3 基于双目立体视觉的摄像机标定 | 第30-47页 |
3.1 摄像机标定方法 | 第30-31页 |
3.1.1 传统的摄像机标定 | 第30-31页 |
3.1.2 摄像机自标定 | 第31页 |
3.1.3 基于主动视觉的摄像机标定 | 第31页 |
3.2 摄像机标定策略 | 第31-33页 |
3.2.1 基于效率的标定策略 | 第32页 |
3.2.2 基于精度的标定策略 | 第32页 |
3.2.3 同时考虑效率与精度的标定策略 | 第32-33页 |
3.3 基于共面点的改进Tsai两步标定法 | 第33-39页 |
3.3.1 径向排列约束 | 第33-34页 |
3.3.2 标定过程 | 第34-36页 |
3.3.3 标定步骤 | 第36-38页 |
3.3.4 标定误差评价 | 第38-39页 |
3.4 基于双目立体视觉的双摄像机标定 | 第39-41页 |
3.5 实验结果与分析 | 第41-46页 |
3.6 本章小结 | 第46-47页 |
4 角点检测与图像匹配 | 第47-69页 |
4.1 经典的角点检测算法 | 第47-57页 |
4.1.1 Harris角点检测 | 第47-49页 |
4.1.2 SUSAN角点检测 | 第49-50页 |
4.1.3 SIFT角点检测 | 第50-53页 |
4.1.4 角点检测标准 | 第53-54页 |
4.1.5 角点检测实验结果与分析 | 第54-57页 |
4.2 图像匹配基本理论 | 第57-60页 |
4.2.1 图像匹配的数学模型 | 第57-58页 |
4.2.2 图像匹配的分类方法 | 第58页 |
4.2.3 图像匹配的相似性测度 | 第58-60页 |
4.2.4 图像匹配的约束条件 | 第60页 |
4.3 基于SIFT角点检测和图像匹配的算法 | 第60-62页 |
4.4 基于改进的SIFT角点检测与NPC图像匹配的算法 | 第62-64页 |
4.5 图像匹配实验结果与分析 | 第64-68页 |
4.6 本章小结 | 第68-69页 |
5 基于双目立体视觉的三维空间点重建 | 第69-86页 |
5.1 基于双目立体视觉系统的安装结构 | 第69-71页 |
5.2 三维空间点重建计算模型 | 第71-73页 |
5.3 三维空间点重建基本步骤 | 第73-78页 |
5.3.1 摄像机标定的基本实现步骤 | 第73-75页 |
5.3.2 角点检测与图像匹配的基本实现步骤 | 第75-77页 |
5.3.3 三维空间点重建的基本实现步骤 | 第77-78页 |
5.4 三维空间点重建实验结果 | 第78-82页 |
5.5 目标识别与分类 | 第82-85页 |
5.5.1 基于形状的分类方法 | 第83页 |
5.5.2 基于占空比的分类方法 | 第83-84页 |
5.5.3 设定阈值并分类 | 第84-85页 |
5.6 本章小结 | 第85-86页 |
6 总结与展望 | 第86-88页 |
6.1 总结 | 第86-87页 |
6.2 展望 | 第87-88页 |
参考文献 | 第88-93页 |
附录 | 第93-97页 |
攻读学位期间主要的研究成果 | 第97-98页 |
致谢 | 第98页 |