面向机器人导航的双目摄像机标定和SIFT匹配的研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第9-17页 |
1.1 课题背景 | 第9-12页 |
1.1.1 机器人发展简史 | 第9-10页 |
1.1.2 机器视觉技术简介 | 第10-11页 |
1.1.3 双目视觉技术简介 | 第11-12页 |
1.2 双目视觉技术国内外研究现状 | 第12-15页 |
1.3 本课题的研究内容及意义 | 第15-16页 |
1.3.1 本课题研究内容 | 第15页 |
1.3.2 本课题意义 | 第15-16页 |
1.4 本文的章节安排 | 第16-17页 |
第二章 双目立体视觉摄像机分步标定 | 第17-29页 |
2.1 基本原理 | 第17-21页 |
2.1.1 摄像机标定模型 | 第17-18页 |
2.1.2 摄像机内参和外参的标定 | 第18-20页 |
2.1.3 透镜畸变的校正 | 第20页 |
2.1.4 双目摄像机立体参数的标定 | 第20-21页 |
2.2 双目立体视觉摄像机分步标定实验 | 第21-26页 |
2.2.1 实验仪器 | 第21-22页 |
2.2.2 实验内容及步骤 | 第22-23页 |
2.2.3 实验结果 | 第23-25页 |
2.2.3.1 左摄像机标定结果 | 第23-24页 |
2.2.3.2 右摄像机标定结果 | 第24页 |
2.2.3.3 双目摄像机立体参数标定结果 | 第24-25页 |
2.2.4 实验结果分析 | 第25-26页 |
2.2.4.1 标定结果分析 | 第25-26页 |
2.2.4.2 摄像机标定精度分析 | 第26页 |
2.3 本章小结 | 第26-29页 |
第三章 改进的SIFT算法及实验 | 第29-47页 |
3.1 立体匹配算法 | 第29-30页 |
3.1.1 匹配算法分类 | 第29-30页 |
3.1.2 特征检测与提取 | 第30页 |
3.1.3 特征描述 | 第30页 |
3.2 基于SIFT算法的特征提取 | 第30-36页 |
3.2.1 检测尺度空间极值 | 第31-33页 |
3.2.2 定位关键点 | 第33-34页 |
3.2.3 确定关键点的方向 | 第34-35页 |
3.2.4 生成关键点描述符 | 第35-36页 |
3.2.5 SIFT特征的基本匹配 | 第36页 |
3.2.6 SIFT算法特点 | 第36页 |
3.3 改进SIFT算法 | 第36-39页 |
3.3.1 简化特征描述子 | 第37页 |
3.3.2 改进SIFT特征的基本匹配算法 | 第37-38页 |
3.3.3 改进的RANSAC算法 | 第38-39页 |
3.4 改进SIFT算法匹配实验 | 第39-45页 |
3.4.1 实验仪器 | 第39页 |
3.4.2 实验内容 | 第39-41页 |
3.4.3 导航场景匹配实验及结果分析 | 第41-43页 |
3.4.4 测试图像匹配实验及结果分析 | 第43-45页 |
3.5 本章小结 | 第45-47页 |
第四章 总结与展望 | 第47-49页 |
参考文献 | 第49-53页 |
攻读硕士学位期间发表论文 | 第53-55页 |
致谢 | 第55页 |