基于SIFT算法的双目立体视觉定位研究
摘要 | 第1-5页 |
ABSTRACT | 第5-10页 |
第一章 绪论 | 第10-16页 |
·本课题研究的背景及意义 | 第10-11页 |
·国内外研究现状 | 第11-14页 |
·国外研究现状 | 第12-13页 |
·国内研究现状 | 第13-14页 |
·课题主要工作及章节安排 | 第14-16页 |
·课题的主要工作 | 第14-15页 |
·课题的章节安排 | 第15-16页 |
第二章 双目立体视觉原理 | 第16-26页 |
·摄像机的工作原理 | 第16页 |
·摄像机模型 | 第16-19页 |
·小孔模型 | 第16-17页 |
·摄像机内参数模型 | 第17-18页 |
·摄像机外参数模型 | 第18-19页 |
·双目立体视觉基本模型 | 第19-23页 |
·立体视觉技术的介绍 | 第19-20页 |
·一般的双目立体视觉模型 | 第20-22页 |
·双目平行立体视觉模型 | 第22-23页 |
·视觉测量的约束条件 | 第23-26页 |
第三章 摄像机标定 | 第26-46页 |
·图像坐标系、摄像机坐标系与世界坐标系 | 第27-29页 |
·图像坐标系 | 第27-28页 |
·摄像机坐标系 | 第28页 |
·世界坐标系 | 第28-29页 |
·传统摄像机标定方法 | 第29-37页 |
·直接线性变换方法(DLT) | 第29-30页 |
·Faugeras摄像机标定方法 | 第30-33页 |
·Tsai摄像机标定方法 | 第33-37页 |
·摄像机自标定技术 | 第37-39页 |
·本文采用的摄像机标定方法 | 第39-46页 |
·张氏标定的算法 | 第39-43页 |
·标定的步骤 | 第43-46页 |
第四章 SIFT特征提取算法 | 第46-66页 |
·特征提取方法 | 第46-49页 |
·边缘提取 | 第46-48页 |
·角点提取 | 第48-49页 |
·SIFT算法的简介和发展史 | 第49-50页 |
·SIFT算法特点和流程 | 第50-51页 |
·SIFT特征点提取过程 | 第51-59页 |
·多尺度空间极值点检测 | 第51-55页 |
·关键点精确定位 | 第55-57页 |
·关键点方向分配 | 第57-58页 |
·生成特征点描述子 | 第58-59页 |
·SIFT算法特征点匹配 | 第59-66页 |
·SIFT算法的测试实验 | 第60-63页 |
·图像特征点的匹配 | 第63-66页 |
第五章 SIFT算法的改进 | 第66-78页 |
·PCA-SIFT算法 | 第66-67页 |
·SURF算法 | 第67-70页 |
·Harris-SIFT算法 | 第70-73页 |
·改进SIFT算法的实验 | 第73-78页 |
·SURF算法实验 | 第73-74页 |
·Harris-SIFT算法的实验 | 第74-78页 |
第六章 双目立体视觉实验 | 第78-84页 |
·系统设计 | 第78-79页 |
·实验过程 | 第79-82页 |
·误差分析 | 第82-84页 |
第七章 总结与展望 | 第84-86页 |
参考文献 | 第86-90页 |
致谢 | 第90-92页 |
攻读硕士学位期间发表的学术论文 | 第92页 |