摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 绪论 | 第13-21页 |
1.1 引言 | 第13-14页 |
1.2 视觉定位问题描述 | 第14-15页 |
1.3 视觉定位关键技术 | 第15-17页 |
1.4 视觉定位常用算法 | 第17-19页 |
1.5 论文的研究内容与组织结构 | 第19-21页 |
1.5.1 本文研究的主要内容 | 第19页 |
1.5.2 本文的组织结构 | 第19-21页 |
第二章 视觉定位体系结构 | 第21-24页 |
2.1 本文的视觉定位体系结构 | 第21-22页 |
2.2 双CPU 架构的并行算法设计 | 第22-23页 |
2.3 本章小结 | 第23-24页 |
第三章 目标识别系统 | 第24-44页 |
3.1 目标识别问题 | 第24-25页 |
3.1.1 常用物体特征表示 | 第24-25页 |
3.2 基于不变特征的目标识别算法 | 第25-26页 |
3.3 HARRIS-SIFT 特征提取算子 | 第26-33页 |
3.3.1 SIFT 算法流程 | 第26-29页 |
3.3.2 SIFT 算法问题分析 | 第29-31页 |
3.3.3 Harris-SIFT | 第31-33页 |
3.4 目标数据库 | 第33页 |
3.5 特征匹配 | 第33-38页 |
3.5.1 近似最近邻居搜索(ANN) | 第35-38页 |
3.6 模式识别 | 第38-42页 |
3.6.1 仿射检验与去除误匹配 | 第38-41页 |
3.6.2 评估和识别 | 第41-42页 |
3.7 多目标识别 | 第42-43页 |
3.8 本章小结 | 第43-44页 |
第四章 实时跟踪和定位算法 | 第44-70页 |
4.1 视觉定位问题 | 第44-47页 |
4.1.1 立体视觉三维重建技术 | 第44-46页 |
4.1.2 基于图像序列的三维重建技术 | 第46-47页 |
4.2 KLT 特征跟踪 | 第47-50页 |
4.2.1 KLT 算子原理 | 第47-49页 |
4.2.2 特征跟踪 | 第49-50页 |
4.3 仿射检验 | 第50-51页 |
4.4 识别跟踪的同步 | 第51-55页 |
4.4.1 双线程任务划分 | 第52-53页 |
4.4.2 同步机制 | 第53-55页 |
4.5 摄像机标定 | 第55-61页 |
4.5.1 摄像机成像模型 | 第55-59页 |
4.5.2 摄像机标定方法 | 第59-61页 |
4.5.3 基于成像模型的三维坐标计算 | 第61页 |
4.6 POSIT 算法描述 | 第61-66页 |
4.6.1 问题描述 | 第62-63页 |
4.6.2 缩放正交投影(Scaled Orthographic Projection, SOP) | 第63-65页 |
4.6.3 POSIT 算法步骤 | 第65页 |
4.6.4 平面POSIT 算法 | 第65-66页 |
4.7 实时定位算法分析 | 第66-69页 |
4.7.1 算法流程 | 第66-67页 |
4.7.2 算法分析 | 第67-69页 |
4.8 本章小结 | 第69-70页 |
第五章 实验研究与结果分析 | 第70-87页 |
5.1 实验方案的研究 | 第70页 |
5.2 HARRIS-SIFT 特征提取算法 | 第70-77页 |
5.2.1 评价体系 | 第70-73页 |
5.2.2 测试图像 | 第73页 |
5.2.3 评估实验 | 第73-76页 |
5.2.4 结果分析 | 第76-77页 |
5.3 基于HARRIS-SIFT 的目标识别算法 | 第77-79页 |
5.3.1 实验内容 | 第77-79页 |
5.3.2 结果分析 | 第79页 |
5.4 实时视觉定位实验 | 第79-85页 |
5.4.1 摄像机标定 | 第79-80页 |
5.4.2 测试图像 | 第80-82页 |
5.4.3 实时定位实验 | 第82-85页 |
5.4.4 结论 | 第85页 |
5.5 本章小结 | 第85-87页 |
第六章 总结和展望 | 第87-90页 |
6.1 全文总结 | 第87页 |
6.2 未来研究方向 | 第87-90页 |
参考文献 | 第90-96页 |
致谢 | 第96-97页 |
攻读硕士学位期间发表的学术论文 | 第97页 |
作者在攻读硕士学位期间参加的科研工作 | 第97页 |