基于单目摄像机的增强现实场景感知技术研究
摘要 | 第4-6页 |
ABSTRACT | 第6-8页 |
第一章 绪论 | 第18-44页 |
1.1 研究背景 | 第18-22页 |
1.1.1 增强现实面临的问题和难点 | 第19页 |
1.1.2 研究目标和意义 | 第19-22页 |
1.1.3 课题来源 | 第22页 |
1.2 增强现实的研究现状 | 第22-29页 |
1.2.1 增强现实场景表达的研究现状 | 第22-24页 |
1.2.2 增强现实场景虚实配准的研究现状 | 第24-26页 |
1.2.3 物体3D姿态求解的研究现状 | 第26-29页 |
1.3 摄像机跟踪技术 | 第29-39页 |
1.3.1 摄像机模型 | 第30-33页 |
1.3.2 目标检测 | 第33-34页 |
1.3.3 目标姿态估计 | 第34-35页 |
1.3.4 摄像机的跟踪 | 第35-38页 |
1.3.5 运动估计结构技术 | 第38-39页 |
1.3.6 鲁棒估计技术 | 第39页 |
1.4 局部特征提取与匹配 | 第39-43页 |
1.4.1 图像特征检测 | 第39-41页 |
1.4.2 图像特征的描述 | 第41-42页 |
1.4.3 图像特征的匹配 | 第42-43页 |
1.5 本文内容及结构 | 第43页 |
1.6 本章小结 | 第43-44页 |
第二章 基于视频的场景点云重构与处理 | 第44-63页 |
2.1 问题描述 | 第44-47页 |
2.2 场景重构流程与误差分析 | 第47-48页 |
2.2.1 关键帧重构误差分析 | 第48页 |
2.3 场景点云重构 | 第48-57页 |
2.3.1 场景三维点求解 | 第49-51页 |
2.3.2 局部集束优化 | 第51-54页 |
2.3.3 装配场景重构实验 | 第54-57页 |
2.4 基于统计离群值法的点云滤波 | 第57-61页 |
2.4.1 点云噪声处理 | 第58-59页 |
2.4.2 噪声过滤实验 | 第59-61页 |
2.5 本章小结 | 第61-63页 |
第三章 基于光流的单目摄像机跟踪 | 第63-82页 |
3.1 摄像机跟踪框架 | 第64-67页 |
3.1.1 关键帧选择 | 第64-65页 |
3.1.2 特征点检测和描述 | 第65-66页 |
3.1.3 场景管理 | 第66-67页 |
3.2 基于稀疏光流的摄像机姿态估计 | 第67-74页 |
3.2.1 光流约束方程 | 第68-69页 |
3.2.2 光流预测 | 第69-71页 |
3.2.3 自适应近邻搜索 | 第71-72页 |
3.2.4 摄像机姿态方程 | 第72-74页 |
3.3 摄像机姿态的恢复 | 第74-76页 |
3.3.1 姿态恢复策略 | 第74-75页 |
3.3.2 特征的匹配与恢复 | 第75-76页 |
3.4 实验结果 | 第76-81页 |
3.5 本章小结 | 第81-82页 |
第四章 基于点云的零部件识别和姿态估计方法 | 第82-103页 |
4.1 识别框架概述 | 第83-84页 |
4.2 匹配问题描述 | 第84-86页 |
4.2.1 模型和场景的配准 | 第85-86页 |
4.3 密度自适应的共面四点算法 | 第86-93页 |
4.3.1 点云描述基集的提取 | 第86-87页 |
4.3.2 密度自适应匹配算法 | 第87-88页 |
4.3.3 基于体素点权重的点云下采样 | 第88-92页 |
4.3.4 ICP配准 | 第92-93页 |
4.4 CAD模型点云库构建 | 第93-95页 |
4.5 实验结果 | 第95-101页 |
4.5.1 3D识别与配准实验 | 第95-101页 |
4.5.2 与基于局部特征的2D识别方法对比 | 第101页 |
4.6 本章小结 | 第101-103页 |
第五章 装配场景虚实融合实验平台 | 第103-121页 |
5.1 增强装配的模型表达 | 第103-112页 |
5.1.1 场景与零部件的几何模型 | 第104-106页 |
5.1.2 装配约束表达 | 第106-108页 |
5.1.3 装配层次表达 | 第108-112页 |
5.2 虚拟模型的叠加 | 第112-116页 |
5.2.1 基于2D图像的虚实场景叠加 | 第112-114页 |
5.2.2 基于点云的虚拟零件叠加 | 第114-116页 |
5.3 实验结果和分析 | 第116-120页 |
5.4 本章小结 | 第120-121页 |
结论与展望 | 第121-124页 |
参考文献 | 第124-136页 |
攻读学位期间的论文及项目 | 第136-138页 |
致谢 | 第138页 |