| 致谢 | 第5-6页 |
| 摘要 | 第6-8页 |
| ABSTRACT | 第8-9页 |
| 1 绪论 | 第12-20页 |
| 1.1 选题背景与研究意义 | 第12-13页 |
| 1.2 国内外研究现状 | 第13-17页 |
| 1.2.1 影响目标跟踪的因素 | 第13-15页 |
| 1.2.2 运动目标跟踪常见算法 | 第15-17页 |
| 1.3 论文主要内容及创新点 | 第17-18页 |
| 1.3.1 论文的主要内容 | 第17-18页 |
| 1.3.2 论文的主要特色及创新点 | 第18页 |
| 1.4 论文组织结构 | 第18-20页 |
| 2 基于多视角几何约束的Multi-egocentric视频多目标跟踪算法 | 第20-33页 |
| 2.1 相关工作 | 第20-22页 |
| 2.2 单应性几何约束下的初始位置估计 | 第22-24页 |
| 2.3 对极几何约束下的位置估计 | 第24-25页 |
| 2.4 基于几何约束的目标运动模型 | 第25-26页 |
| 2.5 实验结果及分析 | 第26-31页 |
| 2.5.1 Multi-egocentric视频的数据集构建 | 第26-27页 |
| 2.5.2 在BJMOT数据集上的实验 | 第27-29页 |
| 2.5.3 在EPLF-campus4数据集上的实验 | 第29-31页 |
| 2.6 本章小结 | 第31-33页 |
| 3 基于多模型融合的Egocentric视频相机位姿估计算法 | 第33-46页 |
| 3.1 相关工作 | 第33-34页 |
| 3.2 多模型融合的相机位姿估计 | 第34-40页 |
| 3.2.1 特征点法相机位姿估计 | 第34-36页 |
| 3.2.2 直接法相机位姿估计 | 第36-38页 |
| 3.2.3 相机运动模型 | 第38页 |
| 3.2.4 相机位姿全局优化 | 第38-40页 |
| 3.3 实验结果与分析 | 第40-45页 |
| 3.4 本章小结 | 第45-46页 |
| 4 基于Multi-egocentric视频的多目标三维空间跟踪方法 | 第46-57页 |
| 4.1 相关工作 | 第46-47页 |
| 4.2 多视角目标空间运动轨迹重建 | 第47-50页 |
| 4.3 基于运动轨迹重建的目标空间运动模型 | 第50-51页 |
| 4.4 实验结果及分析 | 第51-55页 |
| 4.4.1 相机初始位置参数标定实验 | 第51-52页 |
| 4.4.2 多视角相机位姿估计实验 | 第52-53页 |
| 4.4.3 多目标三维空间跟踪实验 | 第53-55页 |
| 4.5 本章小结 | 第55-57页 |
| 5 工作总结与展望 | 第57-59页 |
| 5.1 工作总结 | 第57-58页 |
| 5.2 下一步的工作与展望 | 第58-59页 |
| 参考文献 | 第59-63页 |
| 作者简历及攻读硕士学位期间取得的研究成果 | 第63-65页 |
| 学位论文数据集 | 第65页 |