摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 研究背景与意义 | 第9页 |
1.2 国内外研究现状 | 第9-11页 |
1.3 目标跟踪问题的难点 | 第11页 |
1.4 本文主要研究内容和组织结构 | 第11-15页 |
第2章 目标跟踪及定位方法 | 第15-19页 |
2.1 目标跟踪方法 | 第15-17页 |
2.1.1 基于单摄像机的目标跟踪 | 第15-16页 |
2.1.2 基于多摄像机的目标跟踪 | 第16页 |
2.1.3 融合深度信息的目标跟踪 | 第16-17页 |
2.2 惯性传感器定位方法 | 第17-18页 |
2.2.1 惯性传感器技术发展历程 | 第17页 |
2.2.2 加速度传感器和陀螺仪传感器 | 第17-18页 |
2.2.3 惯性传感器的应用 | 第18页 |
2.3 本章小结 | 第18-19页 |
第3章 惯性传感器与 RGB-D 序列的融合定位方法 | 第19-27页 |
3.1 基于惯性传感器的目标定位 | 第19-21页 |
3.2 基于 RGB-D 序列的目标定位 | 第21-23页 |
3.3 惯性传感器与 RGB-D 序列的融合定位 | 第23-24页 |
3.3.1 TPS 变形模型 | 第23-24页 |
3.3.2 分段 TPS 修正定位轨迹 | 第24页 |
3.4 实验结果与分析 | 第24-25页 |
3.5 本章小结 | 第25-27页 |
第4章 视频数据与惯性传感器的融合跟踪方法 | 第27-33页 |
4.1 基于压缩采样的视频跟踪 | 第27-28页 |
4.2 惯性传感器定位的坐标投影变换 | 第28-29页 |
4.3 视频数据与惯性传感器的融合跟踪 | 第29-30页 |
4.4 实验结果与分析 | 第30-31页 |
4.5 本章小结 | 第31-33页 |
第5章 数据采集系统 | 第33-45页 |
5.1 系统介绍 | 第33页 |
5.2 惯性传感器数据采集系统 | 第33-37页 |
5.2.1 系统硬件 | 第33-35页 |
5.2.2 系统软件 | 第35-36页 |
5.2.3 使用方法 | 第36-37页 |
5.3 多源数据同步采集系统 | 第37-42页 |
5.3.1 系统硬件 | 第37-39页 |
5.3.2 系统软件 | 第39-42页 |
5.3.3 使用方法 | 第42页 |
5.4 数据处理 | 第42-43页 |
5.5 本章小结 | 第43-45页 |
第6章 多源数据融合的目标跟踪实验 | 第45-51页 |
6.1 实验设计 | 第45-46页 |
6.1.1 数据采集过程 | 第45页 |
6.1.2 实验场景设计 | 第45-46页 |
6.2 实验结果与分析 | 第46-50页 |
6.2.1 两人相遇折返实验 | 第46-48页 |
6.2.2 多人遮挡行走实验 | 第48-50页 |
6.3 本章小结 | 第50-51页 |
结论 | 第51-53页 |
参考文献 | 第53-57页 |
攻读硕士学位期间发表的学术论文 | 第57-59页 |
致谢 | 第59页 |