基于LOPOR的多摄像机的运动目标协同跟踪算法研究
摘要 | 第4-5页 |
Abstract | 第5页 |
1 绪论 | 第8-14页 |
1.1 研究背景、目的和意义 | 第8页 |
1.2 国内外研究现状 | 第8-10页 |
1.3 研究难点分析和本文解决方案 | 第10-12页 |
1.3.1 难点分析 | 第10-11页 |
1.3.2 本文解决方案 | 第11-12页 |
1.4 论文主要研究内容和章节安排 | 第12-14页 |
2 全局坐标系的建立 | 第14-24页 |
2.1 摄像机标定方法理论 | 第14-18页 |
2.1.1 常用坐标系 | 第14-17页 |
2.1.2 针孔模型 | 第17-18页 |
2.2 标定方法 | 第18-19页 |
2.2.1 传统的标定方法 | 第18-19页 |
2.2.2 基于主动视觉的标定方法 | 第19页 |
2.2.3 自标定方法 | 第19页 |
2.3 双灭点透视校正 | 第19-22页 |
2.4 全局视图的生成 | 第22-23页 |
2.5 本章小结 | 第23-24页 |
3 单摄像机目标管理 | 第24-35页 |
3.1 基于G&E特征局部分析的多目标跟踪 | 第24-30页 |
3.1.1 分块方式 | 第25-26页 |
3.1.2 特征提取 | 第26-28页 |
3.1.3 目标跟踪与匹配 | 第28页 |
3.1.4 单摄像机跟踪结果分析 | 第28-30页 |
3.2 目标等级划分 | 第30-33页 |
3.3 数据分析 | 第33-34页 |
3.4 本章小结 | 第34-35页 |
4 多摄像机协同跟踪与数据融合 | 第35-48页 |
4.1 多摄像机间的目标匹配 | 第35-40页 |
4.1.1 多摄像机间的目标匹配理论 | 第35-36页 |
4.1.2 多摄像机间同一目标匹配过程 | 第36-38页 |
4.1.3 多摄像机间同一目标匹配数据分析 | 第38-40页 |
4.2 多摄像机协同跟踪与数据融合 | 第40-47页 |
4.2.1 多摄像机协同与数据融合过程 | 第41页 |
4.2.2 多摄像机协同与全景跟踪示意过程 | 第41-42页 |
4.2.3 多摄像机协同与全景跟踪实验过程 | 第42-45页 |
4.2.4 单摄像机跟踪结果修正实验 | 第45-47页 |
4.3 本章小结 | 第47-48页 |
5 实验结果及分析 | 第48-61页 |
5.1 实验数据与结果分析 | 第48-58页 |
5.1.1 场景一 | 第48-52页 |
5.1.2 场景二 | 第52-55页 |
5.1.3 场景三 | 第55-58页 |
5.2 对比实验 | 第58-60页 |
5.3 本章小结 | 第60-61页 |
总结 | 第61-62页 |
参考 文献 | 第62-66页 |
攻读硕士学位期间发表论文及科研成果 | 第66-67页 |
致谢 | 第67-68页 |