基于音视频融合的目标跟踪
摘要 | 第3-4页 |
Abstract | 第4页 |
目录 | 第5-7页 |
第一章 绪论 | 第7-15页 |
1.1 课题研究背景及意义 | 第7页 |
1.2 信息融合理论介绍 | 第7-10页 |
1.2.1 信息融合概述 | 第7-8页 |
1.2.2 信息融合类型与结构 | 第8-10页 |
1.3 目标跟踪方法简介 | 第10-12页 |
1.3.1 自底向上 | 第11页 |
1.3.2 自顶向下 | 第11-12页 |
1.4 国内外研究现状 | 第12-14页 |
1.4.1 音视频融合的研究现状 | 第12-13页 |
1.4.2 多目标数据关联的研究现状 | 第13-14页 |
1.4.3 轨迹识别的研究现状 | 第14页 |
1.5 本文工作 | 第14-15页 |
第二章 音频定位与视频定位方法 | 第15-21页 |
2.1 音频定位方法 | 第15-17页 |
2.1.1 麦克风阵列信号模型 | 第15页 |
2.1.2 麦克风阵列声源定位方法概述 | 第15-16页 |
2.1.3 SRP-PHAT声源定位方法 | 第16-17页 |
2.2 视频定位方法 | 第17-20页 |
2.2.1 运动目标检测方法概述 | 第17-19页 |
2.2.2 HSV彩色空间的混合高斯背景建模 | 第19-20页 |
2.3 本章小结 | 第20-21页 |
第三章 基于异步隐马尔可夫的数据关联 | 第21-33页 |
3.1 数据关联 | 第21-22页 |
3.2 隐马尔可夫简介 | 第22-25页 |
3.2.1 HMM的基本概念 | 第22页 |
3.2.2 HMM的基本问题 | 第22-24页 |
3.2.3 HMM的拓扑结构 | 第24-25页 |
3.3 基于HMM的数据关联 | 第25-28页 |
3.3.1 特征选择及提取 | 第25-26页 |
3.3.2 HMM训练 | 第26-27页 |
3.3.3 基于HMM的多目标数据关联 | 第27-28页 |
3.4 基于异步隐马尔可夫的数据关联 | 第28-30页 |
3.4.1 异步隐马尔可夫模型简介 | 第28-29页 |
3.4.2 AHMM训练 | 第29-30页 |
3.4.3 基于AHMM的多目标数据关联 | 第30页 |
3.5 实验结果与分析 | 第30-32页 |
3.6 本章小结 | 第32-33页 |
第四章 基于音视频融合的目标跟踪 | 第33-45页 |
4.1 摄像机标定 | 第33-35页 |
4.2 基于迭代译码的音视频融合目标跟踪 | 第35-38页 |
4.2.1 迭代译码概述 | 第35页 |
4.2.2 音视频联合目标跟踪 | 第35-38页 |
4.3 实验结果及分析 | 第38-44页 |
4.3.1 Av16.3数据库简介 | 第38-39页 |
4.3.2 实验结果 | 第39-44页 |
4.4 本章小结 | 第44-45页 |
第五章 基于异步隐马尔可夫的目标轨迹识别 | 第45-52页 |
5.1 目标轨迹识别的研究意义 | 第45页 |
5.2 基于异步隐马尔可夫的轨迹识别 | 第45-47页 |
5.2.1 EM算法参数初始化 | 第45-46页 |
5.2.2 AHMM建模 | 第46页 |
5.2.3 轨迹识别 | 第46-47页 |
5.3 实验仿真 | 第47-51页 |
5.3.1 轨迹提取 | 第47-49页 |
5.3.2 实验结果及分析 | 第49-51页 |
5.4 本章小结 | 第51-52页 |
主要结论与展望 | 第52-53页 |
主要结论 | 第52页 |
展望 | 第52-53页 |
致谢 | 第53-54页 |
参考文献 | 第54-58页 |
附录: 作者在攻读硕士学位期间发表的论文 | 第58页 |