摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第13-20页 |
1.1 课题的研究背景及意义 | 第13-14页 |
1.2 国内外研究现状 | 第14-17页 |
1.2.1 音频目标跟踪的国内外研究现状 | 第15页 |
1.2.2 视频目标跟踪的国内外研究现状 | 第15-16页 |
1.2.3 基于音视频融合的目标跟踪的国内外研究现状 | 第16-17页 |
1.3 本文的主要工作 | 第17-18页 |
1.4 组织结构 | 第18-20页 |
第2章 目标跟踪技术 | 第20-33页 |
2.1 音频目标跟踪技术简述 | 第20-24页 |
2.1.1 基于麦克风阵列的声源跟踪方法 | 第20-21页 |
2.1.2 广义互相关时延估计算法 | 第21-24页 |
2.2 视频目标跟踪技术简述 | 第24-31页 |
2.2.1 均值漂移算法 | 第24-28页 |
2.2.2 粒子滤波算法 | 第28-31页 |
2.3 基于音视频融合的目标跟踪技术简述 | 第31-32页 |
2.4 本章小结 | 第32-33页 |
第3章 基于广义二次相关的音频目标跟踪算法的改进 | 第33-47页 |
3.1 麦克风阵列的介绍与选取 | 第33-36页 |
3.1.1 麦克风阵列的结构 | 第33-34页 |
3.1.2 麦克风阵列中阵元选取的数目与间距 | 第34-36页 |
3.2 广义二次相关时延估计改进算法 | 第36-41页 |
3.2.1 广义互相关加权函数 | 第36-37页 |
3.2.2 二次相关时延估计算法 | 第37-38页 |
3.2.3 广义二次相关时延估计算法 | 第38-39页 |
3.2.4 广义二次相关时延估计算法的改进 | 第39-41页 |
3.3 仿真实验以及结果分析 | 第41-46页 |
3.4 本章小结 | 第46-47页 |
第4章 基于音视频融合的说话人跟踪方法 | 第47-74页 |
4.1 均值漂移与粒子滤波在视频目标跟踪中的应用 | 第47-53页 |
4.1.1 均值漂移算法在视频目标跟踪中的应用 | 第47-51页 |
4.1.2 粒子滤波算法在视频目标跟踪中的应用 | 第51-53页 |
4.2 基于均值漂移的粒子滤波视频目标跟踪算法的改进 | 第53-60页 |
4.2.1 改进算法的原理 | 第53-54页 |
4.2.2 改进算法的描述 | 第54-56页 |
4.2.3 仿真实验以及结果分析 | 第56-60页 |
4.3 新的基于音视频融合的说话人跟踪算法 | 第60-73页 |
4.3.1 新的基于音视频融合的说话人跟踪算法的原理 | 第60-62页 |
4.3.2 新的基于音视频融合的说话人跟踪算法的描述 | 第62页 |
4.3.3 实验仿真以及结果分析 | 第62-73页 |
4.4 本章小结 | 第73-74页 |
第5章 总结与展望 | 第74-76页 |
5.1 总结 | 第74-75页 |
5.2 研究展望 | 第75-76页 |
致谢 | 第76-77页 |
参考文献 | 第77-81页 |
攻读学位期间发表的学术论文及参加科研情况 | 第81-82页 |