基于粒子滤波的音视频联合单说话人跟踪
摘要 | 第1-8页 |
Abstract | 第8-11页 |
第1章 绪论 | 第11-17页 |
·课题的研究意义 | 第11-12页 |
·国内外研究现状 | 第12-15页 |
·基于音频的说话人跟踪研究现状 | 第12-13页 |
·基于视频的说话人跟踪研究现状 | 第13-14页 |
·基于音视频联合的说话人跟踪研究现状 | 第14-15页 |
·本文的主要工作和结构安排 | 第15-17页 |
·本文的主要工作 | 第15-16页 |
·本文的结构安排 | 第16-17页 |
第2章 粒子滤波算法和多特征融合算法概述 | 第17-30页 |
·粒子滤波算法概述 | 第17-22页 |
·粒子滤波算法的原理 | 第17-20页 |
·粒子滤波算法的优缺点 | 第20-21页 |
·粒子滤波算法在说话人跟踪中的实现框架 | 第21-22页 |
·多特征融合算法概述 | 第22-29页 |
·常用融合算法分类 | 第22-24页 |
·不确定性融合方法简介 | 第24-25页 |
·标准D-S融合算法及其改进 | 第25-28页 |
·多特征融合算法在说话人跟踪系统中的实现框架 | 第28-29页 |
·本章小结 | 第29-30页 |
第3章 基于单模态信号的说话人跟踪 | 第30-47页 |
·基于音频信号的说话人跟踪 | 第31-39页 |
·音频定位特征提取 | 第31-33页 |
·基于单音频定位特征的说话人跟踪 | 第33-35页 |
·基于音频多特征融合的说话人跟踪 | 第35-39页 |
·基于视频信号的说话人跟踪 | 第39-46页 |
·视频定位特征提取 | 第39-41页 |
·基于单视频特征的说话人跟踪 | 第41-42页 |
·改进的D-S理论在视频多特征融合中的实现框架 | 第42-43页 |
·基于改进D-S理论的视频多特征融合说话人跟踪 | 第43-46页 |
·本章小结 | 第46-47页 |
第4章 基于音视频联合的说话人跟踪 | 第47-55页 |
·音视频特征选取原则 | 第47-48页 |
·不确定性度量 | 第48-50页 |
·不确定性融合方法在音视频多特征融合中的实现框架 | 第50-51页 |
·基于粒子滤波的音视频联合说话人跟踪性能仿真 | 第51-54页 |
·基于粒子滤波的音视频联合算法实现步骤 | 第51-52页 |
·单模态跟踪与双模态跟踪性能对比 | 第52-54页 |
·本章小结 | 第54-55页 |
结论与展望 | 第55-57页 |
参考文献 | 第57-63页 |
致谢 | 第63-64页 |
附录 参与科研项目和发表的学术论文目录 | 第64页 |