智能环境下基于音频视频信息融合的多说话人跟踪
摘要 | 第1-8页 |
Abstract | 第8-10页 |
插图索引 | 第10-12页 |
附表索引 | 第12-13页 |
第1章 绪论 | 第13-22页 |
·课题研究背景及意义 | 第13-18页 |
·课题的研究背景 | 第13-17页 |
·课题的研究意义 | 第17-18页 |
·音频视频目标跟踪的国内外研究现状 | 第18-20页 |
·目标跟踪概述 | 第18页 |
·音频视频说话人跟踪的国内外研究现状 | 第18-20页 |
·本文主要研究工作及组织结构 | 第20-21页 |
·本章小结 | 第21-22页 |
第2章 多源信息融合 | 第22-35页 |
·多源信息融合基础理论 | 第22-27页 |
·多源信息融合的概念 | 第22-24页 |
·多源信息融合的功能模型 | 第24-25页 |
·信息融合的级别 | 第25-27页 |
·多源信息融合跟踪系统 | 第27-29页 |
·异类信息融合 | 第29-33页 |
·雷达与红外融合目标跟踪 | 第30页 |
·音频视频融合目标跟踪与识别 | 第30-33页 |
·多源信息融合的研究现状 | 第33-34页 |
·本章小结 | 第34-35页 |
第3章 基于视频多特征信息融合的多人目标跟踪 | 第35-46页 |
·粒子滤波 | 第35-39页 |
·蒙特卡罗方法 | 第35-36页 |
·序贯重要性采样算法 | 第36-37页 |
·粒子权值退化现象 | 第37-38页 |
·重要性函数的选取 | 第38页 |
·重采样方法 | 第38页 |
·粒子滤波算法流程 | 第38-39页 |
·基于视频多特征信息的人物跟踪 | 第39-43页 |
·人脸肤色观测似然模型 | 第40-41页 |
·头部轮廓测似然模型 | 第41-42页 |
·多视频信息融合观测似然模型 | 第42-43页 |
·算法仿真与结果分析 | 第43-45页 |
·本章小结 | 第45-46页 |
第4章 音视频信息融合的说话人跟踪 | 第46-57页 |
·音频视频融合说话人跟踪系统 | 第46-47页 |
·基于肤色的人脸跟踪 | 第47-49页 |
·基于声源定位的音频跟踪 | 第49-51页 |
·音视频信息融合与反馈 | 第51-52页 |
·实验仿真及分析 | 第52-56页 |
·本章小结 | 第56-57页 |
结论与展望 | 第57-59页 |
参考文献 | 第59-66页 |
致谢 | 第66-67页 |
附录攻读学位期间参与科研项目和发表的学术论文目录 | 第67页 |