摘要 | 第3-4页 |
ABSTRACT | 第4页 |
目录 | 第5-7页 |
第1章 绪论 | 第7-11页 |
1.1 课题背景及意义 | 第7-8页 |
1.2 视听觉信息融合模型及语音信号提取的研究现状 | 第8-9页 |
1.3 论文的主要工作及内容安排 | 第9-11页 |
第2章 视听觉融合模型 | 第11-27页 |
2.1 视听觉融合模型的选取 | 第11-17页 |
2.1.1 参数模型 | 第12-15页 |
2.1.2 非参数模型 | 第15-17页 |
2.2 语音信号特征选取 | 第17-22页 |
2.2.1 语音信号前端处理 | 第18-19页 |
2.2.2 线性预测倒谱系数LPCC | 第19-20页 |
2.2.3 梅尔倒谱系数MFCC | 第20-22页 |
2.3 基于空间位置信息的视觉特征 | 第22-24页 |
2.4 时间延迟的估计算法 | 第24-26页 |
2.4.1 广义互相关函数(GCC)法 | 第24-25页 |
2.4.2 最小均方(LMS)自适应滤波器法 | 第25页 |
2.4.3 互功率谱相位(CSP)法 | 第25-26页 |
2.5 小结 | 第26-27页 |
第3章 视听觉融合模型的建立及语音信号提取 | 第27-47页 |
3.1 模型参数的估计 | 第27-29页 |
3.2 基于视听觉信息融合模型的语音信号提取方法 | 第29-33页 |
3.2.1 语音信号提取算法模型 | 第29-30页 |
3.2.2 语音信号提取算法步骤 | 第30-33页 |
3.3 实验设计与说明 | 第33-34页 |
3.4 实验仿真 | 第34-46页 |
3.4.1 特征提取 | 第34-37页 |
3.4.2 融合模型建立 | 第37页 |
3.4.3 语音信号提取 | 第37-46页 |
3.5 小结 | 第46-47页 |
第4章 结论与展望 | 第47-49页 |
4.1 本文工作总结 | 第47页 |
4.2 展望 | 第47-49页 |
致谢 | 第49-50页 |
参考文献 | 第50-52页 |