| 摘要 | 第3-4页 |
| ABSTRACT | 第4页 |
| 目录 | 第5-7页 |
| 第1章 绪论 | 第7-11页 |
| 1.1 课题背景及意义 | 第7-8页 |
| 1.2 视听觉信息融合模型及语音信号提取的研究现状 | 第8-9页 |
| 1.3 论文的主要工作及内容安排 | 第9-11页 |
| 第2章 视听觉融合模型 | 第11-27页 |
| 2.1 视听觉融合模型的选取 | 第11-17页 |
| 2.1.1 参数模型 | 第12-15页 |
| 2.1.2 非参数模型 | 第15-17页 |
| 2.2 语音信号特征选取 | 第17-22页 |
| 2.2.1 语音信号前端处理 | 第18-19页 |
| 2.2.2 线性预测倒谱系数LPCC | 第19-20页 |
| 2.2.3 梅尔倒谱系数MFCC | 第20-22页 |
| 2.3 基于空间位置信息的视觉特征 | 第22-24页 |
| 2.4 时间延迟的估计算法 | 第24-26页 |
| 2.4.1 广义互相关函数(GCC)法 | 第24-25页 |
| 2.4.2 最小均方(LMS)自适应滤波器法 | 第25页 |
| 2.4.3 互功率谱相位(CSP)法 | 第25-26页 |
| 2.5 小结 | 第26-27页 |
| 第3章 视听觉融合模型的建立及语音信号提取 | 第27-47页 |
| 3.1 模型参数的估计 | 第27-29页 |
| 3.2 基于视听觉信息融合模型的语音信号提取方法 | 第29-33页 |
| 3.2.1 语音信号提取算法模型 | 第29-30页 |
| 3.2.2 语音信号提取算法步骤 | 第30-33页 |
| 3.3 实验设计与说明 | 第33-34页 |
| 3.4 实验仿真 | 第34-46页 |
| 3.4.1 特征提取 | 第34-37页 |
| 3.4.2 融合模型建立 | 第37页 |
| 3.4.3 语音信号提取 | 第37-46页 |
| 3.5 小结 | 第46-47页 |
| 第4章 结论与展望 | 第47-49页 |
| 4.1 本文工作总结 | 第47页 |
| 4.2 展望 | 第47-49页 |
| 致谢 | 第49-50页 |
| 参考文献 | 第50-52页 |