摘要 | 第4-5页 |
abstract | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 机器人带噪语音识别现状 | 第10-12页 |
1.2.1 语音增强技术的研究现状 | 第10-11页 |
1.2.2 音视频融合技术的研究现状 | 第11-12页 |
1.2.3 三维数据在语音识别中的应用 | 第12页 |
1.3 论文主要工作及贡献 | 第12-14页 |
1.4 论文章节安排 | 第14-15页 |
第2章 数据采集 | 第15-25页 |
2.1 采集平台机器人NAO | 第15-17页 |
2.2 采集工具Kinect | 第17-21页 |
2.2.1 硬件组成 | 第18页 |
2.2.2 工作原理 | 第18-19页 |
2.2.3 深度数据 | 第19-21页 |
2.3 语料库 | 第21-23页 |
2.3.1 语料库设计 | 第21-22页 |
2.3.2 语料库采集 | 第22-23页 |
2.4 数据预处理 | 第23-25页 |
2.4.1 数据分割 | 第23-24页 |
2.4.2 音频标注 | 第24-25页 |
第3章 唇区定位和侧唇重构 | 第25-30页 |
3.1 基于Kinect坐标转换的唇区定位 | 第25-27页 |
3.1.1 Kinect坐标转换 | 第25-26页 |
3.1.2 嘴唇区域投影定位 | 第26-27页 |
3.2 3D数据重构侧唇 | 第27-30页 |
第4章 特征提取 | 第30-36页 |
4.1 图像信息的特征提取 | 第30-33页 |
4.1.1 DCT和PCA相结合方法 | 第30-32页 |
4.1.2 线性插值匹配方法 | 第32页 |
4.1.3 归一化 | 第32页 |
4.1.4 基于帧间距离的动态特征提取 | 第32-33页 |
4.2 音频特征提取 | 第33-36页 |
第5章 基于多流HMM的音视频信息融合方法 | 第36-48页 |
5.1 HMM模型 | 第36-45页 |
5.1.1 HMM的原理 | 第36-37页 |
5.1.2 HMM的结构 | 第37-38页 |
5.1.3 HMM的应用算法 | 第38-39页 |
5.1.4 孤立词语音识别模型 | 第39-45页 |
5.2 特征融合策略 | 第45-46页 |
5.3 决策融合策略 | 第46-48页 |
第6章 实验结果及分析 | 第48-55页 |
6.1 实验条件 | 第48-49页 |
6.2 重构侧唇的实验结果 | 第49页 |
6.3 深度信息辅助视觉信息的实验结果及分析 | 第49-50页 |
6.4 深度信息辅助音视频语音识别的实验结果及分析 | 第50-55页 |
6.4.1 基于特征融合的实验结果及分析 | 第50-52页 |
6.4.2 基于决策融合的实验结果及分析 | 第52-55页 |
第7章 总结与展望 | 第55-57页 |
7.1 研究总结 | 第55页 |
7.2 后续工作展望 | 第55-57页 |
参考文献 | 第57-61页 |
发表论文和参加科研情况说明 | 第61-62页 |
致谢 | 第62-63页 |