用于无声语音接口的超声图像分析
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第9-17页 |
1.1 研究背景及意义 | 第9-11页 |
1.1.1 研究背景 | 第9-10页 |
1.1.2 研究意义 | 第10-11页 |
1.2 研究现状 | 第11-14页 |
1.2.1 无声语音接口 | 第11-12页 |
1.2.2 舌部信息采集和提取 | 第12-14页 |
1.3 论文主要工作及贡献 | 第14-15页 |
1.3.1 搭建数据采集系统 | 第14-15页 |
1.3.2 建立基于超声的中文语料库 | 第15页 |
1.3.3 超声图像分析方法 | 第15页 |
1.4 论文章节安排 | 第15-17页 |
第2章 数据采集 | 第17-23页 |
2.1 数据采集系统 | 第17-21页 |
2.1.1 超声采集系统 | 第18-19页 |
2.1.2 视频采集系统 | 第19-21页 |
2.2 数据同步 | 第21页 |
2.3 语料库设计 | 第21-22页 |
2.4 数据预处理 | 第22-23页 |
第3章 经典超声图像特征提取方法 | 第23-29页 |
3.1 主成分分析法 | 第23-25页 |
3.1.1 主成分分析用于超声图像的操作步骤 | 第23-24页 |
3.1.2 主成分分析的作用 | 第24-25页 |
3.2 离散余弦变换法 | 第25-29页 |
3.2.1 离散余弦变换用于超声图像的操作步骤 | 第25-26页 |
3.2.2 离散余弦变换的作用 | 第26-29页 |
第4章 超声图像分析方法 | 第29-41页 |
4.1 混合特征提取方法 | 第29-35页 |
4.1.1 HWT-PCA | 第29-32页 |
4.1.2 分块DCT-PCA | 第32-34页 |
4.1.3 分块WT-PCA | 第34-35页 |
4.2 DCT和LBP特征融合 | 第35-39页 |
4.2.1 LBP | 第35-38页 |
4.2.2 特征融合方法 | 第38-39页 |
4.3 视觉特征后期处理 | 第39-41页 |
4.3.1 归一化 | 第39页 |
4.3.2 获取动态信息 | 第39-41页 |
第5章 隐马尔科夫模型识别 | 第41-49页 |
5.1 隐马尔科夫模型的基本元素 | 第41-42页 |
5.2 隐马尔科夫模型的基本算法 | 第42-45页 |
5.2.1 前向-后向算法 | 第42-43页 |
5.2.2 维特比算法 | 第43-44页 |
5.2.3 Baum-Welch算法 | 第44-45页 |
5.3 使用隐马尔科夫模型进行连续语音识别 | 第45-49页 |
5.3.1 分词处理 | 第45-47页 |
5.3.2 语音标注 | 第47-49页 |
第6章 实验结果及分析 | 第49-57页 |
6.1 实验条件 | 第49页 |
6.2 经典超声图像特征提取方法实验结果 | 第49-50页 |
6.3 混合特征提取方法的实验结果 | 第50-54页 |
6.4 特征融合方法的实验结果 | 第54-57页 |
第7章 总结与展望 | 第57-59页 |
7.1 研究总结 | 第57页 |
7.2 后续工作展望 | 第57-59页 |
参考文献 | 第59-64页 |
发表论文和参加科研情况说明 | 第64-65页 |
致谢 | 第65-66页 |