基于卷积神经网络的连续语音识别算法研究
摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第11-18页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-15页 |
1.2.1 语音识别研究现状 | 第12-13页 |
1.2.2 声学模型 | 第13-14页 |
1.2.3 训练方法 | 第14-15页 |
1.3 论文主要研究内容 | 第15-16页 |
1.4 论文的组织结构 | 第16-18页 |
第二章 相关理论 | 第18-29页 |
2.1 语音识别常用方法 | 第18-19页 |
2.2 语音预处理 | 第19-21页 |
2.2.1 预加重 | 第19页 |
2.2.2 分帧加窗 | 第19-20页 |
2.2.3 端点检测 | 第20-21页 |
2.3 卷积神经网络的工作原理 | 第21-23页 |
2.4 基于卷积神经网络的参数训练准则 | 第23-28页 |
2.4.1 BP训练算法 | 第24页 |
2.4.2 基于CNN的前向传播算法 | 第24-25页 |
2.4.3 基于CNN的误差反向传播算法 | 第25-28页 |
2.5 本章小结 | 第28-29页 |
第三章 语音端点检测 | 第29-42页 |
3.1 问题分析 | 第29-30页 |
3.2 差异性数据集加噪处理 | 第30页 |
3.3 增强短时能量的双门限端点检测法 | 第30-37页 |
3.3.1 短时能量属性特征 | 第32-33页 |
3.3.2 自相关函数余弦角值属性特征 | 第33-35页 |
3.3.3 增强语音短时能量 | 第35-37页 |
3.4 实验及结果分析 | 第37-40页 |
3.5 本章小结 | 第40-42页 |
第四章 基于卷积神经网络的反向传播算法改进 | 第42-55页 |
4.1 训练算法的效率问题 | 第42-43页 |
4.2 复杂卷积神经网络下NWBP算法 | 第43-49页 |
4.2.1 可变学习速率反向传播算法 | 第44-46页 |
4.2.2 利用K-means算法原理获取种子点 | 第46-48页 |
4.2.3 缩小误差范围的算法原理 | 第48-49页 |
4.3 实验环境和实验数据 | 第49-51页 |
4.4 实验结果与分析 | 第51-54页 |
4.4.1 简单BP神经网络 | 第51-52页 |
4.4.2 复杂卷积神经网络 | 第52-54页 |
4.5 本章小结 | 第54-55页 |
第五章 语音识别原型系统 | 第55-71页 |
5.1 原型系统分析 | 第55-61页 |
5.1.1 系统功能 | 第55-56页 |
5.1.2 关键类设计 | 第56-59页 |
5.1.3 语音识别流程 | 第59-61页 |
5.2 语音识别实现 | 第61-68页 |
5.2.1 语音音素标记 | 第62-63页 |
5.2.2 实验数据集预处理 | 第63-64页 |
5.2.3 声学模型结构设计 | 第64-67页 |
5.2.4 训练算法 | 第67页 |
5.2.5 N-Gram语言模型 | 第67-68页 |
5.2.6 解码器和Viterbi搜索算法 | 第68页 |
5.3 实验结果与分析 | 第68-70页 |
5.4 本章小结 | 第70-71页 |
第六章 总结与展望 | 第71-73页 |
6.1 总结 | 第71-72页 |
6.2 展望 | 第72-73页 |
参考文献 | 第73-77页 |
致谢 | 第77-78页 |
攻读硕士期间发表的学术论文及科研成果 | 第78页 |