语音识别中深度神经网络模型的研究与实现
摘要 | 第5-6页 |
Abstract | 第6页 |
第1章 绪论 | 第9-12页 |
1.1 课题背景及意义 | 第9页 |
1.2 国内外研究现状 | 第9-10页 |
1.3 语音识别技术的难点 | 第10-11页 |
1.4 论文的研究内容和组织结构 | 第11-12页 |
第2章 语音识别技术基础理论 | 第12-23页 |
2.1 识别系统的基本结构 | 第12页 |
2.2 语音信号的预处理 | 第12-15页 |
2.2.1 信号的预加重 | 第13页 |
2.2.2 信号的加窗分帧 | 第13-14页 |
2.2.3 信号的端点检测 | 第14-15页 |
2.3 语音识别特征提取 | 第15-16页 |
2.3.1 线性预测系数(LPC) | 第15页 |
2.3.2 线性预测倒谱系数(LPCC) | 第15-16页 |
2.3.3 梅尔频率倒谱系数(MFCC) | 第16页 |
2.4 隐马尔科夫(HMM)声学模型 | 第16-19页 |
2.5 语言模型 | 第19-21页 |
2.5.1 语言模型的类别 | 第20-21页 |
2.5.2 语言模型性能评价 | 第21页 |
2.6 语音解码与搜索算法 | 第21页 |
2.7 本章小结 | 第21-23页 |
第3章 神经网络模型 | 第23-34页 |
3.1 神经网络 | 第23-26页 |
3.1.1 神经元 | 第23-25页 |
3.1.2 神经网络的学习方式 | 第25-26页 |
3.2 反向传播算法 | 第26-28页 |
3.2.1 反向传播算法基本思想 | 第26-28页 |
3.2.2 反向传播算法的优缺点 | 第28页 |
3.3 深度神经网络发展背景 | 第28-29页 |
3.4 深度神经网络预训练技术 | 第29-33页 |
3.4.1 自编码器 | 第29-30页 |
3.4.2 受限玻尔兹曼机 | 第30-32页 |
3.4.3 深度置信网络 | 第32-33页 |
3.5 本章小结 | 第33-34页 |
第4章 语音人机交互模型的研究 | 第34-52页 |
4.1 实验环境 | 第34页 |
4.2 深度神经网络(DNN)算法 | 第34-38页 |
4.2.1 损失函数的比较 | 第35-36页 |
4.2.2 正则化 | 第36-37页 |
4.2.3 DNN-HMM模型 | 第37-38页 |
4.3 sigmoid DNN声学模型研究 | 第38-41页 |
4.3.1 dropout技术 | 第38-39页 |
4.3.2 dropout在预训练中的应用 | 第39-40页 |
4.3.3 减少隐含层神经元的网络结构 | 第40-41页 |
4.4 RL-DNN声学模型研究 | 第41-43页 |
4.4.1 ReLU激活函数 | 第41页 |
4.4.2 Softmax函数 | 第41-43页 |
4.4.3 RL-DNN训练 | 第43页 |
4.5 深度卷积神经网络 | 第43-51页 |
4.5.1 卷积层 | 第44页 |
4.5.2 池化层 | 第44-45页 |
4.5.3 卷积神经网络的实现 | 第45-51页 |
4.6 本章小结 | 第51-52页 |
第5章 语音人机交互模型的实现 | 第52-59页 |
5.1 识别的实现过程 | 第52-53页 |
5.1.1 数据库分析 | 第52-53页 |
5.1.2 数据预处理 | 第53页 |
5.2 模型训练和结果分析 | 第53-58页 |
5.3 本章小结 | 第58-59页 |
总结与展望 | 第59-61页 |
参考文献 | 第61-65页 |
致谢 | 第65页 |