基于深度学习的语音识别及其交互应用研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第14-19页 |
1.1 语音识别的发展与现状 | 第14-15页 |
1.2 语音交互的国内外研究现状 | 第15-16页 |
1.3 深度学习对语音识别的意义 | 第16-17页 |
1.4 研究内容 | 第17页 |
1.5 论文结构 | 第17-19页 |
第2章 语音识别基础理论 | 第19-28页 |
2.1 语音识别原理 | 第19-20页 |
2.2 语音特征提取 | 第20-21页 |
2.2.1 线性预测参数(LPC) | 第20页 |
2.2.2 线性预测倒谱系数(LPCC) | 第20-21页 |
2.2.3 Mel频率倒谱系数(MFCC) | 第21页 |
2.3 声学模型 | 第21-24页 |
2.3.1 声学基元选取 | 第22页 |
2.3.2 基于HMM声学建模 | 第22-24页 |
2.3.3 声学模型训练 | 第24页 |
2.4 语言模型 | 第24-26页 |
2.4.1 语言模型类别 | 第25-26页 |
2.4.2 语言模型性能评价 | 第26页 |
2.5 解码器介绍 | 第26页 |
2.6 传统语音识别技术的缺陷 | 第26-27页 |
2.7 本章小结 | 第27-28页 |
第3章 基于深度学习与HMM的语音识别 | 第28-43页 |
3.1 深度学习模型类别 | 第28-31页 |
3.1.1 自动编码器 | 第28-29页 |
3.1.2 深度神经网络 | 第29-30页 |
3.1.3 深度卷积网络 | 第30-31页 |
3.1.4 递归神经网络 | 第31页 |
3.2 深度学习的模型构成 | 第31-37页 |
3.2.1 网络节点 | 第32-33页 |
3.2.2 限制波尔兹曼机 | 第33-34页 |
3.2.3 深度信念网络 | 第34-35页 |
3.2.4 卷积神经网络 | 第35-37页 |
3.3 网络训练算法 | 第37-39页 |
3.3.1 无监督预训练 | 第37页 |
3.3.2 反向传播 | 第37-39页 |
3.4 DNN-HMM模型 | 第39-42页 |
3.4.1 DNN-HMM模型理论分析 | 第39-40页 |
3.4.2 构建DNN-HMM模型 | 第40-41页 |
3.4.3 实验结果与分析 | 第41-42页 |
3.5 本章小结 | 第42-43页 |
第4章 端到端语音识别模型构建与实现 | 第43-63页 |
4.1 实验环境 | 第43页 |
4.2 TensorFlow用于识别的实现过程 | 第43-45页 |
4.3 LSTM网络实现 | 第45-51页 |
4.3.1 循环神经网络结构 | 第46-47页 |
4.3.2 LSTM结构 | 第47-48页 |
4.3.3 LSTM前向传播与反向传播 | 第48-49页 |
4.3.4 LSTM代码实现 | 第49-51页 |
4.4 LSTM-CTC | 第51-55页 |
4.4.1 CTC用于语音识别的特点 | 第51-52页 |
4.4.2 CTC中前后向算法 | 第52页 |
4.4.3 CTC的训练 | 第52-53页 |
4.4.4 CTC实现 | 第53-54页 |
4.4.5 LSTM-CTC代码实现 | 第54-55页 |
4.5 用于语言识别的生成模型 | 第55-62页 |
4.5.1 PixelRNN推导 | 第55-57页 |
4.5.2 PixelCNN计算过程 | 第57-59页 |
4.5.3 PixelCNN与CTC模型代码实现 | 第59-60页 |
4.5.4 模型训练与结果分析 | 第60-62页 |
4.6 本章小结 | 第62-63页 |
第5章 语音交互中命令执行技术的实现 | 第63-72页 |
5.1 关键字提取 | 第63-66页 |
5.1.1 TF-IDF | 第63-64页 |
5.1.2 Topic-Model | 第64页 |
5.1.3 Textrank | 第64-65页 |
5.1.4 RAKE | 第65页 |
5.1.5 RAKE代码实现 | 第65-66页 |
5.2 交互应用验证 | 第66-70页 |
5.3 实验结果分析 | 第70-71页 |
5.4 本章小结 | 第71-72页 |
总结与展望 | 第72-74页 |
参考文献 | 第74-78页 |
致谢 | 第78-79页 |
附录A LSTM-CTC代码 | 第79-83页 |
附录B 关键字匹配文本(部分) | 第83-84页 |
附录C 控制台主要操作函数 | 第84页 |