汉语语音识别中语言模型的并行优化
摘要 | 第1-4页 |
Abstract | 第4-8页 |
第1章 引言 | 第8-15页 |
·语音识别技术概述 | 第8-12页 |
·语音识别技术发展历史回顾 | 第8-9页 |
·语音识别技术的关键问题 | 第9-12页 |
·语音识别中的语言模型 | 第12-13页 |
·研究语言模型的背景与意义 | 第12页 |
·研究语言模型优化处理的必要性 | 第12-13页 |
·优化语言模型存在的困难和挑战 | 第13页 |
·论文章节安排 | 第13-15页 |
第2章 语音识别的分层策略 | 第15-21页 |
·语音识别的分层识别策略 | 第15-20页 |
·语音识别系统框架 | 第15-16页 |
·实验所用语音识别系统框架 | 第16-18页 |
·语音识别系统分层策略 | 第18-20页 |
·本章小节 | 第20-21页 |
第3章 语言模型和其中的计算优化 | 第21-31页 |
·N 元语言模型 | 第21-22页 |
·经典N-gram 模型简介 | 第21-22页 |
·现存N 元语言模型的改进方法 | 第22-24页 |
·N 元语言模型的计算优化 | 第24-28页 |
·N 元语言模型中的数据稀疏问题和线性插值方法 | 第24-25页 |
·Trigram 快速查找的数据模型 | 第25-26页 |
·缓存优化N 元语言模型 | 第26-28页 |
·实验结果 | 第28页 |
·实验设置 | 第28页 |
·实验结果 | 第28页 |
·其他计算优化 | 第28-31页 |
第4章 语言模型中的并行优化 | 第31-40页 |
·本章引论 | 第31页 |
·实验中所用到的评价参数 | 第31-32页 |
·语言模型处理所用时间 | 第31页 |
·语言模型的实时率 | 第31-32页 |
·正确率 | 第32页 |
·N 元拼音文法的候选选择算法 | 第32-35页 |
·N 元拼音文法的候选选择算法简介 | 第32-35页 |
·语音模型中前向和后向算法并行优化 | 第35-37页 |
·前向和后向算法并行 | 第35-36页 |
·实验设置 | 第36页 |
·实验结果 | 第36-37页 |
·在多核平台上的数据并行优化 | 第37-39页 |
·将不同长度的候选序列处理过程并行 | 第37-38页 |
·并行处理中内存和CPU 的分配 | 第38-39页 |
·实验设置 | 第39页 |
·实验结果 | 第39页 |
·本章小节 | 第39-40页 |
第5章 结论和展望 | 第40-42页 |
·论文结论 | 第40-41页 |
·可进一步开展的工作 | 第41-42页 |
参考文献 | 第42-44页 |
致谢 | 第44-45页 |
个人简历、在学期间发表的学术论文与研究成果 | 第45页 |